81
생성형 AI, 어디까지 왔는가 (1) 기본 개념과 개발 현황
A.I.C.E. 세미나 : AI시대에 인간에게 필요한 역량은 무엇인가 - 김재경 LAB2050 연구원 세션 AI는 정말 위험한가? 전세계에서 가장 빠르게, 단 두 달만에 1억명의 유저를 모은 ChatGPT의 등장을 필두로 ‘AI 시대’가 막을 열었다. ChatGPT를 비롯한 여러 생성형 AI는 놀라울 정도로 높은 수준의 텍스트나 이미지 등을 생성하며 인간이 여러 가지 일을 하는데 큰 도움을 줄 수 있을 것으로 보이지만, 동시에 그 역량으로 인해 여러 일자리가 사라지는 게 아닌가 하는 우려도 낳고 있다.  이런 혼란스러운 시점에 우리가 해야 할 일은  생성형 AI가 현재와 미래에 무엇을 할 수 있는지, 이로 인해 어떤 문제들이 발생할지 알아보고 개인과 사회가 대비하는 것이다. 노벨이 발명한 다이너마이트는 사람을 죽일 정도로 강력하지만, 사용자들의 의지에 따라 광산 작업이나 터널 건설 등 산업적인 용도로 쓰일 수 있다. 원자력 역시 폭탄으로 쓰이거나 발전 과정에서 문제가 발생하면 많은 사람들에게 피해를 주지만, 안전하게 사용하면 에너지를 얻을 수 있다.  AI 역시 결국 인간이 사용하기 나름인 ‘과학 기술’이다. 우리에게 이롭게 활용하기 위해선 우선 원리와 개념부터 알 필요가 있다.  1-1.생성형 AI관련 원리 및 개념 소개 *ChatGPT와의 문답을 바탕으로 작성함. 생성형 AI의 작동 원리를 이해하기 위해 필요한 다섯 개념에 대한 설명을 ChatGPT에게 묻고, 그 대답에 대한 간단한 설명을 덧붙이고자 한다. - 데이터세트(Data Set): 데이터세트는 AI가 학습하는 데 사용하는 데이터의 모음입니다. 이는 종종 특정 주제나 분야에 관한 정보를 포함하고 있습니다. 예를 들어, AI가 영어 문장을 생성하는 방법을 배우려면, 그 학습에는 수많은 영어 문장들이 포함된 데이터세트가 필요합니다. 이 데이터세트는 소설, 뉴스 기사, 웹페이지, 사전 등 다양한 출처에서 모은 문장들일 수 있습니다.(ChatGPT의 답변) -> 우선, 생성형 AI는 기본적으로 인간이 만든 데이터를 학습해야 한다. 텍스트를 생성하기 위해서는 인간들이 텍스트를 어떻게 쓰는지를 보아야 하고, 이미지를 생성하기 위해서는 어떤 그림을 그려야 하는지 보아야 한다. 생성형 AI가 학습을 위해 본 데이터들을 ‘데이터세트’라고 할 수 있다. 하지만 기업들이 생성형 AI를 학습시키기 위해 AI기업조차 어떤 데이터를 학습시켰는지 모를 정도로 무분별하게 데이터들을 학습시키기 때문에, 저작권 문제 등 여러 문제가 발생하기도 한다. -매개 변수(Parameters): 매개 변수는 AI가 학습하는 동안 조정되는 값들입니다. AI는 이 매개 변수들을 조정함으로써 데이터세트에서 가장 일반적인 패턴이나 규칙을 찾아냅니다. 예를 들어, AI가 문장을 생성하는 과정에서 "I am" 다음에 "happy"가 오는 것이 "sad"가 오는 것보다 일반적이라는 패턴을 학습했다면, 이는 매개 변수를 통해 학습된 정보입니다.(ChatGPT의 답변) -> 생성형AI가 인간이 쓴 글이나 그린 그림들을 보고 패턴이나 규칙을 ‘매개 변수’ 형태로 저장한다. 예시를 들면, ‘오늘의 점심밥으로 뭘 먹을까?’이라는 질문 뒤에는 ‘슬리퍼’,’원피스’보다 ‘돈까스’,’제육덮밥’같은 단어가 더 올 확률이 높다. 생성형 AI는 데이터세트에서 가장 일반적인 패턴이나 규칙, 즉 인간의 질문(프롬프트)에 확률적으로 가장 알맞은 대답을 출력한다. 이는 뒤에 이야기할 ‘환각 현상’이 일어나는 원인이기도 하다.   -학습(Learning): 학습은 AI가 데이터세트에서 패턴을 찾아내고 그 패턴에 따라 매개 변수를 조정하는 과정을 말합니다. 이 과정은 대부분의 AI 시스템에서 중요한 단계입니다. AI는 이 학습 과정을 통해 복잡한 문제를 해결하거나 예측을 수행하는 능력을 얻습니다.(ChatGPT의 답변) -확률(Probability): 확률은 특정 사건이 발생할 가능성을 수치로 표현하는 것입니다. 확률은 0부터 1 사이의 값으로, 0은 사건이 절대 일어나지 않을 것이라는 확신을, 1은 사건이 반드시 일어날 것이라는 확신을 의미합니다. 생성형 AI는 보통 다음에 어떤 단어가 올 가능성이 가장 높은지를 확률로 계산하여 문장을 생성합니다.(ChatGPT의 답변) -환각현상(Hallucination): "환각현상"은 AI가 학습 데이터에 없는 정보나 패턴을 '창조'하는 현상을 말합니다. 이는 AI가 학습 데이터에 기반한 '추측'을 하기 때문에 발생하는데, 때때로 이 추측이 현실과는 맞지 않는 결과를 초래할 수 있습니다. 예를 들어, AI가 '빨간색 바나나' 같은 실제로 존재하지 않는 것을 '창조'할 수 있는데, 이는 학습 데이터에 바나나의 색깔에 대한 충분한 정보가 없거나, 색깔과 바나나 사이의 관계에 대한 학습이 부족하기 때문입니다. 이처럼 환각현상은 AI의 출력이 현실과 맞지 않게 되는 경우를 가리킵니다.(ChatGPT의 답변) -> 생성형AI 관련 밈으로 유명했던 ‘세종대왕 맥북 던짐 사건’이 바로 이 환각 현상의 대표적인 예시다. ‘조선왕조실록에 기록된 세종대왕 맥북 던짐 사건을 알려줘’라는 질문에 ChatGPT-3.5는 실제 있는 사건마냥 대답을 하였다. 생성형 AI가 일부러 거짓말을 한 것은 당연히 아니고, 우리가 앞서 작동 원리를 보았듯이 ‘생성형 AI의 역량 내에서 가장 확률이 높다고 추측되는 대답’을 했기 때문이다.   하지만 같은 질문을 해도 ChatGPT4에서는 그런 사건이 없다고 대답하는데서 알 수 있듯이, 환각 현상은 생성형 AI)의 발전을 통해(챗봇의 경우, 언어 모델 등의 발전도 포함) 없애거나 줄일 수 있다. 위의 다섯 가지 개념을 기반으로 생성형 AI의 작동 원리를 다이어그램으로 나타내면 다음과 같다. 다이어그램 역시 ChatGPT4의 플러그인을 사용하여 만들고 조정했다(플러그인에 대한 내용은 뒤에 바로 소개한다).  1-2. 생성형 AI의 날개 : 프롬프트와 플러그인 앞서 생성형 AI의 개념과 원리를 소개할 때, ‘프롬프트’라는 개념과 ‘플러그인’이라는 개념이 등장했다. 이 두 가지는 생성형 AI에 대해 이해할 때 아주 중요한 개념으로, 앞으로 생성형 AI가 우리 삶에 점점 더 스며들수록 더 자주 접하게 될 단어들이기도 하다. 이 두 가지가 무엇인지, 이번에도 ChatGPT4의 요약으로 우선 살펴보고, 각각에 대한 설명을 이어나가도록 해 보겠다. -프롬프트(Prompt): 생성형 AI에서 프롬프트는 AI가 반응하거나 답변을 생성하기 위한 입력 또는 질문입니다. 프롬프트는 주로 사용자가 AI에게 주는 명령이나 질문의 형태를 띕니다. 예를 들어, "오늘 날씨는 어떻게 될까?" 또는 "피자 만드는 법 알려줘" 등이 프롬프트의 예가 될 수 있습니다.(ChatGPT의 답변) -> 프롬프트는 ChatGPT4의 대답만 놓고 보자면 아주 단순해보인다. 하지만 ‘질문’이 무엇인가에 따라 생성형 AI의 응답은 크게 바뀌는데, 이는 ‘생성형 AI, 어디까지 왔는가(2)’에서 더 자세히 다루고자 한다. -플러그인(Plugin): 플러그인은 AI의 기능을 확장하거나 특정 작업에 대한 AI의 능력을 향상시키는 도구입니다. 플러그인은 AI의 학습 데이터나 알고리즘에 직접적인 변화를 주지 않지만, AI가 특정 작업을 처리하는 방법을 변형하거나 확장시키는 역할을 합니다.(ChatGPT의 답변) -> 생성형 AI의 플러그인은, 쉽게 말하면 스마트폰의 앱과 같다. 예를 들어, GPT-4에는 유튜브 영상의 소리를 해석하는 능력이 없다. 하지만 여러 가지 GPT-4의 플러그인에서는 동영상(유튜브 등)의 소리를 텍스트로 바꾸어, GPT-4가 요약할 수 있도록 도와준다. 이외에도 앞서 생성형 AI의 작동 원리를 다이어그램으로 그릴 때, GPT-4 플러그인인 ‘Show Me Diagrams’를 이용했다.  2. 생성형 AI 현황 ‘AI 시대’라는 말이 과언이 아닐 정도로, AI와 관련된 새로운 소식은 하루를 마다하고 쏟아지듯이 나오고 있다. 그만큼 생성형 AI는 빠르게 발전하고 있다. 그래서 생성형 AI를 다룰 때는 지금까지의 개발 현황을 구체적으로 정리하는 것보다, 원리와 개념을 파악하고 이를 바탕으로 최신 뉴스를 살피며 앞으로 다가올 변화에 대해 살펴보는 것이 더 유용하다. 2023년 6월 27일을 기준으로, 흥미로운 몇 가지 소식을 전하고자 한다. -오픈AI, AI 모델용 ‘앱 스토어’ 구축한다 현재 GPT-4에는 스마트폰의 앱과 비슷한 기능을 하는 ‘플러그인’이 이미 상용화되어 있다. 하지만 보다 더 많은 이용자에게 OpenAI의 AI 모델을 서비스하고자 한다면 독자적인 앱 스토어 구축은 큰 경쟁력이 될 수 있다. 애플의 앱 스토어 런칭을 생각하면 자체적 앱 스토어 구축이 가지는 영향력을 상상하기 쉬울 것이다. OpenAI가 통제 가능한 생태계 구축을 통해 차별화된 사용자 경험을 제공하고, 이것이 시장을 선도하고 수익을 창출하는 계기가 될 수 있다. -"LLM으로 돈 버세요" 메타의 완전 오픈소스 전략 생성형 AI 시장에서 Meta는 일찍이 ‘오픈 소스’로 언어 모델을 공개하며 시장에서의 점유율을 높여 OpenAI, Google과 경쟁하고자 하였다. 실제로 위 이미지가 보여주듯이, Meta의 LLaMA(라마)를 기반으로 발전한 Vicuna가 구글의 바드와 비등한 성능을 보여준다는 평가까지 받았다. 하지만 기존에는 상업적 이용을 허가하지 않고 연구 목적으로만 허가하였는데, 다음에 내놓을 메타의 언어 모델은 상업적으로도 이용이 가능하다. Meta의 생성형 AI 오픈 소스화 행보는 기대와 우려를 동시에 낳고 있다. -국내 생성형 AI 포탈 뤼튼의 행보  국내 AI 개발 소식 중에서 독자들에게 가장 먼저 소개하고 싶은 현황은 생성형 AI 포털 서비스인 ‘뤼튼’이다. 지금까지 무료로 사용 가능한 뤼튼에서는 이미 GPT-4를 통한 채팅, 스태빌리티AI를 통한 이미지 생성 등을 지원하며, 마케팅 문구 등을 복잡한 프롬프트 없이 만들어주는 등의 서비스를 제공한다. 뿐만 아니라 조만간 GPT-4와 같은 플러그인 서비스를 국내 사용자에 맞춰 제공할 예정으로, 국내 사용자가 AI를 쉽고 유용하게 쓸 수 있는 AI서비스가 되지 않을까 싶다. -네이버 AI 챗봇 이름은 '큐:'...다음달 베타 테스트 실시 네이버가 OpenAI의 ChatGPT에 대응하는 AI 챗봇 서비스인 ‘CUE:’의 베타 서비스를 7월에 시작하기로 발표하였다. 네이버는 이전부터 네이버의 언어 모델인 ‘하이퍼클로바X’의 장점을, ChatGPT보다 ‘한국에 특화된 모델’, ‘환각현상이 적은 모델’로 내세웠다. 한국형 AI의 개발과 비전에 대해 많은 채널을 통해 알려왔던 네이버인 만큼, 실제 공개한 서비스가 어떤 성능을 보여줄지, 네이버 자체 서비스를 포함하여 국내의 얼마나 다양한 서비스와 연계할 수 있는 AI를 내놓을지 궁금하다. 지금까지 AI의 기본 개념과 개발 현황에 대해 간단히 알아보았다. ‘생성형 AI, 어디까지 왔는가(2)’에서는 직접 만든 AI 영상의 개발 과정을 중심으로, 현재 생성형 AI의 역량에 대해 살펴보겠다.  [AI시대에 인간에게 필요한 역량은 무엇인가]세미나 모아보기 1. 생성형 AI, 어디까지 왔는가 (1)기본 개념과 개발 현황 / 김재경 LAB2050 연구원 2. 생성형 AI, 어디까지 왔는가 (2)생성형 AI의 역량과 인간과의 충돌 / 김재경 LAB2050 연구원 3. AI 시대, 더 놀고, 더 사랑하고, 더 배우라 / 반가운 한국직업능력연구원 선임연구위원
인공지능
·
2
·
esc
368
AI 윤리 포럼은 어떤 이야기를 담았나
2023년 4월 22일 ESC에서 개최한 인공지능 윤리포럼 'ChatGPT 활용 그 너머를 묻다!' 을 요약 정리한 글입니다. 작성자: 이현옥 (강원대학교 자유전공학부 교수, ESC 인공지능 윤리포럼 사회자, ESC 회원) ESC 인공지능 윤리포럼 'ChatGPT 활용 그 너머를 묻다' 요약 정리사단법인 변화를 꿈꾸는 과학기술인 네트워크(Engineers and Scientists for Change, 이하 ESC, 대표 김찬현)는 'Chat GPT 활용 그 너머를 묻다'라는 제목으로 인공지능 윤리 포럼을 개최하였다. 1부 'Chat GPT 배경과 현안'에서 IT 전문가이자 SF 작가 전윤호가 Chat GPT에 대한 공학적 기초개념을 설명하였고, 임팩트 벤처 캐피털 회사인 옐로우독 파트너 유재연이 AI를 둘러싼 윤리적 쟁점을 소개하였다. 2부 'Chat GPT와 현장'에서는 다양한 분야 및 현장에서 생성형 AI를 직접 경험하고 있는 연사들이 관련 쟁점에 대한 의견을 제시하였다. 교육현장은 부산교육정책연구소 연구위원 박영민이 맡았고, IT 산업현장에 대한 소개는 업스테이지 데이터 리더로 활동하고 있는 한지윤이 하였다. 연구개발 현장에 대한 논의는 성균관대학교 교수 원병묵, 그리고 예술문학 현장은 주식회사 페블러스 대표인 이주행이 담당하였다. 생성형 AI 기술이 가져올 변화를 빠르게 감지한 시민들은 강연장을 꽉채웠고, 다음과 같은 논의를 집중하여 들었다. 이어진 토론시간에 다양한 질문을 하며 시민으로서 인공지능의 발전과 윤리에 대한 고민을 함께 나누었다. @ 인공지능 윤리포럼 종합 토론 1부:  ChatGPT 배경과 현안  ChatGPT와 거대언어모델의 이해 ChatGPT 같은 거대언어모델(LLM)의 원리는 단순하다. 텍스트 자료를 학습시켜 컴퓨터가 확률적으로 다음 단어를 예측하게 하는 것이다. 그저 다음 단어를 추측하여 제시하는 방식은 별로 놀라울 것 없는 결과를 보여주다 데이터가 일정 수준을 넘어가면서 성능이 급격하게 향상된다. 방대한 양의 데이터 즉, ‘거대’한 모델이 되면 상식적인 질문에 쉽게 답할뿐 아니라 복잡한 명령에 적절히 반응하고 전문지식까지 섭렵하여 설명을 해주기도 한다. 관련 전문가는 이를 ‘신비로운 창발적’ 특성으로 명명하였지만 왜 이러한 현상이 나타나는지는 설명하지 못하고 있다. ChatGPT의 사용자가 늘어날수록 적절하지 않은 질문과 요구를 하는 경우가 많아졌다. 더욱이 얼토당토 않는 질문에 답변을 하면서 부정확한 정보를 생성하는 환각(hallucination)과 같은 문제가 발견되었다. 예를 들어, “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건”에 대한 정보 요구에 ChatGPT는 엉뚱한 거짓말을 지어내었다. 이 문제가 발생하는 원인은 명확히 밝혀지지 못하였고 뚜렷한 해결방안이 아직은 없다. 다만, 오픈AI 회사는 별도의 인력을 투입하여 비윤리적인 질문에 대한 답변을 피하고 인간의 가치에 부합하는 답변을 할 수 있도록 추가 학습을 시키고 있다. ? 발표 요약문 자료: https://www.soopsci.com/Story/?idx=14998350&bmode=view 인공지능의 윤리적 현안 유재연 연사는 재밌는 경험 하나를 소개하였다. 생성형AI가 활용되는 실례를 알려달라는 강연 요청에, 아직 구체적인 사례를 찾기 어려울거라는 짐작에도 불구하고 구글의 거대언어모델인 바드(Bard)에 물어봤다. 바드는 이 어려운 요청에 쉽사리 다섯 개의 업체와 관련된 사례를 제시하였다. 물론 이 정보는 거짓이었다. 그러나 바드의 답변은 재밌게도 해당 업체에 유사한 비즈니스를 개발할 수 있겠다는 브레인스토밍에 도움이 되었다. 이처럼 생성형 AI 기술은 기대되는 기능뿐 아니라 예상치 못한 활용도가 발견되며, 앞으로 더욱 영역을 넓혀나갈 것으로 기대된다. 위의 사례처럼 의도치 않게 유용한 기능을 발견하면 좋겠지만 이것이 부작용을 일으키거나 인간과 인류에게 해가 되는 경우도 생각해봐야 한다. 다음과 같은 질문을 통해 AI 기술의 윤리 쟁점을 고민해 볼 필요가 있다. “이 기술을 사용할 수 있는 사람과 그렇지 않은 사람 사이의 격차를 어떻게 해소할 수 있을까?” “이 기술로 혜택 받는 사람은 누구인가?” “이 기술의 결과로 가치 판단이 수반된다면, 그 기준은 누가 결정해야 할까? ” ? 발표 요약문 자료: https://soopsci.com/Story/?idx...https://soopsci.com/Story/?idx... 2부:  ChatGPT와 현장 교육 현장과 ChatGPT 인공지능이 빠르게 발전하는 사회에서 지속가능한 교육은 어떤 모습이어야 할까? 박영민 연사는 이 질문을 던지며 교육현장에서 발생할 수 있는 여러 쟁점을 나열하였다. ChatGPT 활용에서의 표절 및 학습 윤리로 무엇을 그리고 어떻게 가르쳐야하는지, 우려되는 문제와 윤리적 쟁점을 고려하여 교육현장에서 인공지능 서비스를 배제해야 하는것인지 자유롭게 허용해야하는지 등 논의하고 해결할 것들이 많다. 교강사들은 자신의 자리가 없어지지 않을까 고민을 할 것이고 학생들은 어떤 진로를 택해야 하는지 혼란스러워 할 것이다. 그러나 박영민 연사는 지속가능한 교육은 기술자체의 현란함과 화려함으로 특징지워져서는 안된다고 제안하였다. 더욱이 다음의 네 가지 역량이 교육에서 필요하다 주장하였다. 첫째, 메타인지를 바탕으로 하는 질문하기 둘째, 사랑의 기술이라 할 수 있는 공감 및 협업 셋째, 넘쳐나는 정보에 휘둘리지 않기 위한 정보지배의 기술 그리고 마지막으로 글쓰기와 말하기와 같은 표현의 기술이다. ? 발표 요약문 자료: https://soopsci.com/Story/?idx...   IT산업 현장과 ChatGPT 사람들은 인공지능 기술이 자신을 대체하지 않을까 두려워하고 있다. 단순 노동만을 대체할거라는 믿음 혹은 위안도 무너지고 있는 것 같다. 인간 능력의 보류라고 생각했던 창의적인 작업까지 생성형 AI 기술이 침범하고 있기 때문이다. 이때, 한 엔지니어의 트윗이 우리가 가진 두려움과 착각을 환기시켜 주었다. “인공지능은 당신을 대체할 수 없다. 인공지능을 사용하는 사람이 당신을 대체할 것이다” 기술이 우리를 지배하는 것이 아니다. AI를 개발하는 과정에서 엔지니어들의 수많은 결정이 기술의 형태 및 성능을 만들어낸다. 엔지니어들이 학습데이터를 수집하는 방식을 선택하고, 인공지능을 평가하는 요소와 방법을 제안한다. 그리고 개발된 여러 AI 모델 중에서 실제로 상용화될 제품과 서비스를 선정한다. 또한, 이 제품과 서비스를 어떻게 활용할 것인지에 대한 사회의 결정이 그 영향력의 범위를 구성한다. 결국, 주체는 기술자체가 아니라 사람이다. 그러나 정부를 비롯한 많은 사람들은 AI 기술에만 집중하는 듯하다. AI 기술이 변화시킬 풍경을 우리가 주체적으로 만들어가기 위해서는 AI 산업생태계를 비롯하여 이것이 제기하는 사회 문제를 포괄적으로 조망하며 의식적으로 판단하고 선택해야 한다. ? 발표 요약문 자료: https://soopsci.com/Story/?idx...   연구개발 현장과 ChatGPT 원병묵 연사는 과학연구에서 ChatGPT의 가능성과 한계를 ChatGPT와 나눈 대화를 통해 소개하였다. 첫 번째 질문은 “ChatGPT는 과학연구에 어떤 도움을 줄수 있나요?”이다. 이에 ChatGPT는 데이터 분석, 문헌 검토, 실험설계, 가설 설정, 커뮤니케이션에 긍정적인 도움을 주어 과학연구가 효율적으로 진행될 수 있다고 하였다. 두 번째 질문은 “ChatGPT는 영어 과학논문 작성에 어떤 도움을 줄 수 있나요?”이다. 답변은 자동 요약, 문장구성, 인용문작성, 용어정리, 피어리뷰를 하는데 유용할 거라는 것이다. 원병묵 교수는 이어서 실질적으로 도움이 될 수 있는 프로그램을 다양하게 소개하였다. 그러나 과학연구는 이러한 도구로만은 수행될 수 없고 자신의 랩 대학원생이 이런 도구를 활용하고 도움을 받았지만 그들이 작성한 논문은 수정할 곳이 아직 많다고 하였다. 또한, 여러 도구의 실용성도 각자의 맥락에서 사용해보면서 느껴봐야 한다고 조언하였다. ? 발표 요약문 자료: https://soopsci.com/Story/?idx...   예술문학 현장과 ChatGPT 예술평론가인 이주행 연사는 생성형 AI 기술이 예술의 정의를 어떻게 변화시킬지를 논의하였다. 최근 생성형 AI 기술이 발전하면서 인간의 영역으로 생각하던 창의성이 도전을 받고 있는 상황이 연출되고 있다. Stable Diffusion과 Midjourney와 같이 이미지를 생성하는 AI 소프트웨어가 확산되면서 관련 분야에서 다양하게 활용되고 있을뿐 아니라 국제적인 대회에서도 이러한 프로그램을 활용한 작품이 수상하기도 하였다. 예술의 전통적인 정의에 대한 의문이 제기되고 그 의미가 퇴색이 되고 있는 듯하다. 또한 AI 시대에 예술가 또는 크리에이티브의 역할이 무엇인지에 대한 문제가 심각하게 제기된다. 결론적으로 AI 기술이 인간 예술가 및 창의성을 대체하지는 못할 것이며 서로간 상호보완하며 발전할 것이라 제안하였다. 특히, 예술과 창의성의 변치않는 속성을 몇가지 제안하며 이를 강조하였다. 첫째, 예술은 인간의 감정을 포착하여 반영하는 것이라 AI가 보조할 수는 있지만 대체할 수는 없다. 둘째, 창의적인 작업의 가치는 사람들과의 공감을 이끌어내는 데 있다. 셋째, AI는 인간의 창의성을 대체하기 보다는 예술의 혁신을 강화하거나 촉매하는 방향으로 발전할 가능성이 높다. 넷째, 예술은 우리 사회와 문화를 반영하는데, 결국 해석에는 사람이 중요하다.  ? 발표 요약문 자료: https://soopsci.com/Story/?idx... 3. 포럼 참여자 질문 & 의견
인공지능
·
1
·
AI 미래, 가장 위협적인 요소는 AI의 고도화일까요, 인간의 편향성일까요?
사진: 본인 제공 한겨레신문사가 주최하는 <제2회 사람과 디지털 포럼>에 다녀왔습니다. 올해 주제는 ‘챗지피티 시대, 인간과 AI공존의 조건’ 이었습니다. 핫한 주제 만큼 많은 분들이 관심을 보이고 참여했습니다. 흔히들 AI의 범람과 함께 AI가 인간을 조정하고 일자리가 파괴되는 그런 두려움과 위험성을 느끼거나 완전히 자동화된 삶을 떠올리는 경우가 많은데요. 사람과 디지털 포럼을 통해 유토피아와 디스토피아의 이분법에서 벗어나 AI에 대한 이해를 넓히면서 현실적인 미래 전망과 인간과 AI의 다양한 공존 가능성 등 다양한 내용에 대해 전문가 의견과 사례를 들을 수 있어서 좋았습니다. 기조연사로 나선 윤송이 엔씨소프트 사장은 "지금 이 시점에 AI 시대를 제대로 준비하고 적응하지 못하면 인간의 미래나 인간적인 미래는 사라질지도 모른다. 하지만 반대로 잘 준비하면 아주 크고 많은 편리함과 또 자유를 누릴 수 있을 것이라고 생각한다"며 AI와 인간 공존을 도모할 골든타임의 중요성을 역설하며 포럼의 포문을 열었습니다(2023-06-20, 윤송이 엔씨소프트 사장, "가장 인간적인 미래로 가기 위해 AI 시대 제대로 준비하는 것이 중요", 출처 라이프인). 함께한 전문가들은 AI와 공존하는 ‘인간적인 미래’를 위협하는 요소에 대해 AI를 개발을 주도하는 특정 집단의 데이터 편향성 주입에 대한 우려를 많이 표했습니다. 실제 AI는 인간이 만든 데이터를 통해 학습하고 있기에 인간의 표현과 편견, 편향성까지 그대로 답습하는 경우가 많습니다. AI 개발을 서구 주류의 소수의 집단이 주도하다 보니 AI가 특정 문화, 언어에 편향될 경우 다양성이 침해될 수 있는 가능성이 커지는데요. 이에 대해서 윤 사장은 “문화적 식민주의를 야기하지 않고 문화 공존과 화합의 도구로 쓰일 수 있도록, 정부와 기업이 적절한 규제와 혁신의 균형을 맞추며 협력해야 한다”라며 AI 개발자, 정부와 기업의 책임 있는 역할을 요구하기도 했습니다. 같은 날 연사로 나선 제임스 랜데이 미국 스탠퍼드대 인간중심 인공지능 연구소(HAI) 공동설립자 겸 부소장은 사회과학자들이 인공지능이 널리 사용된 뒤 사후에 비판하는 방식의 한계를 지적하며 다양한 전문가들이 모여 인간 중심 인공지능 설계 논의를 더욱 활발하게 하며 미래를 대비해야 한다고 말하기도 하였습니다(2023-06-13, 더 인간답게…인공지능 개발 때부터 ‘윤리’에 주목하자, 출처 한겨레). 한편 다른 연사로 참여한 드루 헤먼트 영국 에든버러대학 미래연구소 교수는 “우리의 편향을 데이터로 이해하고, 차이점에 대해 토론하는 기회를 가질 수 있을 것”이라며 편향성을 인지하고 극복하는 유의미한 데이터가 될 수도 있다는 긍정적인 측면도 언급했습니다. 그러나 AI의 영향력이 점점 커지는 만큼 그로 인해 발생할 수 있는 윤리적 문제와 사회적 영향력도 함께 고려하며 개발이 진행되어야 한다는 것에는 모두가 공감했습니다.  무분별한 개발이 AI 뒤에 있는 사람들의 특정 가치관과 편향에 의해 주도된다면 정말 위험한 미래가 기다리고 있을지도 모릅니다. AI 미래가 우리 사회의 진보가 아닌 ‘퇴보’가 될 수도 있는 상황이 벌어질 수도 있기 때문입니다.  현재도 ‘딥페이크’ 기술이 실제보다 정교해지면서 진짜와 가짜를 구분할 수 없는 상황도 많이 벌어지고 있습니다. 이러한 가짜 이미지나 영상이 프로파간다를 위해 이용된다면 인지하지 못한 사이에 사람들에게 특정 편향적인 사고를 심어주는 일들이 일어날지도 모릅니다. 우리가 일상에서 자주 접하게 되는 AI 기술 중 하나인 ‘알고리즘’도 데이터를 개인화 해주기에 편리하다고 느껴질 때도 있지만 알고리즘이 고도화될수록 우리는 취향의 한계 속에 갇히는 경우가 많습니다. 다양하고 새로운 이슈를 발견할 수 있는 기회가 실종되는 것입니다. 사용자 조정 이슈 또한 우리가 추천 알고리즘을 신뢰할 수 없는 이유로 꼽히기도 합니다. 결국 기술의 발전이 우리에게 기회가 되는지, 혹은 위협이 되는지는 기술 그 자체의 이슈가 아닌 그를 활용하는 사람들에게 달려있는 것 아닐까요? 책임감 있고 신뢰할 수 있는 개발에 대한 논의가 잘 이루어지고 있는지 되짚어 보아야할 시점이 아닐까요? 정말 인간을 위협하는 것은 AI일까요? 아니면 인간의 편향성일까요? AI와 인간이 공존하는 인간 중심의 AI 설계는 어떻게 이루어져야 할까요? 여러분들의 다양한 의견을 남겨주세요! 
인공지능
·
6
·
esc
1,832
10명 중 7명 인공지능 챗봇 'ChatGPT' 윤리적인 문제 있다.
- 인공지능 생성물을 인용하는 것에 대해서 절반 이상 '가능하다' 응답- 응답자 65% 인공지능으로 생성된 저작물이 '표절의 대상'이 될 수 있다.- 인공지능을 사용한 과제물에 대해서 엄격한 평가 기준 적용 다수 - 인공지능 생성물의 가장 큰 윤리적 문제는 '창작과 독창성'- 인공지능 저작물의 바람직한 활용을 위해서는 '관련 종사자들의 자율적이고 국제적인 기준 마련' 필요   최근 공개된 인공지능(AI) 챗봇 'ChatGPT'에 대한 관심도가 높다. 성능과 기능에 관한 관심뿐만 아니라 실제 사회 전반에 활용이 가시화되면서 인공지능의 윤리적인 측면의 관심도 높아지고 있다. 시민단체 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'에서 운영하는 과학기술인 커뮤니티 '숲사이(soopsci.com)'에서 과학자와 시민을 대상으로 인공지능의 윤리적인 부분의 한 단면인 인용, 표절, 저작권 등의 문제에 대해서 최근 주목받고 있는 ‘ChatGPT’ 인공지능 챗봇의 사례를 바탕으로 글쓰기 저작물 활용에 대한 윤리 인식에 대해서 설문조사를 진행했다.   설문에 참여한 233명 중 전체 문항에 대해 응답 완료한 176명을 대상으로 분석하였다. 우선 ‘ChatGPT’를 사용해 본 경험 질문에 절반 이상(57.39%)이 사용 경험이 있는 것으로 응답했다. 37.5%는 사용은 해보지 않았지만 ‘ChatGPT’에 대해서 알고 있는 것으로 조사되었다.   ‘ChatGPT’ 사용 목적은 ‘기능 테스트 용도’가 71.29%로 가장 높았으며, 특정한 목적을 갖고 사용한 경우는 28.71%로 조사되었으며, 주로 ‘지식을 알아보기 위한 용도’와 ‘저작물 작성에 활용’하기 위해 사용했다.     ‘ChatGPT’로 생성된 자료를 본인의 저작물로 사용할 수 있는지에 대한 질문에 '사용하더라도 재해석, 재구성해서 사용해야 한다'라는 응답이 44.89%로 가장 높았으며, 다음으로 '합의된 인용 표기 후 사용해도 된다'가 33.52%로 나타났다. 반면 '사용하면 안 된다'라고 응답한 경우는 10.8%로 조사되었다.  ‘ChatGPT’로 생성된 내용을 인용할 수 있는지에 관한 질문에 ‘합의가 이루어진다면 사용할 수 있다’라는 응답이 절반 이상(52.27%)으로 가장 높았으며, ‘인용할 수 없다’라고 응답한 사람도 34.09%로 나타났다. 인공지능으로 생성된 저작물을 인용하는 것에 대해서는 아직 이용자들의 간에도 다양한 의견 차이가 있어 보였지만, 현재 상태에서는 인용이란 방식으로 활용하는 것에는 전반적으로 문제가 있다는 반응이 많았다. 인용이 가능하다면 어떤 방식으로 인용하는 것이 좋은지에 대해서, 기존의 일반적인 인용 방식과는 달리 인공지능으로 생성된 자료의 특성을 고려해 다양한 인용 방법들이 제안되었다.   ‘ChatGPT’로 생성된 저작물이 표절에 대상이 될 수 있는지에 관한 질문에 64.77%가 ‘표절의 대상이 될 수 있다’라고 응답하였다. 이는 ‘표절의 대상이 아니다(18.18%)’와 비교해 3.5배 이상 높은 응답을 보였다.   만약 본인이 가르치는 학생이 ‘ChatGPT’로 생성한 자료를 이용해 과제물로 제출하였다면, 과제물 평가에 영향을 미치는지에 관한 질문에 77.27%가 ‘평가에 영향이 있다’로 응답해 인공지능을 사용한 저작물에 대한 평가에 대해서 다수가 엄격한 평가 기준을 가진 것으로 나타났다.    ‘ChatGPT’로 생성된 자료를 활용 함에 있어 가장 중요한 윤리적 문제는 ‘창작과 독창성의 문제’로 응답한 사람이 53.41%로 가장 높았다. 다음으로 ‘표절 문제’(21.02%), ‘인용 문제’(13.64%)로 조사되었다.   ‘ChatGPT’는 원작자의 동의 여부와 상관없이 인공지능 기술을 이용해 자료를 제공하는 것이 윤리적인 문제가 있는지에 관한 질문에 10명 중 7명 이상이 문제가 있다고 보는 것으로 조사되었다.   인공지능으로 생성되는 자료를 활용하는 면에서 윤리적인 문제(저작권, 인용, 표절 등)를 해결하기 위해서 바람직한 사회적 합의 방식을 묻는 질문에서는 절반 이상(53.41%)이 ‘국제적인 기준을 마련해야 한다’로 응답하였고, 다음으로 ‘분야별 종사자들의 자율적인 기준을 마련해야 한다’라고 응답한 사람은 34.66%로 나타났다. 따라서 답변을 통해 ‘국제적으로 분야별 종사자들의 커뮤니티를 통해 자율적인 기준을 마련하는 방향’을 선호하는 것으로 조사되었다.   'ChatGPT'에 대한 자유 의견으로는 ‘합의’, ‘활용’, ‘사용’, ‘마련’, ‘윤리’, ‘논의’, ‘사회적’ 등의 단어들이 많이 사용되었다. 내용 중에는 '미래 지향적으로 인공지능의 활용에 초점을 맞추어야 한다'는 의견, '인공지능이 어떤 자료를 근거로 학습하는지에 따라 오류/왜곡 정보들이 생산되고 활용될 수 있다는 우려'의 목소리도 있었다. '인공지능에 사용되는 자료는 인류가 함께 구축한 자료이니만큼 활용과 혜택에서도 공정하게 돌아가야 한다'는 의견 등 인공지능으로 생성된 저작물에 대해서 다양한 의견들이 제시되었다.   급속히 발전하는 인공지능 시대에 혼란을 최소화하면서 바람직한 활용 방향을 찾기 위해서는 윤리적인 측면에 대한 깊은 논의와 의견 수렴이 함께 수반되어 할 것으로 보인다. 설문결과 보고서 : https://www.soopsci.com/Survey... 출처본 글은 사단법인 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'에서 제작한 콘텐츠로,  ESC에서 운영 중인 과학기술인 커뮤니티 '숲사이(원문링크)'에 등록된 정보입니다.ESC: https://www.esckorea.org/숲사이: https://soopsci.com/    
인공지능
·
3
·
인공지능을 '지구적 존재'로 인식해야 하는 이유
챗GPT와 같은 대화형 인공지능 등장으로 세계가 술렁거리고 있다. 본격 인공지능 시대가 도래했다는 것에 많은 사람들이 동의할 것이다. 기존 온라인 플랫폼이나 소셜미디어의 알고리즘과 같은 기술을 넘어서 인간 고유의 영역으로 인식되었던 대화와 창작의 영역까지 인공지능이 섭렵하고 있다. 스마트폰 이전의 시대를 상상하기 어렵듯이, 인공지능 이전의 삶으로 돌아가기는 어려워질 것이다.  각자가 인공지능 기술을 실감하는 방식은 다를 것이다. 나의 경우, 기술적 변화보다는 대화의 주제가 다양해졌다는 점에서 인공지능을 실감한다. 인공지능이 인간의 도구로 남을지, 인간과 인공지능은 어떻게 관계 맺어야 하는지, 우리의 일자리는 어떻게 되는지 등. SF 영화 속 이야기가 아닌 현실에 대한 이야기를 한다는 점에서 놀란다.  인공지능이 우리 사회에 어떤 변화를 어떻게 가져다줄지 아직은 예측뿐이다. 그동안 쌓여있던 HER, 아이로봇, 매트릭스와 같은 SF 영화들을 기반으로 저마다 다양한 상상을 하고 있을 것이다. 신기술과 가깝지 않은 나는 기술의 ‘발전’에 대한 기대보다는 확증편향, 민주주의의 위협, 혐오와 차별 문제에 대한 우려가 더 크다. 사실 가짜뉴스, 혐오와 차별의 문제, 범죄 사기는 인공지능 기술 이전에도 존재했던 기본값의 문제들이다. 그러나 인공지능 기술은 가짜뉴스와 범죄 사기를 더욱 교묘하게 만들고 통제 불가능한 속도로 퍼트린다. 변화를 앞둔 사회는 어수선하고 초조하다. 변화의 물결이 거세고 방향성이 보이지 않을 경우에는 더욱 그렇다.   인공지능을 둘러싼 해외 동향 유럽, 미국 등의 기술 강대국이 인공지능 기술을 받아들이는 갈래는 크게 두 가지로 나뉘는 듯 보인다. 이용자 보호 우선에 중점을 둔 법규제 방식과 선제적 인공지능 기술 개발에 중점을 둔 기업 자율성 보장이다. 전자의 사례로는 대표적으로 유럽연합이 있다. 유럽연합은 2020년에 인공지능 백서를 지침서로 만들었다. 유럽연합의 인공지능 대응 핵심은 인공지능 기술 구축과 확산에 있어 윤리성을 강조하고 이를 뒷받침하는 법제 및 체계를 마련하는 것이다. (김지윤, 2020) 기술과 관련된 법은 기본적으로 규제의 성격을 띤다. 기술 개발에 제어를 거는 동시에 이용자를 보호하는 효과를 보기 때문에 안정성을 위해서는 법규제가 필요하다는 입장이다.  영국은 유럽연합과는 다르게 규제보다는 기술에 대한 투자로 혁신 촉구에 방점을 찍었다. 지난 3월 영국도 마찬가지로 인공지능 백서를 제작했다. 인공지능 사용 촉진을 위해 안전/보안, 투명성 및 설명 가능성, 공정성, 책임 및 거버넌스, 경쟁 가능성 등 5가지 원칙을 발표하고 일자리 창출과 의료 기술 개발을 기대하며 1600억이 넘는 투자를 약속했다.  (에이아이타임즈 2023.03.29) 미국은 의외로 인공지능 기술 규제와 개발 사이에서 갈팡질팡하고 있다. 처음에는 기술 개발, 혁신을 외치는 모습이었다가 빅테크 기업 경영인들의 우려로 인공지능 기술 개발을 중단해야 한다는 목소리까지 나오고 있다. 아직 어느 입장을 뚜렷하게 고수하지 못하고 논의만 이어가고 있다. (에아이아타임스 2023.03.30) 전 세계 이용자들의 데이터를 쓸어모으고 있는 빅테크 기업이 밀집한 미국 내부에서 이런 서한이 나온 것은 아이러니한 일이라고 개인적으로 평가한다.  한국 정부 물론 지난 2020년 12월 과학기술정보통신부에서 이른바 ‘사람이 중심이 되는 인공지능 윤리기준’을 마련했다. 인공지능 윤리기준의 3대 기본원칙과 10대 핵심요건을 발표했다. 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙이다. 10대 핵심요건은 인권보장, 프라이버시 보호, 다양성 존중, 침해금지, 공공성, 연대성, 데이터 관리, 책임성, 안전성, 투명성을 언급한다. (대한민국 전자정부 누리집, 과학기술정보통신부 2020.12.23) 온갖 좋은 말을 기본으로 원칙을 세웠지만, ‘자유’에 영혼을 바친 현 정부가 과연 이용자 보호를 위해 인공지능 기술 개발을 규제할지에 대해서는 의문이 든다.  인공지능도 지구의 땅을 밟고 서있다 과기부의 자료에 따르면 “‘인공지능 윤리기준’을 다양한 이해관계자의 참여하에 인공지능 윤리 쟁점을 논의하고, 지속적 토론과 숙의 과정을 거쳐 주체별 체크리스트 개발 등 인공지능 윤리의 실천 방안을 마련한다”라고 나와있다.  윤리 쟁점에 대한 논의와 지속적 토론, 숙의는 매우 중요하다. 이해관계자를 다양하게 구성하는 것이 숙의의 핵심이 될 것이다. 윤리의 쟁점과 방향에서는 인간 가치와 존엄을 지키는 방법을 이야기할 수 있다. 윤리, 도덕, 공동체 가치 등 철학적인 이야기도 할 수 있을 것이다.  인공지능의 윤리를 논하는 이유는 그만큼 기술의 영향력이 크기 때문이다. 인공지능 윤리 구성에는 가짜뉴스, 노동시장의 변화 같은 사회적 시각도 중요하지만, 현 시점에서는 생태적 관점의 역할이 매우 중요하다. 인간이 지구적 존재임을 망각하고 지구 자원을 무분별하게 훼손하는 바람에 현재 우리는 이 모양 이 꼴이 됐다. 태평양의 섬이 물에 잠기고, 이상기온으로 산불, 홍수 재난을 수시로 겪는 일상을 마주하게 되었다는 이야기다.  인공지능 기술은 온라인상에 존재하는 무형의 존재가 아니다. 데이터 보관소와 컴퓨터 기계로 구성된, 물리적 실체를 갖고 있는 존재다. 인공지능 기술 개발에는 전력, 에너지 자원이 어마어마하게, 정말 어마어마하게 소모된다. 2021년 발표된 연구논문에서는 챗GPT의 핵심 기술인 언어모델이 학습하는데 1천 287메가 와트시(MWh)가 소모된다고 한다. 이는 미국 120개 가구의 1년 전기 사용량이다. 이 과정에서 미국 110개 가구의 1년 배출량에 해당하는 502톤의 탄소가 배출됐다고 한다. (매일경제 2023.03.10)  기술 개발과 에너지자원, 기후위기가 이루는 삼각 균형은 아슬아슬하고 치명적이다. 인공지능 기술 개발이 에너지 자원의 한정치를 넘어서면 균형은 무너진다. 인공지능의 윤리적 문제에 대해 이야기할 때,  인공지능을 지구적 존재로 먼저 인식하고, 인류 보편의 가치에 어떻게 기여할 수 있는지를  논해야 한다. 챗GPT와의 대화가 그만한 전기 사용량 만큼의 가치가 있는가, 기업이 인류의 에너지를 사용하고 얻은 이익을 어떻게 배분할것인가, 혹은 탄소배출로 인한 기후위기 문제에 얼마큼 책임을 물을 것인가. 인공지능이 ‘기술’로만 분류될 때, 인간 사회의 윤리는 더욱 시험에 들 것이다. 
인공지능
·
3
·
개인정보에 대한 논의가 필요합니다
사회와 기술이 발전하면 법과 제도에도 변화가 필요하다. 사진이 등장하기 전과 등장한 후의 법이다르고, 자동차가 등장하기 전과 등장한 후의 법이 다르다. 인공지능도 마찬가지다. 인공지능의 등장은 우리의 제도를 어떻게 바꿔나갈까? 오늘은 그 중에서도 인공지능에 대한 이야기가 필요하다는 이야기를 하려 한다. 인공지능은 기존 정보와 자료들을 모아 특정한 알고리즘/수식을 이용해 결과를 산출하는데, 지금까지 나온 인공지능들은 기존 자료들을 모방하는 수준에서 그치고 있다. 앞으로 기술이 어떻게 발전할 지는 모르겠지만 인공지능이 유기체들처럼 스스로 생각하게 하는 기술이 나오지 않는 한, 인공지능은 기존 정보를 가지고 인간의 화법을 얼마나 잘 모방해 내느냐의 싸움이 될 것이다. 문제는 (정확히 어느 정도의 비중인지는 알 수는 없지만) 기존 정보/자료의 상당히 많은 양이 개인정보라는 점이다. 인공지능과 개인정보의 관계에 있어 중요한 문제는 세 가지, 수집과 산출, 공적영역이라고 생각한다. 수집은 인공지능의 학습을 위해 수많은 정보를 수집함에 있어서 개인정보의 범위를 어디까지로 할 것이며, 개인정보를 어떻게 보호할 것인지에 대한 문제다. 산출은 인공지능이 특정인을 타겟으로 삼아 검색 기록 등을 기반으로 해 결과를 보여주는 일이 많은데 (특히 마케팅) 이 때 개인이 식별될 가능성이 얼마나 있는지에대한문제다. 공적 영역에 대한 문제는 인공지능을 사회의 안전이나 국민의 편리를 위해 사용한다고 할 때 우리는 어느 정도까지를 허용해 줄 수 있는지에 대한 논의다. 인공지능의 발전 속도는 계속 빨라질 것이다. 우리는 그 만큼 개인정보에 대한 논의도 지금보다 더 활발해져야 한다. 인공지능까지 가지 않더라도, 우리는 SNS에 올라온 사진 배경만 보고도 특정인의 동선이나 거주지를 유추할 수 있고, 이름과 다른 정보 하나(예를 들어 다니는 회사, 출신 학교 등) 정도만 알아도 검색을 통해 특정인에 대한 꽤 많은 정보를 얻을 수 있다. 인공지능은 매우 뛰어난 검색 수단이기도 하다는 점에서 인공지능의 개인 정보 수집과 개인 식별은 (정확히 어느 정도일 지는 모르지만) 인간이 하는 검색/개인 식별보다 더 뛰어난 결과를 보여줄 것이다. 그래서 우리는 개인정보의 개념, 우리가 어디까지를 보호해야 할 개인정보로 봐야할지에 대해 다소 느슨할 지라도 구체적인 범위를 설정할 필요가 있고, 이것이 유출될 경우 사업자와 개발자, 기술 그 자체를 어떻게 규제할 것인지에 대해서도 논의해야 하며, 유출된 개인정보에 대해 어떻게 사후처리, 아마도 대부분은 배상이나 삭제가 되겠지만 심각한 경우에는 치료가 필요할 수도 있는 공적인 사후처리 방식에 대해서도 논의해야 한다.  미국의 경우, 한국과 같이 포괄적인 개인정보보호법은 없지만 공적인 영역과 민간 영역을 의료, 금융, 교육, 교통, 형사사법 등으로 세분화해서 개인정보, 알 권리를 정의하고 수집의 범위, 정보의 처리와 수정, 삭제 권리 등을 규정하고 있다. 법에 따라 다 다르지만 사업체, 서비스 제공업체, 계약업체, 개인 등이 개인정보 보호에 관한 법을 어기면 1건당 최대 7,500달러의 벌금을 매긴다. (개인정보보호 국제협력센터) 미국의 경우에는 미성년자의 개인정보 보호에 더욱 집중하고 있는 게 특징이다. 중국의 경우에는 원래 미국과 마찬가지로 민간 영역을 세분화하여 개인정보에 대해 관리/보호/규제를 해왔는데, 2021년에 처음으로 개인정보보호법(中华人民共和国个人信息保护法)이 제정/시행되었다. 이 법에서는 전자 혹은 기타 방식으로 기록된 것, 이미 식별되었거나 식별할 수 있는 자연인에 대한 정보로 익명으로 처리된 것까지를 전부 개인정보로 정의하고 있다. 개인정보와 관련해 위법행위가 위중한 경우, 혹은 법을 어겨 시정명령을 받았는데 이를 이행하지 않는 경우 최대 100만 위안의 벌금이 부여된다.  단 이 법은 국가와 공공기관에는 해당되지 않는다. 어떤 사람들은 중국이 이미 안면인식기술과 인공지능을 통해 사실상 디지털 독재를 시행하고 있다고 평가하기도한다. 도시의 감시카메라들은 무단횡단이나 노상방뇨, 대중교통 무임승차, 쓰레기 불법 투기 같은 경범죄까지 전부 잡아내고 불이익을 줄 수 있다. (中华人民共和国个人信息保护法) 일본은 2003년에 <개인정보 보호에 관한 법률(個人情報の保護に関する法律)>을 제정했다. 이 법에서는 개인정보를 ‘생존한 개인에 관한 정보’로 성명, 생년월일과 그것이 기록된 문서, 전자기록, 음성과 동작, 기타 방법을 이용해 표시된 일체의 개인적 사항으로 규정하였다. 개인정보에 관한 법률을 어길 경우 최대 100만 엔의 벌금형에 처해질 수 있다. (個人情報の保護に関する法律)  일본의 경우에는 개인정보 보호의 일원화 문제가 계속해서 제기되고 있다. 일본은 원래 국가와 지방, 민간이 각자 다른 방식으로 개인정보를 보호/관리하고 있었다. 이것을 2014년에 발족한 개인정보보호위원회(個人情報保護委員会)로 일원화하는 것을 두고 지방자치 발전 문제, 개인정보와 중앙-지방의 권력 균형 간의 관계, 국가와 민간의 관계 등 여러 관점에서 논의가 이루어지고 있다. 한국은 어떨까? 한국의 경우, 기업, 특히 스타트업을 중심으로 개인정보보호법을 완화해 줄 것을 요구하고 있다.  개별 스타트업의 책임으로 돌릴 수는 없다는 업계의 볼멘 목소리도 나온다. 법 위반 여부가 확실한 경우엔 재발 방지책을 마련하고 사과해야 하지만, 스타트업의 신규 사업 영역이 기존 법으로 정의할 수 없는 경우가 많아 유권해석에 따라 다르게 해석될 여지가 크다는 것이다. (한경.2022.11.16.) 강병원 의원은 개회사를 통해“현행 개인정보 규제로는 혁신을 이끄는 스타트업 기업의 성장이 저해되고 글로벌 경쟁력도 저하될 우려가 높다”고 지적하며 “시대적 흐름에 맞추면서 정보 주체의 기본적인 권리를 침해하지 않고 개인정보에 대한 보호의 실효성을 높이는 실질적인 방법들을 고민할 때이기 때문에 이 토론회를 개최하게 됐다”라고 밝혔다. (대한뉴스.2023.03.30.) 경제신문들은 잊을만 하면 개인정보보호법이 스타트업을 덮쳤다거나 스타트업의 성장을 막는다는 헤드라인을 뽑아내고 있다. 이들은 개인정보 보호가 기술의 발전을 막는다고 말하지만 사실은 상행위를 규제하고 있다는 점에서 이익과 관련이 있다고 할 수도 있을 것이다. 과도한 개인정보 수집이나 개인정보 유출에 대한 불안을 호소하는 입장과는 대치되는 이야기라고 할 수도 있다. 왜 이런 문제가 발생할까? 한국의 법률은 개인정보를 다음과 같이 정의하고 있다. 개인정보보호법 2조 1. “개인정보”란 살아 있는 개인에 관한 정보로서 다음 각 목의 어느 하나에 해당하는 정보를 말한다.  가. 성명, 주민등록번호 및 영상 등을 통하여 개인을 알아볼 수 있는 정보  나. 해당 정보만으로는 특정 개인을 알아볼 수 없더라도 다른 정보와 쉽게 결합하여 알아볼 수 있는 정보. 이 경우 쉽게 결합할 수 있는지 여부는 다른 정보의 입수 가능성 등 개인을 알아보는 데 소요되는 시간, 비용, 기술 등을 합리적으로 고려하여야 한다.  다. 가목 또는 나목을 제1호의2에 따라 가명처리함으로써 원래의 상태로 복원하기 위한 추가 정보의 사용ㆍ결합 없이는 특정 개인을 알아볼 수 없는 정보(이하 “가명정보”라 한다) (이상 개인정보보호법) 한국의 개인정보에 대한 제도적 정의는 자의적인 해석 가능성이 상당히 넓어 보인다. 보호해야 할 범위 자체를 넓게 잡는 것은 의미가 있겠지만 특정인이 명시되지 않은 경우에는 합리적 고려에 의해 명시 가능성을 판단한다고 되어 있다. 완벽한 제도야 있기 어렵지만 그렇다고 해도 ‘합리적으로 고려해야 한다’는 말은 이래저래 다툼의 소지가 너무 많다. 법률의 발전은 대체로 사회의 발전보다 느리다. 그런 점을 감안한다고 해도, 인터넷 강국이고 IT 강국을 자랑처럼 이야기하는 대한민국의 개인정보에 관한 논의는 다른 나라와 비교했을 때 많이 늦다. 사업자도, 개인도 그 누구도 만족시키지 못하는 개인정보보호법은 공론의 부족 때문이 아닐까 싶은 생각도 든다. 지금도 늦지 않았다. 보호해야 하는 개인정보의 범위에 대해 지금이라도 논의해보자. 
인공지능
·
4
·
찰리의 아버지는 미래에도 존재할 수 있을까?
찰리와 초콜릿 공장의 해피엔딩 영화 <찰리와 초콜릿 공장>은 가난한 집에서 살아가는 찰리가 윌리웡카 초콜릿에서 뽑은 황금티켓으로 초콜릿 공장을 탐방하는 내용이다. 주인공 찰리는 할아버지로부터 받은 돈으로 산 초콜릿에서 전세계 5장 뿐인 황금티켓을 뽑는다. 해당 티켓은 베일에 쌓여 있던 윌리웡카 초콜릿 공장의 입장권으로, 티켓을 가진 사람에 한해서 베일에 쌓여 있던 초콜릿 공장의 비밀을 보여주는 초대권이다. 티켓을 뽑은 찰리는 집안이 가난하다는 걸 알았고, 티켓을 팔려고 한다. 하지만, 팔면 안 된다는 할아버지의 조언을 듣고 그와 함께 윌리웡카의 초콜릿 공장으로 향한다. 별난 이벤트처럼, 별난 내부를 탐험하며 초콜릿 공장의 후계자로 낙점되어 그 공장을 빠져 나온다. 쥐구멍에도 볓들날 온다는 말처럼, 찰리의 가정에도 또 다른 빛이 든다. 애초 로봇의 등장으로 실직한 아버지가, 로봇 수리공으로 재취업에 성공한 것. 그렇게 <찰리와 초콜릿 공장>은 해피엔딩으로 끝난다. <찰리와 초콜릿 공장>은 노동자 임금, 근무시간 등 다양한 걸 보여준다. 챗 GPT의 대두로 주목되는 건, 찰리가 아닌 그의 아버지 모습이다. 로봇과 인공지능의 등장으로 많은 사람들의 일자리가 사라질 것이라고 말한다. 한편, 단순 노동이 사라질 것이고 오히려 높은 수준의 일자리는 사라지지 않을 것이라 말한다. 영화 속 찰리 아버지가 치약 뚜껑을 닫는 일을 하다가, 로봇의 등장으로 실직했다가 오히려 그 로봇을 수리하는 일로 재취업에 성공한 것처럼 말이다. 찰리 아버지는 이 두 주장을 몸소 보여준다. 현실은 어떨까? 로봇과 AI가 인간의 일을 모두 대체할까? 아니면, 또다른 일이 생겨나고 그 일을 하게 될까? 찰리의 아버지는 현실이 될 수 있을까? 로봇과 AI가 일자리를 대체한다는 말은 너무 오래됐다. 실제 일부는 대체되고 있다. 기계는 커피도 내리고, 닭도 튀기고, 서빙도 한다.  커피를 내리는 카페도 심심치 않게 본다. 이런 내용을 보면, 기계가 인간을 대체한다는 건 사실로 보인다. 실제 국내 산업 현장에서 로봇은 활발히 쓰이고 있다. 단순 서빙, 커피 제조, 닭 튀기기만이 아니라 자동자 제도에도 활발히 쓰이고 있으며, 우리나라는 전 세계적으로 로봇 밀집도가 1위다. 제조업 근로자 1만 명 당 로봇 대수는 932개로 2위인 싱가포르 605개의 거의 1.5에 달한다. 수치가 보여주듯 우리나라는 로봇 도입 속도가 전 세계에서 가장 빠른 국가다. 이런 추세 때문에 보스턴컨설팅 그룹은 지난 2015년에 발표한 <The Robotics Revolution: The Next Great Leap in Manufacturing> 보고서에서 한국은 2020년까지 제조의 20%를 로봇이 하고, 2025년에는 40%까지 상승할 것이라 발표했다. 산업 현장에서 로봇을 사용하는 건 위험한 업무에 사람을 투입하지 않기 위해서다. 또한 효율성도 높고, 효과성도 높다. 실제 로봇 도입으로 인해 산업 현장에서 산업재해 발생 건 수가 줄었다는 연구도 있다. 더구나 로봇은 파업도 하지 않는다. 더 많은 효율성, 더 많은 효과성, 경제성 측면에서 산업계에서 로봇을 쓰지 않을 이유가 사실상 없다고도 보여진다. 오히려 인간을 쓸 필요가 있나? 라는 생각도 든다. 로봇의 등장으로 부가적인 서비스도 등장하겠지만, 도입된 로봇의 수만큼 늘어나진 않을 것이다. 931대의 로봇을 931명의 인간이 수리하는 게 아니라, 일부의 사람이 로봇을 수리할테니 말이다. 931명의 사람이 로봇으도 대체됐다면, 수리공으로 재취업 한 찰리의 아버지를 제외한 나머지 사람들, 그 사람들은 어디로 가게될까? 쏟아져 나오는 노동자는 어디로 갈까? 미래 국가 모습을 섣불리 판단할 수는 없으나, 실업이 사회혼란과 문제라는 점은 명확하다. 때문에 국가나 시민이 가만히 있지 않을 것이다. 시민은 대안을 마련하라며 목소리를 낼 것이고, 국가는 그 의견을 수렴해 대안을 마련할 것이다. 또한, 틈새 시장을 노려 새로운 부가가치를 창출하는 서비스 혹은 산업이 나타날 수도 있다. 하지만, 그렇게 나타날 노동의 모습이 결코 질적이라고 판단할 수는 없을 것 같다. 한귀영 사람과디지털연구소 연구위원은 인공지능과 로봇이 인간을 노동으로부터 밀어내는 것을 염려하는 게 아니라, 미래 노동의 질이 실질적인 위협이라고 말했다. 로봇과 인공지능이 노동자를 일에서 밀어 낸다면, 어쩌면 별의 별 일이 생길 지도 모른다. 공유경제가 활성화 되어, 기존 인간이 하던 다양한 일을 사람들이 하게 될 것이고, 어쩌면 개똥 치우는 일도 정말 현실에서 일로 받아들여 질지도 모른다. 실제 2016년 Pooper라는 서비스가 공유경제를 이름으로 나타난 적이 있다. 원하는 시간과 장소를 말하면, 개똥을 치워주는 일이었다. 실제 서비스는 아니고 예술프로젝트였다. 벤베커는 “직접 해도 되는 일까지 긱경제에 맡기는 행태가 날로 심각해지는 자금의 세태를 꼬집고 싶었다”고 말한다 있다.¹  로봇과 AI의 인간대체, 노동과 질을 함께 고민해야하지 않을까? 미래를 확정할 수 없으나, 로봇과 AI로 인간의 노동에 큰 변화가 생기리라는 점은 명확해 보인다. 일자리의 수가 줄어들 것이고, 어쩌면 노동의 질 역시 ‘인간이 이런 것까지 해야 되나?’라는 의문이 드는 일을 할지도 모른다. 그러기 위해서 준비해야 할 건, 인간과 로봇, AI의 관계를 명확히 하고, 어떻게 활용할지, 어떻게 활용해야 할지, 한계는 어떻게 둬야 할지 정하는 것이라 생각한다. 또한, 이미 우리 사회에서 나타나고 있는 노동의 질 문제 정비도 필요해 보인다. 여전히 사회 어디에선가는 최저임금을 받지 못하고, 마땅히 법으로 정해진 권리조차 누리지 못하는 사람들이 있다. 먼 미래엔 로봇과 AI를 다룰 줄 알고, 설계할 줄 알고, 개발할 줄 알고, 가지고 있는 사람과 그렇지 않은 사람간의 양극화가 더욱 심화될지 모른다. 지금도 나타나고 있는 양극화가 미래엔 더 벌어지지 않도록, 시민들이 머리를 대고 토론해야 될 것 같다. *『공유경제는 공유하지 않는다』 (악렉산드리아J. 래브넬, 롤로코스터, 2020, p.282)
인공지능
·
6
·
AI와 함께 일하는 미래 -희망편-
인공지능 로봇과 우주를 탐사하고, 사랑에 빠지고, 편을 갈라 전쟁을 치르는 이야기들이 수많은 영화와 소설을 통해 존재했습니다. 서사에 의존한 상상의 나래는 즐겁습니다. 실제로 벌어지는 일이 아니라면 부담 없이 마음껏 가능성을 꿈꿀 수 있죠. 하지만 인공지능과 함께하는 일상은 더 이상 가상에서만 가능한 일이 아니게 되었습니다. 기술이 빠르게 발전하며 다양한 분야에서 AI를 활용하는 일이 많아지고 있습니다. 한쪽에서는 인공지능이 수많은 인간의 일자리를 대체하리라 전망합니다. 캠페인즈에서도 관련한 토론과 투표 컨텐츠들이 있었죠. AI가 여러분의 일자리를 위협한다고 생각하나요? 인공지능과 인간이 일상속에서 경쟁해야만 하는 상황이 벌어진다면, 인공지능의 존재부터 모든 상황을 만든 게 인간 자신이라는 것이라는 점이 좀 우스울 것 같습니다. 밥도 안 먹고 잠도 안 자고 24시간 일할 수 있는 인공지능은 자본가 관점에서 매력적인 노동력으로 보일지도 모르겠습니다. 하지만 AI의 오류나 치명적인 실수를 어떻게 예방하고 대처할 것인지 명확한 제도나 법안이 마련되지 않은 만큼 무분별하게 AI에 직무를 맡기는 것은 위험합니다. 게다가 AI는 하늘에서 뚝 떨어지는 것이 아닙니다. 인공지능을 학습시키는 데에는 엄청난 에너지가 들고 그 과정에서 어마어마한 탄소가 배출됩니다.  AI는 친환경? 알고 보면 탄소 뿜는 AI! 물밀듯이 나오는 AI 이슈를 보면서 가만히 있으면 휩쓸려 버리겠다는 위기감이 들었습니다. 무엇을 고민하고 어떻게 바라볼지 함께 고민해 보면 좋을 것 같아요. 인간은 생각하는 존재니까요! 그리고 이왕이면 긍정적인 상상을 제안해 보고 싶습니다. 언제나 우리가 대비해야 하는 것은 미래에 있으니 말입니다. 기술의 발전이 폭풍처럼 체계를 뒤엎으면서 눈에 보이는 효율만을 추구할 때, 인간적인 가치를 지켜낼 ‘미래의 직장인’ 시나리오를 써보면 어떨까요? AI를 인간의 든든한 동료로 만들어 줄 건강한 상상력과 계획이 필요할 것 같습니다.  #1. 나의 직업은 상담원, 동료는 AI 하루에도 수백 통의 전화가 빗발치는 고객센터, 상담원들은 바쁘게 고객들을 응대하고 있습니다. 한 상담원이 말을 잠시 멈추고 뭔가 기다리는 듯하더니 이내 아무 일 없던 듯 다음 고객과 전화 연결이 되어 밝게 인사를 건넵니다. 서비스에 불만이 많은 고객이 통화 중 욕설을 시작하자  자동으로 AI 상담원에게 통화가 이전된 것입니다. AI 상담원은 정서 안정에 도움이 되는 차분한 음악을 들려주며 불만 고객의 폭주가 가라앉을 때까지 기본 매뉴얼의 상담을 제공합니다. AI 상담원에 대한 평은 고객들에게선 그리 좋지 않지만, 상담원들에게는 호평받는 편입니다. 이전에는 상담원을 향한 욕설과 성희롱이 빈번하여 스트레스를 호소하는 직원들이 많았습니다. 잦은 이직의 원인으로 지적되기도 했지요. 하지만 이제는 상담원의 감정노동을 최소화할 수 있도록 AI 동료가 방패 역할을 해줍니다. 자동실행이기 때문에 상담원은 통화를 지속할지 말지 고민하지 않아도 됩니다. 한 상담원은 “부정적인 말을 잊기 위해 쓰는 에너지를 아끼기 때문에 다른 고객님들께 더 친절하게 상담할 수 있게 되는 것 같다.”라고 전했습니다. #2. 데이터 청소부 ‘호록’ N잡러(겹벌이)로 일하고 있는 김앤잡씨, 오늘도 공유 오피스로 출근했습니다. 큰 텀블러에 커피를 가득 채워서 자리에 앉았습니다. 노트북을 열자, 화면이 밝아지면서 파란 유니폼을 입은 귀여운 코끼리가 등장합니다. “굿모닝!” 밝은 아침 인사에 앤잡씨는 기분이 좋아집니다. 이 코끼리는 앤잡씨의 작은 동료, 데이터 청소부 ‘호록’입니다. 앤잡씨는 예전부터 업무는 물론 쇼핑이나 자기 계발도 인터넷에서 하다 보니 여기저기서 광고, 스팸, 단순 알림성 메일을 많이 받았습니다. 지워도 지워도 계속 쌓이는 메일 때문에 스트레스받던 앤잡씨는 데이터 청소 AI, 호록이를 구매했습니다. 호록이는 앤잡씨가 메일함에서 어떤 것을 읽지 않고 지우는지/읽지만 보관하길 원치 않는지 학습했습니다. 쇼핑몰에서 보내는 단순 알림 메일과 여기저기서 오는 광고들은 호록이가 모두 정리하기 때문에 요즘은 메일함이 가벼워졌습니다. ‘데이터 미니멀리즘(최소주의)’이 유행하면서 많은 사람이 데이터 청소부를 구하고 있습니다.  물론 제 시나리오를 현실에 적용하려면 많은 문제가 있을 것입니다. 시행착오를 거치는 과정에서 자원도 많이 필요할 테고요. 다만, 아이디어가 모이면 나아가야 할 방향을 가늠해 볼 수 있지 않을까 생각합니다. 한정된 자원을 현명하게 투자하기 위해서는 다양한 정보 분석이 필수니까요. 기술은 어떻게 발전해야 하고 인간은 어떤 가치를 추구해야 하는지, 첨단기술의 시대를 맞닥뜨린 우리가 반드시 고민해야 할 지점이 아닐까요?  인공지능과 함께하는 직장 생활, 혹시 떠오르는 아이디어가 있다면 함께 나누어주세요! 재미있는 아이디어를 가볍게 던져 주셔도 좋습니다. (예: 진짜 진짜 최종파일의 이전 버전은 이름을 자동으로 변경해 주는 AI, 점심/회식 메뉴 의견 취합해서 예약해 주는 AI 등)
인공지능
·
5
·
인공지능은 민주주의와 공존할 수 있을까요?
유발 하라리는 그의 저서 ‘호모데우스’에서 인공지능에 의해 철저히 통제된 사회에 대해 이야기한다. 우선, 범용인공지능(AGI)이 아닌 특정 목적을 위해 설계된 인공지능(AI)의 목표는 설계자가 설정한 태스크(Task)에 맞는 정확한 결과를 도출하는 것이기 때문에, 인공지능이 판단을 내릴 때 개개인의 ‘인권’이나 ‘알 권리’ 같은 것들은 고려사항이 아니다. 마찬가지로 인공지능은 철저히 목적 지향적이기 때문에 기술 접근성의 양극화가 초래할 문제와 같은 사회적 공동선에 대한 개념자체가 없다. 이러한 측면에서 인공지능은 민주주의 보다는 철저한 통제와 감독으로 운영되는 독재에 최적화된 도구일지도 모른다. 출처 : Unsplash 그러나 더욱 큰 문제는 인류의 ‘방향키’를 쥐고있는 인공지능을 우리가 너무 모른다는 점이다. 방대한 양의 데이터에 기반한 언어모델의 초거대화(LLM) 트랜드를 보면 알 수 있듯이, 모델의 성능만 좋다면 사람들은 더이상 그 모델이 어떠한 프로세스를 거쳐서 결과를 도출해 냈는지 관심을 가지지 않는다. 그 결과 인공지능 개발자들의 오랜 화두였던 설명가능한 인공지능(XAI)에 대한 개념은 대중들에게 외면받고 있으며, 모델의 프로세스가 철저히 블랙박스로 남게되면서 우리는 인공지능의 작동원리를 점점 더 이해할 수 없게 되었다. 사람들은 ChatGPT가 요약해준 텍스트를 활용하여 돈버는 것에만 관심을 가질 뿐, 그것이 어떠한 원리로 나오게 된 것인지 궁금해하지 않는다.   인공지능을 어디까지 믿어야 할까? 유튜브는 개개인의 취향뿐만 아니라 비슷한 연령대, 성별, 지역 등의 사람들의 데이터를 분석하여 자신에게 최적화된 영상을 추천해준다. 한층 더 정교해진 초거대언어모델(LLM) 기반챗봇들은 상담자의 의도를 추론하고 이전 상담내용을 기억해내어 어렵지 않게 문맥을 파악하고 사람처럼 자연스러운 문장으로 문의안내를 해준다. 이처럼 추천 시스템이나 상담용 챗봇과 같은 인공지능 모델들은 우리의 삶을 편리하고 윤택하게 해주고 있다. 그러나 의료, 법률, 정치 등 다수의 삶에 중대한 영향을 끼칠 수 있는 분야에까지 인공지능이 침투했을 때, 이야기는 전혀 달라진다. 예를들어 인종, 성별, 거주지, 과거 범죄이력 등 특정 조건을 바탕으로 어떤 사람이 범죄를 저지를 것인지 예측하는 인공지능 모델이 있다고 가정해보자. 사용자인 우리는 인공지능 모델이 어떠한 데이터와 근거를 바탕으로 잠재적 범죄자를 예측했는지 알 수 없다. 이는 무죄추정의 원칙을 통해 단 한사람의 억울한 사람도 발생하게 하지 않게 하자는 법의 취지에 어긋날 뿐더러, 인간의 알 권리에 정면으로 도전하는 일이 될 수 있다. 위와같이 윤리, 도덕적인 이슈에 대한 사회적 합의가 중요한 법률이나 정치와 같은 영역에서 인공지능 도입수준은 타 영역에 비해 아직 미미한 수준이다. 그러나 국가와 정부의 역할이 모호해지고 합리성과 편의성의 측면에서 인간의 역할과 대체가능성에 대한 의문이 제기되기 시작한다면, 공공이나 정치분야에서 인공지능 보급은 시간문제일 뿐일지 모른다. 따라서 우리는 더 늦기전에 인공지능에 대한 잠재적인 위협을 인식하고 통제권을 가져오기위한 노력을 시작해야한다. 무엇보다 사회 구성원 개개인의 따라서 국민 한 사람 한 사람의 인권과 참정권 보장이 핵심인 민주주의 체제에서 살아가고 있는 우리에게 인공지능과의 공존에 대해 생각하고 논의하는 것은 생각보다 시급하고 중요한 일인지도 모른다. 그 첫걸음으로 인공지능이 어떻게 민주주의와 우리의 삶을 위험에 빠뜨릴 수 있는지 그 잠재적인 위협 요소에 대해 살펴보도록 하겠다.   1. 인공지능의 발전과정 많은 사람들이 간과하고 있는 사실이지만, 인공지능은 믿을 수 있는 기관의 감독하에 뚜렷한 목적과 방향성을 가지고 발전해 온 것이 아니다. 1956년 다트머스회의에서 존 메커시 교수에 의해 인간처럼 추론하고 문제를 풀 수 있는 인공지능의 개념이 처음으로 등장한 이후, 인공지능은 통계학과 컴퓨터과학의 힘을 빌려 발전해왔다. 이후 인공지능은 1970년대 기술적 한계에 부딪혀 빙하기를 맞게 되었다가, 은닉층(Hidden Layer)으로 XOR 문제를 해결한 딥러닝(Deep Learning)이 등장하면서 제2의 전성기를 맞게된다. 최근에 이르러서는 클라우드 컴퓨팅 기술과 GPU의 발전으로 어마어마한 양의 데이터를 저장하고 분석하는 것이 가능하게 되면서 이미지, 텍스트, 음성뿐 아니라 생성AI에 이르기까지 다방면에서 활용되게 된다. 이러한 발전과정에서 훈련 데이터를 활용한 지도학습(Supervised Learning)뿐 아니라 대량의 빅데이터(Big Data) 속에서 인간이 발견해 내지 못한 특성과 패턴을 찾아내는 비지도 학습(Unsupervised Learning)과 보상을 통해 스스로 패턴을 찾아내게 유도하는 강화학습(Reinforece Learning)에 이르기까지 다양한 테크닉이 등장한다. 문제는 이러한 인공지능 기술의 발전이 ‘스스로 학습하고 판단하는 기계’를 만들고 활용하고자 하는 인간의 욕망을 반영할 뿐, 작동 프로세스와 그것이 초래할 영향력에 대한 충분한 숙고 없이 이루어져왔다는 점이다. 이러한 인공지능의 발전과정은 다음에 살펴볼 ‘블랙박스 모델’이라는 문제를 만들어냈다.   2. 블랙박스모델과 설명가능한 AI(Explainable AI) 인공지능은 인간과는 비교가 되지 않는 방대한 양의 데이터를 학습하고 그 속에서 스스로 패턴을 찾아낸다. 생물학계에서 수십년에 걸쳐 연구해온 난제인 단백질 분자구조에 대해서도 인공지능은 분석과 예측이 가능하다. 다만, 우리는 그러한 결과가 어떠한 프로세스를 걸쳐서 도출되었는지 알 방법이 없다. 인공지능이 수억개의 매개변수와 인공신경망(ANN)을 거쳐서 만들어낸 프로세스는 인간의 이해범위를 넘어서기 때문이다. 이처럼 프로세스가 철저히 베일에 쌓인 인공지능 모델을 블랙박스 모델(Blackbox Model)이라고 한다. 블랙박스 모델의 계산 프로세스를 이해하려는 시도는 마치 황금알을 낳는 거위의 뱃속에 무엇이 들었는지 알아보기 위해 거위의 배를 가르는 것과 같다. 데이터가 기하급수적으로 늘어나고 컴퓨팅 파워가 과거와 비교도 되지 않게 발전한 요즘, 우리가 일상에서 마주하는 모델은 대부분 이 블랙박스 모델에 해당한다. 이에 대비되는 개념으로 입력값으로 들어간 변수가 분석과정과 결과에 어떻게 영향을 미치는지 유추해볼 수 있는 모델을 설명가능한 AI(Explainable AI)모델이라고 한다. 정치, 법률, 의료 등 민감하고 중요한 분야에 인공지능을 도입하고 활용하기 전에 우리는 일부라도 ‘설명가능한’ 인공지능 모델을 활용하려는 노력을 할 필요가 있다.   3. 데이터의 편향 대부분의 인공지능 모델 개발은 훈련과 검증 그리고 테스트라는 과정을 거친다. 방대한 데이터 속에서 인간의 개입없이 인공지능이 스스로 패턴과 유사성을 찾아내는 비지도학습(Unsupervised Learning) 모델도 존재하지만, 지도학습(Supervised Learning)과 강화학습(Reinforcement Learning)에는 여전히 인간의 개입이 필요하다. 이는 훈련 데이터의 레이블링(Labeling)과 선정이라는 면에서 ‘인간의 편향(Human Bias)가 인공지능에 반영될 위험이 여전히 존재함을 뜻한다. 예를들어 미국과 같은 다인종, 다문화 국가에서는 필연적으로 한 사회의 대다수를 차지하는 주류인종(Majority) 에 대한 데이터가 소수인종(Minority)에 대한 데이터보다 많을 수밖에 없다. 이러한 편향은 고스란히 인공지능의 학습결과에 반영되어, 주류인종에 유리한 결과만을 도출하게 될 수 있다. 즉 우리는 또다른 인공지능 인종차별자(AI Racist)를 탄생시킬 수 있는 위험을 가지게 되는 것이다.  
인공지능
·
5
·
인공지능과 바둑
“그 당시 희망이 없다고 생각했다. 충격과 공포에 휩싸였다.” 대만에서 바둑학원 ‘동심원기원(同心圓棋院)’을 운영하는 천치오우홍(陳秋宏) 원장은 2016년 3월을 이렇게 회고한다.  2016년 3월 알파고와 이세돌의 바둑 매치는 한국뿐 아니라 세계를 뜨겁게 달궜다. AI가 넘볼 수 없으리라 여겼던 복잡한 바둑의 세계에 도전장을 내민 딥러닝 인공지능 알파고는 AI 시대 서막을 알리는 신호탄이었다. 총 5국 중 세 번째 대국마저 끝내 패했던 이세돌은 “이세돌이란 한 사람이 패했을 뿐, 인류 전체가 패한 것은 아니다.”라는 명언을 남겼다. 그는 드라마처럼 제4국에서 알파고가 오류에 빠지도록 만들었고, 역사에서 유일무이하게 AI를 이긴 바둑기사로 남게 되었다. 이후 바둑계는 과연 어떻게 바뀌었을까.  알파고와 이세돌의 세기의 매치에 함께 참여한 한국기원의 양재호 사무총장은 한 강연에서 말했다. “바둑 역사는 인공지능의 출현, 이전과 이후로 나뉜다.”  딥러닝 인공지능의 출현으로 바둑계는 이전에 좋은 수로 평가받았던 것들이 사실은 승률이 낮은 수라는 걸 알게 되었다. 중국의 ‘절예’를 비롯한 ‘카타고’, ‘엘프고’, ‘릴라 제로’, ‘한돌’ 등 수많은 바둑 AI가 개발됐고, 여러 회사의 인공지능 간 대국도 매해 이루어진다. AI가 얼마나 정보를 가지고 있고, 그것을 통해 얼마나 스스로 진화했나를 보여주는 것이다. 바둑 해설가들은 인공지능을 참조하지 않고는 좋은 해설을 하기 어렵고, 바둑기사들은 인공지능을 스승으로 두고 있다. 프로들뿐 아니다. 아마추어들도 어느 정도 기초를 터득하고 나면 스스로 인공지능을 이용해 자신의 기력을 향상시킬 수 있다. AI가 승률이 높은 곳을 알려주고, 참고도도 만들어주기 때문에, 일종의 답안지를 얻어 독학할 수 있게 된 것이다. AI라는 고수와 대국을 할 기회가 있다는 것도 큰 장점이다.  이세돌 9단이 유일무이하게 인공지능을 이긴 바둑기사로 남았다는 것은, 이제 이미 어떤 바둑기사도 인공지능을 이길 수 없게 됐다는 걸 의미한다. 프로 바둑기사도 수많은 경우의 수를 AI만큼 정교하게 계산해낼 수 없다. 바둑 해설가들은 종종 “AI니까 저런 수를 생각해 내지, 인간이라면 도저히 둘 수 없는 수다”, “인공지능의 추천 수는 때로 프로선수도 이해하기 어렵다” 는 말을 한다. 인공지능은 이미 인간보다 앞서고,  바둑의 신처럼 ‘신의 한 수’를 늘 가지고 있는 듯이 보인다. AI 홍역을 먼저 치른 바둑계 바둑계의 변화는 현재 챗GPT등 생성AI와 마주친 우리 세계 일반의 변화를 암시한다. 바둑계와 인공지능 간의 대결과 적응 과정을 살펴보면, 우리가 마주칠 혹은 마주치고 있는 인간과 생성 AI 간의 대결과 적응 과정을 이해할 수 있을지도 모른다.  그렇다면 바둑기사는 전부 은퇴하거나 사라지고, 바둑을 즐기는 사람이 없으며, 바둑을 새로 배우는 사람이 없을까. 전혀 그렇지 않다. 천치오우홍 원장은 말한다. “기초부터 AI로 배울 수는 없다. 기초적인 룰을 익히는 것은 크게 바뀌지 않았다. 인간이 당장 AI의 수읽기를 이해하기 어렵기 때문이다.” ‘동심원기원’에서도 바둑을 배우려는 아이들은 끊임없이 찾아온다. 게다가 선생님들은 AI를 공부해서 보다 효율적으로 바둑을 가르칠 수도 있다. 인공지능과의 바둑 게임도 도구 역할을 톡톡히 해낸다. 바둑학원에서 학생들은 인공지능을 이용하여 예전과 다르게 발전 속도를 높일 수 있다. AI를 통해 예전에는 접하기 어려웠던 기보(棋譜, 바둑을 두어나간 기록)를 전 세계 누구나 쉽게 접할 수 있다. 프로들이 모여 수년 동안 함께 연구했던 것이 이제는 노트북만 가지고 따로 연구하고 공부할 수 있게 되었다. 그러나 그것을 공부하고 해석할 수 있는 몫은 저마다의 기력(棋力, 바둑을 두는 실력)과 이해력에 따라 다르다. 인공지능으로 초반 50수 정도는 어느 정도 포석이 정해진다면, 이후 변화와 수읽기는 인간에게 주어지는 새로운 숙제일 수밖에 없다. 설사 바둑으로 인간이 AI를 능가할 수 없더라도 바둑 대회는 열리고, 전 세계의 수많은 프로 기사들이 바둑판 위에서 수를 겨루고 있다. ‘신공지능’이라 일컫는 한국의 ‘신진서 9단’은 2023년 5월 현재 세계 부동의 1위로 굳건히 서 있고, 그의 바둑은 여전히 수많은 바둑팬들의 시선을 사로잡는다.  여성 기사들도 인공지능을 공부해 속속 강자로 떠오르고 있다. 한국의 여성 프로기사 ‘최정 9단’은 세계바둑대회인 <제27회 삼성화재배 월드 바둑 마스터스>에서 중국과 일본, 한국의 강자들을 차례차례 꺾고 결승에 진출, 준우승을 차지하며 바둑계의 새로운 신화를 썼다. ‘오유진 9단’도 올 3월 통산 500승을 달성하며 국내 여자기사로는 다섯 번째로 500승 고지를 돌파했다. 전체적으로 프로기사들의 실력이 ‘상향 평준화 되었다’는 평도 있으며, 20대의 전유물로 여겨지던 바둑기사들의 전성기가 인공지능의 도움으로 역주행하는  ‘강동윤 9단’도 있다. 아시아권에서만 주로 즐기던 바둑을 이제 전 세계에서 접근할 수 있는 장점도 있다.   한국기원 전 사무총장이자, 현재도 감독과 해설가, 선수로 활약하는 김영삼 9단은 바둑계 인공지능 시대에 대해 이렇게 말한다.  “이제는 AI에게 묻고 배우는 시절이 도래했다.  AI가 없이는 성장하기 힘든 구조가 되었다. AI를 통한 지난 몇 년간의 발전이 이제까지 이룩해 온 수천 년간의 발전보다 더 크다.“ 물론 인공지능이 좋은 도구로만 쓰인 것은 아니다. 인공지능 치팅 문제는 여전히 논란의 중심에 서곤 한다. 최근 중국에서도 치팅 논란이 일어 중국 바둑계가 발칵 뒤집히기도 했다. 논란의 핵심은 인공지능을 활용했는지, 안 했는지 우리가 판별해 낼 도리가 없다는 데에 있다. 인공지능의 추천 수를 8, 90 프로 이상 맞추면, 과연 자신의 실력인가 인공지능 치팅인가 의심하게 되는 것이다. 그만큼 인간의 능력이 향상되었다는 의미도 되지만, 더이상 인공지능과 인간을 구별하기 어렵다는 반증이기도 하다. 그럼에도 바둑을 둔다, 우리는.   이미 인간계를 평정한 인공지능이 있음에도, 아직 우리는 인간과 인간의 대면 대국에 매료된다. 상대의 수를 예측해 보고, 수를 읽고, 상대의 심리를 파악하거나 이용해서 새로이 나아갈 길을 내는 ‘인생의 축소판’이라는 바둑은 인공지능이 따라올 수 없는 부분이 있다.  인간이 인간의 한계를 시험하고자 하는 노력, 살얼음판 같은 승패의 갈림길에서 위기를 극복해내고 역전하는 슬기와 끈기, 인간과 인간 서로 간의 심리전 등. 사람이기에 할 수 있고 사람이기에 즐길 수 있는 영역이 남아 있다. 인공지능이라도 빼앗을 수 없는 부분일 것이다. “아이들은  AI로도 배우지만, 근본적으로는 선생님의 돌봄에서부터, 다른 친구들과의 승부에서부터 바둑의 재미를 느끼게 된다.”  천치오우홍 원장은 말한다. 2016년 느꼈던 충격과 공포가 그의 마음 한켠에 남아 있지만, 그래도 바둑을 사랑하는 사람들은 서로 만나 승부를 겨룬다. 승부를 통해 서로의 마음과 인생, 태도를 접하고 읽어내린다. 또 패배를 이겨내고, 승리를 다지는 마음의 굳은 심지도 배워나간다.  바둑 속에 바둑을 두는 사람의 개성이 있어, ‘기풍(氣風)’이라 한다. ‘기풍’은 고유한 성격처럼 그 사람을 반영한다. 그것을 읽어내며 서로 간에 언어가 아닌 손의 대화, 수담(手談)을 나누는 재미는 인공지능이 줄 수 없는 어떤 것이다. 인공지능이란 무엇인가? 인간이란 무엇인가!   현재 활발히 논의되는 챗GPT 등 생성AI에 대한 충격과 공포는 물론 더 범위가 넓고, 우리가 예측하는 것 이상의 새로운 문제를 낳을 수도 있다. 그러나 결국 인간이 어떻게 활용하느냐가 가장 중심이 될 것이다.  바둑 인공지능을 통해 과거에 좋은 수로 평가받았던 것이 이제는 좋지 않은 수로 평가받는 것처럼, 인공지능에 비치는 우리의 모습을 보면서, 우리가 가진 편견과 관습, 권력의 위험성, 악의 등을 오히려 감지하게 된다. 인공지능(Artificial Intelligence, AI)을 통해 오히려 ‘인간의 지능’ 혹은 ‘인간의 재능‘이란 무엇인지 다시금 생각하게 된다.  더 나아가 ‘인간이란 무엇인가’란 근본적인 질문에 봉착한다. 인간은 과연 인공지능이 낸 사활문제를 풀어낼 수 있을까. 단순히 인공지능을 이겨내거나 이용하거나의 문제가 아니라, 인공지능을 통해 인간에게 유용하게, 보다 나은 세계를 향하도록 키를 잡을 수 있는가의 문제가 될 것이다.
인공지능
·
8
·
인간만이 창작한다는 개념이 모호해지는 AI 시대
AI가 뜨거운 감자입니다. 쉽게 삼키기도, 뱉기도 어렵습니다. 쓰긴 해야 하는데, 바로 쓰기엔 챙길 이슈가 많습니다. 오늘은 여러 이슈 중 AI와 문화에 대해 이야기 해보려 합니다. 특별히, AI의 작품을 창작의 영역으로 봐야할지, 도구의 영역으로 봐야할지 생각해보고자 합니다. 저작권에 대해 이야기 해보고자 합니다. 그리고 AI와 문화를 우리가 어떻게 생각해볼 수 있을지 토론해보고자 합니다. AI가 그린 그림은 무엇? 먼저 사진을 살펴보죠. 해당 사진은 AI 작품이 위조인지, 예술인지 알아보기 위한 연구 논문에서 발췌한 사진입니다. 상하단이 비슷합니다. 둘 중 하나는 AI 작품이고, 다른 하나는 AI가 학습한 데이터입니다. 즉, AI가 학습한 걸 토대로, 비슷한 걸 창조한 것입니다. 어떤 게 AI의 작품이고, 학습 도구인지 구분이 가시나요? 솔직히 말하면, 전 구분하지 못했습니다. 비슷했고, 잘 만들었습니다. 전문가라면 한눈에 알아볼 수 있겠지만, 잘 모르는 저는 둘 다 작품이라 말해도 손색없다 싶었습니다. 정답은 상단 그림이 AI 작품, 하단 그림이 AI가 학습한 데이터입니다.  그림을 잘 그렸냐, 못 그렸냐를 떠나서 향후 인간이 만드는 작품보다 AI가 만드는 작품이 훨씬 많아질 것 같습니다. AI 작업량을 인간이 따라가지 못하는 건 명확하니까요. 지금은 작품성에서 인간이 더 뛰어날지 모르지만, AI의 학습량이 많아지면 부족한 작품성도 보완이 될 거라고 예상됩니다. 그러다보면 AI가 인간보다 더 예술성 있는 작품을 만들지도 모르겠습니다. 인류가 더이상 알파고를 이길 수 없듯, 너무 멀리 가버릴지도 모르죠. 현재도 AI는 다양한 작품을 만들고 있고, 실제 현장에서도 사용되고 있습니다. 우선 그 실상을 살펴보시죠. 활발히 사용중인 웹툰업계 현재 가장 활발한 논의가 있는 곳은 웹툰계입니다. 네이버는 지난 4월 24일 툰필터 상표권을 등록했습니다. 툰필터는 사진을 업로드하고, 원하는 웹툰 작가의 화풍을 선택하면 AI가 작가의 화풍에 맞게 사진을 그림으로 그려주는 서비스입니다. 즉, AI가 웹툰 작가의 화풍으로 소비자에게 그림을 그려주는 것이죠. 위 사진은 네이버에서 운영 중인 툰필터의 한 사진 입니다. AI가 학습한 데이터를 토대로 그림을 그려줍니다. AI가 이렇게 할 수 있는 이유는 네이버웹툰과 웹툰작가가 계약시, 작가의 그림을 AI가 학습할 수 있도록 제공한다는 데 서명했기 때문입니다. 작가의 동의 없이 무단으로 했다면 저작권 침해겠지만, 동의했기 때문에 침해는 아닌 게 되는 것이죠. 하지만 반론도 있습니다. 네이버 웹툰 작가가 되려면, 웹툰 작가의 작품을 AI 학습 데이터로 사용해야 한다고 합니다. 국내에서 네이버 웹툰의 영향력은 절대적입니다. 절대적 영향력 앞에, 어쩔 수 없는 동의를 한 것이고, 이에 대한 불만이 있으나 그 영향력 앞에 쉽게 말할 수 없다는 이야기 입니다. 그렇다고 AI 사용에 반대하는 건 아닙니다. 웹툰 작가의 화풍을 쓸 때 그에 따른 합당한 저작료를 달라는 입장입니다. 또 다른 사례를 보겠습니다. 웹툰을 AI가 그린 것 같다는 이슈로 도마에 오른 작품입니다. 지난 5월 22일에 첫 연재가 시작된 <신과 함께 돌아온 기사왕님> 이라는 작품입니다. 현재는 수정됐지만, 처음 공개 당시엔 그림 중 일부가 통일성이 없고, 화풍이 일정치 않다는 비판이 있었습니다. 그 이유가 AI가 그렸기 때문이 아니냐는 것이었죠. 웹툰을 그린 업체는 반박했습니다. “AI를 이용해 생성된 이미지를 사용한 것은 아니다"라며 "3D모델과 각종 소재들을 사용하면서 웹툰에서 느껴지는 위화감을 줄여보고자 작업의 마지막 단계에서 AI를 이용한 보정작업을 했다.”라고. <툰필터>와 <신과 함께 돌아온 기사왕님> 사례를 보고 AI를 창작자로 봐야할까? 라는 생각이 들었습니다. 전자는 웹툰작가의 작품을 도구로 AI가 그림을 그린 것이고, 후자역시 논란은 있지만 AI가 그림을 그렸다고 볼 수 있기 때문입니다.  글, 그림, 음악, 영상 등등 작품을 만든 사람에게는 저작권이 생깁니다. AI를 창작자라고 본다면, AI에게 저작권이 생길 겁니다. 반대라면 없겠죠. 때문에 저는 AI 작품에 저작권을 부여 하느냐, AI 작품을 저작물이라고 할 수 있느냐 이슈가 굉장히 중요하다고 생각합니다.  생성형 AI의 그림 창작일까? 저작권은? 생성형 AI란 인간이 입력한 명령어를 AI가 만들어주는 걸 말합니다. 인간이 명령어를 입력하면 그에 맞는 이미지를 생성해주는 것이죠. 마이크로소프트 빙 이미지 크리에이터, 셔터스톡 AI 등등 다양합니다. 저도 실제 한번 만들어 봤습니다. 아래 사진입니다. 마이크로소프트 빙 이미지 크리에이터를 통해 ‘사과 먹는 모습'을 생성한 것입니다. 질문 해보겠습니다. 이 그림의 저작권은 누구에게 있을까요? 제가 이 그림의 저작자일까요? 저는 그냥 명령만 내렸고 그림엔 손 하나 까딱 안했는데도요? 그렇다면, AI가 그런 깃이니 AI가 저작자일까요? 그런데 제 명령이 있어서 AI가 그림을 그린 거 아닌가요? 질문이 헷갈리는 만큼, AI 저작물에 대한 의견도 분분합니다. AI가 저작권이 없다라고 주장하는 의견도 있고, AI에게 저작권이 있다고 말하는 의견도 있습니다. 우리나라 저작권 법에 따르면, “저작물”은 인간의 사상 또는 감정을 표현한 창작물을 말합니다. 즉, 설령 AI라 할지라도 인간의 사상 또는 감정을 표현한 창작물이라면 저작물로서 보호를 받을 수 있다는 의미로 해석할 수 있습니다. 또한 저작자를 저작물을 창작한 사람으로 보고 있기에 AI를 저작자로 볼 수도 있을 것입니다. 이화여대 조연하 교수의 <인공지능 창작물의 저작권 쟁점 - 저작물성과 저작자 판단을 중심으로> 논문에 따르면, 근거에는 다소 차이가 있지만 전문가들이 대체로 AI의 창작물을 저작물로 보는 게 타당하다는 의견을 밝혔다고 합니다. 다만, 저작권 보호 기간을 인간보다 짧게해야 한다는 의견입니다. 실제 미국의 경우 AI의 저작물을 저작권이 있는 것으로 규정합니다. 물론, 인간의 노력이 얼마나 들어갔는지를 증명해야 합니다. 실제 논쟁도 됐습니다. 한 공모전에 입상한 작품이 알고보니 AI가 그린 작품이었는데, 해당 작품을 출품한 사람은 AI가 해당 그림을 그리도록 미세하게 명령어를 조작한 내 노력이 들어갔다는 입장을 펼쳤습니다. 국내에서도 AI의 저작물에 저작권을 인정하는 방향으로 법률 개정안이 나온 상태입니다. 흐려진 경계, 문화는 어떻게 될까?  AI 저작권에 대해 아직 사회적 합의는 없습니다. 앞으로 만들어 가야할 부분입니다. 다만, AI의 등장으로 인간 고유의 것에 금이 가고 있다는 생각이 듭니다. 인간의 작품에 한정되던 저작권의 경계가 점점 모호해지고 흐려지는 것처럼, 인간만이 창작을 한다는 개념이 모호해지는 것 같습니다.  그저 인간의 도구라고 생각했던 AI가 도구가 아닌 하나의 창작자로서 역할을 하게 될지, 아니면 그저 인간의 창작을 위해 필요한 도구로서만 한정하게 될지, 그도 아니면 인간과 AI가 함께 만드는 것으로 흘러가게 될지, 혹은 더 나아가 인간의 창작물이 AI 창작자의 도구가 될지는 아직은 모르겠습니다. 사회적으로 활발한 논의가 필요한 시점 같습니다. 그래서 여러분들에게 묻고 싶습니다. 여러분들은 앞으로 우리 사회의 창작의 영역이 어떻게 바뀔 거라고 생각하시나요? 혹은 어떻게 바뀌어야 한다고 생각하시나요? 우리는 앞으로 어떤 주체와 유형의 창작이 이루어지는 세상에서 살게 될까요? 또 왜 그렇게 생각하시나요? 여러분들의 생각을 듣고 싶습니다.
인공지능
·
6
·
bada
684
영화 <아바타>가 현실이 된다면 어떨 것 같나요?
영화 <아바타> 보셨나요? 제임스 카메론 감독이 연출한 <아바타>는 2009년 개봉해 큰 관심을 받았습니다. 당시에는 생소했던 3D 관람이 인기의 한 몫을 했었죠. 13년이 흘러 2022년엔 속편이 개봉되기도 했습니다. 개인적으로 저는 학생이었던 2009년 아바타를 보면서 하반신이 마비된 주인공이 특정 장비에 들어가 자유롭게 움직이는 장면이 가장 기억에 남았습니다.(영화의 스토리는 다 잊어버렸는데도 그 장면은 기억이 나네요) 공상과학 영화 속에서나 나올 법한 장면이 현실이 된다면 여러분은 어떤 기분이 드실 것 같나요? 오늘은 영화 <아바타> 속 장면을 현실로 만들고 있는 기술 BCI(Brain-Computer Interface)에 대해 이야기해 보려 합니다. 머지않아 현실이 될 수 있는 영화 <아바타> BCI에 대한 이야기를 본격적으로 하기 전에 영화 <아바타>에 대한 이야기를 짧게 해볼까 합니다. <아바타>를 제작한 제임스 카메론 감독은 2009년 시리즈를 처음 선보인 이후 다양한 속편 계획을 세웠다고 합니다. 하지만 아시다시피 <아바타> 시리즈의 두 번째 작품은 2022년에서야 개봉했죠. 그 이유는 그동안 움직임을 추적해 기록하는 ‘모션 캡쳐’ 기술이 제임스 카메론 감독의 구상을 구현하지 못했기 때문인데요. 이후 기술의 발전으로 수중 모션 캡쳐 등 다양한 연출이 가능해지면서 영화의 속편이 감독이 만족할 수 있는 완성도를 가지고 제작될 수 있었습니다. <아바타>의 속편 제작이 미뤄지는 사이 발전된 또 다른 기술이 있습니다. 바로 BCI입니다. BCI 기술의 발전을 보여줄 수 있는 사례가 얼마 전 스위스에서 등장했는데요. 스위스 로잔 공과대학 연구진은 5월 24일 과학저널 네이처지에 ‘디지털 브릿지’를 개발했다고 발표했습니다.(로잔 공과대학 연구진은 뇌-척추 인터페이스라는 의미의 BSI(Brain-Spine Interface)라는 용어를 사용했습니다) AI타임스 등이 보도한 ‘디지털 브릿지’ 개발 배경을 살펴보면 실험 연구의 과정과 결과가 흥미로운데요. 로잔 공과대학 실험에 참여한 세르트 얀 오스캄은 영화 <아바타>의 주인공처럼 하반신이 마비됐습니다. 그는 이번 실험을 통해 “12년 만에 다시 일어서고 걷고 계단도 오르고, 복잡한 지형도 통과할 수 있게 됐다”고 합니다.(가디언지의 유튜브 채널에는 그가 실제로 걷고, 계단을 오르는 장면이 올라와 있습니다) 영화 <아바타>에서 주인공이 장비를 통해 다른 행성의 종족과 연결되어 하반신을 움직일 수 있게 됐다면, 현실에선 마비된 하반신을 바로 움직일 수 있는 기술이 개발되고 있는 셈이죠. 그렇다면 어떻게 영화에서 등장한 장면이 현실에서 재현될 수 있었던 걸까요? 뇌와 컴퓨터의 연결은 우리 삶을 바꾸게 될까요? 마비된 하반신을 움직이게 한 과정은 이렇습니다. 먼저 뇌에 BCI를 이식하고, 척수에 센서를 이식합니다. 뇌에 이식한 BCI는 다리 움직임과 관련된 활동을 기록하고 신호를 환자의 보행기 혹은 휴대용 컴퓨터에 전달합니다. 그럼 휴대용 컴퓨터가 신호를 분석하고 척수에 심은 센서에 전달해 다리를 움직이게 합니다. 이렇게 끊어진 신경의 역할을 BCI 장치들이 대체하는 것이죠. BCI는 신경 대체 뿐만 아니라 다양한 영역에서 활용될 가능성을 가지고 있습니다. 활발한 연구가 이뤄지고 있는 분야는 뇌파를 분석해 이미지를 재현하는 기술인데요. 가령 특정 이미지를 볼 때 발생하는 뇌파를 분석해 어떤 이미지를 보고 있는지 역추적하는 기술입니다. 일부 연구에서는 실제 이미지와 매우 유사한 수준의 재현이 이뤄졌을 정도로 구현되고 있습니다. 이 기술은 스위스, 미국, 일본 등 다양한 곳에서 유사한 연구가 진행되고 있는데요. 시각 장애인에게 시각적 감각을 제공하거나 뇌 손상 등의 상황에서 의사소통이 가능하도록 활용될 수 있습니다. 그뿐만 아니라 BCI는 다양한 방향으로 연구가 진행 중인데요. 뇌 신호를 이용해 생각만으로 로봇이 물건을 잡거나 들 수 있는 기술을 비롯해 전자기기, 가전제품 등에도 적용될 가능성이 있습니다. (자세한 기술 연구 사례들은 AI타임스 기사를 참고했습니다) 이렇게 다양한 가능성을 가지고 있는 BCI는 우리 삶을 바꾸게 될까요? BCI가 만들 변화는 긍정적인 방향으로만 흐르게 될까요? BCI 기술 이대로 괜찮을까요? 모든 기술이 그러하듯이 BCI도 장점만 가진 것은 아닙니다. 가장 먼저 지적되는 문제는 개발 과정의 비윤리성인데요. 전기자동차 제조회사 테슬라의 최고경영자 일론 머스크는 2016년 뇌신경 과학 벤처기업 뉴럴링크를 설립했습니다. 머스크의 뉴럴링크는 기술 개발 과정에서 동물 학대 의혹이 지속해서 제기됐는데요. 지난해 말에는 동물권 보호단체 ‘책임있는 의학을 위한 의사위원회’가 미국 연방정부에 뉴럴링크에 대한 조사를 요구하기도 했습니다. 수백 마리의 원숭이와 양, 돼지 등이 뉴럴링크의 실험 과정에서 학대당했다는 문제 제기였습니다.(의혹을 단독 보도한 로이터 통신, 로이터 통신 보도를 전달한 경향신문 등의 보도에서 자세한 내용을 확인하실 수 있습니다) 동물 학대 실험뿐만 아니라 인간을 대상으로 한 실험에서 발생한 문제도 있습니다. BCI는 뇌 등 신체에 칩을 이식하는 침습형과 이식 없이 외부 장비 등을 이용하는 비침습형으로 나뉘는데요. 침습형의 경우 인체에 장비를 이식하기 때문에 거부반응을 일으키는 경우도 발생합니다. 테크레시피에 따르면 앞서 소개한 하바신이 마비된 세르트 얀 오스캄도 두개골에 이식한 장비 중 하나가 감염증을 일으켜 제거하기도 했습니다. 무엇보다 큰 문제의식은 BCI가 비윤리적으로 사용될 우려가 있다는 것입니다. 김성필 울산과학기술원 디자인 및 인간공학부 교수는 2017년 머니투데이와의 인터뷰에서 “BCI가 악용될 경우 사회적으로 심각한 윤리 문제를 일으킬 수 있다”고 주장했는데요. 김 교수의 우려는 아래와 같았습니다. 아직 먼 얘기같지만 만약 뇌파를 측정하는 사람이 다른 의도를 품고 피실험자의 통장계좌나 현관문의 비밀번호 등을 알아볼 수 있겠죠. 본인에게 동의를 구하지 않은 상태에서 원치 않는 정보를 집어넣는 범죄도 일으킬 수 있어요. 이를테면 불법적인 사상과 이념을 주입해 세뇌하는 거죠. 또 만일 뇌 자극을 통해 더 우수한 뇌를 만들 수 있게 됐다고 가정해 보죠. 그런데 수천수억원이 든다. 그러면 부유층만 누리는 특혜산업으로 변질될 우려도 있죠. 김 교수는 인터뷰 마지막에 BCI 기술이 끼칠 영향을 파악하고, 윤리적인 연구가 이뤄질 수 있도록 방안을 마련해야 한다고 강조했는데요. 특히 “인간에게 BCI에 대한 ‘거부권’을 행사할 수 있는 권리를 부여하는 등 사회적인 공감대를 이룰 수 있는 법·제도도 구축해야 합니다”라며 제도적인 해결책을 마련해야 한다고 주장했습니다. 김 교수의 인터뷰로부터 6년이 흘러 BCI 기술은 이제 우리 삶에 영향을 끼칠 수 있는 수준까지 도달했습니다. 하지만 우리는 여전히 BCI 기술과 관련된 충분한 논의를 하지 못했습니다. 김 교수의 우려를 한국 사회는 잘 해결할 수 있을까요? 뇌와 컴퓨터를 연결하는 기술은 이대로 괜찮을까요? 캠페이너 여러분은 BCI 기술을 어떻게 생각하시나요?
인공지능
·
8
·
인공지능시대 민주주의는 어떤 변화를 하게 될까?
인공지능 시대 시민참여 민주주의 강화를 위한 모색                매일 진화하는 인공지능 시대를 맞이하는 것이 두려운 이유는 그동안 공론장으로 소셜네트워크가 자본에 예속된 속성으로 인해 많은 극단화 현상을 만들어 가는 것을 보면서 우리는 또 다른 갈등을 보게될까 두렵기 때문이다. 인공지능 기술의 발전은 필연적으로 우리 시대 공론장 및 민주주의 시스템(입법, 사법)에 영향을 미칠 가능성이 높다. 그런 시대가 오더라도 우리는 어떤 원칙을 가지고 인공지능 시대를 맞이해야 하는가에 대한 주제를 담고자 한다. 꿈꾸는 통신노동자  김 철회 민주주의도구로서 디지털 정보기술의 우려와 기대 디지털 정보기술은 인간에게 민주주의 도구에 적합한가? 라는 의문을 가지게 된다.그리고 현재 우리 시대는 정보기술에 의해 긍정적 측면과 부정적 측면 모두를 경험했다. 그러한 긍정적 측면에는 인터넷 기술을 통해 소통이 많아졌다는 것이고, 이러한 소통을 활성화에 따라 광고수익을 올리는 소셜미디어 기업의 경우 알고리즘기반 데이터 버블을 형성하다 보니 양 극단으로 나눠진 여론지형과 갈등상황이 극대화 된다. 이러한 현상으로 나타난 또 다른 특징은 주류언론과 반대성향 언론이 활동할 지대가 소셜미디어를 통해 형성된다는 점이다. 재미있는 현상은 기성언론이 독재권력에 충실한 국가에서는 민주화를 위한 수단으로써 역할을 하기도 하지만, 반대로 기성언론이 일정 역할을 하는 국가에서는 그 반대 극단주의를 확산하는 수단으로 작동하게 된다.  이러한 현상은 각국에서 유사하게 나타나며 갈등요소로 확대되고 있다. 또한, 이러한 소셜미디어에 대한 여론 왜곡에 대한 이슈에 대응도 못할 사이 우리는 Chat GPT-3을 만나게 되었고, 개발자들 조차 인공지능에 두려움을 느끼게 되었다. 그러나 우리는 피할수 없는 변화속에 놓여 있는지 모른다.  인간과 인공지능 간 협업 인공지능과 인간은 어떤 인식체계 속에서 협력할 수 있을까?   인간의 역할과 인공지능의 역할은 어떻게 구분되고 인간은 어느 수준까지 인공지능에 의존하는 것이 적정할까?  이러한 단초를 우리는 아래와 같이 인간 의식구조 피라미드를 통해 생각해 볼 수 있다. 의식 구조 피라미드에서 인식 및 기억, 지식 영역에 대해서는 현재 기술 기반 인공지능으로 구현이 가능한 영역이다. 이러한 정보를 통해 어떤 개인들은 주관성의 영역에서 그동안 개인의 경험 축적으로 인해 정보를 해석하는 각자의 관점이 형성된다. 이것이 바로 가치관과 비전과 같은 영역으로 확산되며, 현재로서는 수많은 사람들의 다양한 관점들이 나타나는 영역이라고 이해하면 좋을 것 같다.   객관성 영역은 그동안 소위 전문가 영역으로 알려졌던 것이지만 이러한 영역은 최근 인공지능으로 구현 가능한 영역이 되어 가면서 정보의 진실성이 중요해졌다. 정보가 왜곡되는 경우 잘못된 지식으로 왜곡되는 경우 왜곡된 주관성을 가지게 된다. 인공지능이 아무리 발전된다고 하더라도 진실 분별에는 한계가 있어 보인다. 따라서 정보 학습에서 왜곡을 방지하기 위한 인간의 개입이 필요하고 이를 통해 나온 지식을 기반으로 판단하는 주체도 인간이어야 한다. 즉 우리는 인공지능을 통해 지식영역에 대한 도움을 주는 수준이 되어야 하고 이들 지식에 대한 검증 역시 인간이 해야 한다. 그래서 인공지능 기술에서 설명 가능한 인공지능이라는 개념이 나온다. 우리가 의식구조 피라미드를 통해 우리가 그동안 주로 지식엘리트 층의 역할로 본 영역이 실은 인공지능에 의해 대체될 상황에 놓여 있다. 이 분야에는 주로 변호사, 판사, 기자와 같은 영역과 직종이 해당할 수 있다. 그러나 그보다 상위계층에 해당하는 영역이 인간 주관성 영역이라고 볼 때 인공지능 시대를 맞이하면서 인간은 좀 더 인문학적 가치와 인간성회복을 지향을 해야 한다는 것을 알수있다. 또한, 이러한 의사결정에 영향을 미치는 왜곡된 가짜 정보에 대해 경계하고 진실을 찾아내는 역할은 여전히 인간이 해야 할 몫이다.  인공지능 사법시스템 인공지능이 지식영역에서 가지는 강점 때문인지 벌써 인공지능 변호사, 인공지능 기자, 퍼실리테이터 등 과 같은 분야에 인공지능 적용 시도가 나타나고 있다.  이중 인공지능 기술은 비용대비 효과가 큰 영역에 빠른 도입이 될 가능성이 높아졌다. 특히, 변호사 비용이 부담스러운 사람들에게는 큰 기대가 아닐 수 없다. 이런 지식 기반 인공지능 기술은 특징은 뜻하지 않는 변화를 불러올 가능성이 높아졌다. 우리나라 사법제도가 유럽처럼 시민참여 재판이 도입된다면 변호사 뿐 아닌 판사 영역에도 적용될 수 있다. 특히, 미국 혹은 유럽사회에 해당하는 이야기 이지만 직업판사가 아닌 시민이 참여하는 재판에서 시민판사(게르만 모형 제도) 혹은 배심원 제도(앵글로색슨 모형 제도) 국가에서는 인공지능 도움을 받아 재판에 참여하는 시민법관 또는 배심원을 도와주는 역할로서 시민 법감정을 함께 고려한 판결을 위해 제도화 되어있다. 사실 한국사회에서 이러한 기술이 제대로 사용 되기 위해서는 제도 변화가 선행되어야 한다. (기술보다 제도 변화가 본질이다.) 유럽에서 참심제(시민이 재판장이 되는 제도) 국가에서 시민판사들이 있고, 미국 같은 배심원제국가에서 배심원으로 참여하는 시민들이 많고 시민들의 법감정이 사법판결에 반영하기 위한 선진 사법제도라고 할 수 있다. 한국에서 인공지능이 도입되기 전에 제도 선진화가 이뤄져야 하고 제도 선진화 이후 인공지능이 도입된다고 하더라도 최종적으로 인간의 책임하에 판단되고 결정이 되어야 한다는 것을 전제로 운영되어야 한다. 사법제도 측면에서도 긍정적 변화 구조를 생각해 본다면 억울한 약자에 속한 시민들에게도 공정한 사법 시스템을 생각해 볼수 있다. 예를 들어 우리 아파트 경비노동자 박 씨 아저씨가 시민판사로 겸직을 하면서 억울한 소시민들의 재판에서 판결을 하는 구조로 전환을 생각해 볼수 있다. 그분의 오랜 사회 경험이 오히려 판결에 도움이 될수 있기에 비록 법과대를 나오지 않아도 시민판사로서 인공지능 도우미에 의해 도움을 받는다면 약자들에게도 공정한 사법정의를 이룰 수 있다. 그러나 분명한것은 인공지능은 어디까지나 보조수단이고 제도의 본질은 시민참여가 보장된 사법 시스템이어야 한다는 전재를 두고자 한다. 숙의 민주주의(deliberative democracy)와 인공지능 '숙의민주주의'라는 단어는 공론장에서 민주적 절차를 기반한 의사결정을 제도화하기 위한 방안이다. 이러한 민주적 의사결정방법은 이미 일상생활 속 기업과 학교, 사회 활동단체 등 에도 사용되고 있으며 보통 퍼실리테이션(Facilitation)이라는 과정을 통해 다수 의사를 모아서 통합하고 결과를 도출하는 데 활용되고 있다. 최근 인공지능을 활용한 퍼실리테이션이 시도되고 있다. 이를 시도하고 제안하려는 OpenAI의 얼라인먼트 팀 리드인 얀 라이커(Jan Leike)는 사회적 가치 도입을 위한 제안으로 거대 언어 모델로 일관성 있게 추론 가능한 의지(CEV)를 구현하는 제안을 했다. 얀 라이커는 집단 선호도에 대한 의견을 인공지능시스템을 통해 의견을 모을 경우 실제로 인간성을 포함하는 프로세스를 설정해야 한다고 주장한다. 그렇지 않을 경우 상업적 인센티브, 즉  가장 많은 돈을 버는 조건에 의해 결정될 위험에 처할 수 있다고 한다. 따라서, 그가 주장하는 것은 인공지능을 통해 답을 구하는 것이 아닌 가치 질문에 대한 더 나은 답을 도출할 수 있는 프로세스를 제안한다. 이를 위한 핵심 아이디어로 거대 언어 모델을  숙의(熟議) 민주주의 모방 학습에 사용한다. 숙의 민주주의는 무작위로 선정된 소수의 대중이 명시적으로 숙의하는 의사 결정 또는 정책 결정 과정으로 구성원들은 복잡한 가치가 담긴 주제(예: 국가 정책 질문)에 대해 학습하고, AI 지원을 사용하여 세부 사항을 이해하고, 서로 토론하고, 궁극적으로 의사 결정에 도달한다.   이때 사람들이 가치 있는 질문을 명시적으로 숙의하는 것을 기록함으로써 이러한 숙의에 대해 대규모 언어 모델을 학습시킨 다음, 다양한 관점을 조건으로 한 모델을 통해 새로운 가치 질문에 대한 토론을 시뮬레이션할 수 있다. 이처럼 토론 시뮬레이션이 필요한 이유는 중요한 의사 결정에는 항상 사람이 참여해서 시뮬레이션을 검토 후 인간이 결정해야 하기 때문이다. 얀 라이커는 이 제안의 목표는 인간의 의사 결정이나 민주적 제도를 대체하는 것이 아니라 훨씬 더 비용이 적게 드는 근사치를 통해 의사결정을 도와주는 것이라고 한다. 이러한 얀 라이커의 주장처럼 시민들의 집단적 의사결정을 도와주는 기능은 시민의회와 같은 구조를 가지고 시민참여를 늘리는 구조에서 직접민주주의를 강화시키는 효과를 만들 수 있다. 한국사회에서도 유럽처럼 시민의회 도입과 함께 시민들의 숙의과정에서 나온 많은 토론과 의사결정 내용을 인공지능이 정리하고 요약해 주는 과정과 그 집단에서 의지를 학습하여 이를 제도 및 정책에 반영하는 형태로 직접민주주의 구조를 만들 수 있다. 민주주의의 제도에서 시민은 모든 의사결정의 주체이며 그 결정에 대해 책임을 져야 한다는 기본 사상은 변하지 않는다. 따라서 민주주의 시민은 인공지능이 학습하는 정보에 대한 편향성에 대한 관리 주체로서 의무가 있으며, 시민들의 다양한 의견을 모으는 과정에 인공지능 활용이 가능하며, 인공지능의 판단이 최종 결과가 아닌 중간 참조할 자료로서 검토 및 채택 등 결정할 부분은 최종적으로 인간이 해야 한다. 그래야만 그 결정에 대해 책임을 질 주체가 생기기 때문이다. 참고문헌 :  A proposal for importing society's valuesBuilding towards Coherent Extrapolated Volition with language modelsaligned.substack.com   (https://aligned.substack.com/p...)
인공지능
·
4
·
우리에겐 새로운 '러다이트'가 필요하다
얼마 전 네이버웹툰에서 연재를 시작한 한 웹툰이 'AI로 자동 생성한 이미지를 사용한 것 아니냐'는 의혹을 받았다. 독자들은 웹툰의 컷을 하나하나 캡처하여 게시물에 첨부하면서, 작화가 부자연스럽게 일그러지거나 표현이 생략된 부분을 지적했다. 논란이 일자 제작사 측에서는 해당 웹툰의 1화 말미에 해명문을 덧붙였다. 'AI로 그림을 그린 게 아니라 후보정에만 AI를 사용한 것'이라는 내용이었으나 비판 여론은 수그러들지 않았다. 국내에서 인공지능 윤리가 뜨거운 감자로 촉발된 건 2021년 이루다 AI가 등장하면서였다. 당시 스캐터랩에서 개발한 이루다 AI가 공공연하게 차별과 혐오 표현이 포함된 메시지를 발신하면서 인공지능 윤리가 화두로 떠올랐다. 그때까지만 해도 인공지능 윤리는 AI 서비스를 개발하는 개발사의 몫이었다. 개발한 AI 서비스가 차별, 혐오 표현을 발신하는지 검수하는 것, 개인들의 데이터를 AI 학습에 사용할 때 충분한 동의를 받았는지 확인하는 것 등이 'AI 윤리'로서 논의되었다. 2022년 인권위에서 발표한 <인공지능 개발과 활용에 관한 인권 가이드라인>도 △인간의 존엄성 및 개인의 자율성과 다양성 보장, △투명성과 설명 의무, △자기 결정권의 보장, △차별금지, △인공지능 인권 영향평가 시행, △위험도 등급 및 관련 법제도 마련 등 대체로 개발사들이 준수해야 하는 항목을 명시하고 있다. 사용자에게로 확대되는 AI 윤리 그러나 최근 인공지능의 윤리적 이슈는 그보다 훨씬 더 넓은 범위에서 제기되고 있다. 이 글의 서두에 언급한 웹툰 사례만 보아도 그렇다. AI 서비스를 이용한 웹툰 제작사는 AI 개발사가 아니라 AI 서비스를 활용한 사용자에 해당한다. 그럼에도 불구하고 독자들은 AI를 사용하여 작품을 창작한 것 아니냐는 의혹을 제기하고 비판 여론을 형성한다. AI 윤리는 확실히 기존까지 흐르던 방향과 다소 다른 흐름으로 전개되고 있다. 오늘날 AI 윤리는 비단 AI 서비스를 개발하는 테크 기업만 감당해야 하는 것이 아니다. AI 서비스를 사용하는 사용자들도 그 활용 목적과 범위에 따라 AI 윤리를 요구받는다. AI 서비스의 사용자는 매우 다양하다. 그저 재미 삼아 AI 서비스를 돌려보는 개인일 수도 있고, AI 서비스를 통해 수익을 창출하는 사람일 수도 있으며, 혹은 AI 서비스를 이용해 인건비를 절감하려는 고용주일 수도 있다. AI를 누가, 언제, 어떻게 사용하느냐에 따라 AI 윤리는 제각기 다른 양상으로 논의가 이뤄져야 한다. 물론 다른 양상이라 해서 경중마저 다르게 매겨지는 건 아니다. 개인이라 하더라도 AI 서비스를 이용해 심각한 수준의 범죄를 저지를 수도 있다. 예를 들어 지인의 얼굴 사진을 이용해 성 착취물을 제작하여 유통하는 딥페이크 범죄 등이다. 이는 물론 윤리만이 아니라 명확히 사법적으로 다뤄져야 하는 영역이지만, 이 외에도 미드저니 등 이미지 생성 AI를 통해 여성에 대한 성적 대상화 이미지를 무분별하게 생성하는 것 등 윤리적 차원에서 논의가 필요한 이슈가 많다. 그중에서도 사회적 논의가 절실한 영역은 AI 서비스를 통해 고용의 영역을 축소하는 사업주에 대한 윤리다. 한 뉴스 기사에 따르면, 중국에 위치한 게임 회사는 생성형 AI 서비스의 출시에 따라 사내 일러스트레이터들을 대거 해고했다고 한다. 해고 대상이 된 일러스트레이터는 AI로 인해 해고되었다는 내용을 명확히 밝히고 있다. 지난 5월 2일 할리우드에서 활동하는 미국작가연합(WGA)이 돌연 파업을 선언한 일도 이와 관련이 있다. 파업 안건 중 하나가 ‘AI 사용에 대한 가드레일을 만들 것'이기 때문이다. 제작사가 시놉시스나 시나리오를 AI로 먼저 제작한 후, AI의 결과물을 수정하도록 지시할 것을 염려한 것이다. 창작 전반을 담당했던 이전과 달리 수정만을 맡게 되면 노동의 범위가 축소될 뿐만 아니라 보수 역시 더 낮아진다. AI 서비스를 이용해 작업물의 기초 안을 만든 후 창작자들에게 수정을 요구하는 일은 국내에서도 비일비재하게 발견된다. 근래 연구를 위해 진행하는 질적 인터뷰의 참여자 중 일부는 이미지 생성 AI 미드저니로 제작한 일러스트를 수정해 달라는 일감을 의뢰받았다고 답변했다. 본래 일러스트레이터가 전체적으로 그림을 기획하고 만드는 작업이었는데, 기획 단계는 미드저니를 통해 제작사에서 수행하고 이후 그림을 매끄럽게 만드는 수준의 작업만을 청탁받았다고 했다. 기술로 인한 노동 대체? 기술을 내세운 해고 AI 서비스를 이용해 특정한 프로덕트를 만들어 내는 사업주에 대한 윤리는 아직 모호하다. 실제로 일감이 축소되거나 해고하는 사례가 SNS에 계속 공유되고 있지만, ‘기술로 인한 노동 대체'라는 용어로 사업주의 책임 소재는 교묘하게 가려지고 있기 때문이다. 게다가 이런 현상에 비판하는 이들에게는 (기계를 파괴하는) ‘러다이트 운동가냐'는 비아냥이 따라붙곤 한다. 물론 이 시점에서 러다이트를 호출해야 할 필요성은 있다. 그러나 러다이트를 그저 ‘기계 파괴자'로 호명하는 건 아니다. The NewYorker에 Ted Chiang이 기고한 칼럼처럼, 러다이트는 반기술 운동(anti-technology)가 아니라 경제적 정의를 위한 사회 운동이었다. 그의 칼럼 일부를 소개한다. The Luddites did not indiscriminately destroy machines; if a machine’s owner paid his workers well, they left it alone. The Luddites were not anti-technology; what they wanted was economic justice. They destroyed machinery as a way to get factory owners’ attention. The fact that the word “Luddite” is now used as an insult, a way of calling someone irrational and ignorant, is a result of a smear campaign by the forces of capital. 러다이트는 기계를 무차별적으로 파괴하지 않았고, 기계의 소유주가 노동자에게 충분한 임금을 지급하면 기계를 내버려 두었습니다. 러다이트는 기술에 반대하는 것이 아니라 경제적 정의를 원했습니다. 그들은 공장주들의 관심을 끌기 위해 기계를 파괴했습니다. '러다이트'라는 단어가 비이성적이고 무지한 사람을 부르는 모욕적인 표현으로 사용되는 것은 자본의 세력에 의한 명예훼손 캠페인의 결과입니다 ‘기술로 인한 노동 대체'라는 말은 현재의 노동 변화를 마치 기술을 통해 효율성을 추구하는 ‘객관적이고 자연스러운' 일처럼 여겨지게 한다. 그러나 지금 물밀듯 들어오는 AI 서비스는 개개인들에게 불안과 공포를, 사업주에게는 이를 명분으로 한 자유로운 해고 권한을 쥐여주었다. 언젠가 ‘대체'될 노동이라 하더라도, 노동자에게는 이후를 준비할 시간과 공적 안전 장치가 필요하다. 사업주에게 ‘AI 윤리'를 요구해야 하는 것도 바로 이 지점이다. 인공지능 시대, 우리에게는 새로운 ‘러다이트'가 필요하다. AI 서비스의 안전한 착륙을 위해 해야 할 일은 더 신속한 기술 발전이 아니라 기존 노동자들의 안전한 존속과 이동을 돕는 것이다. 지금 우리에게 필요한 ‘AI 윤리’는 노동 윤리와 떼어 낼 수 없다.
인공지능
·
5
·
AI시대, 시민사회 주도의 디지털 공론장은 왜 중요할까?
AI분야에서 논의할 주제는 정말 많다. 당장 캠페인즈 메인 화면에 나온 투표만 보더라도 AI 개발 속도와 규제에 대한 논의, AI와 일자리에 대한 논의, 학교과제에서 ChatGPT 사용범위에 대한 논의 등이 이루어지고 있다. 물론 이 주제들도 AI와 관련되어 매우 중요한 논의들이다. 하지만 내가 생각하는 AI와 관련한 가장 급하고 중요한 논의는 ‘AI 논의의 필요성 자체에 대한 논의’이다. 그리고 AI와 관련된 논의들은, 다른 논의보다 더더욱 디지털 공론장에서 이루어져야 한다. 왜 그런지 하나씩 살펴보자. 너무 빠르고 강력한 AI의 발전 우리가 특정 사회 문제에 대한 논의가 중요하다고 할 때, 여러 이유를 댈 수 있겠지만 우리는 특정 사회 문제가 가지는 영향력의 ‘범위’와 문제 해결의 ‘시급성’을 고려한다. 가령, 최근 발생한 전세사기와 이를 해결하기 위한 전세사기특별법의 사례를 보면, 전세사기를 당한 사람이 전국적으로 많고 그 대상이 경제적 여력이 상대적으로 부족한 20~30대가 많다. 또한, 주거 사기이므로 사기 피해자들이 거주할 곳이 당장 마땅치 않은 상황에 처할 수 있으며, 집값이 내려가고 있는 상황에서 추가 피해자들이 발생할 수 있는 시급한 문제였다. 때문에 피해자들이 동의하지 않는 형태지만 국회에서 빠르게 논의되어 입법 절차까지 이어졌다. AI문제의 영향력의 범위와 문제의 시급성은 어떨까? 우선, AI가 사회에 미치는 범위는 매우 광범위하다. AI라는 키워드를 사회에 유행시킨 ChatGPT는 사용자 1억명을 가장 빨리 달성한 서비스로 유명하다. ChatGPT의 이용자 숫자 통계는 인공지능의 성능이 궁금해서 한 번쯤 써본 사람 때문에 빨리 늘었을 수 있다. 하지만 이미 대기업들은 AI가 일상 여러 범위에 쓰일 수 있도록 서비스를 제공하고 있거나, 제공할 준비를 하고 있다. 2023년 5월 25일 현재 ChatGPT내에서 다른 웹사이트를 접속할 필요 없이 쇼핑까지 가능한 플러그인 기능이 사용 가능하며, 마이크로소프트는 어제인 5월 24일 엑셀, 파워포인트, 심지어는 윈도우 자체 등 마이크로소프트 서비스 전반에 AI를 탑재하는 ‘코파일럿’의 운영 계획을 보다 구체적으로 밝혔다. 이외에도 구글은 바드에 적용되는 LLM(대형언어모델)인 PaLM2의 코딩 능력과 모델의 가벼움을 강조하며 활용도가 높다고 알리고 있다. 글로벌 대기업들이 AI 서비스를 더 넓은 범위로 확대하고, 더 사람들이 사용하기 좋게 하고 있다. AI의 뜻은 인공’지능’인데, 이는 곧 AI의 발전은 곧 인간의 지능이 필요한 모든 분야에 영향을 미칠 수 있는 기술임을 의미한다. 그런 분야에 대규모 인력과 자본이 투자되고 있는 지금, AI는 사회에 영향을 미치는 범위가 매우 넓고, 점점 더 넓어질 것이다. 또한, AI 문제는 시급하게 논의되어야 한다. “AI 분야에서는 1주일이 1달 같다” 고 한빛미디어 박태웅 의장이 다스뵈이다에 출연해서 말할 정도다. 실제로 AI의 발전속도는 너무 빠르다. 무어의 법칙보다 5배~100배 빠르게 AI가 발전한다는 이야기가 나왔던 시점이 2021년이다. 더 많은 투자와 관심이 쏟아지고 있는 2023년은 더 이상 무어의 법칙이라고 말하기 어려울 정도로 속도가 빠를지도 모른다. ChatGPT의 언어모델인 GPT만 보더라도 몇 개월 사이에 엄청나게 빠른 발전 속도를 갖추고 있다. 대형언어모델이 개발자도 모르는 특이점을 지났다고 이야기가 나왔던 GPT-3.5가 2022년 11월, GPT-4는 2023년 3월에 출시하였다. GPT-4가 GPT-3.5에 비해 여러 성능 개선이 이루어졌는데, 한 가지만 살펴보자면 GPT-3.5의 영어 성능에 비해 GPT-4의 한국어 성능이 더 좋다. 이외에도 변호사 시험을 겨우 통과하던 GPT-3.5가 GPT-4가 되면서 상위 10%의 성적으로 변호사 시험을 통과하는 등, 5개월만에 엄청난 성능 발전을 이루었다. 종합해보면, AI는 사회에 광범위한 영향을 미치면서도 매우 빠르게 발전하는 시급한 문제이기 때문에, AI와 관련된 사회적 논의는 매우 중요하다. 책과 같은 전통적인 공론과정은 너무 느리다 특정 사회 문제에 대해 논의할 때, 지식이 없는 상태로는 올바른 결과를 도출할 수 없다. 우리가 부족한 지식을 습득하고자 할 때, 가장 흔하게 이용하는 수단 중 하나는 ‘책’을 읽는 것이다. 실제로 책에는 저자들의 지식과 인사이트가 매우 체계적으로, 방대하게 집약되어 있어 지식을 쌓는데 유용하다. 하지만 논의하고자 하는 사회 문제의 변화 속도가 너무 빠르다면, 책은 제 기능을 하지 못할 수도 있다. 나는 최근 언론에도 자주 얼굴을 비치는 헨리 키신저, 구글 전 CEO인 에릭 슈밋, MIT학장인 대니얼 허튼로커가 AI에 대해 이야기하는 ‘AI 이후의 세계’를 읽고 있다. 원문은 2021년 11월에 나왔고, 한국에는 2023년 5월 22일에 발행되었다. 책 자체는 AI와 관련된 여러 사회 문제들에 대해 매우 훌륭한 인사이트를 제공한다. 하지만 책에서 주로 다루고 있는 혁신적 AI는 GPT-3다. GPT-3.5와 GPT-4의 차이도 큰데, GPT-3.5 이전 버젼의 성능과 예시를 가지고 분석하는 내용을 읽다 보면, ‘GPT-4가 나오고 2개월이 된 이 시점에서 , 이 책이 말하는 내용들이 적합할까?’라는 의구심이 든다. 비단 이 책 뿐만이 아니다. GPT-3.5를 분석한 여러 책들이 출판된 시점과 GPT-4가 나온 시점이 거의 같았다. AI 이후의 세계의 내용이 의미가 없는게 아니듯이, GPT-3.5에 대한 분석을 토대로 작성된 책들이 우리에게 의미가 없진 않겠지만, ‘책’이라는 전통적인 수단이 너무 빠르게 발전하는 AI에 대한 내용을 다루기에 적합하지 않다고 생각한다. 책 뿐만 아니라 여러 리뷰어의 검증을 거쳐야 하는 논문, 일방적으로 지식을 전달하는 방식의 전통적인 교육 등 기존 지식의 전파를 책임지던 방법으로는 AI문제에 대해 논의할 지식을 축적하는데 한계가 있다. 즉, 보다 빠르게 AI문제를 논의할 수 있도록 시민 주도의 공론장이 주도적으로 나서야 한다. AI시대, 시민이 주도하는 공론장의 역할 중요하게 다루어야 할 AI문제를 시민 주도의 공론장에서 다루어야 하는 이유는 다음과 같다. 국가의 행동 주체는 다양하게 구분할 수 있지만, 크게 보자면 정부와 기업, 시민이 있다. 그 중 정부의 경우 앞서 우리가 보았던 ‘책’과 마찬가지로, 상대적으로 느리고 강한 영향력을 행사할 수 있다. AI와 관련된 규제를 위한 법안을 만들고, 평생교육제도를 손질해서 구조적으로 AI문제에 더 잘 대응할 수 있는 국가를 만들 수 있다. 하지만 시시각각 변하는 AI 문제를 국가가 나서서 공론의 장을 마련하고 지식을 전파하는 데는 한계가 있다. 기업의 경우, 근본적으로 이윤을 추구하는 주체라는 점에서, AI가 일으키는 사회적 문제에 대해 관심이 덜할 수 밖에 없다. 6개월간 AI 개발을 멈추자고 말하고 실리콘밸리에 인공지능 회사인 X.AI를 설립하는 일론 머스크만 보아도, 기업에게 AI와 관련된 사회적 문제를 적극적으로 다루는 것을 기대하는 건 무리다. 결국, AI와 관련된 지식을 나누고, AI가 일으킬 사회 문제에 대해 논의를 적극적이고 빠르게 이끌 수 있는 건 시민사회다. 토론회, 세미나, 디지털 공론장을 통해 AI에 대한 지식을 공유하고 여러 시각으로 AI 문제를 검토해야 한다. 지식의 기록과 공유 측면에서, 오프라인보다는 온라인 형태의 공론이 더 뛰어나다. 빠르게 변화하는 AI에 대해 공유하고 토론하기에는 줌과 같은 화상 미팅이나 캠페인즈와 같은 디지털 공론장이 더 적합하고, 이전보다 더 중요하다. 내가 속한 LAB2050에서도 시민사회가 함께 AI문제에 대해 논의하는 A.I.C.E.포럼을 연 다음 온라인으로 포럼 내용을 공유했다. 또한 6월 둘째주에는 줌 형태로 ‘AI시대, 인간의 역량(가제)’라는 AI 세미나를 열 계획이다. AI의 역량이 빠르게 발전하는 시대에 인간이 AI에 뒤쳐지지 않기 위해 어떤 역량을 길러야 하는지가 궁금하다면, LAB2050 뉴스레터를 구독하고 세미나 소식을 기다리길 추천다. 지금까지 AI시대에 디지털 공론장이 중요한 이유에 대해 살펴보았다. 앞으로 어떻게 더 많은 사람들이 AI와 관련된 공론장에 참여하게 할 수 있을지, 어떤 사람들이 AI문제에 대해 논의해야 하는지 더 많은 논의와 행동이 필요한 시점이다. AI와 디지털 공론장의 역할과 미래에 대한 여러분들의 생각이 궁금하다.
인공지능
·
4
·
롱롱
3,827
AI는 친환경? 알고보면 탄소 뿜는 AI!
일반적인 산업에 비해, 첨단기술이 집약된 AI는 친환경적일 것 같은 느낌이 들어요. 근데 이 느낌은 진짜일까요?  미리 결론을 내면, 정답은 ‘아니다’입니다. AI라는 기술이 친환경적 환경 조성에 부분적인 역할을 하고 있는 것은 사실입니다. 하지만, AI를 훈련하며 막대한 전력이 소모되고 이 과정에서 많은 양의 탄소가 배출된다고 해요. 외에도 이메일을 한 번 보내는데 1g, 인터넷 검색 한 번에 약 0.2g의 이산화탄소가 배출되고, 스트리밍 영상을 1시간 동안 보면 자동차가 1㎞를 달릴 때와 비슷한 탄소가 발생한다고 합니다. AI를 비롯, 이런 작업을 보이지 않는 곳에서 처리하는 데이터센터는 대부분 화석연료를 써서 작동하고 열을 식히기 위해 많은 양의 물을 소비해요. 데이터센터가 배출하는 탄소는 전 세계 탄소 배출의 3.6%를 차지하고 있습니다. 이러한 이유 때문에 AI는 환경오염의 원인으로 지목받고 있기도 합니다. 한 번의 AI 훈련에, 뉴욕-샌프란시스코 왕복 비행 탄소 배출  2019년 엠마 스트루벨 미국 매사추세츠대 교수 연구진은 AI와 관련한 논문을 발표했습니다. 해당 논문은 AI 모델을 한 번 훈련 시킬 때마다 배출되는 이산화탄소 총량을 계산했는데요. 구글의 AI모델 버트(BERT)의 경우, 배출하는 이산화탄소가 1438파운드(652kg)입니다. 해당 배출량은 뉴욕에서 샌프란시스코를 왕복으로 오갈 때 뿜어내는 이산화탄소 배출량입니다. 또 미국에서 자동차 5대가 평생 동안 배출하는 이산화탄소 총량과 맞먹는 양이기도 합니다. 스웨덴의 우메아대 버지니아 디그넘 교수는 ‘AI의 환경 발자국’이라는 제목의 논문을 발표했는데요. 이를 통해 AI를 사용할수록 더 많은 탄소가 배출된다고 지적했습니다. 음성인식 어플리케이션, 넷플릭스 같은 OTT 플랫폼에서 시청할 콘텐츠를 추천하는 알고리즘조차 상당한 양의 탄소를 배출한다고 밝혔습니다.  또한 AI 컨설팅 회사인 알파벤처의 함마드 칸 CEO는 “AI 모델을 학습시킬 때 사용하는 프로세서와 칩에 대량의 실리콘·플라스틱·구리가 필요하다”며 “이 과정에서 대량의 탄소 배출과 쓰레기가 나온다”고 지적했습니다. (농민신문 2023.05.01)  2030년 이후 AI가 환경오염 주범 될수도? 오픈AI가 공개한 GPT-2, GPT-3는 고성능 AI입니다. 이 모델들은 기존 AI 모델보다 더 많은 데이터를 학습합니다. 그말인즉슨, 이들은 더 많은 탄소를 만들어낸다는 것입니다. 오픈AI가 2020년 6월 공개한 범용 AI인 GPT-3는 학습 과정에서 기존 GPT-2 모델보다 100배 많은 컴퓨팅 리소스를 사용합니다. 해당모델이 학습과정에서 소비하는 에너지와 탄소 배출량은 덴마크 가정 126가구가 연간으로 소비하고 배출하는 양과 맞먹는 것으로 알려졌습니다. 2019년 한 연구에서는 AI 언어처리 모델을 구축한 후 GPU(그래픽처리장치)가 27년 동안 계산해야 하는 분량을 6개월간 학습하는 실험을 진행했는데요. 그 결과 약 35톤의 탄소가 배출된 것으로 추정됐습니다. 35톤은 사람이 평생 내뿜는 탄소 배출량의 두 배에 달한다고 해요. 그것도 6개월 만에 35톤이라니, 어마무시하네요. 더 큰 문제는 AI가 진화할수록 에너지 소비량과 탄소배출량의 양이 늘어난다는 것입니다. AI에 사용되는 리소스는 매년 3~4배씩 증가할 전망이라고 해요. 인간보다 AI가 생산하는 데이터량이 더 많아지는 2030년 이후에는 AI가 지구 환경에 재앙이 될 수 있다는 경고도 나오고 있어요. 탄소배출량 줄이기에 나선 빅테크 기업들 큰 규모의 데이터센터를 운영하는 빅테크 기업들에게 탄소배출량 줄이기는 절대적인 과제 중 하나입니다. 아마존, 구글, 마이크로소프트, 페이스북 등의 기업은 이 구조를 바꾸기 위해 탄소중립을 선언하고 기술투자와 에너지 전환에 집중하고 있기도 합니다. 아마존은 미국, 캐나다, 영국 등 9개 장소에서 풍력과 태양광 사업을 추진하고 있습니다. 사무실, 유통매장, 데이터센터에 재생에너지를 활용합니다. 2025년까지 100% 재생에너지 조달이 목표입니다. 구글 역시 2030년까지 클라우드 사업 탄소 제로화를 목표로 대형 대터리 시설, 원자력, 그린수소, 탄소포집 기술 등을 적극적으로 도입하고 있어요. 페이스북은 미국 18개 주와 5개국에서 6GW(기가와트) 상당의 풍력과 태양광 사업계약을 맺고 있고 이를 통해 사업과 데이터 센터 운영에 필요한 전력은 모두 재생에너지에서 얻는다고 합니다. (디지털타임스 2022. 02. 17) AI에 대한 법안 논의는 얼마나?...환경보다 산업기술 및 인권적 논의 대다수 유럽과 미국 등지에서 AI와 관련된 법안들이 논의되거나 제정을 앞두고 있어요. 한국도 국회 과학기술정보통신방송위원회에서 ‘AI기본법안’을 두고 다양한 논의가 이어지고 있어요. 유럽은 사용자 시각의 강력한 규제를 시행하고 있고, 미국은 기업 시각의 자율 규제를 진행하는 움직임을 보이고 있습니다. 유럽연합(EU)은 AI 규제에 가장 빠른 속도를 내고 있습니다.  AI 프로그램을 4등급으로 평가, 분류한 ‘인공지능법(AI Act)’ 초안이 지난 11일 유럽의회 상임위원회를 통과해 다음 달 본회의 표결을 앞두고 있습니다. 미국은 AI를 규제하면서도 오픈AI와 구글 등 자국의 빅테크가 기술 경쟁에서 뒤처지지 않도록 하는 법안을 마련하고 있습니다. 다만, 아직까지 AI를 기술과 산업, 인권 및 사회적인 부분으로 보는 논의가 더 많아요. 환경에도 큰 영향을 미치는 만큼, 환경적인 시각으로 AI를 바라보는 시각도 늘어나야하지 않을까요?  (이데일리 2023.05.20)  (디지털 타임스 2023.05.18)
인공지능
·
5
·
한량
1,728
AI가 저널리즘을 대체할 수 있을까요?
신문을 찾지 않은지 오래입니다. 시대가 변함에 따라, 포털에 검색해서 기사를 봅니다. 언론도 그에 맞춰 기사를 썼습니다. 자극적인 제목을 달아 이목을 끌고 클릭하게 합니다. 첫 문단엔 결론을 씁니다. 그래야 빨리 소비하고 나갈 수 있으니까요. 결론을 본 사람들은 어떻게 할까요? 기사를 쭉쭉 내려 댓글을 봤습니다. 친절하게 기사 요약해주는 사람들이 있었고, 댓글 여론이 안 좋으면 안 좋은 기사, 좋으면 좋은 기사라고 생각합니다. 댓글에 좋아요가 많이 눌리면, 많은 사람이 공감하니 그것이 사실인 듯 생각한 경우도 많았죠. 때론 그걸 그대로 믿었습니다. 첫문단과 댓글이 전부라고 생각했습니다. 네, 제 이야기입니다. 대학교 1학년 즈음까지 제 모습이었습니다. 과거는 생략하고, 2학년부터는 주로 신문을 읽었습니다. 대학교 도서관엔 늘 그날 신문이 있었습니다. 근로장학생들이 주로 아침에 비치했는데, 도서관에 일찍 간 날에는 제가 신문을 받아서 비치한 적도 있었습니다. 보수, 진보, 경제 주로 3개 신문을 읽었습니다. 그래야 왜곡과 가짜뉴스를 걸러낼 수 있다고 생각했습니다. 그 외 포털 기사는 특별한 경우가 아니라면 보지 않았습니다. 이건 요즘도 마찬가지입니다. 그러다 우연히 한 기사를 봤습니다. 뉴욕타임스 1면 기사였습니다. MS의 AI 빙과 기자의 대화입니다.¹ https://www.nytimes.com/2023/0... 섬뜩했습니다. AI에 자아가 있다는 느낌이었달까요. 그리고 이런 생각이 들었습니다. 자아를 가진 AI가 기사를 쓴다면? 왜곡이 많아질까? 기사의 질이 좋아질까? 팩트만 있을까? AI가 기사를 쓴다면 기자의 역할은 뭘까? 언론사의 역할은? 기자가 필요할까? 언론사가 필요해질까? 저널리즘이 필요해질까? 그래서 찾아봤습니다. 현재는 어떤지, AI와 저널리즘은 뭘지. AI에 저널리즘을 맡겨도 될지, 시민으로서 저널리즘 바라보는 시각은 어때야 하는지. AI는 어떤 글을 쓰나? 국내외 언론사에서 이미 AI로 기사를 씁니다. 연합뉴스의 경우 2020년부터 날씨 관련 기사는 AI가 씁니다.² 올해 2월에는 맨즈헬스에서 ‘달리기 기록 단축 팁'³ 이라는 제목의 기사를 썼습니다. 이 역시 AI가 쓴 기사입니다. 날씨처럼 단신이 아니라 꽤 긴 기사입니다. AI가 썼다고 말하지 않으면 믿지 않을 정도로 쓰여졌습니다. 날씨 정보부터 건강 정보까지, AI는 이미 활용되고 있습니다. AI의 수준은 변호사 시험과 의사 시험을 통과할 수준이고, 글쓰기 실력도 문학 공모전에 당선될 정도 입니다.⁴ 글도 잘 쓰고, 변호사, 의사 시험을 통과할 정도의 지식과 실력을 갖췄다면 팩트를 전달하는 언론의 역할도 AI에 넘겨줘도 되는거 아닐까요?  기사는 팩트를 전달하는 것인데, 이미 가짜뉴스가 넘쳐나고, 언론사에 대한 신뢰도 높지 않고, 사실을 과장 혹은 축소하며 쏟아내는 건 이미 현대 언론이 저널리즘 하에 하고 있던 거 아닌가요? 차라리 더 많은 지식을 탐구한 AI의 팩트가 더 신빙성 있는거 아닐까요? AI 작품은 압축된 JPEG 파일입니다 전문가들은 아니라고 답합니다. 요즘 가장 핫한 Chat GPT로 이야기해 보겠습니다. 흥미로운 칼럼이 있습니다. 미국의 SF 소설가 테드 창이 뉴요커에 쓴 칼럼입니다.⁵ 그는 이렇게 말했습니다. “Chat GPT는 웹 상의 흐릿한 JPEG 파일”이라고. 참고로 그는 아이비리그 대학인 브라운 대학교에서 물리학, 컴퓨터공학을 전공했습니다. 그의 주장을 요약하면 이렇습니다. Chat GPT는 수많은 정보를 요약해서 보여줍니다. 요약한다는 건 걸러진다는 의미죠. 전체를 통으로 말하고, 보여주는 게 아니라 요약하기 때문에 필연적으로 왜곡이 발생합니다. 마치 JPEG 파일을 그냥 보면 괜찮지만, 확대하면 깨져있는 것처럼요. 문제는 자세히 보지 않으면 모른다는 점입니다.   Chat GPT 답변도 그렇습니다. 그럴싸합니다. 자세히 보지 않으면, 이게 팩트인지 아닌지 헷갈립니다. 내가 정확히 알지 않으면 Chat GPT의 답변이 정답처럼 보입니다. 가령 이런 거죠. 달에 처음 간 사람은 누구인가요? 닐 암스트롱인가요? 루이 암스트롱인가요? 어떤 암스트롱일까요? 현직 대통령 이름, 훈민정음 창제자, 조선 건국자, 지난 월드컵 우승국 등 너무나도 선명한 팩트가 아닌, 어정쩡한 팩트는 위험합니다. 가짜뉴스가 위험한 이유와 동일합니다. 선동도 쉽고, 왜곡도 쉽죠. 만약 언론이 이걸 그대로 쓴다면 어떻게 될까요? 사실이 아닌데 사실처럼 받아들여진다면? 그걸 그대로 내보낸다면? 이런 AI로만 기사를 쓴다면 어떻게 될까요? CNet AI로 쓴 기사 77개 몰래 발행, 한 달만에 오류 41개 발견 사실입니다. 미국의 정보통신 전문 매체 씨넷(CNet)은 구독자 몰래 77개의 AI 자동생성 기사를 썼습니다.⁶ 문제는 오류가 있었다는 점, 그 오류를 한 달 동안 몰랐다는 점입니다. 해당 매체는 문제가 있었음을 인정하고 수정했다고 발표했습니다.⁷ 한편, 오류에는 일반 경제 기자라면 틀리지 않을 복리 이자 등 기본적인 계산 오류도 포함되어 있었습니다.⁸ 그들 말로는 사람 편집자의 검토를 거쳤다고 하는데, 검토한 것 치고 너무나 기본적인 것에서 오류가 발생했다는 게 눈에 띕니다. 이유야 어쨌든, 현재까지 AI에 기대 기사가 발행되는 건 여러 혼란을 더욱 야기할 것 같습니다. 몽클레어 주립 대학교 교수는 미국 NBC와의 인터뷰에서 “좋은 뉴스와 나쁜 뉴스, 잘 보도된 기사와 가짜 뉴스 구분이 어려워질 것이고, AI가 그것을 확산시킬 것”⁹이라고 경고했습니다. 저는 이 보도를 보고 한편으로 사람이 더욱 중요해지겠다는 생각이 들었습니다. 간략히 말하면, 기사 발행 순서는 이렇습니다. 기자의 취재, 기사 작성, 데스크 검토, 발행. 실상은 이보다 복잡할 겁니다. 앞서 씨넷의 기사는 기사 작성부터 데스크 검토가 제대로 이뤄지지 않았을 때 어떻게 되는지 보여줍니다. AI가 무분별하게 기사를 쓰는 걸 사람이 제대로 검토하지 않는다면, 세상엔 검증되지 않은 가짜뉴스가 훨씬 많아질 것 같습니다. 혼란도 가중되고요. 물론 AI를 잘 활용하면 좋은 도구가 될 겁니다. 기자가 취재한 것을 바탕으로, 독자가 더 잘 이해할 수 있도록 가공하는 측면에서 활용한다면요.¹⁰ 인간이 편리하려고 만든건데, 일도 편하게 해야죠. 하지만, 전 여기까지라고 생각합니다. AI의 역할은 여기까지 여야 한다고 생각합니다. AI에 저널리즘을 맡겨선 안된다고 생각합니다. AI에 저널리즘이 없기 때문입니다. AI와 저널리즘 AI가 인간을 대체한다는 말은 이미 오래 전부터 나왔습니다. 미래엔 AI로 인해 단순 노동직은 없어질 것이라 말합니다. 그 중에 저널리즘도 있습니다.¹¹ 하지만, 저는 이렇게 생각합니다. 저널리즘이 사라지는 게 아니라, 저널리즘이 아닌 게 사라질 것이라고. 저는 저널리즘의 본질은 진실, 윤리, 책임이라고 생각합니다. 진실에 대한 책임과 윤리 의식, 사람을 위한 마음이 담겨야 한다고요. 한 기자가 이런 말을 했더군요. “인간의 마음에서 나온 게 아니라면, 저널리즘이 될 수 없다.(If something did not come from a human mind, it is not journalism)”¹²라고. 동의합니다. 저 역시 진짜 저널리즘은 사람으로부터 나온다고 생각합니다. 또 그 토대 위에 이루어진 취재와 기사가 저널리즘이라고 생각합니다. 반면, 취재를 하지 못하는 AI는 이 일을 하지 못합니다.  현재 AI 모델은 학습한 내용 중 가장 높은 확률의 답을 내놓는 것입니다. 가장 높은 확률의 책임과 가장 높은 확률의 윤리, 가장 높은 확률의 사람을 생각하는 마음은 없습니다. 어떤 기사를 낼 것이냐, 말 것이냐 이 모든 것의 결정은 결국 사람이 내리는 것이고, 그 결정에는 진실과 윤리, 책임이 뒷받침 되어야 합니다. 또 그런 취재를 거쳐 나온 기사를 시민들이 소비해야 한다고 생각합니다. 물론 이런 반문도 떠오릅니다. 그렇다면, 현대에 그런 저널리즘이 있나? 라고. 고개가 숙여집니다. 떠오르는 오보와 비판 받아야 할 기자들과 언론사의 모습이 많기 때문입니다. 기레기란 용어가 괜히 나온 게 아니니까요. 하지만, 저는 그럼에도 사람의 마음은 사람이 안다고 생각합니다. 또 그 외에 정말 열심히 발로 뛰며 취재하고, 기사를 쓰는 기자들도 많다고 생각합니다. <더 포스트>라는 영화가 있습니다. 미국 워터게이트 고발 사건을 배경으로 한 영화입니다. 메릴 스트립과 톰 행크스가 주연으로 나옵니다. 기사를 발표하면 언론사가 없어지고 큰 소송에 휘말릴 수 있다는 걸 알면서도, 끝내 워터게이트 사건을 고발하는 내용을 담고 있습니다. 언론의 진실에 대한 책임과 윤리가 무엇인지 보여줍니다.  하나의 보도로 인해 신문사가 없어질지도 모르지만, 국민이 마땅히 알아야 할 진실이 있고, 그 진실을 전할 책임이 언론에 있다는 교훈을 생각할 수 있는 영화입니다. 또한, 그런 진실에 갈증을 느끼고, 갈망하고, 응원하는 시민이 있기에 가능하다는 교훈을 줍니다. 진실을 갈망하고, 옳음을 추구하고, 그것을 지지하는 언론과 사회, 개인들이 있어야 진짜 저널리즘도 있는 게 아닐까 생각합니다. 또 우리 사회가 그런 언론을 지지해야 한다고 생각합니다. 진실에 대한 책임과 윤리를 느끼지 못하는 AI에 저널리즘은 없지만, 시민 사회가 그런 것을 무분별하게 받아들인다면, AI가 곧 저널리즘이 될지도 모르겠습니다. 인간이 10개를 쓸 때, AI는 100개, 1,000개도 쓸 수 있는데, 항상 옳은 소수의 목소리는 다수에게 묻히는 걸 너무 많이 봤으니까요. 그러지 않기 위해서, 조금 더 AI와 저널리즘에 대한 관심이 많아져야 하지 않을까 생각합니다. 마치며 앞서 초반에 제 과거 이야기를 했습니다. 저 역시도 기사를 쉽게 소비했던 때가 있었습니다. 그 당시 그게 제게 먹혔던 이유는, 제가 기사를 제대로 보지 않고, 사실인지 아닌지 묻지 않고 무분별하게 받아들였기 때문이라고 생각합니다. 물론, 지금도 어렵게 소비한다고는 말하지 못합니다. 기자도 아니고, 저널리즘을 전공하지도, 탐구하지도 않았습니다. 하지만 잘 쓴 기사, 탄탄한 취재의 기사는 마땅한 응원을 보냅니다. 그런 기사들이 세상을 떠들석하게 하고, 옳은 방향으로 끌고 가고, 그런 방향으로 가도록 질문을 던진다고 생각합니다. 우리 사회에 이런 일이 발생했는데, 이게 맞는 걸까요? 라면서. 그렇게 시민들에게 질문을 던지고, 공론거리를 만들어, 우리 사회를 옳게 만든다고 생각합니다. 하지만, 역으로 그런 좋은 기사들이 나오게 하려면 시민이 물어야 합니다. 이 기사가 어떻게 나오게 된 것이냐고, 이 기사를 이렇게 쓰는 게 마땅한 것이었는지, 최선이었는지, 왜 안 쓰는지를 말이죠. 진실도, 책임도, 윤리도 없는 것 아니냐고 말이죠. Chat GPT가 처음 나오고 어떻게 활용하면 좋을지 논할 때, 구체적으로 질문해야 한다는 글이 많았습니다. 그러면 더 정확한 답변을 준다고요. AI와 저널리즘에 대한 글을 마무리하며, 이 글을 읽으신 분들께 묻고 싶습니다. “여러분들은 기사를 어떻게 받아 들이고 있나요? 여러분이 생각하는 저널리즘은 무엇인가요? 여러분은 AI가 저널리즘을 대체할 수 있다고 생각하시나요?”
인공지능
·
10
·
ChatGPT 시대의 노동 4.0
2023년 3월 말경 골드만삭스는 전세계 일자리 약 3억개가 ChatGPT와 같은 생성인공지능으로 대체 가능하다는 보고서를 발표했다. 이 보고서는 미국 직업을 기준으로 했을 때, 직업 군에서 수행하는 작업의 평균 25%가 생성인공지능으로 수행할 수 있을 것으로 보았다. 25%를 상회하는 직업 군 14개를 분류하면 그 중 13개 직업 군이 3차와 4차산업(quaternary activities)에 속한다. 4차산업은 연구개발, 교육, 콘텐츠, 컨설팅, IT 산업 등 지식산업을 뜻한다. 1차산업과 2차산업의 일자리가 줄어드는 와중에 3차산업과 4차산업 일자리 다수가 ChatGPT와 같은 인공지능으로 대체가능하다고 하니 두려움이 앞선다. 기술로 노동효율성이 높아짐에 따라 일자리가 줄어드는 기술실업에 대해서는 다양한 논쟁이 존재한다. 특히 인공지능과 같은 기술의 발달로 인한 기술실업에 대해서는 다양한 주장이 존재한다.   인공지능에 의한 기술실업? 인공지능과 인공지능을 탑재한 스마트 로봇이 기존 일자리에 변화를 가져올 것임은 틀림없다. 예를 들어 완전한 자율주행자동차 기술이 등장한다면 우리나라에서만 관련 일자리 100만 여개가 영향을 받는다. 버스, 트럭, 택시 운전사의 일자리 다수가 사라질 것이다. 줄어든 일자리 100만여 개는 전기 자율주행자동차 제조•정비와 관련된 일자리 감소는 산입하지 않은 숫자다. ChatGPT와 같은 거대언어모델은 사무와 행정, 콜센터 분야 등에서만 일자리를 줄이지 않는다. 법무와 연구개발, 번역 등의 일자리도 줄일 것으로 보인다. 오픈에이아이(OpenAI)와 펜실베니아 연구원의 공동연구에 따르면 미국을 기준으로 19% 일자리가 수행하는 작업 50% 이상이 ChatGPT에 의해 자동화 가능할 것으로 분석했다. 나머지 80%의 일자리의 경우 10% 이상의 작업이 자동화 가능하다. 이들의 분석에 따르면 전 산업분야의 일자리가 골고루 자동화 가능한데, 임금이 높은 분야 일자리의 업무 자동화 가능성이 다소 높았다. 이는 앞에서 언급한 골드만삭스의 연구결과와 맥을 같이하는 것이다. 디지털 기술의 발달 따른 기술실업에 대한 경고는 2013년 옥스포드 마틴스쿨의 프레이와 오스본의 ‘노동의 미래’ 논문에서도 나타난다. 그들의 연구에 따르면 미국을 기준으로 47%의 일자리가 인공지능과 스마트로봇에 의해 대체 가능한 것으로 나타났다. 참고로 미국을 기준으로 인공지능 등에 의해 일자리 대체에 대한 연구가 진행되는 이유는, 미국이 산업별 직업에서 수행해야 하는 작업을 상세하게 분류했기 때문이다. 하나의 직업은 다수의 작업을 수행한다. 해당 작업을 인공지능이 수행할 수 있느냐의 여부를 판단할 수 있고, 이를 기준으로 해당 직업의 자동화 위험을 분석할 수 있다. 앞에서 언급한 골드만삭스 등의 연구도 이러한 기반에서 수행되었다. 인공지능으로 대체가능한 작업의 비율이 낮다면 그 일자리의 업무 효율성이 높아지고, 높아진 효율성으로 창의적인 작업의 비율을 높이는데 그칠 것이다. 대체가능 작업비율이 높다면 창의적 작업의 비율을 높일 뿐만 아니라, 일자리 자체도 자동화할 것이다. 노동자 1만 명당 로봇의 대수를 의미하는 로봇밀도가 한국사회의 경우 2021년 기준 1,000대를 달성하여 전세계 1위였다. 경쟁국인 독일과 일본은 각 3위와 4위로 우리의 대략 절반 정도에 불과하다. 이에 비추어보면 기술적으로 가능하다면 4차산업 일자리까지는 아니라 하더라도, 3차산업의 일자리는 빠른 속도로 자동화될 가능성이 크다.   기술혁신 = 더 많은 일자리? 앞에서 언급한 프레이 등의 연구는 전세계적으로 유행을 탔다. 우리나라에서도 유사한 연구가 진행되었는데, 그 결과는 미국보다 심각했다. 그런데 프레이 등의 연구가 발표되고 10년이 지났으나, 기술실업의 징후는 나타나지 않았다. 일부 일자리는 사라졌으나, IT 분야 등에서의 일자리도 늘었다. 산업혁명 이후 기술혁신은 더 많은 일자리를 만들었다. 기존 일자리는 사라지고 새로운 일자리가 만들어졌다. 인공지능 기술의 발달도 다르지 않을 것이라는 전망은 이러한 역사적 경험에 바탕을 둔다. 그리고 다른 한편으로는 인공지능의 지지부진한 발달도 있었다. 골드만삭스의 보고서 이후, 이코노미스트는 ‘일자리는 인공지능에 의해 쉽게 대체되지 않을 듯(Your job is probably safe from artificial intelligence)’라는 긴 제목의 글을 게재하여 우리를 안심시킨다. IT 기술은 명목 경제성장에 눈에 띄는 기여를 하지 않았다. 노동조합을 포함한 이해관계자의 사실적 힘에 의해 일자리가 사라지는 속도가 늦춰졌으며, 역사적으로 보아도 일자리가 사라지는 속도가 빠르지 않았다. 실제 이코노미스트가 인용한 OECD 자료에 따르면 선진국의 경우 과거 10년 동안 평균 실업률이 절반으로 줄었다. 통계청에 따르면 2022년 우리나라 실업률은 2.9%로 10년 전인 2013년의 3.1%보다 줄었다. 참고로 2021년 기준 우리나라 실업률은 3.7%로 OECD 국가 중 5번째로 낮다. 실업률만 본다면 한국사회에서는 기술실업의 징후가 보이지 않는다.   전환의 시대 ChatGPT와 같은 언어 인공지능에 주목하는 이유는 빅뱅 파괴(Big Bang Disruption)의 기술 채택  곡선을 보여주기 때문이다. 과거 기술 채택이 장기간에 걸쳐 정규분포의 형태를 보이는 데 반해, 최근 빅뱅 파괴 기술은 상어 지느러미 형태를 보인다. 상어 지느러미 패턴이란 단기간 내에 특정 기술이나 상품을 채택하는 비율이 압도적으로 높을 때 나타난다. 전화기 보급대수가 1억대를 넘기는 데 75년이 걸렸다. ChatGPT의 경우 사용자 1억명에 도달하는 데 단 2개월만 걸려, 상어 지느러미 형태의 패턴을 보인다. ChatGPT는 빅뱅 파괴 기술이다. ChatGPT가 빅뱅 파괴를 보일 수 있는 이유는 언어를 처리하고 생산하는 인공지능으로서 꽤 쓸만한 성능을 보였기 때문이다. ChatGPT와 같은 언어 인공지능을 거대언어모델이라 한다. 규모가 매우 큰 언어 분야의 인공지능이란 뜻이다. 그런데 거대언어모델에 ChatGPT만 있는 게 아니다. 도표와 소리를 해석하는 거대언어모델, 의료나 금융 등 분야에 특화된 언어 거대언어모델, 오픈소스 거대언어모델 등이 등장하고 있다. 특히 오픈소스 거대언어모델은 다양한 활용과 개발을 가능하게 할 것이다. 거대언어모델과 로봇을 연결하는 시도도 활발하다. 로봇이 사람의 말을 이해하고 사람의 지시에 따라 작동할 것이다. 인간의 노동과 활동의 다수가 언어를 기반으로 하며, 지적 활동과 결과의 다수도 언어다. ChatGPT가 역사시대 이후 가장 빠른 확산속도를 보인 것과, 다수의 거대언어모델이 백가쟁명 식으로 경쟁하는 이유다. 급격한 기술의 발달과 빅뱅 파괴의 기술 채택은 노동환경에 영향을 미친다. 노동자도 그렇지만 기업도 이에 적응할 수 있는 여유를 주지 않는다. 이코노미스트의 기사는 심리적 위안을 주지만, ChatGPT와 같은 빅뱅 파괴 기술에 대해서는 다루지 않는다. 지금 우리 인류는 산업사회 이후를 기점으로 한번도 경험하지 않은 역사의 길을 걷고 있다. 그런데 이러한 진단이나 전망이 처음은 아니다. 제레미 리프킨은 1995년 ‘노동의 종말’에서 급진적 주장을 폈고, 2013년 프레이 등의 주장은 그 연장선상에 있으며, 2016년 WEF가 4차산업혁명으로 인해 전세계에 수백만개의 일자리 감소할 것이라 내세운 주장은 그 바톤을 이어 받은 것이다. 언어 인공지능을 포함한 인공지능의 급격한 발달과 디지털 전환으로 인한 기술실업의 가능성은 높으나, 여전히 불확실성은 존재한다. 이코노미스트의 조심스런 진단에 충분한 설득력이 있다고 볼 수 있다. 그런데 우리가 기후변화의 가속화와 이로 인해 에너지 사용을 절제해야 한다는 점을 고려해야 한다. 기후변화로 제품을 생산할 수 없어서 생산하지 않는 것이 아니라, 생산하면 안 되기 때문에 생산하지 않게 될 것이다. 인류의 제품 생산과 서비스 공급은 지구가 감당할 수 있는 선을 넘은 지 오래다. 지구 생태계가 지속가능하려면, 인류의 전통적인 일자리는 지속가능해서는 안된다.   노동 4.0에 비추어 본 전환적 개혁 노동 4.0(Arbeit 4.0)은 독일의 4차산업혁명에 대응한 노동정책이다. 독일은 사회적시장경제를 택하고 있다. 미국과 영국의 자유시장경제와는 대조적인 민주국가 경제 시스템의 하나로, 사회복지와 일자리 안정화 등 사회 공동체의 가치에 상대적 비중을 둔다. 독일은 디지털전환 시대에 국가경쟁력을 높이기 위한 방안으로 4차산업혁명을 기획했다. 제조업 분야의 디지털 전환인 4차산업혁명은 일자리와 국가 복지 시스템에 영향을 줄 수밖에 없다. 이에 따라 독일은 노동 4.0, 직업교육 및 훈련 4.0, 복지국가 4.0 등의 정책 시리즈를 내놓았다. 디지털 전환이 가져올 미래변화에 대응한 독일의 호들갑은 시의성 있고 현명했다. 그렇다면 우리 한국사회는 노동제도와 관련하여 거대언어모델 등이 가져올 변화에 대응하기 위해 독일의 노동 4.0을 그대로 가져올 수 있을까? 참조는 할 수 있겠으나, 단순 모방은 어렵다. 노동 4.0는 독일의 사회적시장경제와 연결되어 있고, 사회적시장경제는 독일의 “거시경제적 특징과 미시경제적 특징”이 융합되어 있기 때문이다. 강조하자면 역사적 맥락과 독일 시민의 내러티브가 촘촘히 연결되어 있다. 단순 모방이 아니라 전환적 재해석이 필요하다. 거대언어모델은 3차산업과 4차산업 일자리에 영향을 미칠 것이다. 4차산업 일자리는 지식산업으로, 거대언어모델은 지식생산성에 긍정적 영향을 준다. 이는 지식반감기를 단축시킬 것이다. 지식반감기란 지식의 반이 더 좋은 지식 등으로 대체되는 데 걸린 시간이다. 한 연구에 따르면 대학에서 배운 지식의 반감기는 6년에 불과하다. 앞으로 이는 더욱 단축될 것이다. 지식반감기에 대응하여 한국사회가 경쟁력을 유지하려면 주기적으로 집중적인 학습을 할 수 있어야 한다. 그렇게 하기 위해서는 기업이 이를 지원해야 하고, 노동 유연성이 실질적으로 보장돼야 한다. 노동 유연성이 실질적으로 보장되려면 대기업과 중소기업의 임금격차가 독일정도로 줄어야 한다. 정부는 주기적 집중교육을 위한 나노 학위 체계 준비, 학비 지원 등의 제도를 마련해야 한다. 거대언어모델은 직장의 업무 수행 풍경을 바꿀 것이다. 단순 암기력과 단순 기획력이 업무능력이 아니라 거대언어모델에 질문할 수 있는 힘, 비판적 사고, 발산적 사고가 업무능력이 될 것이다. 이들 힘을 키우기 위해서는 창의성과 게으름, 선량함과 정직함을 갖춘 인력을 중시해야 한다. 조직 내부의 사일로 현상에서 벗어나야 하며, 직장이 곧 공부하는 공간으로 바뀌어야 한다. 인적자원 채용기준이 바뀌어야 하며, 사용자의 통찰력과 용기가 필요하다. 우리 개개인의 내러티브 변화도 필요하다. 이른 나이에 경제적 자유를 추구하는 파이어족의 내러티브를 버려야 한다. 명품소비 1위라는 천박한 빈곤함의 내러티브에서 탈피해야 한다. 앞으로 우리의 일이 공부일 수밖에 없다는 점을 인식하고, 평생교육 문화와 태도를 정착해야 한다. 선량함과 정직함에 더 높은 개인적 가치를 두어야 한다. 정부, 기업, 가정과 개인의 전환적 개혁을 위해서는, 높은 곳에 올라 세계와 한국의 정치•경제•사회의 변화를 바라볼 수 있어야 한다. 가짜 진영 논리가 만들어 낸 그물을 벗겨낼 수 있어야 한다. 한국사회를 억누른 역사적 트라우마를 극복해야 한다. 시험에서 승자는 괴물이 되고, 패자는 루저가 되는 교육 시스템과 메리토크라시(meritocracy)의 환상에서 깨어나야 한다. 그래서 우리 시민사회가 둥근 탁자에 모여 담담하고 긴 대화를 나눌 수 있어야 한다. 그 과정이 어렵겠지만 충분히 가능하다. 한국사회가 보인 대동정신과 위기극복의 전통을 바탕으로, 우리는 불가능할 것 같은 일을 가능하게 하는 꿈을 꿔야 한다. 
인공지능
·
5
·
제4차 산업혁명과 기본소득: 무엇이 문제인가?
인공지능 시대의 기본소득(?) 이른바 제4차 산업혁명, 좀 더 특유하게는 생성형 인공지능(generative artificial intelligence)의 현재 상태와 전망을 보면서 일자리 감소와 소멸에 대해 우려하는 것은 어쩌면 당연한 일이다. 기계가 인간을 보조하고 강화하는 게 아니라 “대신”한다고 보면 일자리 감소와 소멸은 필연적인 일이기 때문이다. 얼마 전 딥마인드(DeepMind)의 공동창업자인 무스타파 술레이만(Mustafa Suleyman)이 한 경고는 이런 우려의 최신 판본이라 할 수 있다. 간단하게 말해 인공지능의 도래로 일자리가 자동화될 지식 부문 노동자들을 위한 해결책을 찾아야 한다는 것이다. 술레이만의 이런 경고를 뒷받침하는 근거로 사람들이 많이 드는 게 지난 3월 말에 나온 골드만삭스의 보고서이다. 골드만삭스의 분석가들은 인공지능의 새로운 물결이 전 세계 고용 시장에 커다란 충격을 주어 3억 개의 전일제 일자리를 자동화할 것이라고 말한다. 이때 주목받는 게 기본소득이다. 모두에게 아무런 조건 없이 개별적으로 주어지는 기본소득은 고용 노동과 무관하게 지급되는 소득이기 때문에 많은 사람이 일자리가 없을 가능성이 큰 시대에 적합한 정책이라는 것이다. 물론 이에 대한 반론도 만만치 않다. 하나는 사라지는 일자리가 있지만 새로 생기는 일자리도 있으며, 전체적으로 기술 변화로 더 많은 일자리가 생길 수 있다는 주장이다. 실제로 길게 보아 산업혁명 이후 이른바 경제 성장에 의해 일자리, 즉 고용노동은 계속해서 늘어났다. 따라서 인공지능을 비롯한 기술 발전이 새로운 일자리를 만들어낼 것이라는 전망도 아주 근거가 없는 것은 아니다. 하지만 문제는 이번에도 그럴 것인가라는 점이다. 다시 말해 경제 성장이 계속해서 이루어질 것인가? 혹은 이런 식의 경제 성장을 계속해야 하는가? 다른 하나의 반론은 기본소득과 같은 해결책에 대한 직접적인 반대를 표명하는 것인데, 현대 사회에서 일자리는 단순히 생계를 위한 소득을 버는 것만이 아니라 인간의 가치 실현의 통로이자 시민으로서의 자격을 뒷받침하는 수단이라는 주장에 근거한다. 따라서 어떻게 하든 일자리를 보장할 수 있는 방법을 찾아야지 일자리의 소멸을 당연한 것으로 받아들이고 기본소득과 같은 정책을 도입해서는 안 된다는 것이다. “일자리 보장” 혹은 그린뉴딜의 일자리 창출 같은 정책 대안은 이런 취지에서 나온 것이다. 이에 대해서는 일단 인간에게 노동이란 무엇인가 혹은 현대 사회에서 고용노동이란 무엇인가라는 질문이 따라나올 수밖에 없다는 점을 지적해두기로 하자.     과연 인공지능이란 무엇인가 인공지능이 발전하면서 우리에게 가져오고 있는 충격과 전망은 사실 일자리 문제에 국한해서 검토할 일이 아니다. 오늘날 우리는 여러 가지 전환에 대해 말하고 있다. 에너지 전환을 포함한 생태적 전환, 사회 체제 자체의 전환, 그리고 인공지능의 발전 속에서 최근에 주목받고 있는 디지털 전환 등이 대표적인 것이다. 그리고 이러한 전환들은 서로 맞물려 있다는 점이 중요하다. 미국의 문명비평가인 루이스 멈포드는 “기계가 우리의 물리적 환경 속에서 만들어낸 거대한 물질적 대체(displacements)는 장기적으로 아마 그것이 우리의 문화에 정신적으로 기여한 것보다 덜 중요할 것이다”라고 말한 바 있다. 기술 변화와 발전의 산물이 단순히 우리 삶에 더해지는 것이 아니라 우리의 삶 자체를 바꿀 수 있다는 것이다. 물론 그의 말이 이른바 기술 결정론을 말하는 것은 아니다. 도리어 그의 잠언은 “기계의 신화”에서 벗어나 기술의 변화를 경제적 변화 및 사회적 변화와 함께 바라보아야 하며, 궁극적으로 권력 비판에 근거해야 해야 한다는 점을 말하는 것이다. 인공지능은 도대체 어떻게 존재하고 발전하고 있는가? 인공지능은 인간의 삶을 어떻게 바꾸고 있는가? 인공지능에 대해 인간은 어떤 태도를 가져야 하는가? 이런 질문들은 일자리 감소에 대한 우려를 훌쩍 넘어서는 것들이다. 전기 에너지, 희토류를 비롯한 물리적 자원, 필요한 노동, 데이터 추출 및 데이터 집합, 필요한 자본과 제도 등으로 이루어진 인공지능은 하나의 체제이다. 이 체제는 독립적으로 존재하는 게 아니라 사회에 터잡고 있으며, 무엇을 어떻게 해야 하는지도 이 관계 속에서 결정된다. 인공지능 체제를 이렇게 볼 경우 오늘날 인공지능은 이윤 추구의 자본주의 및 불평등한 권력 관계를 반영할 뿐만 아니라 이에 의해 추동되고 있다. 이런 이해에 근거해서 노동 혹은 일자리 문제를 살펴보면 한편에서는 기존의 일자리가 자동화되면서 일자리가 사라지고 있고, 다른 한편에서는 자원 채취와 데이터 정리 같은 일을 하는 힘들고 위험하고 지루한 불안정 노동이 늘어나고 있다. 따라서 노동의 변화 및 일자리 문제와 관련해서 우리에게는 두 가지 과제가 있는 셈이다. 자동화로 인해 사라지는 일자리 혹은 직무에 대해 어떤 태도를 취할 것인가 그리고 힘들고 위험하고 지루한 노동을 어떻게 축소하거나 분배할 것인가? 공유부와 기본소득 인공지능을 포함한 디지털 자본주의의 발전에 따라 다시금 주목받게 된 것이 공유지(commons)와 공유부(common wealth)이다. 사유 재산도 공적 소유도 아닌 공유지는 모두가 이용할 수 있는 것이다. 공유부는 자연의 선물 혹은 모두가 함께 만든 것으로 특정 개인이나 집단에게만 귀속되지 않는 부이다. 디지털 자본주의의 토대인 데이터가 누구의 것인가라는 질문은 공유지와 공유부에 대한 관심의 출발점이다. 현재 데이터 가운데 상당 부분은 인간의 여러 활동의 산물이다. 플랫폼 기업들은 이를 말 그대로 채굴하고 결합해서 빅데이터로 구성하고 타겟팅 사업에 활용해서 이윤을 올리고 있다. 이른바 인공지능의 발전 혹은 개선은 바로 이 과정 속에서 이루어진다. 이윤의 원천 가운데 하나가 데이터임에도 데이터를 생산 혹은 생성한 사람들에게는 거의 아무것도 돌아가지 않는다. 물론 이때 데이터는 데이터 집합이기 때문에 특정 개인이 얼마만큼의 가치를 생산했는지를 따지는 것은 불가능하다. 이런 점에서 데이터는 모두의 것, 즉 공유지라고 할 수 있다. 그런데 현실은 모두의 것을 일부 사적 자본이 포획해서 이윤의 원천으로 삼고 있는 양상이다. 이런 이유로 “제2의 인클로저” 혹은 “새로운 인클로저”라는 고발이 등장했다. 게다가 현대 자본주의에서 새로운 기술의 발전은 거의 언제나 공적 자금과 기구에 의해 뒷받침되었다. 아이폰에서 볼 수 있는 여러 기술이 미국 정부, 특히 국방부의 후원 아래 이루어진 혁신 기술을 응용했다는 점은 이제 널리 알려져 있는 사실이다. 이렇게 보면 기술 혁신의 과정과 그 결과물도 사실은 공공의 부라는 것을 알 수 있다. 그럼에도 그 성과는 거의 대부분 사적 자본이 가져가는 게 현실이다. 기본소득은 이런 부정의한 현실을 바로잡기 위한 것이기도 하다. 자연적인 것이든 인공적인 것이든 공유부라고 할 수 있는 것이 있으며, 이는 모두에게 속하는 것이기 때문에 모두에게 아무런 조건 없이 개별적으로 분배하는 것이 가장 적합하다고 보는 게 기본소득의 발상이다. 이는 사회 정의의 문제이다. 이는 인공지능의 발전으로 일자리가 소멸할 것이기 때문에 기본소득과 같은 것이 필요하다는 주장을 훨씬 뛰어넘는 것이다.   오늘날 인류가 직면한 다양한 위기 그리고 그 위기를 넘어설 수 있는 해법에 대한 모색은 정의의 문제를 새롭게 제기하고 있다. 왜냐하면 위기의 원인과 책임의 문제를 해명하지 않고는 위기를 해결할 수 있는 전망을 찾을 수 없기 때문이다. 인공지능이 단순히 기술 발전에 의해 만들어진 것이 아니라 자연과 사회에 대한 착취적, 억압적 권력 관계의 산물인 것과 마찬가지로 오늘날 우리가 겪고 있는 기후위기와 돌봄위기를 비롯한 수많은 위기도 고립된 채 존재하지 않는다. “모두의 것을 모두에게”라는 원칙에 근거한 기본소득은 불안정한 삶을 살아가는 사람에게 단단한 경제적 기반을 제공하는 것일 뿐만 아니라 정의의 문제를 새롭게 제기하는 일이기도 하다. 
인공지능
·
5
·
디지털 공론장을 만드는 집단지성과 인공지능
초거대인공지능 시대의 초입, ‘인공지능은 앞으로 무엇을 대체할까?’를 놓고 많은 사람들이 의견을 쏟아낸다. 기회로 여기든, 위기로 여기든 변화가 일어난다는 전망에 누구나 동의한다. 당장은 인간의 노동 중 대체되거나 사라질 것들을 각자 예측하지만, 한켠에선 기존에 사회를 운영하면서 사용한 여러 과정을 인공지능으로 대입해 보기도 한다. 정치권에서 챗GPT에 정책에 대한 평가나, 상대 진영의 정치인에 대한 평가를 물었다는 일화가 들린다. 해외에서는 의회의 연설문을 챗GPT로부터 생성해서 발표하기도 했단다. 챗GPT를 이용해 신과 대화해 보라는 서비스가 주는 인상은 흥미롭지만, 어떤 정책이 나은지 평가하고, 어떤 방향으로 나아가야 하는지에 대한 질문에 초거대인공지능이 내어놓는 답을 우리는 어느 정도까지 활용해도 되는지에 대해 논의하지 않는다는 점은 흥미보다는 염려가 앞선다. 집단적 의사 결정에서 인공지능은 공론장의 대안일 수 있을까? 특히나 지난 몇년간 우리는 소셜 미디어를 통해 벌어진 결과를 부정적으로 경험했다. 상대 진영에 대한 악마화, 서로에게 귀기울이기는 커녕 스스로의 생각을 더욱 강화시키는 필터 버블, 출처를 알 수 없는 허위조작정보와 국가 기관마저도 나선 영향 공작(influence operations), 집단 괴롭힘에 시달리는 이들의 자살 등등. 소셜 미디어를 통해 경험한 혐오와 차별, 갈등은 사회가 맞닥뜨리는 여러 복합 위기와 맞물리며, 각자도생의 전략이 더욱 타당하게 느껴지게 만들었고, 우린 집단지성의 실현이라는 인터넷 초창기의 희망 섞인 기대는 어느 순간 잃어버린채 집단이나 공동체에 대한 믿음까지도 잃어가는지도 모르겠다. 그런 상황에서 인공지능이 내어놓는 답은 다양한 의견이 경쟁하고 협력하고, 조정과 합의를 거쳐야 하는 (그 과정에서 결코 합의에 이르지 못하고 서로 혐오하고 파멸에 이르는 과정을 우리는 많이 보았기에) 인간들의 의사결정보다는 누군가에게는 나아 보이기도 한다. 인공지능은 편파적이지도 않고 더 합리적인 것처럼 보이기도 하고, 심지어 인간이 만든 문서를 인공지능이 모두(?) 이해(?)해서 요약했다는 답변은 루소가 상상했던 사회의 일반의지처럼도 보이기도 한다. 인공지능이 바꿀 공론장의 미래 하지만 우리가 인간과 인간으로서 구성된 사회를 부정하지 않는 이상, 집단 지성의 발전과 인공 지능의 도입을 결코 앞선 것을 부정하고 새로운 것을 긍정하는 발전으로 이해해서는 안 된다. 우선 초거대인공지능이 인간이 집단적으로 축적한 데이터로부터 만들어지기 때문이다. 인터넷과 클라우드, 소셜 플랫폼과 빅데이터는 집단지성과 인공지능이 서로 의존하며 상호 발전해 온 기술임을 보여 주는 용어들이다. 우리는 인터넷을 통해 시공간을 가로질러 수많은 연결을 창출해냈고, 이 연결을 통해 생산되는 데이터를 클라우드에 축적했다. 소셜 플랫폼에 모인 수많은 컨텐츠와 사용자 행위 데이터를 빅데이터로 모아, 네트워크로 연결한 거대한 서버 자원을 통한 후 지금의 초거대인공지능이 답변을 구성하도록 만들어내는데 활용했다. 이렇게 따라가다 보면 인공지능은 오히려 인간 집단지성의 한 유형이자 결과인 것 같고, 블록체인 기술보다 웹3.0이라는 타이틀이 더 어울린다. 또한 인공지능이 기본적으로나 제대로든 작동하기 위해서 (결정을 실행하기 위해 필요한 노동을 논의에서 빼 두더라도) 사람이 할 일은 앞으로도 많다. 지금의 챗GPT로서는 피할 수 없는 환각(Hallucination)을 완화하기 위해 인간의 피드백(RLHF, Reinforcement Learning from Human Feedback)을 거친다. 더 정확한 답변을 위해서는 빅데이터 뿐만 아니라 더 많은 스몰데이터도 필요하다. 아마 이미 다양한 방식으로 공개된 빅데이터 외에 스몰데이터를 독점 확보함으로써 품질을 높이는 위한 경쟁이 초거대인공지능 기업들간에 치열하게 벌어질지도 모른다. 위키 방식의 집단 편집의 결과물이나 키워드에 기반한 검색 서비스나 커뮤니티 서비스의 활용은 이미 줄어들고 있지만, 거꾸로 초거대인공지능이 제공하는 답변에 들어가기 위한 노하우를 활용하는 컨텐츠 생태계는 활성화될 것이다. 시민사회를 비롯해 스스로의 독창적인 이야기와 경험, 서비스를 발신할 미디어(owned media)는 앞으로 더욱 중요한 과제가 된다. 방대한 데이터를 분석하는 측면에서는 논란의 여지가 있다. 본래 민주적인 공론장은 다수결의 원칙을 따르되 소수의 의견을 존중한다는 가치를 바탕으로 한다. 이를 뒷받침하는 더 많은 참여와 더 나은 숙의는 비록 충분히 실현되기는 어렵지만 사회가 민주주의의 기본으로 인정하는 가치다. 인공지능이 이미 존재하는 다양한 문서로부터 사회 다수의 입장을 요약해낼때 우리는 앞서 언급한 가치가 얼마나 지켜졌는지 알지 못한다. 또한 광범위하게 제시된 의견을 효과적으로 요약하는 것만으로는 부족하다. 이는 소셜 플랫폼이 활성화될때 시민들의 단순 직접 투표로 의견을 효과적이고 빠르게 결정하는 것이 민주적이라고 주장했던 블록체인 기반의 자동화된 분산 조직이 간과하는 바와 같다. 공론장은 참여와 함께 숙의를 통해 경쟁과 갈등, 이해와 조정의 과정을 거치는 사회적인 과정이다. 이 과정을 생략해서는 이해는커녕 동의를 구하기란 어렵고, 소수의견은 묵살되는 것과 같은 결과를 낳는다. 시민들의 투표, 의견을 데이터로 분석해내는 과정은 중요하지만, 공론장은 최종 결론만을 목표로 하는 공간이 아니다. 이미 활용되고 있는 기술인 혐오 표현 필터링도 마찬가지다. 어떤 표현을 기술적으로 감지할 것인가 혹은 근본적으로 방지할 것인가는 기술 만의 문제가 아니다. 개인적으로는 보다 적극적인 혐오 표현 방지를 옹호하지만, 사실 혐오 표현에 대한 논쟁은 헌법에도 명시한 인간의 기본 권리인 표현의 자유의 보장과 함께 맞물리는 복잡하고 까다로운 문제다. 더 발전한 기술을 만들기 위해서도 우리 사회가 혐오 표현, 혹은 표현의 자유에 대해 어느 정도 허용하는지 추측할 수 있는 사회적 경험(혹은 논쟁)이 필요하다. 인공지능으로 가짜뉴스를 잡겠다는 도전 역시 그러하다. 많이 사용되는 용어이지만 가짜뉴스보다는 허위조작정보(dis/mis/mal-information)가 더 정확한 표현이다. 이는 의도하거나 의도하지 않거나, 실수이거나 조작이거나 등등 정보가 다양한 이유와 의도, 취약한 상태로 전달될 수 있음을 드러낸다. 이는 허위조작정보의 의도와 상태에 따라 여러가지 사람의 해석이 경쟁하고 의도가 맞물려 돌아감을, 따라서 단순히 더하기 빼기가 틀린 문제를 다루는 것이 아님을 드러내기도 한다. 허위조작정보의 검증은 사회적인 과정으로 만들어내야 하고, 이 과정에 다양한 검증 도구를 활용하는 식이어야 한다. 조작된 영상 정보, 조작된 데이터의 검출 등 인간의 역량을 벗어난 검증 과정에 기술은 충분히 도구로서 활용할 수 있다. 하지만 안타깝게도 인공지능이란 최신 기술을 활용해 스스로의 의도를 은폐한채 또 다른 조작정보를 인공지능을 통해 발신하는 상황을 목도하게 될 수도 있다. 정리하자면 여전히 사람과 사람이 협력하는 공론장이 사회에 꼭 필요하다고 여긴다면, 우리는 기술 개발, 사용자 협력, 리터러시와 투명성의 확보 등을 위해 다음과 같은 과정을 밟아나갈 필요가 있다. 1) 이해와 합의가 일어나는 다양성을 갖춘 공론장의 운영 2) 다양한 자동화 기술의 개발과 활용 3) 사용자 참여에 기반한 적응을 통한 기술 발전 4) 적용한 기술을 이해하고 공감하기 위한 조치들 사회와 기술의 발전을 위한 시민과 공동체의 성장 아직까지는 무엇이 바람직한지, 우리가 합의한대로 작동하는지를 평가하거나 의사 결정하는 것은 인간의 몫이자, 공동체의 몫이다. 아무리 좋은 기술이거나 결정이어도 사회의 운영에 활용하려면, 그 과정과 결과를 공동체의 구성원들이 이해하고 수용할 수 있어야 한다. 구성원들이 동의하지 않는 기술이나 체계는 유지되지 못한다. 거꾸로 이해와 판단의 책임을 진 인간에게는 무엇이 윤리적인지, 무엇이 공동체의 가치에 맞는지를 판단하는 시민성의 문제와 시민 역량을 갖추어야 할 책임이 부여된다. 우리가 민주주의 사회를 앞으로도 유지하겠다면 말이다. 우리는 같은 단어임에도 집단 지성(Collective Intelligence)은 지성으로, 인공 지능(Artificial Intelligence)은 지능으로 번역했다. 부지불식간에 인공 지능은 지식에 관한 도구로, 집단 지성은 인간만이 가지는 통찰과 지혜를 기대했던 것일까? 무엇이 가치있는지, 정의로운지, 서로 다른 처지를 이해하고 포용해야 하는지를 집단으로서의 인간은 아직까지는 인간에게 기대하는 것 같다. 다만 한국 사회가 사회의 공공성과 민주주의를 긴 시간 동안 경쟁하고 조율하고 논쟁하며 만들어오지 못했다는 점이 염려스럽다. 정치인들이 쉽게 국민들을 갈라칠 수 있는 까닭 역시 누구의, 누구를 위한 민주주의인지를 우리 스스로의 힘으로 쟁취한 경험이 아직은 충분하지 않아서이다. 그렇기에 우리는 기술을 활용한 효율적인 의사결정을 사회적 배제라는 역효과보다 더 매력적으로 느끼는 환경에 놓여 있다. 이 환경 속에서 우리는 사회와 기술을 동시에 발전시켜 나갈 수 있을까? 쉽지 않은 도전임이 분명하지만, 시민과 공동체를 위해서 사회의 필수 인프라로서 좋은 공론장을 더욱 발전시키고, 우리의 집단적 의사 결정을 돕는 인공 지능 역시 함께 발전시켜 나가는 사회를 만들 기회도 역시 우리의 손에 놓여 있다. 오랜 시간이 흘렀지만, 우리 삶에서 옳고 그른 것을 판단하는 기준을 둘러싼 논쟁은 별다른 진척을 보이지 않고 있다. 지식의 발전 과정을 되돌아볼 때, 이 것만큼 우리의 기대를 저버린 것이 또 있을까? 인간의 삶에서 무엇보다 중요 한 주제임에도, 이 문제에 관한 철학적 논의는 여전히 심각한 낙후 상태를 벗 어나지 못하고 있다. — 공리주의. 존 스튜어트 밀. 서병훈. AICE포럼 후, 랩2050에 기고한 글입니다.
인공지능
·
3
·