디지털 시민광장

캠페인즈를 후원해 주세요.

후원하기

주목할 이슈

더보기
오늘의 캠페이너
한량
구독자 88명
이지
구독자 8명
수호
구독자 25명
함께걸음
구독자 21명
전쟁없는세상
구독자 28명
캠페인즈
구독자 217명
세월호참사 10주기 기억식과 기억교실
세월호참사 10주기 기억식 세월호참사 10주기를 기억하기 위해, 4월 16일 오후 3시 안산 단원고 인근의 화랑유원지에서 세월호 기억식이 열렸다. 세월호 희생자 250명의 이름을 부르는 호명식을 시작으로, 304명 희생자에 대한 묵념과 추도사, 97년생 동갑내기의 기억편지, 기억 영상과 시 낭독, 노래 공연과 416합창단과 시민합창단의 합창 공연 등으로 이루어졌다.   세월호를 기억식이 거행되는 사이에 불현듯 사이렌이 울렸다. 안산에서는 매년 4월 16일 오후 4시 16시에 이렇게 사이렌이 울린다고 한다. 416을 기억하기 위한 취지였다. 그 짧은 사이렌과 묵념의 순간에 416 세월호참사는 우리에게 던지는 사이렌 같은 사건이란 생각이 스쳤다.       <세월호참사 10주기, 우리들의 요구>  세월호참사 진상규명, 책임자 처벌, 안전사회 건설 이행하라!  세월호참사 및 그 이후 발생한 국가폭력에 대해 국가책임 인정하고 사과하라! 대통령은 세월호참사 지우기 중단하라! 정부는 사회적참사특별조사위원회 권고 이행하라! 정부는 세월호참사 기억/추모사업을 차질없이 추진하라! 세월호참사 대통령 기록물, 국정원, 군 등 정부 기록물 모두 공개하라! 부재했던 재난 컨트롤타워, 피해자 사찰했던 정부기관, 국가책임자 처벌하라! 대통령은 진상규명 추가 조치, 성역 없는 추가 조사 이행하라!     (세월호 참사 102주기 기억식 팜플렛에서)  세월호참사 진상규명과 국가폭력 및 사찰, 대통령이 사라진 시간 등 아직 밝혀지지 않은 진실들이  계속해서 우리를 불러세운다. 기억은 사진첩에 끼워지는 단순한 기억이 아니라, 다음번 또다른 희생이 생겨나지 않기 위해, 다음번 재난 컨트롤타워의 부재를 막기 위해 필요한 순간이다.  우리는 사이렌을 계속 울려야 한다.  왜냐하면 팽목항은 어디에나 있을 수 있고, 세월호도 어디에나 있을 수 있기 때문이다. 그래서 세월호참사를 기억하는 것은 이태원참사 등 다른 참사와도 맥이 통하고, 419 민주화운동과도 맥이 통한다. 세월호참사에 대한 기억은 사회적 기억으로서 의미가 깊다. 또한 세월호참사에서 희생된 단원고 학생들은, 이 사회 어른들이 무엇을 잃었는지를 다시금 생각하게 한다.  ‘재난참사 이후 원인을 규명하고 재발을 방지하기 위한 제도를 설계하기 위해 어떤 접근이 필요한지, 잘못된 조치를 한 것이 아니라 아무런 조치를 취하지 않은 책임자들에게 어떻게 사법적, 사회적 책임을 물을 것인지는 여전히 남은 과제다.’  (세월호참사가족협의회 2014~2023년의 기록 <520번의 금요일> 중에서) 단원고 416 기억교실 기억식이 끝나고 근처에 10년 전 희생자였던 단원고 2학년 교실을 보존해 놓은 기억교실을 찾았다. 가는 길에 문 닫을까 걱정되어 택시를 탔다. 안산 택시들이 팽목항과 안산을 오가며 피해자 가족을 도왔다는 게 생각나 물어보니, 기사님은 쓰라린 목소리로 말했다. 그땐 그럴 수밖에 없었노라고. 누구라도 그랬을 거라고. 그러면서 기억식에 대통령은 왔던가요? 하고 물었다. 대통령은 오지 않았다고 대답했다.  기억교실 건물을 둘러싼 울타리에 걸린 “10년, 당신들을 기억하는 마음은 변함 없습니다.” 라는 플랜카드가 보였고, 노란 바람개비가 바람을 맞고 있었다.  기억교실에는 남자반 여자반으로 2, 3 층으로 나뉘어 있는 교실들을 만날 수 있었다. 노란 등받이와 방석으로 세월호 희생자들의 자리를 한눈에 알 수 있었는데, 반 전체에 서너 자리를 빼곤 모두 노란 자리로 뒤덮여 있어 가슴이 턱 막혀왔다. 교무실 역시 희생자 선생님들의 사진과 평소 쓰던 출석부 학생기록 수첩 등이 남아 있었다. 안내하던 한 여자분이 간곡히 말했다.  “부탁하고 싶은 것은, 한 아이의 이름이라도 기억해 주세요.”  그제야 나는 아이들의 이름을 외우려고 애썼다. 지금 살아 있었다면 27살의 청춘으로 사회의 일원이 되어 있었을 아이들. 나는 기억교실 안에서 부표처럼 떠 있었다. 한 책상 위에 낙서로 적혀 있는 글귀를 보았다.   단 한번 뿐 인생을 낭비하지 말자. 세월호참사 10주기 기억식의 키워드는 ‘기억’ 뿐만이 아니었다. 기억과 약속, 그리고 책임이었다. 기억은 힘이 세다, 는 말처럼, 기억이 약속을 만들고, 약속을 통해 책임을 일구어 나가는 과정이 이제 10년을 맞이한 셈이다. 아직 이루지 못한 진실규명과 책임 처벌, 앞으로를 대비한 관련 법률과 제도. 다시는 일어나지 않아야 할 인재(人災). 다시는 일어나지 않아야 할 사회적 참사. 그리고 그 이후의 과정들. 그것을 해낼 수 있어야지만 이 기억식의 의미는 뚜렷해질 것이다. 그래서 아직도 노란 리본은 반짝거리고 우리의 눈을 사로잡는다. 아직 더 해야 할 일들이 남아 있다고, 뜨겁게 요구하고 있는 것이다. 
4.16 세월호 참사
·
탈세계화 시대의 AI
AI 윤리 뉴스 브리프 2024년 4월 다섯째 주 by 🧙‍♂️텍스 1. 원격 계산원과 키오스크 글로벌 아웃소싱은 어제오늘의 일이 아닙니다만, 정보기술의 발전과 함께 다양한 형태로 다양하게 변화하고 있습니다. 최근 뉴욕타임스는 원격 계산원을 도입하여 오프라인에서 아웃소싱한 뉴욕 레스토랑의 사례를 다루었습니다. 그동안 🦜AI 윤리 레터에서 다루었던 온라인 아웃소싱에서 한 발 더 나간 모습이네요. 가게 소재지인 뉴욕 퀸스의 롱아일랜드 시티 최저임금은 시간당 $15인 반면, 필리핀에 거주 중인 원격 계산원은 $3의 임금을 받습니다. 최저 임금 관련 법률이 주에 물리적으로 위치한 사람에게만 적용되기 때문에 가능한 임금 차별이죠. 리처드 볼드윈의 저서 Globotics Upheaval (2019)에서는 세계화와 로보틱스의 결합을 globotics (globalization + robotics)로 정의하고 세계화가 단순히 재화와 상품의 교환에서 벗어나서 원격이주(telemigration)의 형태로 확장되어 간다는 예측을 하기도 했습니다. 원격 계산원의 사례도 위와 같은 원격이주의 한 형태로 볼 수 있을 듯하네요. 원격 계산원은 줌의 가상 접객원(virtual receptionist) 플랫폼 기반으로 구현이 되어 있는 것으로 보입니다. CNBC의 2021년 기사에 따르면, 줌은 코로나-19 이후 줌을 통한 화상회의 수요가 줄어들 것을 대비하면서 가상 접객원 기능을 이미 준비해 두었다고 하네요. 가상 접객원 시스템의 특성상 목적에 부합하는 데이터 취득이 용이하기 때문에 미래에는 가상 아바타와 거대언어모델을 조합한 알고리즘으로 아웃소싱 업무 자체도 완전히 대체되지 않을까 조심히 예측해 봅니다. 반면, 한국의 경우는 언어 때문인지 제3국으로의 아웃소싱보다는 기술에 전적으로 의존하는 노동 대체가 일어날 것으로 예상됩니다. 이는 종업원 고용을 대체할 수 있는 기술 및 로봇에 크게 투자가 몰리고 있는 사실로 확인할 수 있습니다. 특히 한국 테이블 오더 시장의 65%를 차지하고 있는 티오더는 최근 300억 규모의 추가 투자를 받았습니다. 더 읽어보기 강화학습이 강화하는 역사 (2024-04-24) "세계 최초 윤리적 데이터 회사"는 어떤 모습일까? (2023-08-07) 2. 탈세계화 시대의 플랫폼 1: 틱톡(Tik Tok) 금지 법안 통과 최근 미국 의회 하원(4월 21일)과 상원(4월 23일)은 조건부 틱톡 금지 법안을 통과시켰습니다. 틱톡의 모회사 바이트댄스 지분을 1년 내에 매각하지 않으면 미국에서 틱톡을 금지한다는 법안입니다. 이 법안은 우크라이나, 이스라엘, 대만의 경제적 지원을 위한 법안과 함께 통과하였습니다. 틱톡은 이에 즉각 반발하는 성명을 냈습니다. 틱톡은 위헌적 금지(unconstitutional ban)라면서 미국에 미국 내 데이터의 안전과 외부로부터의 악의적인 영향 및 조작을 막기 위해서 데이터 거버넌스에 많은 투자를 진행해 왔다는 사실을 언급했습니다. 양당 대다수 의원의 동의 입장과 달리, 트럼프 전 대통령은 틱톡 금지가 메타에게 큰 이득을 줄 것이라며 반대하고 있네요. 논쟁의 배경을 이해하기 위해서는 2020년 9월로 거슬러 올라가야 합니다. 당시 트럼프 정부는 중국 정부가 틱톡의 데이터를 훔쳐볼 수 있다며 문제를 제기했고, 미국계가 50% 이상의 지분을 갖는 틱톡글로벌을 세우는 골자로 대략적인 합의가 진행되었습니다. 하지만 2020년 11월 미국 대선이 끝나면서 관련 이슈는 마무리되지 못한 채 바이든 정부의 몫으로 넘어갔습니다. 데이터 거버넌스의 해결을 위해 틱톡은 2022년 3월 중국 서버의 데이터를 모두 미국 내 오라클 클라우드로 이전하는 계약을 체결했습니다. 하지만 여전히 미국의 데이터에 중국 엔지니어가 접근할 수 있다는 사실이 2022년 6월 보도되면서 논란은 이어졌고, 미국 의회는 2022년 12월 정부 기관의 기기에서 틱톡 사용을 금지하는 법안을 제출했습니다. 틱톡은 지분구조의 변화가 데이터 거버넌스와 안보 문제를 해결하지 않는다며, 외부 개입이 없는 데이터 거버넌스를 위한 지속적인 투자를 이야기하고 있습니다. 하지만 틱톡이 어떤 기술과 방법을 동원하든, 중국 공산당이 틱톡에 접근하지 못한다는 사실을 설득하기는 어려워 보입니다. 더 읽어보기 틱톡을 금지하라! (2023-05-22) 3. 탈세계화 시대의 플랫폼 2: 일본 라인(Line) 지분 매각 권고 라인 메신저 운영사 라인야후의 지분구조 일본 정부가 라인 메신저를 운영하는 라인야후에 네이버 지분 매각을 권고했습니다. 틱톡의 사례와 마찬가지로 ‘글로벌 플랫폼 산업’이 실제로는 특정 국가의 통치권을 벗어날 순 없다는 사실을 보여줍니다. 라인 메신저는 월간 활성 사용자 수가 9600만 명에 달하는 일본 내 1위 메신저로, 한국의 카카오톡과 유사한 위상을 점하고 있습니다. 단순히 개인 간의 메신저를 넘어서 정부에서도 라인을 사용할 정도죠. 일부 집단에서는 일본의 주요 메신저를 한국 기업이 소유하고 있다는 사실에 예민하게 반응한다고 합니다. 작년 10월 한국 네이버 클라우드를 통해서 일본 라인의 해킹이 있었고, 이로 인해 라인 이용자, 거래처, 네이버 직원 등의 51만 건의 개인 정보 유출이 있었습니다. 일본 총무성은 이에 대한 사고 재발 방지의 일환으로 라인야후에게 두 차례 행정지도를 내렸으며, 여기에는 보안 거버넌스 개선방안을 위한 네이버에 대한 업무 위탁 및 네이버와의 자본관계 재검토도 포함되어 있습니다. 라인 메신저 사례는 플랫폼과 국가 안보 문제가 결합했다는 점에서 틱톡의 사례와 결을 같이 합니다. 우리나라 외교부는 “우리 기업에 대한 차별적 조치가 있어서는 안 된다”는 입장을 표했죠. 거대언어모델 개발과 활용을 주도하는 미국 빅테크 기업들에 대항하기 위해서, 각 지역의 선도 기업들은 자국에서 소버린 (sovereign) AI의 필요성을 주장하고 있습니다. 네이버도 소버린 AI를 주창하면서 한국 고유 거대언어모델의 필요성을 이야기하고 있죠. 시대의 조류가 탈세계화라면, 네이버에도 국가 내부를 향하는 소버린 AI를 넘는 담론 아이디어가 있어야 라인의 지분을 지키기 유리할 것으로 보입니다. 💬🦜소식 LG AI연구원 AI 윤리 분야 정책 연구 직원 채용 오늘 이야기 어떠셨나요?여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 
인공지능
·
오래된 미래의 AI
더 나은 AI를 위한 상상 by. 💂죠셉 어떤 계기로 <AI 윤리 레터>를 구독하게 되셨나요? 원래 AI와 관련된 분야에 종사하고 계셨을 수도 있지만, 많은 경우는 2022년 11월 출시된 챗GPT 이후로 본격적인 관심을 가지게 되시지 않았을까 합니다. 잘 아시다시피 챗GPT와 같은 챗봇들은 ‘LLM(거대 언어 모델)’을 기반으로 작동하는데요. 이후 클로드(Claude), 제미나이(Gemini)등 LLM 챗봇들이 쏟아져 나오면서 요즘 미디어에서 언급되는 ‘AI’는 사실상 ‘LLM’과 동의어처럼 사용되고 있습니다. LLM이 현재 AI 산업을 이끌어가는 패러다임인 건 분명한 사실입니다. 하지만 LLM은 인간 뇌의 작동 방식을 모방한 신경망(Neural network)을 바탕으로 하고, 이 신경망 기술이 인공지능이라는 목표에 이르기 위한 여러 방법론 중 하나란 사실은 짚고 넘어갈 필요가 있습니다. LLM은(=하위개념) AI지만(=상위개념) 그 반대는 불완전한 설명이라는 것이죠. 오늘 레터에서는 이게 왜 윤리 이슈 관점에서도 흥미로운 지점인지 짧게 다뤄보도록 할게요. 뉴로..심볼릭..? AI와 LLM을 동의어처럼 사용하는 경향은 얼마 전 발행된 스탠포드 HAI의 연간 리포트에서도 볼 수 있었는데요. 그 와중에 흥미로운 단락이 하나 등장합니다. (185페이지). 바로 뉴로 심볼릭 AI (Neuro-symbolic AI, 이하 ‘뉴로 심볼릭’)라는 개념인데요. 안 그래도 복잡한데 이건 또 뭐냐? 하실 것 같아 AI 역사의 맥락 속에서 간단히 정리해 보겠습니다. AI 연구가 하나의 학문으로서 정립된 것은 1956년. 이 당시 주류 패러다임은 기호주의(symbolism)로서, 세계의 지식을 기호로 바꿔 컴퓨터에 계산하는 규칙 기반의 방법론이라 할 수 있음. 반면 현재 신경망 기술의 기원이 된 건 1957년 프랑크 로젠블랫(Frank Rosenblatt)이 발표한 퍼셉트론(Perceptron) 논문. 이 때부터 이 계열의 연구에는 연결주의(connectionism)라는 이름이 붙었음. 이후 AI 연구가 몇 차례 호황기와 부침을 겪는 오랜 기간 동안 주류의 위치를 차지해 온 건 기호주의. 그러나 떨어지는 효율성과 수익화 문제 등을 극복하지 못하며 1990년대 들어 산업 전체가 침체기에 빠짐. 2010년에 이르러 데이터셋과 반도체 성능의 비약적 발전과 함께 대세가 전환됨. 2012년, AI의 이미지 분류 정확도를 평가하는 이미지넷 (ImageNet)대회에서 제프리 힌튼 연구팀의 알고리즘인 ‘알렉스넷’이 획기적인 성과를 증명. 이때부터 신경망을 바탕으로 하는 딥러닝은 승승장구해 지금의 주류 패러다임이 되기에 이름. 뉴로 심볼릭은 이름처럼 신경망(neuro)과 기호주의(symbolic)를 혼합한 형태. 현재 AI 기술의 문제에 대한 대안으로 조금씩 언급되며 다양한 연구가 진행 중. (*AI 역사에 대해 더 읽고 싶으시다면 첫 책으로 케이드 매츠의 <AI 메이커스>를 추천드립니다.) 신경망, 기호주의에 대한 설명과 함께 미래 AI 생태계에 대한 흥미로운 예측을 들려주는 카톨린 욘커 교수 (영상: The Royal Institution 유튜브 채널) 방대한 데이터를 통해 자가 학습하는 딥 러닝 기술은 스케일과 성능의 측면에서는 월등하지만, ‘블랙박스’로 대표되는 설명 불가능성의 취약점을 가지고 있습니다. 이론상으로는 더 많은 데이터를 확보해 결과물의 정확도를 올릴 수 있지만 투입할 수 있는 데이터는 유한하며, 그에 따르는 환경 문제도 계속 지적되고 있죠. 반면 인간이 입력해 둔 지식을 바탕으로 세계를 재현하는 기호주의 계열 AI의 대표적 장점은 명시적인 법칙과 규칙을 알고리즘에 반영하기가 훨씬 용이하다는 것입니다. 가령 우리에게 익숙한 AI 윤리 문제(할루시네이션, 편향, 상식 부족 등)가 발생했을 때 그 원인을 정확히 특정해 낼 수 있습니다. AI에게 인간의 상식과 도덕관 등을 주입하는 연구에서 이 기술이 자주 언급되는 이유죠. (TED 강의로 화제가 된 최예진 교수의 연구가 좋은 예시입니다.) 뉴로 심볼릭은 오랫동안 경쟁해온 두 패러다임의 장점을 취해 성능과 설명 가능성, 두 마리 토끼를 모두 잡기 위한 시도라고 할 수 있습니다.  ‘더 나은’ AI? 현재 AI 그 자체처럼 여겨지는 딥러닝 또한 기나긴 AI 흥망성쇠 역사의 일부라는 사실은 향후 5년, 10년 이후의 전망을 더욱 흥미롭게 만듭니다. 그리고 뉴로 심볼릭이라는 가능성은 앞으로 어떤 기술주에 투자해야 할지(?)에 대한 안목뿐만 아니라 AI 윤리의 쟁점들에 대해서도 시사하는 바가 있습니다. 가령 더 투명하고 설명 가능한 AI의 필요성에 대해 저희 레터에서도 여러 차례 다룬 바 있는데요. 스케일의 LLM과 투명한 심볼릭, 혹은 그 혼합체의 다양한 모델들이 서로를 보완, 공존하는 하이브리드 형태의 AI 생태계가 실현된다면 어떨까요? 저희 레터에서 다뤄 온 시급한 이슈들도 AI 기술 자체의 난제라기 보다는 LLM이라는 한 패러다임이 가졌던 한계점으로 기억될 날이 올지도 모릅니다. 그래서 블랙박스의 한계, 혹은 AI가 환경에 끼치는 영향이 기술 발전으로 인한 ‘불가피함’이라 누군가 말할 때, 뉴로 심볼릭은 (아직 대중화까지는 거리가 있음에도 불구) ‘더 나은 AI’에 대한 우리의 상상력을 확장해 준다는 점에서 의미를 가질 수 있지 않을까요?  강화학습이 강화하는 역사 by. 🥨채원 지난주, 무언가를 자세히 살펴 본다는 뜻의 영어 단어 ‘delve’가 화제가 되었습니다. 이 단어는 챗GPT를 자주 사용하는 사람들 사이에서 챗GPT에 자주 등장한다고 이미 널리 알려진 단어 중 하나였습니다. Y Combinator의 공동 창립자인 폴 그레이엄은 이를 X (구 트위터) 에 ‘누군가가 나에게 새로운 프로젝트를 제안하는 콜드메일을 보냈다. 그런데 거기에 단어 ‘delve’가 쓰였다는 사실을 알아챘다’며, 해당 단어가 챗GPT 등장 이후 사용 빈도가 크게 증가했다는 그래프를 첨부하였습니다. 해당 사건을 다룬 가디언지 기사에서는 ‘delve’라는 단어가 아프리카의 웹, 특히 나이지리아에서 자주 사용되는 단어라는 점을 지적합니다. 아프리카는 챗GPT를 비롯한 많은 언어 모델의 학습 데이터를 외주로 생산하고 있는 곳이기도 합니다. 지난 레터에서 케냐의 노동자들이 한시간에 2불이 채 되지 않는 임금을 받으며 챗GPT를 학습시킨 케냐 노동자들에 대한 TIME지의 심층 취재를 공유드리기도 했습니다. 그리고 챗GPT의 답변에 챗GPT의 학습 데이터를 생성하는 아프리카 화자들의 언어습관을 반영되었다는 것은, 기존의 언어모델의 문제로 제기되는 편향의 문제를 넘어선 사회경제적, 역사적 문제점을 시사합니다. RLHF 인간 피드백을 통한 강화학습(Reinforcement Learning with Human Feedback, RLHF)은 거대언어모델 (LLM)의 한계를 극복하기 위한 방법론 중 하나로 각광받고 있습니다. 챗GPT를 비롯한 LLM을 학습 시키는 방법론 중 하나인 RLHF는 인간의 피드백을 명시적으로 학습에 포함시킴으로서, 학습 데이터만을 기반으로 가장 확률이 높은 출력을 생성하는 것과 더불어 인간이 보기에 더 나은 출력을 생성하도록 돕습니다.  인간의 명시적인 선호도는 일명 선호데이터를 생성하여 학습에 추가하는 식으로 반영됩니다. 선호 데이터는 대개 서로 다른 LLM이 생성한 답변들과, 이들 중 채점자 (annotator)가 더 나은 답변으로 판단한 선호도로 구성되어 있습니다. 더 나은 답변이라는 것은 방식에 따라 정확도나 자연스러움 등 다양한 기준으로 정의됩니다. 수만건의 답변을 비교하여 판단하는 데에는 많은 사람이 필요하기 때문에 이 과정은 대개 크라우드소싱이나 외주를 통해 이루어집니다. 예를 들어 오픈AI의 WebGPT모델에 사용된 선호 데이터셋은 19,578개의 비교 데이터로 구성되어있습니다. 논문에 따르면 해당 데이터는 프리랜서로 고용된 56명이 생성했는데, 특히 이 중 다섯명이 데이터셋의 절반을 제공했다고 합니다. 즉, 이들 다섯명이 대략 데이터셋 전체의 10%씩을 각각 생성했다는 것입니다. 그렇다면 이 다섯명의 판단이 해당 데이터셋의 추이를 결정하는 데에 결정적인 역할을 했을 것으로 짐작할 수 있습니다. 논문은 이들의 인구구성학적인 정보를 밝히지 않고 있지만, 이 다섯명의 채점자 편향 (annotator bias)이 데이터셋에 반영될 소지가 있을 것입니다. 편향의 문제를 넘어서 폴 그래햄의 트윗으로 다시 돌아가서 살펴보면, 챗GPT로 생성한 메일은 인간이 작성한 메일보다 가치가 없다는 뉘앙스가 느껴집니다. 그리고 작성자를 판단하는 근거는 해당 메일에 포함된 ‘delve’라는 단어입니다. 하지만 만약 해당 메일이 챗GPT가 아닌 아프리카의 영어 화자에 의해 쓰인 메일이라면 어떨까요? 해당 화자는 영어를 외국어로 사용하는 본인의 언어 습관이 AI를 학습하는 데에 반영되었다는 이유로 부당한 차별을 받게 됩니다. 이와 관련하여 비영어권 화자의 영작문이 생성 AI 툴에 의해 표절로 판별될 가능성이 더 높다는 글을 전해드린 적이 있습니다. 함께 AI 윤리 레터를 발간하는 🤖아침이 비판한 것처럼, 이러한 데이터 편향은 AI 개발 비용을 줄이기 위해 남반구의 저임금 노동자를 착취하는 문제와 더불어, 이를 근거로 남반구의 영어 화자들의 언어를 'AI 텍스트'로 저평가하는 이중착취의 문제입니다. 나아가 나이지리아를 비롯한 다양한 남반구의 국가들에 영어 화자가 많은 것이 제국주의 국가들에게 식민지화되었던 역사 때문이라는 사실도 간과해서는 안 될 것입니다. 이미 다양한 형태로 착취되고 있는 사람들이 또다시 AI를 개발하는 데 저임금 노동으로 동원되고, AI가 가져올 혜택에서는 소외되면서, 이를 근거로 이루어질 수 있는 언어문화적 차별에도 노출되어 있습니다. 이는 제국주의와 신자유주의로 이어지는 차별의 역사가 AI라는 새로운 매개를 통해 구태의연하게 반복되고 또 강화될 수도 있다는 것을 보여줍니다.  🦜 같이 보면 좋은 글 🗺️ 생성형 AI 지도  교수님, 정말 제가 직접 썼습니다..! 💬 댓글 (💂죠셉) 영어로 쓰는 게 업인 제 직장에서도 언제부턴가 ‘delve into’가 하나의 밈이 된지라 더 흥미로웠습니다. 한국어 결과물에 비슷한 경향성이 존재할지도 궁금해지고요! (🧙‍♂️텍스) 요새 인공지능 분야 논문을 읽다보면 예전과 다르게 ‘showcase’ 동사가 자주 쓰이는데 챗GPT가 자주 사용하는 단어인가란 생각이 스쳐 지나가네요!
인공지능
·
오늘의 코멘터
더보기