토론

AI를 지켜보는 거친 생각과 불안한 눈빛

2024.04.23

134
2
인공지능 윤리를 고민하는 직장인, 프리랜서, 대학원생이 꾸려가는 뉴스레터입니다.

AI 윤리 뉴스 브리프

2024년 4월 넷째 주

by. 🎶소소


1. AI Index Report로 보는 AI 윤리

  • 스탠퍼드 인간중심AI연구소가 발간하는 AI Index Report는 전세계 AI 주요 현황을 가늠할 수 있는 다양한 지표를 제공합니다. 최근 이 보고서를 인용한 한국 기술 수준이 이집트, UAE에 밀렸다는 보도가 논란이 되기도 했는데요. 우리나라 과기정통부는 보고서의 분석 대상에서 한국이 제외되었다는 항변과 함께 우리의 기술 수준이 얼마나 뛰어난 지에 대한 정책브리핑을 냈습니다. AI 연구가 영미권을 중심으로 이루어지다 보니 이런 소동도 벌어지는데요. 대학 순위 같은 지표에 우리가 너무 집착하고 있는 게 아닌가 하는 생각이 들었습니다.
  • 보고서에서 참고할 만한 AI의 사회적 영향과 관련된 지표 몇 가지를 소개합니다. AI 사고 건수는 2013년 대비 20배 이상 증가했습니다. AI 활용이 확대되고, 위험에 대한 인식도 같이 높아지며 신고 건수가 늘어났기 때문이라고 추측됩니다. AI 제품과 서비스에 대해 불안함을 느끼는 사람(52%)뿐만 아니라 AI가 내 삶에 미치는 영향이 클 것이라 생각하는 사람(66%)은 모두 작년 대비 증가했습니다.


AI 제품/서비스에 대한 의견 Ipsos 설문조사 출처: HAI AI Index Report 2023 


  • AI 규제도 전세계적으로 계속해서 늘어나고 있습니다. 점점 더 많은 규제기관이 AI 시스템의 영향을 평가하고 위험을 완화하는 데 관심을 보이고 있는데요. 이에 반해 아직 AI 모델의 위험 평가 지표는 표준화되지 않고 있습니다. AI 모델의 위험이 정확히 평가되지 않으면 규제도 어려울 수 있습니다. 보고서는 AI 모델의 개인정보보호, 투명성, 안전성, 공정성을 평가할 수 있는 최근 연구와 벤치마크도 함께 소개하고 있습니다.  


2. 오픈소스로 공개된 라마3

  • 메타가 새로운 오픈소스 모델 라마3(Llama3)를 공개했습니다. 모델의 성능이 크게 향상되어 GPT-4 못지않다며 AI 커뮤니티의 지지를 받고 있는데요. 더 많은 사람이 사전 학습의 부담 없이 초거대AI를 활용할 수 있기 때문입니다. 실제로 라마 모델을 기반으로 많은 서비스가 생겨나고 관련 연구도 활발해졌습니다.
  • 오픈소스 모델은 누구나 어떤 목적으로든 활용할 수 있는 만큼 위험하게도 활용할 수 있다는 점이 고려되어야 합니다. 메타는 AI 모델의 안전성을 높이기 위해 종합적인 안전 조치를 진행했다고 밝혔습니다. 이용자의 질문(프롬프트)과 모델의 답변의 안전성을 감지하고 분류할 수 있도록하고 내외부 전문가 레드팀으로 모델의 안전성을 평가하고 개선했다고 하는데요. 앞으로 라마3를 기반으로 새로운 서비스를 만들게 될 개발진의 역할도 중요합니다. 메타는 책임있는 개발 가이드를 배포하며, 모델의 오픈소스화는 AI 생태계를 하나로 모으고 잠재적 위험을 완화하는 방법임을 강조했습니다.


라마3의 개발 및 배포 과정의 안전 조치 출처: 메타 


  • 한 편 라마3가 진정한 오픈소스라고 볼 수 있는가에 대한 논쟁은 여전히 남아있습니다. 오픈소스의 정의에는 정보의 공개 여부뿐만 아니라 사용 권한의 범위도 포함되기 때문입니다. 라마3는 모델 카드에서 모델 아키텍처, 매개변수, 여러 벤치마크 평가 결과를 함께 공개했습니다. 그러나 라마3의 사용 제한 조건은 라마2와 동일합니다. 출시일 기준 MAU(월간활성사용자)가 7억 명 이상인 서비스 사업자는 모델을 사용할 수 없고, 라마3의 생성 결과물로 다른 모델의 학습에 활용할 수 없으며, 모델 훈련 데이터도 15T라는 것 외에 공개된 것은 없습니다. 


3. 영국, AI로 성착취물 생성만 해도 처벌

  • 영국 정부가 당사자의 동의 없이 AI로 성적인 이미지나 영상을 만든 사람을 처벌할 수 있는 형법 개정안을 마련했습니다. 제작자는 이미지나 영상의 공유/유포와 관계없이 처벌됩니다. 물론 성착취물을 외부에 공유하는 경우에는 지난해 개정된 온라인안전법에 의거하여 더 무거운 처벌을 받게 됩니다.
  • 앞으로 AI로 만든 사진이나 영상의 품질은 더 높아지고, 진위를 구분하기는 점점 더 힘들어질 것입니다. 미국 FBI는 AI로 생성한 성착취물 피해자가 증가하고 있음을 경고했습니다. 한국에서도 딥페이크로 합성한 영상물로 인한 디지털 성범죄가 늘고 있다고 합니다. 피해자 절반 이상이 10~20대 여성이라는 점이 매우 우려되는 상황입니다. 생성 AI를 이용한 여성의 성적 대상화를 막고 안전을 보장하기 위한 예방책이 절실합니다.


더 읽어보기


4. 데이터를 사모으는 어도비

  • 어도비(Adobe)가 영상 생성 AI 모델을 만들기 위해 분당 3달러에 비디오 데이터를 구입한다고 합니다. 이미지나 영상 데이터의 출처를 언급하지 못하고 있는 오픈AI와 달리 어도비는 ‘저작권 문제 없는 데이터’를 강조해 온 행보를 이어갈 것으로 보입니다. 물론 학습 데이터를 구매하는 것만으로 모든 문제가 해결되는 것은 아니지만요.


더 읽어보기


오늘 이야기 어떠셨나요?
여러분의 유머와 용기, 따뜻함이 담긴 생각을 자유롭게 남겨주세요.
남겨주신 의견은 추려내어 다음 AI 윤리 레터에서 함께 나눕니다. 

이슈

인공지능

구독자 133명

AI 로 성착취물 생성만 해도 처벌하는 방식에 동의합니다.

메타가 라마를 나름의 오픈 소스(?)로 공개한 게 시장에서의 영향력을 확보하기 위함이 아닐까 의심하고 있는데요. 이전 오픈AI가 투명성을 강조해왔던 것처럼 완전한 오픈 소스로 공개되어서 기술 활용과 감시, 견제를 통한 문제 해결이 이뤄지면 좋겠습니다.