토론

10명 중 7명 인공지능 챗봇 'ChatGPT' 윤리적인 문제 있다.

2023.06.21

1,840
3
esc
과학기술운동단체 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'는 과학적 사고와 합리성이 한국사회에 뿌리내릴 수 있도록 다양한 교육 및 문화 활동을 전개하고 시민사회와 연대하여 한국사회의 지속가능한 미래를 설계하는 일에 동참합니다.

- 인공지능 생성물을 인용하는 것에 대해서 절반 이상 '가능하다' 응답
- 응답자 65% 인공지능으로 생성된 저작물이 '표절의 대상'이 될 수 있다.
- 인공지능을 사용한 과제물에 대해서 엄격한 평가 기준 적용 다수 
- 인공지능 생성물의 가장 큰 윤리적 문제는 '창작과 독창성'
- 인공지능 저작물의 바람직한 활용을 위해서는 '관련 종사자들의 자율적이고 국제적인 기준 마련' 필요

 

최근 공개된 인공지능(AI) 챗봇 'ChatGPT'에 대한 관심도가 높다. 성능과 기능에 관한 관심뿐만 아니라 실제 사회 전반에 활용이 가시화되면서 인공지능의 윤리적인 측면의 관심도 높아지고 있다. 시민단체 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'에서 운영하는 과학기술인 커뮤니티 '숲사이(soopsci.com)'에서 과학자와 시민을 대상으로 인공지능의 윤리적인 부분의 한 단면인 인용, 표절, 저작권 등의 문제에 대해서 최근 주목받고 있는 ‘ChatGPT’ 인공지능 챗봇의 사례를 바탕으로 글쓰기 저작물 활용에 대한 윤리 인식에 대해서 설문조사를 진행했다.

 

설문에 참여한 233명 중 전체 문항에 대해 응답 완료한 176명을 대상으로 분석하였다. 우선 ‘ChatGPT’를 사용해 본 경험 질문에 절반 이상(57.39%)이 사용 경험이 있는 것으로 응답했다. 37.5%는 사용은 해보지 않았지만 ‘ChatGPT’에 대해서 알고 있는 것으로 조사되었다.

 

‘ChatGPT’ 사용 목적은 ‘기능 테스트 용도’가 71.29%로 가장 높았으며, 특정한 목적을 갖고 사용한 경우는 28.71%로 조사되었으며, 주로 ‘지식을 알아보기 위한 용도’와 ‘저작물 작성에 활용’하기 위해 사용했다.  

 



‘ChatGPT’로 생성된 자료를 본인의 저작물로 사용할 수 있는지에 대한 질문에 '사용하더라도 재해석, 재구성해서 사용해야 한다'라는 응답이 44.89%로 가장 높았으며, 다음으로 '합의된 인용 표기 후 사용해도 된다'가 33.52%로 나타났다. 반면 '사용하면 안 된다'라고 응답한 경우는 10.8%로 조사되었다. 




‘ChatGPT’로 생성된 내용을 인용할 수 있는지에 관한 질문에 ‘합의가 이루어진다면 사용할 수 있다’라는 응답이 절반 이상(52.27%)으로 가장 높았으며, ‘인용할 수 없다’라고 응답한 사람도 34.09%로 나타났다. 인공지능으로 생성된 저작물을 인용하는 것에 대해서는 아직 이용자들의 간에도 다양한 의견 차이가 있어 보였지만, 현재 상태에서는 인용이란 방식으로 활용하는 것에는 전반적으로 문제가 있다는 반응이 많았다.


인용이 가능하다면 어떤 방식으로 인용하는 것이 좋은지에 대해서, 기존의 일반적인 인용 방식과는 달리 인공지능으로 생성된 자료의 특성을 고려해 다양한 인용 방법들이 제안되었다.

 

‘ChatGPT’로 생성된 저작물이 표절에 대상이 될 수 있는지에 관한 질문에 64.77%가 ‘표절의 대상이 될 수 있다’라고 응답하였다. 이는 ‘표절의 대상이 아니다(18.18%)’와 비교해 3.5배 이상 높은 응답을 보였다.

 

만약 본인이 가르치는 학생이 ‘ChatGPT’로 생성한 자료를 이용해 과제물로 제출하였다면, 과제물 평가에 영향을 미치는지에 관한 질문에 77.27%가 ‘평가에 영향이 있다’로 응답해 인공지능을 사용한 저작물에 대한 평가에 대해서 다수가 엄격한 평가 기준을 가진 것으로 나타났다. 


 


‘ChatGPT’로 생성된 자료를 활용 함에 있어 가장 중요한 윤리적 문제는 ‘창작과 독창성의 문제’로 응답한 사람이 53.41%로 가장 높았다. 다음으로 ‘표절 문제’(21.02%), ‘인용 문제’(13.64%)로 조사되었다.

 



‘ChatGPT’는 원작자의 동의 여부와 상관없이 인공지능 기술을 이용해 자료를 제공하는 것이 윤리적인 문제가 있는지에 관한 질문에 10명 중 7명 이상이 문제가 있다고 보는 것으로 조사되었다.

 

인공지능으로 생성되는 자료를 활용하는 면에서 윤리적인 문제(저작권, 인용, 표절 등)를 해결하기 위해서 바람직한 사회적 합의 방식을 묻는 질문에서는 절반 이상(53.41%)이 ‘국제적인 기준을 마련해야 한다’로 응답하였고, 다음으로 ‘분야별 종사자들의 자율적인 기준을 마련해야 한다’라고 응답한 사람은 34.66%로 나타났다. 따라서 답변을 통해 ‘국제적으로 분야별 종사자들의 커뮤니티를 통해 자율적인 기준을 마련하는 방향’을 선호하는 것으로 조사되었다.

 


'ChatGPT'에 대한 자유 의견으로는 ‘합의’, ‘활용’, ‘사용’, ‘마련’, ‘윤리’, ‘논의’, ‘사회적’ 등의 단어들이 많이 사용되었다. 내용 중에는 '미래 지향적으로 인공지능의 활용에 초점을 맞추어야 한다'는 의견, '인공지능이 어떤 자료를 근거로 학습하는지에 따라 오류/왜곡 정보들이 생산되고 활용될 수 있다는 우려'의 목소리도 있었다. '인공지능에 사용되는 자료는 인류가 함께 구축한 자료이니만큼 활용과 혜택에서도 공정하게 돌아가야 한다'는 의견 등 인공지능으로 생성된 저작물에 대해서 다양한 의견들이 제시되었다.

 

급속히 발전하는 인공지능 시대에 혼란을 최소화하면서 바람직한 활용 방향을 찾기 위해서는 윤리적인 측면에 대한 깊은 논의와 의견 수렴이 함께 수반되어 할 것으로 보인다.

설문결과 보고서 : https://www.soopsci.com/Survey...

출처
본 글은 사단법인 '변화를 꿈꾸는 과학기술인 네트워크(ESC)'에서 제작한 콘텐츠로,  ESC에서 운영 중인 과학기술인 커뮤니티 '숲사이(원문링크)'에 등록된 정보입니다.
ESC: https://www.esckorea.org/
숲사이: https://soopsci.com/    

이슈

인공지능

구독자 143명

Ai의 저작권 문제에 대해 다른 사람들은 어떻게 생각하나 궁금했는데 다수가 비슷한 의견을 가지고 있네요. 저 또한 Chat-GPT는 표절 문제에서 자유로울 수 없다고 생각합니다.

이렇게 데이터로 제시되니 사람들이 어떤 의견을 가지고 있는지 알게 되어서 좋습니다. 그동안 전문가들만 이야기를 주로 했어서, 사람들은 어떻게 인식하나 궁금했던차였습니다. 특히 분야별로 영향을 받는 정도가 매우 다른데, 이에 대한 이해가 전반적으로 깔려있다는 것도 고무적이네요.

기준을 마련해야 한다고는 생각했는데 어떻게 마련해야 할지에 대해선 솔직히 잘 모르겠습니다. 써주신 글 안에서  ‘국제적으로 분야별 종사자들의 커뮤니티를 통해 자율적인 기준을 마련하는 방향’이라는 말을 보고 이런 방법도 있구나 싶은 생각도 듭니다