SCIENCE

ChatGPT-4.0의 출시 이후⋯ 양날의 칼, AI

ChatGPT-4o 출시와 앞으로의 인공지능(AI)

인공지능 과도한 사용에 따른 윤리적 문제

앞으로의 인간이 인공지능 사용 시 유의점

 < OpenAI의 DALL·E 제공 >

[객원 에디터 7기 / 원채호 기자] 지난 5월 13일, ChatGPT의 개발사 오픈 AI의 미라 무라티 최고기술책임자(CTO)는 새로운 AI 모델인 ‘GPT-4o'(GPT-포오)을 공개하였다. 기존 모델은 주로 텍스트를 통해서 대화할 수 있었지만 ‘GPT-4o’는 이용자와 실시간으로 음성 대화를 통해서 질문하고 답변 요청 가능하다는 특징이 있다. 

새로 출시된 이 모델은 텍스트뿐만 아니라, 청각과 시각을 이용해서 추론하고 이를 말할 수 있게 발전하였다. 두드러지는 점은 이용자가 질문을 하면 바로 답을 제공받을 수 있으며, GPT-4o의 응답시간이 인간의 응답시간과 비슷하는 것이다. 또한 GPT-4o는 기존 모델보다 더 사람처럼 대화가 가능하고, 답 제공 중에 다른 질문이 끼어들어도 대화는 계속 이어진다는 특징을 보였다. 

이날 시연에서 GPT-4o은 AI의 발전 가능성이 얼마나 큰지 보여주었다. 휴대전화로 ‘내가 좀 긴장한 상태인데 어떻게 진정할 수 있을까’라고 묻자, ‘숨을 깊이 들이마시라’는 음성 답이 돌아왔다. ‘잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라’라고 하자, 이 AI 모델은 심지어 각양각색의 목소리와 감정, 톤으로 바꾸어 가며 이야기를 들려주었다. 그리고 종이에 적힌 수학 문제를 보여주고 답을 말하지 말고 풀라고 명령하였더니 시각 기능을 사용하여 단계별 풀이 과정을 제공하였다.

실시간 번역도 가능하다. 오픈 AI는 ‘GPT-4o’ 모델이 2023년 11월에 선보였던 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다. 또 새 모델로 한국어 등 50개 언어에 대한 챗GPT의 품질과 속도가 향상되었다. 이렇게 한층 더 향상된 ChatGPT가 우리의 삶에 미칠 긍정적인 영향이 예상된다. 하지만 이러한 인공지능의 발전을 통한 과도한 사용에 대한 부정적 전망도 있다. 

가장 큰 문제는 교육계에서 대필, 표절 등에 ChatGPT가 악용될 수 있다는 우려다. 이 점을 대비해, 한국의 국·공립학교의 경우 ‘학교생활기록 작성 및 관리지침’에 ChatGPT를 통해 과제형 수행평가를 수행하지 못하도록 명시해 놓았다. 하지만 수업 자율권이 교육청이 아닌 학교에게 있는 국제학교나 외국교육기관 등은 예외다. 서울에 있는 한 국제학교는 ChatGPT를 과제물 작성에 있어 부정하게 사용해 문제가 되었던 적이 있다. 

ChatGPT를 바라보는 시민들의 시선은 어떨까? 시민단체 ‘변화를 꿈꾸는 과학기술인 네트워크(ESC)’에서 운영하는 과학기술인 커뮤니티 ‘숲사이(soopsci.com)’가 과학기술자와 시민 233명을 대상으로 1월 12일부터 20일까지 진행한 설문조사에 따르면 약 72%가 ChatGPT 자체에 윤리적인 문제가 있다고 응답하였다.

윤리적인 문제 여부에 관한 질문에 대해 19.89%는 ‘문제가 많다’, 51.14%는 ‘문제가 어느 정도 있다’, ‘문제가 별로 없다’는 18.75%, ‘문제가 없다’는 7.39%고 답했다. 또한 ‘ChatGPT’로 만들어진 자료를 활용할 때도 가장 중요한 윤리적 문제가 ‘창작과 독창성의 문제’, ‘표절 문제’, ‘인용 문제’ 순으로 꼽혔다. 인공지능 생성물 인용에 대해서 절반 이상이 ‘가능하다’고 응답하였고 65%는 ‘표절의 대상’이 될 수 있다고 지적하였다.

<ESC 숲사이 제공 >

‘챗GPT’로 생성된 자료를 본인의 저작물로 사용할 수 있는지에 대한 질문에 ‘사용하더라도 재해석, 재구성해서 사용해야 한다’라는 응답이 44.89%로 가장 높았으며, 다음으로 ‘합의된 인용 표기 후 사용해도 된다’가 33.52%로 나타났다. 반면 ‘사용하면 안 된다’라고 응답한 경우도 10.8%로 조사됐다. ‘챗GPT’로 생성된 내용을 인용할 수 있는지에 관한 질문에는 ‘합의가 이루어진다면 사용할 수 있다’라고 응답이 52.27%)으로 가장 많이 답하였고 ‘인용할 수 없다’라고 응답한 사람은 34.09%로 나타났다.

‘챗GPT’로 생성된 저작물이 표절이 될 수 있는지에 관한 질문에는 대다수가 ‘표절의 대상이 될 수 있다’라고 응답해 ‘표절의 대상이 아니다’와 비교해 3.5배 이상 높았다. ‘챗GPT’로 생성된 자료를 활용함에 있어 가장 중요한 윤리적 문제는 ‘창작과 독창성의 문제’를 꼽은 사람이 53.41%로 가장 높았으며 그다음에는 ‘표절 문제’(21.02%), ‘인용 문제’(13.64%)로 조사됐다.

인간이 인공지능을 사용하여 자신의 업무를 처리한다는 것은 이제 꿈이 아닌 현실이다. 그 과정 속에서 인공지능을 어느 정도까지 사용해야 할지가 앞으로의 과제가 될 것이다.

Leave a Reply

error: Content is protected !!