OPINION

인공지능 개발에 속도 조절은 필요한가?

인공지능은 일자리를 파괴하나?

‘사람처럼 생각하는 AI?’

<Illustration by Yeon-woo Jung 2006 (정연우) >

[객원 에디터 5기 / 김지연 기자] 인공지능 챗봇 ChatGPT가 출시되면서 세계적인 신드롬이 일고 있다. 5일도 되지 않아 이용자가 100만 명을 넘었고 지금은 1억 명을 돌파해 지구상의 어떤 서비스보다 압도적인 속도로 퍼져가고 있다. ChatGPT는 대화를 뜻하는 ‘챗(Chat)’과 ‘사전 훈련된 생성 변환기(Generative Pre-Trained Transformer)’의 합성어로 인간이 쓴 결괏값만 보여주는 게 아니라 자신이 답을 ‘생성’한다는 것이 핵심이다. 

ChatGPT 가 출시된 이후, 영국 일간 <인디펜던트>에서는 “구글은 끝났다”는 기사를 출시했고, <뉴욕타임스> 또한 구글이 ChatGPT와 관련해 비상사태를 선포했다고 보도했다. 미래전략센터의 보고서에 따르면 “텍스트보다 영상과 이미지에 익숙한 MZ 세대가 궁금한 것을 검색할 때 유튜브, 틱톡 등 소셜미디어를 찾는 것처럼, 앞으로 ‘챗봇 네이티브’ 세대의 등장으로 전통적인 형태의 검색 엔진은 경쟁력을 잃고 사라질 위기에 처할 수 있다”라고 밝혔다. 또한 인간이 직접 경험해서 지식을 얻는 것이 아닌 각종 미디어를 통해 축적될 경우, 학습 능력이 저하될 것이라 우려했다. 생성 AI의 효육적인 사용법이 알려지지 않은데 있어, 교육계에서의 속임수와 학생들의 잘못된 인식 또한 가능성을 배제할 수 없다.

최근 미국의 컴퓨터 제조 대기업 아이비엠(IBM)이 인공지능으로 대체할 수 있는 업무에는 사람을 뽑지 않겠다고 선언했다. IBM의 CEO 아르빈드 크리슈나는 “IBM에서 고객과 직접 대면하지 않는 업무에 종사하는 사람은 약 2만 6000명에 이른다”며 “이 가운데 30%는 앞으로 5년에 걸쳐 인공지능과 자동화 시스템으로 대체되는 걸 볼 수 있을 것”이라고 말했다. 이는 앞으로 5년 동안 약 7800명이 일자리를 잃는다는 것을 뜻한다. 투자은행 골드만삭스 또한 지난 3월 사무 및 행정 업무를 인공지능의 영향을 가장 많이 받는 분야로 뽑았다. 골드만삭스는 인공지능이 미국과 유럽 연합에서만 3억 명의 일자리를 자동화할 가능성이 있고 그 가운데 4분의 1은 완전히 대체될 가능성이 있다고 예상했다. 

급속도의 인공지능 시스템 개발에 관해 미국의 비영리단체 ‘생명미래연구소’는 지난 3월 22일 인공지능 기술 발전 속도가 너무 빨라 부작용이 우려된다며 최소 6개월 인공지능 개발을 중단하고 안전 프로토콜을 마련하자고 제안했다. 이에 테슬라의 일론 머스크, 애플 공동 창업자 스티브 워즈니악, <사피엔스>의 저자 유발 하라리 등 관련분야 전문가 3000여 명이 서명에 동참했다. 

이처럼 잠정적으로 중단하자는 의견도 있는 반면, 반대하는 입장도 존재한다. 현재 인공지능의 부흥을 이끈 얀 르쿤과 앤드루 응은 온라인 토론에서 아직 인공지능의 부작용을 걱정할 단계는 아니라며 이 때문에 인공지능 기술발전이 늦어질 수 있고 인공지능에 의한 이득을 놓칠 수 있다고 전했다.

최근 영국 출신의 ‘인공지능의 대부’ 제프리 에베레스트 힌튼 교수가 갑작스럽게 구글에서의 퇴사를 결정하며 큰 이슈를 불러일으켰다. 힌튼 교수는 “인공지능이 세상에 심각한 해를 끼칠 수 있다는 우려를 세상과 자유롭게 나누기 위해서”라며 획기적인 창조자에서 종말론자가 되고 있는 것 같다고 뉴욕타임스와의 인터뷰에서 밝혔다. 그는 자신의 인생을 후회하고 있으며 일반인이 무엇이 진실인지 알기 어려운 세상이라고 말했다. 

인간이 인공지능의 출현에 두려움을 느끼는 이유는 기계가 우리보다 뛰어난 지능을 가질 수 있기 때문이다. 인간보다 지능이 뛰어난 기계는 호모 사피엔스로서의 종 특성에 위협이 될 수 있다. 지능이 없는 기계는 아무리 뛰어난 성능이라도 인간의 통제를 벗어나기 어렵지만, GPT 같은 대규모 언어모형은 이전에 보이지 않았던 새로운 창의력을 보이기도 하기 때문에 인간에게 위압감을 준다. 그렇기에 우리는 기술개발에서 발생하는 부작용을 최소화하기 위한 제도마련에 보다 빨리 대응해야 할 것이다.

Leave a Reply

error: Content is protected !!