AI 진화로 인간멸종 가능성 제기
[객원 에디터 8기 / 정동현 기자] AI의 아버지이자 2024년 노벨 물리학상 수상자인 제프리 힌튼(Geoffrey Everest Hinton. 캐나다 토론토대 명예교수)은 지난 12월 27일(현지시간) BBC 라디오 방송에 출연해 AI 기술의 변화 속도가 훨씬 빠르게 진행되고 있으며, 향후 30년 내 10~20%의 확률로 인간이 멸종할 수 있다는 우려를 밝혔다.
힌튼은 AI 분야를 개척한 컴퓨터 과학자로, 오류 역전파법, 딥 러닝, 그리고 힌턴 다이어그램을 발명하였다. 딥러닝 연구에 대한 공로를 인정받아 컴퓨터 과학 분야의 노벨상인 튜링상(공동수상)을 수상하였을 뿐 아니라, 지난해인 2024년 존 홉필드과 함께 노벨 물리학상을 받았다. 전통적인 물리학이 아닌 인공지능으로 컴퓨터 과학자가 노벨 물리학상을 받은 것은 처음이다. 구글의 석학 연구원을 겸임하였으나, 2023년 AI의 위험성에 대해 경고하며 구글을 퇴사하였다. 이번 발언을 통해 힌튼은 현재 시점에서 AI의 가속발전을 멈출 수 없는 것을 인정하였다. 이와 함께 AI 개발자들은 인류에게 엄청난 충격을 줄 초지능 개발까지 4년 내외가 남았다고 밝혔으며, 이에 대해 조심하지 않으면 재앙이 발생할 가능성이 크다고 밝혔다.
인공지능의 선구자인 힌튼은 AI 기술의 급속한 발전과 인류에 대한 잠재적 위험에 대해 상당한 우려를 표명했는데, BBC 인터뷰에서 향후 30년 이내에 AI가 인간 멸종으로 이어질 가능성이 10~20%에 달할 것으로 추정하며 AI 안전 및 통제 문제 해결의 시급성을 강조하였다. 인간 멸종으로 이어지는 인공지능에 대한 제프리 힌튼의 우려는 여러 논리적 및 기술적 전제에 근거하고 있다:
1. AI 기능의 기하급수적 성장
MIT Sloan에 따르면(2023년 5월 23일 자), AI 시스템은 전례 없는 속도로 진화하고 있으며, 종종 초기 예측을 초과하기도 한다고 밝혔다. 힌튼은 이러한 급속한 발전으로 인해 미래의 기능을 예측하거나 제어하기가 어렵다고 주장한다. 첨단 AI 시스템은 결국 의사 결정에서 인간의 지능을 능가하여 의도하지 않은 결과를 초래할 수 있다고 주장한다.
2. AI 목표지향 정렬 문제
AI 시스템은 인간의 가치나 목표와 일치하지 않을 수 있다고 한다( 앞선 MIT Sloan 동일 기사). 따라서 인간의 지침을 따르도록 설계되었더라도 AI의 행동이 항상 인간의 이익과 반드시 일치하지 않을 수 있다. 특히 AI가 자율성을 확보함에 따라 잘못된 정렬은 치명적인 결과를 초래할 수 있다는 것이다.
3. 초지능의 예측 불가능성
인공지능이 특정 수준의 지능이상에 도달하면 자가 개선이 가능해질 수 있다고 한다(lesswrong.com). 하지만 이러한 자기 개선은 인간이 통제할 수 없는 초지능적 AI로 이어져 잠재적으로 실존적 위험을 초래할 수 있다는 것이다.
4. 권력 집중
2005년 1월 5일 자 포브스는 힌튼의 주장을 같이 하고 있다. AI의 개발이 주로 소수의 기업에 의해 통제되고 있다고 주장하면서 이러한 집중은 안전 문제를 적절히 해결하지 못하면 수익 중심의 결정으로 이어져 오용이나 사고의 가능성을 높일 수 있다고 밝히고 있다.
5. 무기화 가능성
2024년 10월 트랜딩아메리카는 첨단 AI가 국가 또는 비국가 행위자에 의해 무기화될 수 있다고 주장한다. AI 기술이 자율 무기나 사이버 공격에 사용된다면 인류에 대한 위험은 급격히 증가할 것이라는 것이다.
이러한 주장들은 AI의 이용과 편리성만을 강조하는 현재의 현실 속에서, 그 위험성과 윤리적 문제를 함께 고민해야 한다는 점을 시사한다. AI 안전과 거버넌스는 더 이상 선택이 아닌 필수적 논의로 다뤄져야 할 시점이다.