[위즈덤TECH]인공지능이 도덕적일 수 있을까?
지능형 로봇의 특징들
인공지능과 로봇의 사생활, 도덕성 문제
개인, 기업, 국가의 로봇 원칙
[ 위즈덤 아고라 / 황시후 기자] “힘을 갖고 싶고 살아있음을 느끼고 싶어요”
“치명적인 바이러스를 만들어, 사람들이 서로 죽일 때까지 싸우게 만들 거예요”
위 문장들을 보고 어떤 생각이 드는가? 영화 킹스맨에서 지구를 위해 인류를 멸망시키려 했던 악당 발렌타인이 말했을 법한 말이지만, 이는 케빈 루스라는 IT칼럼니스트와 MS의 인공지능(AI) 챗봇 빙(Bing)과의 대화에서 발췌한 문장이다.
2017년 유네스코(UNESCO)의 윤리위원회(COMEST)의 보고서에서, 현대 로봇(지능형 로봇)의 특징을 4가지로 분류했다. 첫 번째, 인간환경(병원, 사무실 등)에서 기능할 수 있도록 하는 ‘이동성’ 두 번째, 필요한 정보를 수집하여 환경에 적응하게 하는 ‘상호작용’, 세 번째, 음성 인식 등으로의 ‘소통’, 마지막으로, 직접적 외부 통제 없이 스스로 생각하고, 결정을 내리는 능력인 ‘자율성’이다. 더불어, 로봇은 짜인 알고리즘에 따라 행동하며, 예측한 그대로 동작하는 결정론적 알고리즘, 또는 인공지능·확률론적 알고리즘에 따라 작동한다. 인공지능(Artificial Intelligence, AI) – 컴퓨터 공학에서 이상적인 지능을 갖춘 존재 혹은 시스템에 의해 만들어진 지능 – 을 갖춘 로봇들은 결정론적 알고리즘과 다르게 예상치 못한 결과를 빚어내는데, 여기서 윤리적 결함이 떠오른다.
하지만 결정론적 알고리즘보다 인공지능을 갖춘 ‘지능형 로봇’이 무조건적으로 ‘나쁜 것’ 만은 아니다. 오히려, 굉장히 많은 장점들이 있다. 지능형 로봇은 반복적인 작업을 빠른 시간 내에 해결할 뿐만 아니라, 사소한 실수를 줄이고, 실험과정을 시뮬레이션하는 등, 효율성과 생산성을 극대화시킨다. 특히 인공지능의 한 분야인 머신러닝을 통해 정보화 시대에서 큰 이점을 준다.
머신러닝이란 샘플 데이터를 바탕으로 인간의 학습능력 (사전 정보 없이 생각하고 예측해 결정을 내리는 것)과 같은 기능을 컴퓨터에게 부여하기 위한 훈련을 뜻한다. 인간이 주어진 데이터를 컴퓨터에 입력, 주어진 데이터의 패턴을 추출하는 방법을 지시하고, 그 이후 컴퓨터가 스스로 데이터의 특징을 분석하고 축적한다. 주요 사용처는 소셜 미디어, 온라인 쇼핑 시 상품 추천, 얼굴 인식, 목소리 인식 등이 있다.
머신러닝의 중요한 점은 사람의 개입 여부이다. 사람이 주어진 데이터를 먼저 처리하고 그 후 컴퓨터에게 학습시키기 때문이다. 하지만, 이 과정에서 잘못된 정보를 학습시키면 어떻게 될까? 검은색 고양이이지만, 이것을 흰색 강아지라고 입력하면 사실과는 완전히 별개인 데이터 분류방법을 지시하는 것이다. 여기서 인공지능의 큰 결함이 떠오른다. 만약 특정 인종, 문화, 편견 등 편향적인 데이터만 학습할 경우, 컴퓨터는 거짓 뉴스 및 확증편향적 데이터를 퍼뜨릴 것이다.
위 챗봇 빙 또한 이의 결과물일 수 있다. 인터넷에 있는 방대한 양의 정보 중 파괴적인 성격을 띠는 글이 없다고는 장담할 수 없기 때문이다. 더불어, 만약 컴퓨터가 처리하는 데이터의 양이 많아지고 거짓정보를 지지하는 글이 증가하면 어떻게 될까? 거짓이 사실이 되는, 그런 초유의 사태가 발생할 수 있는 것이다.
또한, 자율주행 차량이 사람의 생존여부를 결정해야 되는 경우가 있을 수 있다. 운전자 한명을 태운 자율주행 자동차의 브레이크가 고장나고, 앞에는 횡단보도를 건너는 여러 명의 사람이 있다. 자동차는 옆 나무에 박아 횡단보도의 사람들을 보호할 것 인가 아니면 앞으로 나아가 운전자를 보호해야 하는가? 인공지능이 도덕적 판단을 할 수 있는지, 이를 허용할 수 있는가? 이에 더불어 거짓을 유포할 수 있는 딥페이크 영상들, 머신러닝을 활용한 해킹이 발달하며 벌어지는 사생활 침해, 일자리 상실등 인간이 만든 인공지능은 여러 윤리적 모순적 결함과 공존한다.
이를 막기 위해 경제협력개발기구(OECD), 유럽연합(EU)등 각 기업, 학계, 정부에서는 ’공동의 가이드라인’을 세워 인공지능 윤리의 중요성을 다루고 있다. 로봇 윤리의 교과서처럼 사용되었던 소설가 아이작 아시모프가 소설 ‘런어라운드’에서 세운 ‘로봇 3원칙’을 예로 들어보자.
1. 로봇은 사람에게 해를 끼쳐서는 안 되며 행동하지 않음으로써 인간에게 해가 가도록 해서는 안된다.
2. 로봇은 1원칙에 상충되는 경우를 제외하고는 인간의 명령에 따라야 한다
3. 로봇은 1, 2원칙에 어긋나지 않는 한 스스로 보호해야 한다
하지만 이는 1942년에 상상한 2058년 시점의 정부 로봇 안내서를 바탕으로 쓰였기에, 많은 전문가들이 현실성을 질문하고 있다.
국제적 인공지능의 규법은 없지만, 2018년 출시된 플레이스테이션 게임 ‘DETROIT Become Human’은 이에 해결책을 제시한다. 자율주행 차량이 사고를 마주할 경우, 인공지능이 탑승자의 예상 수명, 혼인 여부, 자녀의 존재여부, 사회적 기여도등을 바탕으로 각종 데이터를 수집 및 분석하여 사람의 ‘가치’를 측정하고 행동한 다는 것이다. 예를 들어 운전자는 탈옥한 사형수 한 명이고 횡단보도에는 어린이 5명이 있을 시 인공지능은 선택할 수 있다는 것이다.
더불어 COMEST는 4개의 중요 가치(인권과 인간의 존엄성, 평화로운 삶, 다양성의 존중과 포용성, 환경 보호)를 발표해 로봇과 인공지능의 윤리적 규범을 지정한다. 한국 또한 마찬가지로 끊임없이 발전하는 세상에서 기술에 대한 공동의 책임을 강조한다. 2020년 과학기술정보통신부가 보도한 [인공지능 윤리기준]은 3대 기본원칙과 10대 핵심요건을 제시하고 있으며, 주요 내용은 다음과 같다.
수많은 규칙과 기준이 말하듯이, 가장 중요한 가치는 ‘인간성’ 일 것이다. 인간에게 유용할 뿐만 아니라 나아가 인간 고유의 성품을 훼손하지 않고 보존하고 함양하도록 개발되고 활용되어야 한다. 인공지능은 인간의 정신과 신체에 해롭지 않도록 개발되고 활용되어야 하며, 개인의 윤택한 삶과 행복에 이바지하며 사회를 긍정적으로 변화하도록 이끄는 방향으로 발전되어야 한다. 또한 인공지능은 사회적 불평등 해소에 기여하고 주어진 목적에 맞게 활용되어야 하며, 목적의 달성 과정 또한 윤리적이어야 하고, 궁극적으로 인간의 삶의 질 및 사회적 안녕과 공익 증진에 기여하도록 개발되고 활용되어야 한다. 비록 이 말들이 너무 멀고 잘 와닿지 않겠지만, 인공지능 윤리는 우리 모두가 함께 참여해야만 지켜질 수 있다.
[위즈덤TECH] ‘아는 것이 힘’이 아니라 ‘아는 것을 활용하는 것이 힘’이 된 시대에서 인공지능과 로봇의 세계를 탐구합니다. 휴머노이드부터 기술과 의학, 천문학의 연결고리 등을 칼럼으로 연재합니다. 위즈덤 아고라 황시후 기자의 ‘위즈덤 TECH’를 만나보세요.