AI가 편리하지만 믿을 수 있을까?
AI 윤리의 현실
< 일러스트 OpenAI의 DALL·E 제공 >
[위즈덤 아고라 / 한동욱 기자] 인공지능은 현재 단순한 도구를 넘어, 우리 일상의 결정권을 대신하고 있다. 스마트폰에서 우리가 좋아할 만한 영화를 추천해 주거나, 병원에서는 질병을 진단하는 데 도움을 주고, 금융기관에서는 신용을 평가한다. 교통 시스템에서는 차량 운행을 효율적으로 관리하기도 한다. 이렇게 AI가 점점 똑똑해지고 우리 삶에 깊숙이 들어오면서, 문득 한 가지 질문이 떠오른다. 과연 우리는 AI를 믿어도 될까?
최근에는 인공지능으로 인해 문제가 생긴 사건들도 다수 발생했다. 예를 들어, 미시간대학교 연구진이 여러 주의 의료진을 대상으로 수행한 연구에서는 의료진에게 AI 모델의 진단 결과를 함께 제시했을 때, AI가 체계적 편향을 가질 경우 진단 정확도가 오히려 떨어질 수 있다는 결과가 나왔다. 연구에 따르면 편향된 AI 예측을 제시받은 집단의 진단 정확도는 기준치 73%보다 11.3% 낮아졌다. 이는 AI 도구의 오류나 편향이 의료진의 판단에 부정적 영향을 줄 수 있음을 보여준다.
또한 2019년 Science에 발표된 오버마이어(Obermeyer) 등의 연구는 미국 의료 시스템에서 널리 쓰이던 건강관리 알고리즘이 ‘질병 필요도’가 아니라 ‘의료비 지출’을 기준으로 학습되면서, 흑인 환자의 건강 위험도를 체계적으로 과소평가했다는 사실을 밝혀 큰 파장을 일으켰다. 이 연구는 데이터 선택 기준 자체가 편향을 만들 수 있음을 보여주는 대표 사례로 자주 인용된다.
또 다른 예로는 범죄 예측 알고리즘의 인종 편향 사례가 있다. 형사 사법 시스템에서 사용된 COMPAS 알고리즘은 피고인의 재범 가능성을 예측하기 위해 만들어졌다. 그러나 이 알고리즘이 흑인 피고인에게 더 높은 위험 점수를 부여해 불리한 결과로 이어졌다는 비판이 제기되었다. 대표적 사례로, 2013년 체포된 피고인 에릭 루미스(Eric Loomis)는 COMPAS 점수가 양형 판단에 참고되자 알고리즘의 비공개성과 공정성 문제를 제기하며 소송을 제기했다. 이러한 사례는 알고리즘이 개인의 삶에 직접 영향을 미치면서도 그 판단의 공정성을 검증하기 어렵다는 한계를 보여준다.
이어서 인공지능 편향 문제의 본질을 보면 데이터와 알고리즘 구조를 통해 이해할 수 있다. 인공지능이 편향된 결과를 내는 이유는 대부분 학습 데이터와 관련되어 있다. 알고리즘은 과거 데이터를 기반으로 미래를 예측하는데, 데이터가 특정 집단을 충분히 대표하지 못하거나 과거의 차별적 현실을 반영한다면 그 편향이 재현될 수 있다. 예를 들어 얼굴인식 AI가 어두운 피부색에서 오류율이 높았다는 연구가 있다.
MIT 미디어랩의 조이 부올라미니와 티미트 게브루(2018)의 연구는 상용 얼굴인식 시스템에서 백인 남성의 오류율은 1% 미만이었던 반면, 피부색이 어두운 여성의 오류율은 30%를 넘기도 했음을 보여주었다. 이는 데이터 다양성과 대표성이 기술의 공정성에 직결된다는 점을 시사한다.
AI 윤리는 이처럼 ‘실수하지 않게 만드는 기술’만의 문제가 아니다. 이는 인공지능이 사회에 미치는 사회적, 경제적, 문화적 영향을 포함하는 광범위한 주제다. 사회적 측면에서 보면, AI가 채용 과정에서 지원자를 선발할 때 과거 데이터에 담긴 성별·학력·출신 배경 편견을 재현할 가능성이 있다.
실제로 아마존은 과거 채용 데이터를 학습한 AI 채용 시스템이 여성 지원자에게 불리하게 작동한다는 사실을 확인하고 해당 프로젝트를 중단한 바 있다.
AI가 생산과 서비스 영역에 깊숙이 개입하면서 노동 시장 변화와 인간 역할 축소 문제도 윤리적 논쟁으로 이어진다. AI가 잘못된 판단을 내렸을 때 책임 주체가 불분명하다는 점 역시 문제를 복잡하게 만든다. 현재로서는 기계가 법적 책임을 지지 않기 때문에, 결국 AI 결정의 책임은 인간과 기관에 돌아간다.
그렇다면 AI를 전적으로 믿어도 될까? 전문가들은 대체로 그렇지 않다고 말한다. 그러나 동시에 AI와 인간의 협력이 신뢰 가능한 활용 방안이라고 본다. AI는 데이터 처리와 계산에서 강점을 가지지만, 인간의 가치 판단과 윤리 의식이 결합될 때 더 안전한 결정을 내릴 수 있다. 예를 들어 AI가 의료 데이터를 분석해 치료 후보를 제시하더라도 최종 결정은 의사가 내리고, 환자와 보호자가 충분한 설명을 듣고 판단하는 과정이 필요하다.
이러한 접근은 ‘Human-in-the-loop’ 모델로 불리며, 현재 의료 AI와 자율주행, 군사 AI 분야에서 핵심 안전 원칙으로 논의되고 있다.
AI 윤리 문제는 기술을 넘어 사회적 논의를 요구한다. 우리는 AI 판단 기준과 설계 과정, 데이터 편향 가능성을 투명하게 공개하도록 요구해야 한다. 법과 정책 역시 AI 사용의 가이드라인을 제공하고 책임 소재를 명확히 해야 한다.
유럽연합(EU)은 이러한 문제를 해결하기 위해 AI 위험 수준을 분류하고 고위험 AI에 대해 엄격한 규제를 적용하는 ‘EU AI Act’를 마련했는데, 이는 세계 최초의 포괄적 AI 규제 시도로 평가된다.
인간과 AI가 공존하는 사회에서 기술을 통제하고 감시하는 인간의 역할은 더욱 중요해질 것이다.
결국 AI를 믿는다는 것은 무조건적 신뢰를 의미하지 않는다. AI를 이해하고 평가하며 인간의 윤리적 판단과 결합하는 과정에서만 신뢰는 의미를 가진다. 미래 사회에서 AI와 공존하기 위해 우리는 기술을 단순한 도구로 소비하는 데 그치지 않고, 끊임없이 감시하고 질문하며 책임지는 주체가 되어야 한다. “AI 윤리”는 단순한 기술 논쟁이 아니라 인간과 사회, 그리고 가치 있는 삶을 지키는 문제라는 점을 다시 생각하게 한다.
[위즈덤 TECH] 인공지능이란 인간의 학습, 추론, 문제 해결 능력을 모방하여 스스로 데이터를 분석하고 의사결정을 내리는 기술입니다. 최근에는 스마트폰 음성 비서부터 온라인 쇼핑의 추천 시스템, 교통 내비게이션까지 인공지능은 우리의 일상에 자연스럽게 스며들었습니다. 이 칼럼에서는 인공지능이 집, 학교, 직장, 사회 곳곳에서 어떤 모습으로 사용되고 있는지 구체적으로 살펴보고, 편리함과 동시에 우리가 고민해야 할 윤리적, 사회적 문제를 함께 살펴봅니다. 위즈덤 아고라 한동욱 기자의 ‘위즈덤 TECH’를 통해, 멀지 않은 미래의 일상 속 인공지능 세계를 탐험해 보세요.
