인공지능(AI) 윤리는 우리나라에서 챗봇 ‘이루다’로 인해 전국민적인 관심을 받는 주제다. 사실 이루다 이외 우리 생활에는 이미 다양한 분야에서 AI가 역할을 하고 있다. 채용부터 금융심사, 자율주행까지 AI가 관여하는 주제를 살펴보니 무게가 가볍지 않다.

이런 분야에서 중요한 것은 공정성이다. 공정성의 반대는 차별이라 할 수 있다. 그리고 AI는 차별을 인간에게서 배운다.

고학수 서울대 법학전문대학원 교수는 최근 ‘AI는 차별을 인간에게서 배운다’는 도서를 출간했다. AI 윤리 권위자인 그가 AI 윤리에 대한 입문서를 냈다. 법학과 통계학, 컴퓨터공학 전문가가 아니어도 AI 윤리가 무엇인지 충분히 이해할 수 있도록 돕는다.

AI 윤리가 어려운 이유는 우선 용어에서 나온다. AI 윤리 요소 중 하나인 공정성부터 정의하기가 쉽지 않다.

고학수 교수는 도서에서 “공정성은 사실상 정의하기가 매우 어려운 개념이다. 아마도 100명의 사람에게 공정성의 개념이 무엇인지에 관해 질문을 한다면 1000개의 대답이 나올지도 모른다. 저마다 공정성에 대해 생각하는 바도 다르고 또한 개개인이 하나의 용어를 두고도 여러 가지 개념을 염두에 두고 있을 가능성도 있기 때문이다”라고 말한다.

우선 지금까지의 논의를 보면 AI와 관련된 공정성은 주로 차별 금지를 의미한다는 설명이다. 문제는 AI는 기술 특성상 차별을 만들어내기 쉽다는 것이다. AI는 대상들을 그룹화를 해서 차이를 만드는 방법으로 작동한다. 예를 들어, 사진 속에서 개와 고양이를 구분하고 각각에 해당하는 특징을 파악하는 식이다.

고학수 교수는 “AI의 제일 일반적이고 중요한 용도는 데이터를 분류해내는 것이다. 이때의 분류(classification)는 예를 들어 다양한 특징을 보이는 데이터가 있을 때 이를 몇 개의 그룹으로 나눠 판단하는 것을 의미한다. 이같은 분류는 그룹별로 차등적 결과가 나타날 수 있음을 암시하는 것이기도 하다. 요컨대 AI는 그룹화를 통한 분석과 의사결정에 특히 강점을 가진 기술인 것이고, 이는 사회적인 맥락에서는 차별에 관한 논란으로 쉽게 확대될 수 있는 것”이라고 설명한다.

불공정한 AI로 피해가 발생할 수 있는 영역은 채용부터 금융, 자율주행까지 다양하다. 일상 챗봇 서비스 이루다가 혐오 발언을 하고 개인 정보 제공 동의를 제대로 받지 않아 크게 화제가 됐다. 개인의 생존과 더욱 밀접한 분야에 AI가 본격 활용된다면 사회적 여파가 어떨지 상상하기 어렵다.

AI 공정성을 파악하는 문제가 간단하지도 않다. 여성이 적은 IT 기술 직군 채용에서 여성 합격자가 적은 경우 편향이 작용했다고 볼 수 있을까. 상환율이 좋지만 신용 점수는 낮은 개인에게 대출을 제공할 때 어떻게 평가해야 할까.

자율주행과 관련된 트롤리 딜레마는 사람의 목숨을 좌지우지한다. 운행 중 위험 상황을 만났을 때 발생할 수 있는 3가지 딜레마를 뜻한다. 여러 사람이 도로에 있는 것을 인식한 자율주행차가 이를 피하기 위해 인도 방향으로 주행 방향을 급히 틀게 되고 그 과정에서 행인 한 명에게 피해를 입히는 상황이 첫 번째. 두 번째는 무단 횡단하는 행인 한 명을 발견하고 그 사람을 피하기 위해 차가 벽에 가서 부딪히는 경우다. 마지막 경우는 여러 사람이 도로에 있는 것을 파악한 긴급 상황에서 이를 피하느라 자율주행차가 벽에 부딪히는 상황이다.

프라이버시 또한 AI 윤리에서 중요한 문제다. 하지만 프라이버시를 열심히 숨기는 대상으로만 접근하는 것에도 문제가 있다는 것이 고학수 교수의 의견이다.

고 교수는 “사실 ‘프라이버시 = 숨김’이라는 시각 자체가 그릇된 프레임이다. 프라이버시 개념을 뭔가 숨기고 싶어 하는 것으로 해석하게 되면, 개개인에 대해 호기심을 가지고 적극적으로 정보를 수집하고 싶어하는 입장과 그 반대로 정보를 지켜내고 싶어 하는 입장 사이의 대결구조로 상황을 바라 보기 쉽다. 그런 식으로 쫓고 쫓기는 게임의 구도가 형성되면 정말 피곤한 세상이 될 수밖에 없다. 또한 어느 만큼의 정보수집을 허용할 것인지를 둘러싸고 답이 없는 지리한 공방이 무한반복될 가능성도 있다”고 제시한다.

그 모든 이유에도 불구하고 AI를 우리 사회에 적용하려는 중요한 이유 중 하나는 아이러니하게도 공정성 때문이다. 대상을 그룹화해서 판단하는 것은 AI 이전 인간에서도 이미 나타나는 현상이다. 상황을 개선하려면 이 그룹화가 객관적인 데이터에 기반하도록 하고 편견과 편향을 최소화하는 것이 중요하다.

고학수 교수는 “AI가 진정한 역량을 발휘할 수 있는 것은 업데이트가 가능하고, 그 과정을 통해 편향을 줄여갈 수 있다는 특징 때문이다. 인간은 생각과 판단의 과정이 매우 불투명하고, 이를 업데이트 하는 과정 또한 불투명하다. 그에 비해 AI는 편향으로부터 인간보다 자유롭고, 주어진 데이터를 충실하게 반영하는 업데이트 또한 가능하다. AI는 인간보다 더 객관적으로 데이터로부터 공통점을 찾아 그룹화할 수 있다. 그리고 이를 통해 우리가 일관적이고 체계적인 의사결정을 하는 데 도움을 줄 수 있다”고 전했다.

글. 바이라인네트워크
박성은 기자<sage@byline.network>