|

세상은 편향됐는데, AI는 공평할 수 있을까

지난 2018년 아마존은 수년간 개발한 인공지능(AI) 채용 시스템을 폐기했다. 이 AI 채용 시스템이 성차별 논란을 일으켰기 때문이다.

아마존의 AI 채용 시스템은 이력서에 ‘여성’이라는 단어, 예컨대 여학교나 여성 전용 동아리 등이 들어가면 부정적으로 파악했다. 이러한 사실이 드러나자 아마존은 AI 채용 시스템을 폐기하기로 결정했다.

문제는 누구한테 있는 걸까? 아마존에게? 채용 시스템을 개발한 개발자에게? 아니면 AI 그 자체에?

결론을 내리기는 쉽지 않다. 문제의 근본적 원인은 AI가 채용의 근거를 만들게 한 데이터에 있기 때문이다. 아니, 이런 데이터가 나올 수 밖에 없는 기저에는 기존의 채용 시스템이 존재한다.

아마존은 AI 채용 시스템을 개발할 때, 과거 약 10년간의 지원자 이력서를 활용했다. 문제는 이 기간 회사에 지원한 사람 중 대다수가 남성이었다. 당연히 붙은 사람의 비율 역시 남성이 높았고, 아마존의 IT직군에서 여성의 비율은 저조할 수밖에 없었다. 이런 데이터를 근거로 공부한 AI는 여성보다 남성을 채용하는 것에 우선순위를 뒀다.

아마존의 AI 채용 시스템의 실패는 AI의 잘못이 아니라 사회적 관습에서 비롯된 것이었다. AI는 학습을 위한 데이터를 받아 활용했고, 그 결과 아마존이 그간 채용 시 여성보다 남성을 선호해왔다는 점(혹은 그럴 수밖에 없었던 점)이 고스란히 나타났다. 사회적 관습과 통념이 AI에 그대로 드러난 것이다. 

이밖에도 AI로 인한 윤리적인 문제는 사회 곳곳에서 일어나고 있다. 미국에서는 인종차별 논란이 있었다. AI 얼굴인식 시스템이 흑인보다 백인의 인식률이 높다는 점, AI로 지역별 범죄발생률을 조사한 결과 흑인이 사는 지역이 범죄 발생률이 높게 나온 점 등이 알려지면서 파장을 일으켰다. 

국내에서도 AI챗봇인 이루다를 둘러싸고 소수집단 발언 등 윤리적인 논란이 일은 바 있다. 최근에는 챗GPT가 활성화되면서 논문이나 예술작품 등 저작권 문제가 발생하고 있다. 

AI 윤리 문제가 발생하는 것에 대해 전문가들은 ‘자연스러운 현상’이라고 보고 있다. 

전창배 국제인공지능윤리협회 이사장은 “인공지능 개발 수준이 아직까지 안전하고 윤리적인 수준은 아니”라면서 “이러한 논란이 일어나는 것은 (AI윤리 문제를) 해결하는 과정중 하나로, 전세계가 구체적인 해결방안을 찾는 과정으로 보면 된다”고 설명했다. 

최경진 가천대 교수는 “사람이 사회화 과정을 거치면서 성숙되는 것처럼 AI 또한 나름의 사회화를 통해 윤리적인 문제를 해결할 수 있다”고 주장했다.

AI 윤리 문제, 해결 방안은?

AI로부터 발생하는 윤리적인 문제를 해결할 방법은 없는 것일까. 

전문가들은 AI 윤리 문제해결을 위해 크게 두 가지 방향을 제시한다. AI 개발 관점과 이를 AI 대하는 사용자의 관점으로 나뉜다. 

먼저, 개발 관점에서 기업이나 개발자는 AI가 인간의 존엄성이나 생명, 윤리 가치를 벗어난 선택을 할 가능성을 고려해야 한다. 

기업이나 개발자는 개발 단계에서 AI 윤리 가이드라인을 활용할 수 있다. 2016년 알파고 쇼크를 기점으로 각 국의 정부와 민간단체, 기업들은 ‘AI 윤리 가이드라인’을 내놓기 시작했다. AI가 인간을 넘어서는 영역이 존재하다는 것을 인정하고, 부작용을 방지하기 위한 차원에서다. 가이드라인은 공통적으로 사람 중심의 AI를 추구한다. 

대표적으로 유럽연합(EU)의 집행위원회는 ‘신뢰할 수 있는 AI를 위한 윤리 가이드라인’을 발표했다. “AI 그 자체가 목적이 되어선 안 되며 (AI는) 인간의 번영을 위한 수단으로, 윤리 가이드라인은 인간 중심적이어야 한다”는 것이 골자다. 

EU의 인간 중심적인 AI 윤리 가이드라인은 ‘로봇 3원칙’을 기반으로 한다. 로봇 3원칙은 소설가 아이작 아시모프가 1950년에 펴낸 작품 ‘아이, 로봇’에서 시작됐다. 로봇이라면 반드시 지켜야 하는 원칙으로, 이후 AI 개발 방법론에 영향을 미쳤다. 로봇 3원칙은 다음과 같다. 

제1원칙: 로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다. 

제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다.

제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

로봇 3원칙은 EU를 포함해 오늘날 전세계 AI 윤리 가이드라인의 기반이 된다. 미국의 ‘AI의 윤리적 발전을 위한 결의’, 일본의 ‘인간중심 AI 사회 원칙 검토회의’, 중국의 ‘차세대 AI 관리 원칙’ 등은 AI의 활용, 확산 과정에서 위험이나 부작용을 방지하기 위한 방안을 담았다. 

한국의 AI 윤리기준

우리나라도 지난 2019년 12월 인공지능 국가전략을 발표하면서 사람 중심의 AI 실현을 강조했다. AI 제품, 서비스 확산에 대응해 신뢰성, 안전성 등을 검증하는 품질관리 체계를 구축하고, AI 윤리 관련 논의를 추진했다. 이후 2020년 12월에는 사람 중심의 AI 윤리기준을 마련했다. 

다만, AI 윤리 가이드라인은 법적인 규제가 아니기 때문에, AI를 개발하는 기업과 기관의 자발적인 노력이 필요하다는 것이 전문가들의 제언이다. 

전창배 국제인공지능윤리협회 이사장은 “AI윤리 가이드라인은 AI 개발을 규제하자는 것이 아니”라며 “AI가 인간에게 편의성을 가져다주고 효용성이 있는 만큼, 적극적으로 개발하되 동시에 부작용도 해결자는 것”이라고 강조했다. 

아울러, AI 개발 관점에서 기업은 AI 제품이나 서비스를 출시하기 전, 제품을 최종적으로 테스트할 수 있다. 전자제품, 자동차 등이 시장에 나오기 전 충분한 품질, 안전성 테스트를 거치는 것처럼 AI 또한 사전 검증을 충분히 해야 윤리적인 문제가 줄어들 수 있다. 

만약 아마존이 AI 채용 시스템을 활용하기 전 윤리적인 문제가 없는지, 부작용은 무엇인지 꼼꼼하게 테스트하고 들여다봤다면 성차별이라는 문제를 충분히 해결할 수 있었다는 이야기다.  

실제로, AI 개발 업체들은 AI 윤리 문제에 대한 고민이 깊다. 하정우 네이버AI랩 소장은 AI의 윤리 문제에 대한 기술적인 해결책에 대해 “100%는 힘들지만 할 수 있는 최선의 준비는 하고 있다”며 “문제가 생기지 않도록 어떤 데이터를 구축해야 하고 어떻게 평가를 해야 하는지 내부적으로 진행하고 있다”고 전했다. 

카카오브레인의 경우 AI 윤리 문제를 시간의 흐름 측면에서 접근하고 있다. 현재 논란이 되고 있는 윤리 문제가 시대에 따라 달라질 수 있어, 시간에 대한 중요도나 가중치를 조절해 문제를 해결하고 있다. 

백운혁 카카오브레인 리서치 총괄 디렉터는 “데이터를 수집하다보면 사실관계도 시간이 지남에 따라 변한다는 것을 깨달았다”며 “예컨대 과학적 사실도 변하고 윤리적인 문제나 편향성에 대한 문제도 시기에 따라서 엄청난 변화가 있다”고 설명했다. 

그는 이어 “데이터를 수집하는 시점부터 접근을 하다보니 편향성이 과거에는 문제였으나 현재는 문제가 아닌, 혹은 미래에 다시 문제가 될 수 있다는 식으로 접근을 하고 있다”고 말했다. 따라서 “시간 정보를 잘 핸들링하면서 모델을 학습하고 관리를 해나간다고 하면 AI 편향성 문제를 조금 해결할 수 있지 않을까”라고 견해를 밝혔다.   

사용자의 태도도 AI 윤리에 영향 

AI를 대하는 사용자의 역할도 중요하다. 결국 AI는 사용자의 데이터를 학습하면서 고도화되기 때문에 사용자가 AI를 대하는 태도 또한 AI 윤리 문제 해결을 뒷받침한다. 

이루다 사건을 보면 알 수 있다. 앞서 일부 사용자들은 AI챗봇인 이루다에 성적인 대화, 동성애, 장애인 혐오 등 사회적 소수자에 대한 혐오발언을 퍼부었다. 그 결과 사용자들의 대화 데이터를 학습한 이루다는 특정 소수집단에 대한 차별적 발언을 하며 논란이 됐다. 

전창배 국제인공지능윤리협회 이사장은 “AI를 올바른 목적으로 활용한다면 문제가 일어나지 않는다”며 “사용자가 AI를 올바르게 사용할 수 있도록 교육하면 AI 윤리 문제를 최소화할 수 있으며, 교육은 정부·기업·학계·교육기관·민간단체·사용자 등 모든 주체가 받아야 한다”고 주장했다. 

AI 윤리 문제, 결국 ‘인간’ 윤리 문제

결과적으로, AI 윤리는 AI가 아니라 인간의 윤리에 대한 것이다. AI를 개발하는 것도 이를 활용하는 것도 인간이라는 점이 이를 뒷받침한다. 

한국과학기술정보연구원(KISTI)은 ‘인간과 AI의 공존을 위한 사회 윤리적 쟁점’ 리포트에서 “AI 윤리는 AI 자체라기보다 AI를 개발하고 운영하는 규범으로의 윤리라는 점을 인식해야 한다”고 밝혔다. 

AI의 핵심은 데이터를 기반으로 학습하고 일정한 패턴을 찾아 예측하는 머신러닝으로, 결국 AI 윤리는 설계자나 개발자, 즉 인간의 윤리로 볼 수 있다는 이야기다. 

KISTI 측은 “AI 개발 과정에서 인간의 윤리적 가치를 반영한 설계가 이뤄져야 하고 인간을 위한 방향으로 AI가 활용되어야 한다”며 “다학제적 접근과 산·학·연·정 등이 함께 참여하고 협력해야 한다”고 강조했다. 

글. 바이라인네트워크
<홍하나 기자>0626hhn@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다