개인정보위, 10월 ‘AI 프라이버시팀’ 신설…원스톱 창구 역할 수행
정부가 별도의 컨설팅 조직을 꾸리는 등 생성 인공지능(AI) 발전에 따른 개인정보 침해에 적극 대응하기로 했다.
개인정보보호위원회는 3일 정부서울청사에서 브리핑을 열고 ‘AI 시대 안전한 개인정보 활용 정책 방향’을 발표했다. 현재 챗GPT 등 생성AI 서비스가 늘어난 가운데 이로 인한 개인정보 침해 가능성에 대한 우려 역시 커진 상황이다. 이에 개인정보위는 프라이버시 침해 위험은 최소화하면서 AI 혁신 생태계 발전에 꼭 필요한 데이터는 안전하게 활용할 수 있도록 이번 정책 방향을 수립했다.

눈에 띄는 건 오는 10월 중 꾸려지는 ‘AI 프라이버시팀’이다. AI 사업자와 소통하며 규제 샌드박스 적용 검토, 법령 해석 지원 등의 컨설팅 역할을 수행하는 조직이다. 데이터 활용 범위나 방식이 복잡한 AI와 관련한 사항을 전담하는 원스톱 창구 역할을 맡아 개인정보 규제를 설계하고 국제적인 공조체계를 구축하는 것이 목표다.
또 사전 적정성 검토제를 올해 중 도입한다. 사업자의 개인정보 보호법 준수 방안을 정부가 함께 마련하고 이행결과가 적정하다고 판단하면 행정처분을 하지 않는 제도다. 특히 사업자의 불확실성을 줄이기 위해 신청서를 제출한 시점부터 적용 방안 통보까지 원칙적으로 60일 이내에 이뤄지도록 해 법적 리스크를 줄인다는 방침이다.
개인정보위는 AI 개발·서비스 단계별 개인정보 처리 기준과 보호 조치, 고려사항 등도 제시한다. 이제까지는 관련 서비스 목적의 데이터 수집·이용 시 개인정보 처리 방식 기준이 없었다는 게 개인정보위의 설명이다.
서비스 기획 단계에서는 개인정보 보호 중심 설계 원칙을 반영하도록 하고, 데이터 수집 단계에서는 일반 개인정보·공개정보·영상정보·생체 식정보로 나눠 처리 원칙을 각각 제시하도록 했다. AI 모델을 학습하는 단계에서는 개인정보를 가명처리해 별도 동의 없이도 AI 연구 개발이 가능하도록 할 예정이다. 서비스 상용화 단계에서도 정보 주체의 권리 보장을 위한 가이드라인을 마련한다.
이번 정책 방향이 기초적인 기준과 원칙인 만큼, 향후 실제 현장에서 적용 가능하도록 민간과 협력도 강화한다. 오는 10월 중 ‘AI 프라이버시 민·관 정책협의회’를 꾸려 사업자, 학계·법조계 전문가, 시민단체 등과 논의한다. 협의회는 12월부터 2024년 9월까지 ▲비정형데이터 가명처리 기준 ▲생체인식정보 규율체계 ▲공개 정보 활용 가이드라인 ▲이동형 영상기기 촬영정보활용 가이드라인 ▲AI 투명성 확보 가이드라인 ▲합성데이터 활용 가이드라인 등을 마련할 예정이다.
개인정보위는 개인정보 보호 강화 기술(PET)이 활성화되도록 연구개발 지원도 확대하고, ‘개인정보 안심구역’을 시범 운영하며 기술 검증을 도울 계획이다.
AI의 리스크 수준에 따라 차등적인 규제 설계가 가능하도록 ‘AI 리스크 평가모델’도 마련한다. 규제 샌드박스를 활용해 다양한 사례와 위험요인 분석이 가능한 체계를 오는 2025년까지 구축한다는 계획이다. 또한 주요국의 감독기구와 공조 체계를 마련하고 오는 2025년 글로벌 프라이버시 총회(GPA)를 유치하는 등 국제 협력을 강화한다.
고학수 개인정보위 위원장은 “이제 AI는 전 세계 모든 산업의 기반 기술로서 역할을 하고 있는 만큼 데이터를 어떻게 안전하게 활용할 수 있을지에 대한 디지털 질서 정립이 필요한 시점”이라면서 “글로벌 규범을 선도할 수 있는 AI 개인정보 규율체계를 확립해 나가겠다”고 밝혔다.
글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network