카카오 AI ‘카나나’, 안전장치 갖춘다

개인정보위, ‘카나나’ 서비스 사전적정성 심의 의결

개인정보보호위원회(위원장 고학수, 개인정보위)는 지난 12일 전체회의를 열고, 카카오의 인공지능 비서 서비스인 ‘카나나’에 대한 사전적정성 검토 결과를 심의·의결했다고 13일 밝혔다.

사전적정성 검토제는 신청인이 인공지능(AI) 등 신기술·신서비스 기획·개발 단계에서 기존 법해석·집행 선례만으로는 명확한 개인정보 보호법 준수방안을 찾기 어려운 경우, 개인정보위와 협력해 신청 대상 신기술·신서비스 환경에 적합한 법 적용방안을 마련하고, 이를 신청인이 이행하면 사후에 불이익한 처분을 부과하지 않는 제도다.

카카오는 작년 12월 10일 개인정보위에 카나나 사전적정성 검토를 신청한 바 있다. 카나나 서비스는 카카오가 자체 개발한 거대언어모델(LLM)을 주로 활용하지만, OpenAI의 ChatGPT 모델도 보완적으로 활용하게 된다. 카나(단체대화)와 나나(개인대화) 모델로 분리 운용된다.

다음은 개인정보위 발표다.

<암호화 등 기술적 보안조치 강화>

첫째, 카나/나나는 하나의 대화방에서 알게 된 참여자의 개인정보를 다른 대화방에서 타인에게 발설하지 않도록 기술적 안전장치를 강화하기로 하였다. 대화방 내 데이터는 ㈜카카오 내 별도 데이터베이스에 보관되며 OpenAI측에는 저장되지 않도록 하고, 대화 데이터 중 고유식별정보나 계좌·카드번호 등 식별성 강한 개인정보가 포함된 경우, ㈜카카오의 자사 언어모델에서만 처리하거나 또는 외부 모델 활용 시 OpenAI가 알아볼 수 없도록 해당 부분을 암호화 처리하기로 하였다.

<외부모델 처리데이터 보호 강화>

둘째, 외부 모델인 OpenAI에서 처리되는 데이터에 대한 보호를 강화하기 위해 OpenAI와의 위수탁 계약에 관련 조건을 명확히 담기로 하였다. 위탁계약에는 해당 데이터를 ㈜카카오가 맡긴 업무를 위해서만 활용해야 하고 OpenAI의 사업목적으로 쓰이지 않도록 해야한다는 조건을 명시하는 한편, ChatGPT의 응답 후 OpenAI에 별도로 저장되지 않도록 기술적 제약도 두기로 하였다.

<내부 학습에 이용시 별도 추가적 안전조치 운영>

셋째, ㈜카카오는 이용자 대화 데이터를 자사 언어모델의 학습데이터로 활용하려면 카나나 이용자로부터 반드시 별도의 동의를 받도록 하였다. 이때 이를 원하지 않는 이용자는 동의하지 않을 수 있다. 또한 ㈜카카오는 이용자의 대화 속 개인정보가 그대로 암기되어 향후 노출될 위험에 대응하기 위해 자동 필터링, 인적 검토절차 마련·공개, 피드백 프로세스 구축 등의 방안을 마련하기로 하였다.

<내부 관리체계 강화>

넷째, 카나나 서비스의 지속적인 개인정보 보호수준 제고를 위해, ㈜카카오의 개인정보 보호책임자(CPO)가 상시 리스크 관리체계를 구축·운영하며 중대한 리스크 관리계획 및 실행내역을 정기적으로 이사회에 보고하기로 하였다. 카나나 서비스가 출시되면 개인정보위는 이러한 사항을 ㈜카카오가 실제 이행하고 있는지를 점검할 예정이다.

글. 바이라인네트워크
<이대호 기자>ldhdd@byline.network

[컨퍼런스] AI 에이전트와 지능형 인터페이스 시대

◎ 일시 : 2025년 3월 27일 오후 12:30 ~
◎ 장소 : 서울 강남구 테헤란로7길 22 ST Center (과학기술컨벤션센터) 지하 1층 대회의실 2

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다