금융보안원, AI 에이전트 관련 주요 보안 위협 공개
금융보안원(원장 박상원)은 금융권에서 활발히 도입할 가능성이 높은 인공지능(AI) 에이전트 기능에 대한 보안 위협 보고서를 10일 공개했다. AI 에이전트란 인간의 개입없이 자율적으로 목표를 수행하는 AI 시스템을 의미한다. 기존 거대언어모델(LLM) 기반 AI와 달리 여러 외부 도구를 활용해 필요한 조치를 스스로 실행할 수 있다는 점이 다르다.
금융보안원은 AI 에이전트 대상 주요 보안 위협의 요인으로 독립적 의사결정, 공격 표면(창구) 증가를 꼽았다. AI 에이전트가 독립적으로 의사결정을 내리는 과정에서 ‘하이재킹 공격’ 우려가 증가하고 있다. AI 에이전트가 외부 데이터에 숨겨진 공격자의 악의적 지시를 사용자의 정당한 지시와 구분하지 못할 경우 발생한다.
AI 에이전트에 연동되는 도구의 수와 종류가 증가하면서 공격이 들어올 창구가 많아진 점도 문제로 꼽혔다. 공격자는 AI에이전트가 참조하는 도구 설명에 조작된 내용을 끼워 넣어 악성 행위를 수행하도록 유도할 위험이 있다.
금융권 AI 에이전트 도입이 본격화되면 비정상적인 대출 승인, 공격자 계좌로의 자금 이체 등의 피해가 우려된다. 이를 위해 금융보안원은 AI 에이전트의 의사결정 과정을 기록·추적하는 체계 구축, 사람의 검토·승인 절차 도입, 최소 권한 부여 및 관리, 요청 작업에 대한 실시간 모니터링·검증 등이 필요하다고 밝혔다.
정재식 금융보안원 AI혁신실 AI전략팀장은 “현재 금융권은 보안에 대한 우려로 리스크가 낮은 AI 기술 도입부터 진행하고 있다”며 “AI에이전트 도입까지는 시일이 걸리겠지만 방향은 크게 다르지 않을 것”이라고 말했다.
글. 바이라인네트워크
<이수민 기자>Lsm@byline.network