LLM 3대 기업, 보안 에이전트 고도화…개발부터 취약점 잡는다
소프트웨어 취약점 탐지에서 ‘자동 패치 제안’까지 수행
불과 2~3년 전까지만 해도 인공지능(AI)의 역할은 보안 데이터의 보조 분석자 역할로 위협을 탐지하거나 로그를 요약해주는 정도였다. 하지만 최근 들어 대형언어모델(LLM)을 중심으로 AI가 스스로 보안 위협을 판단하고 분석해 방어 행위까지 수행하는 ‘보안 에이전트’로 조금씩 진화하고 있다.
특히 오픈AI, 앤트로픽, 구글 등 글로벌 LLM 선도 기업들이 앞다퉈 ‘보안을 위한 AI(AI for Security)’ 전략을 강화하면서, AI는 단순 조력자를 넘어 행동 주체로의 역할을 넓혀가고 있다.
오픈AI, 엔트로픽, 구글이 출시한 보안 에이전트들은 소프트웨어 개발 단계의 예방형 보안에 초점을 맞춘다. 소스코드와 커밋을 점검해 소프트웨어 취약점을 미리 찾아내고, 검증과 패치 제안을 자동으로 생성해 배포 전에 문제를 차단하는 역할을 수행한다. 즉 해킹을 실시간 차단하기보다 해커가 악용할 취약점을 미리 차단하는 예방 역할을 한다는 것이 공통점이다.
오픈AI ‘아드바크’ 출시, AI 보안 연구원이 코드 직접 고쳐
오픈AI는 지난달 30일 GPT-5 모델을 탑재한 보안 전용 에이전트 ‘아드바크(Aardvark)’를 공개했다. 아드바크는 실제 보안연구원의 사고 과정을 모방한 자율형 코드 분석 에이전트로, 단순한 소프트웨어 취약점 스캐너를 넘어선 작업을 수행한다.
아드바크는 ▲새로운 ‘코드 커밋(소프트웨어 개발에서 코드 변경 내용을 저장소에 기록하는 행위)’을 감시하며 위협 모델을 세우고 ▲차이 분석 ▲샌드박스 검증 ▲자동 패치 생성으로 이어지는 네 단계 작업을 수행한다. 개발자는 아드바크가 생성한 리포트를 검토해 승인만 하면 된다.
오픈AI는 “AI가 24시간 코드를 감시하며 취약점을 스스로 검증하고 사람이 놓친 부분까지 보완한다”고 밝혔다. 미국 기술 전문 매체 벤처비트에 따르면, 아드바크는 테스트 과정에서 알려진 취약점의 92%를 탐지했고, 10건 이상의 신규 취약점이 ‘공통취약점 및 노출(CVE)’ 식별자로 등록됐다. 일부는 오픈소스 프로젝트 개발자들과 협력해 패치가 적용되기도 했다.
오픈 AI가 밝힌 아드바크의 핵심은 ‘책임 있는 자동화’다. 아드바크가 제안한 코드는 깃허브 협업 방식인 ‘풀 리퀘스트(PR, 코드 변경 사항을 프로젝트 관리자나 다른 팀원들에게 검토 및 승인을 요청하는 과정)‘ 형태로 등록돼, 개발자가 검토·승인해야만 실제 코드에 반영된다. 모든 결과는 코드 주석과 로그 형태로 기록돼 검증 가능성을 유지한다.
현재 아드바크는 깃허브 기반 일부 파트너사와 오픈소스 커뮤니티를 대상으로 프라이빗 베타 서비스를 진행 중이다. 오픈AI는 향후 상용 보안 플랫폼과의 연동, 즉 AI가 직접 지속적 통합·배포(CI/CD) 파이프라인에 통합되는 방안까지 검토하고 있다.
앤트로픽 ‘클로드 4.5’…AI가 코드 리뷰어로 참여
앤트로픽은 8월 자사 개발자 도구 ‘클로드 코드(Claude Code)’에 자동 보안 리뷰 기능을 추가했다. 앤트로픽 블로그에 따르면, 개발자가 ‘/security-review’ 명령을 터미널에 입력하면 클로드가 코드를 분석해 보안 취약점을 찾아내고 수정안을 자동으로 작성해 보고한다.
SQL 인젝션, 인증 오류, ‘교차 사이트 스크립팅(XSS)‘ 같은 일반적인 취약점뿐 아니라, 비정상적인 외부 호출이나 데이터 노출 경로 등 논리적 버그도 감지한다. 이 기능은 깃허브 액션에도 통합돼 ‘모든 코드 변경(PR)에 최소 한 번의 자동 보안 검토’가 가능하다는 것이 앤트로픽의 설명이다.
벤처비트 보도에 따르면, 앤트로픽은 사내 파이프라인에 해당 기능을 시범 적용한 결과, 릴리스 전 ‘원격 코드 실행(RCE)’과 ‘서버사이드 요청 위조(SSRF)’ 취약점을 조기에 탐지했다고 밝혔다. 이후 9월 발표된 최신 모델 ‘클로드 소넷(Claude Sonnet) 4.5’는 보안 기능을 한 단계 끌어올렸다.
앤트로픽은 “클로드 4.5는 실제 보안 전문가에 버금가는 취약점 탐지·패치 제안 역량을 갖췄다”며 “AI가 단순 조력자를 넘어 실제 방어 행위에 참여하고 있다”고 밝혔다. 회사는 해커원, 크라우드스트라이크 등과 협력해 클로드의 보안 분석 성능을 실전 환경에서 검증 중이다.
클로드는 보통 ‘AI 어시스턴트’로 분류되지만, 개발자가 지시하지 않아도 자동으로 코드 변화를 감시하고 문제를 찾아 제안하는 점에서 사실상 에이전트로 평가된다. 모든 제안은 개발자 승인을 거쳐야 적용되며, 분석·수정 내역은 로그로 남는다.
구글 딥마인드 ‘코드맨더’…AI가 스스로 코드 수정 제안
구글은 보안을 위한 AI를 별도 제품군이 아닌, 자체 플랫폼 전반에 내장하는 전략을 택하고 있다. 그중에서도 구글 딥마인드가 10월 공개한 ‘코드맨더(CodeMender)’는 구글의 대표적 AI 보안 에이전트로 꼽힌다.
딥마인드에 따르면, 코드맨더는 오픈소스 프로젝트의 코드를 상시 분석해 취약점을 탐지하고, 검증된 패치를 자동 생성해 ‘풀 리퀘스트’ 형태로 제안한다. 단순히 코드를 수정하는 수준을 넘어, 동일한 유형의 취약점이 반복되지 않도록 코드를 재작성하는 기능도 포함됐다.
딥마인드는 코드맨더가 오픈소스 프로젝트 70여개에서 72건의 취약점을 직접 수정·기여했다고 밝혔다. 이 중 일부는 ‘공통취약점·노출(CVE)’ 식별자로 등록됐다. 코드맨더는 구글 내부와 안드로이드, 크롬 오픈소스 등 대규모 코드베이스에서 수집된 버그·패치 데이터를 학습해 AI가 AI의 코드를 고치는 자동화 루프를 구현했다.
딥마인드는 코드맨더를 ‘감독하 자율형’ 구조로 운영한다. AI가 탐지·분석·패치 제안까지 수행하지만, 실제 적용은 개발자 승인 후에만 가능하다. 앤드로픽의 클로드와 같이 모든 결과는 로그로 기록돼 투명하게 검증된다. 코드맨더는 개발 단계에서의 보안 에이전트로 자리 잡는 핵심 축으로 평가된다.
앞서 살펴본 AI 보안 에이전트들은 ‘완전 자동화’보다는 실무를 보조하고 사람의 승인을 기다리는 반자동화 수준에 머물러 있다. 일반적으로 업계가 구분하는 세 가지 종류 중에서는 ‘감독하 자율형’에 해당한다. 사용자 요청에 따라 요약·분석만 제공하는 첫 단계인 ‘반응형’은 넘어섰지만, 아직 최종 단계인 완전 자율형에는 미치지 못했다. 완전 자율형은 인간의 개입 없이 AI가 자체 판단으로 수정과 대응까지 알아서 수행하는 수준이다.
아직까지 AI 보안 에이전트는 사람을 대체하기보다는 보안을 보조하는 단계에 있다. 하지만 코드 검증과 취약점 탐지의 자동화가 이미 현실화된 만큼, 인간과 AI가 협력해 완전 자동화 보안을 강화하는 구조가 얼마나 빠르게 정착할지가 향후 관건이 될 전망이다.
글. 바이라인네트워크
<곽중희 기자> god8889@byline.network

		