|

에이전틱 AI와 보안의 미래: 데이터에서 자율성으로

[기고] 정일옥 이글루코퍼레이션 연구위원(AI연구실장)

디지털 전환이 가속화되는 오늘날, 사이버 보안업계는 끊임없이 위협과 싸우고 있다. 랜섬웨어, 피싱, 공급망 공격 등 복합적이고 교묘한 공격이 동시다발적으로 발생하며, 공격의 속도와 파급력 또한 과거와 비교할 수 없을 정도로 빨라지고 있다.

오늘날의 보안 현장은 끝없이 이어지는 전쟁터와 같다. 공격자는 새로운 취약점을 찾아내고, 방어자는 이를 대응하고 처리하는 ‘끝없이 쫓고 쫓기는 싸움’을 이어가고 있다. 보안운영센터(SOC)를 떠올려 보면 상황은 더욱 명확하다. 하루에도 수백수천만 건의 이벤트가 발생한다. 보안 담당자는 수많은 로그와 알림 속에서 숨어 있는 진짜 위협을 잡아내야 하는 상황이지만, 한정된 인력과 시간으로는 사실상 한계가 있다.

이제 보안은 더 이상 기존의 경계 보안만으로는 충분하지 않으며, 선제적이고 자율적인 보안 체계가 필요하다. 이에 대한 해결책으로 보안 업계에서는 인공지능(AI) 기반의 보안 자동화 체계 도입을 채택하기 시작했다.

초기의 보안 AI 모델은 정해진 패턴을 학습해 탐지하는 데는 강점을 보였으나, 고도화된 새로운 위협까지 처리하기에는 어려움이 있었다. 이러한 배경 속에서 주목받기 시작한 것이 바로 ‘에이전틱 AI(Agentic AI)’다. 단순한 명령 수행을 넘어, 스스로 상황을 파악하고 판단할 수 있는 AI가 필요해진 것이다.

에이전틱 AI란 무엇인가

에이전틱(Agentic) AI는 텍스트, 이미지, 음성 등 다양한 데이터를 해석하고, 자연어로 이에 대해 소통할 수 있는 AI 시스템이다. 생성형 AI가 사용자의 지시에만 동작하며 스스로 문제를 정의하거나 해결책을 찾아내지는 못한다면, 이에 비해 에이전틱 AI는 한 단계 더 나아간다.

에이전틱 AI는 사람의 지시나 개입 없이도 스스로 목표를 설정하고 문제를 인식하며, 목표 달성을 위한 단계를 설계하고 작업을 수행하는 자율형 AI이다. 또한 단발성 작업에 멈추는 것이 아니라, 이전 상황과 정보를 기억해 데이터의 연속성을 유지한다. 쉽게 말해, 생성형 AI가 ‘일을 돕는 조수’라면 에이전틱 AI는 ‘스스로 판단하는 팀원’이라고 볼 수 있다.

다수의 AI 에이전트로 완성하는 에이전틱 AI 기반 SOC

이글루코퍼레이션은 오랜 기간 축적한 양질의 보안 데이터와 AI 연구 역량을 기반으로, 다수의 AI 에이전트를 보안운영센터(SOC)에 연계해 에이전틱 AI 기반 보안 운영 체계를 제시하고 있다. 이는 보안 패러다임과 대응 방법, 공격 지표에 부합하는 AI 에이전트를 SOC에 연계해 조직의 보안 위협 대응력을 강화하는 방식이다. 그리고 이 보안 체계의 중심에는 이글루코퍼레이션의 보안 특화 AI 에이전트 ‘에어(AiR, AI Road)’가 있다.

AiR는 대형언어모델(LLM)의 자연어 이해 능력과 보안 워크플로우를 결합해, 탐지·분석·검색 등 복잡한 보안 업무에 대한 의사결정을 내리는 AI 에이전트다. AiR는 단순한 AI 어시스턴트와 달리, SOC 내 다양한 솔루션과 연계해 스스로 판단하고 협력하며 조직의 보안 대응력을 강화한다.

AiR는 하이브리드 에이전트, 챗봇 에이전트, 분석 에이전트 등 다수의 AI 에이전트를 제공한다. 먼저 하이브리드 에이전트는 분류형, 설명형, 생성형 AI 모델을 결합한 형태로, 특정 보안 데이터의 악성 여부를 판별하고, 그 판단 근거를 제시한다. 또한, 이글루코퍼레이션의 자체 소형언어모델(sLLM) ‘그린 Ai(GREEN Ai)’와 챗GPT·제미나이·클로드 등 여러 대형언어모델을 활용해 판단 결과를 자연어로 설명해 주므로, 사용자는 위협 분석 결과를 더욱 직관적으로 이해할 수 있다.

챗봇 에이전트는 ‘GREEN Ai’에 검색 증강 생성(RAG) 기법을 적용해, 사전 질문은 물론이고 사용자의 자유로운 보안 질의에도 높은 정확도의 답변을 제공한다. 뿐만 아니라 챗봇에 연결된 보안 정보 및 이벤트 관리(SIEM), 보안 운영·위협 대응 자동화(SOAR), 위협 인텔리전스(CTI), 자산 현황 등 자산과 연계될 수 있는 곳에서 질의에 적합한 정보를 가져와 현장에 최적화된 답변을 제시한다.

분석 에이전트는 대규모 방화벽 및 웹 로그 데이터를 자동으로 분석해 이상 행위와 유의미한 패턴을 도출하고, 사이트에서 대응할 수 있는 방안을 제시한다. 의심스러운 IP나 이벤트를 좁혀가는 심층 분석도 가능해 위협 대응 속도와 정밀도를 동시에 높인다. 이를 통해 보안 담당자는 필요한 정보를 빠르게 확보하고 대응 방향을 효율적으로 설정할 수 있다.

이글루코퍼레이션은 이를 바탕으로 단순 탐지 대응을 넘어 자율적 대응을 가능케 하는 ‘자율형 보안운영센터(Autonomous SOC)’를 만들어 가고 있다. 앞서 설명한 AI 에이전트뿐만 아니라, 자동 분류 및 대응 우선순위 지정(Auto Triage)와 휴먼 인 더 루프(HITL) 기술을 적용해 위협 인텔리전스, 위협 헌팅 등 다양한 보안 AI 에이전트를 개발 중이다. 이를 통해 이글루코퍼레이션은 군집화된 AI 에이전트의 신뢰성을 높임으로써 SOC 내 자율화 비중을 높여나가고 있다.

에이전틱 AI 시대를 직면한 보안업계가 풀어야 할 과제

에이전틱 AI가 보안에 도입된다면 기대되는 효과는 분명하다. SOC의 과부하를 줄이고, 탐지 정확도를 높이며, 사이버 위협에 신속히 대응할 수 있다. 그러나 동시에 해결해야 할 과제도 존재한다.

♦책임 문제: AI의 판단이 잘못되었을 때 책임은 누가 질 것인가? 기업, 개발자, 혹은 사용자인가?
♦AI 자율성의 위험: 불량 AI 에이전트가 오작동할 경우, AI 의사결정에 대한 통제력을 잃을 수도 있다.
♦공격 표면 확대: 공격자가 AI 에이전트 자체를 악용하거나, AI 모델을 새로운 진입점으로 삼을 위험이 있다.

결국 에이전틱 AI 도입을 위해서는 단순히 기술 개발에서 그칠 것이 아니라 데이터 품질, 거버넌스, 윤리적 통제까지 포괄하는 과제들을 해결해야 할 것이다.

AI와 함께 판단하고, AI를 통제하며, AI에 맞설 준비를 하라

AI는 보안의 만능 해결책은 아니다. 그러나 인력 부족, 위협 고도화, 공격 증가를 고려할 때, 보안의 미래를 준비하는 데 반드시 필요한 도구이다. 중요한 것은 AI를 절대적 해결사로 보지 않고, 사람과 AI의 협력 구조를 만드는 것이다. 이를 위해 보안 기업은 깨끗하고 풍부한 양질의 데이터를 확보해 AI의 기반을 마련하고, AI 의사결정의 책임 주체를 명확히 하기 위한 AI 거버넌스를 구축하는 방향으로 나아가야 한다.

앞으로 우리는 “AI와 함께 판단하고, AI를 통제하며, AI에 맞설 준비를 하라(Think with AI, Control AI, Be ready to confront AI)”라는 원칙 위에서 AI를 발전시켜 나갈 것을 강조하고 싶다. 인간의 창의성과 AI의 속도가 결합될 때, 더욱 안전하고 신뢰할 수 있는 디지털 미래를 맞이할 수 있을 것이라 기대해 본다.

글. 정일옥 이글루코퍼레이션 연구위원(AI연구실장)

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다


The reCAPTCHA verification period has expired. Please reload the page.