생성형 AI 보안 탐지모델의 도입 효과
[전문가기고-2회] 생성AI를 악용한 공격엔 생성AI로 맞선다
인공지능(AI)이 보안 현장에 가져다줄 최고의 효과는 무엇일까. 앞서 말했듯, 보안 현장은 보안위협이 발생했을 때 신속하게 대처해 피해를 최소화하는 것을 목표로 한다.
이글루코퍼레이션은 보안 현장에 AI를 녹여 내기 위한 연구를 시작하면서, 보안 요원들의 피로도를 낮춰주며 보안 운영 현장을 고도화할 수 있는 AI 서비스를 개발하는 방향으로 접근했다.
보안 담당자가 이해하기 쉬운 형태로 알려주는 접근성 좋은 AI 서비스
이글루코퍼레이션은 2015년부터 AI를 보안 운영 체계에 적용하기 시작했다. AI를 기반으로 한 보안 현장을 운영하면서 ‘분석하는 사람의 입장에서 좀 더 가볍게 AI를 활용해 볼 순 없을까’라는 생각을 하던 중, 보안 요원들이 AI 보안 솔루션이 내놓은 예측 결과를 그대로 믿어도 되는지, AI가 어떤 기준으로 특정 보안 데이터를 이상 혹은 정상으로 탐지했는지 등 AI에 대한 의심과 궁금증을 갖고 있다는 점을 발견했다. 이에 AI의 판단 기준을 보안 담당자가 이해하기 쉬운 형태로 알려주는 접근성 좋은 AI 서비스 개발을 시작했고, 그렇게 만들어진 서비스가 이글루코퍼레이션의 하이브리드 AI 탐지모델 서비스 ‘에어(AiR, AI Road)’다.
분류형·설명형·생성형 AI 기술을 적용한 AiR
AiR는 보안 이벤트에 대해 AI 모델이 판단한 근거를 자연어 형태의 설명을 토대로 알려줘, AI의 신뢰성과 이해도를 높이는 서비스다. 이글루코퍼레이션은 좀 더 명확하고 접근성 높은 답변을 도출해 내기 위해 AiR에 분류형, 설명형, 생성형 총 3개의 이글루코퍼레이션 자체 AI 모델을 적용했다.
먼저 분류형 모델은 AI가 어떤 기준에 따라 특정 행위를 이상 혹은 정상으로 탐지했는지 분류해 준다. 이 모델은 이글루코퍼레이션이 자체 개발한 양질의 학습데이터를 학습했으며, 이를 토대로 스스로 판단 기준을 세워 공격 유·무를 판단한다. 사용자가 보다 정확하고 신속하게 위협 여부를 탐지하고 사이버 공격에 대한 대응력까지 높일 수 있게 돕는다.
설명형 모델은 SHAP(SHapley Additive exPlanations) 등의 알고리즘이나 기존의 패턴 기반으로 인공지능 예측 결과에 대해 설명해 주는 모델이다. 앞서 분류형 모델이 내놓은 결과를 보안 데이터의 공격 특징(feature)을 통해 답변 도출 과정과 이유를 납득 가능한 근거를 제시한다.
마지막으로 생성형 모델은 특정 보안 데이터에 대해 AI 모델이 판단한 근거를 자연어 형태로 설명해 주는 모델이다. 생성형 모델로는 챗GPT(ChatGPT), 제미나이(Gemini), 클로드(Claude) 등 외부의 거대언어모델(LLM) 모델을 비롯해, 이글루코퍼레이션의 자체 보안 특화 소형언어모델(sLLM) ‘그린 에이아이(GREEN Ai)’를 적용하고 있다. 이글루코퍼레이션의 분류형·설명형 모델이 내놓은 결과를 자연어로 다시 한번 설명해 주므로, 사용자는 AI의 예측 결과를 더욱 직관적으로 이해하고 신속한 의사결정을 내릴 수 있다.
누구나 쉽고 간편하게, 그러나 효과는 강력한
이글루코퍼레이션은 사용자 편의성과 접근성 향상에 초점을 맞춰 AiR 서비스를 개발했다. 이글루코퍼레이션은 사용자가 페이로드(Payload) 입력만으로 AI 모델의 공격 유·무 예측 결과를 확인할 수 있도록 URL 디코딩, HTML 디코딩이 자동 수행되는 고유의 전처리 기법을 적용했다. 또한 다양한 생성형 AI 모델 지원 및 사용 방식(▲온라인 웹페이지 접속 ▲보안운영센터(SOC) 내 구축된 보안 정보 및 이벤트 관리(SIEM), 보안 운영·위협 대응 자동화(SOAR) 솔루션과의 응용프로그램 인터페이스(API) 연동 ▲내부 구축) 지원으로 사용자의 선택 폭도 넓혔다. 이를 통해 사용자들은 발생한 보안 이벤트 및 상황별 대응 방안에 대한 답변을 적시에 확인함으로써 공격에 대한 대응력을 높일 수 있게 된다.
이글루코퍼레이션은 AiR의 안정성 및 보안성 확보에도 힘을 기울였다. 이글루코퍼레이션은 다년간의 AI 보안 솔루션 개발 및 데이터셋 구축을 통해 축적한 ‘프롬프트 엔지니어링’ 및 ‘파인 튜닝’ 역량을 토대로 생성형 AI의 환각 효과 및 편향성을 최소화했다. 또한 데이터 비식별화 및 적대적 AI 공격에 대한 방어 기술 적용으로 질의 과정의 안정성을 높였다. 이를 통해 사용자들은 생성형 AI의 편향성, AI 알고리즘 오염, AI 타깃 공격, 민감 데이터 외부 유출 등에 대한 우려 없이 AI의 혜택을 누릴 수 있게 된다.
지금 우리에게 필요한 것은, 사람-인공지능 콜라보레이션(Human-AI teaming collaboration)
보안 현장에서 사람과 AI가 하나의 ‘팀(team)’을 이루었을 때, 지금까지 경험하지 못했던 더욱 강력한 효과를 가져올 수 있을 것이다. 보안업계에서 AI를 바라보는 시각은 매년 달라지고 있다. 많은 보안 기업이 AI를 활용한 완벽한 보안 프로세스 자동화를 꿈꾸기도 하였으나 최근엔 조력자로 AI의 역할을 변모했다. 사람은 주(主)로, AI는 조력자로 한 팀을 꾸려 서로 부족한 부분을 메꾸어 나간다면 완벽한 보안 안전비행을 할 수 있지 않을까.
글. 정일옥 이글루코퍼레이션 기술위원