|

생성AI를 악용한 공격엔 생성AI로 맞선다

[전문가기고-1회] 생성형 AI 시대의 보안 조력자 

정일옥 이글루코퍼레이션 기술위원

인공지능(AI)을 빼놓고는 IT 트렌드를 논할 수 없는 AI의 시대가 도래했다. 올해 열린 세계 주요 IT·보안 콘퍼런스를 관통한 핵심 키워드는 단연 AI였다. 국제 전자제품 박람회 CES (Consumer Electronics Show) 2024에서는 모든 테마를 총망라한 기술로 AI가 지목되었다. 모바일 기기 전시회 MWC(Mobile World Congress) 2024에서도 메인 주제인 ‘통신’ 대신 AI 기술을 강조하는 기업들의 비중이 높았다. 사이버보안 콘퍼런스 RSAC (RSA Conference) 2024의 주요 골자 역시 AI였다. 주요 글로벌 기업들 대다수가 AI 도입으로 역량을 강화하기 위해 핵심 메시지 내 ‘AI 기반(AI-Powered)’이란 표현을 녹여냈다.

AI를 적극적으로 활용하는 보안 빅테크 기업

이처럼 보안 분야를 비롯해 다양한 산업에서 AI를 적극적으로 받아들이고 있는 가운데, 챗GPT로 촉발된 생성형 AI는 보안 트렌드에 큰 변화를 주었다. 빅테크 기업들은 자사의 보안 제품에 생성형 AI를 통합하고, 자사의 보안 데이터를 이용한 초거대 언어 모델(LLM)을 사용하고 있다. 기존 보안 업체들도 독자적인 생성형 AI 모델을 만들거나, 기존의 AI를 결합한 하이브리드 모델 기반의 서비스를 선보였다. 이글루코퍼레이션 역시 챗GPT 등 생성형 AI를 결합한 하이브리드 AI 탐지모델 서비스 ‘에어(AiR)’를 제공하고 있다. 이와 같이 보안 분야에서는 위협 탐지 및 대응뿐만 아니라 보안 진단을 통한 예방 분야에서도 생성형 AI를 적극적으로 활용하고 있다.

이글루코퍼레이션 하이브리드 AI 탐지모델 서비스 ‘에어(AiR)’

공격자들도 AI 활용에 적극적이다

공격자들 또한 AI 사용에 적극적이다. 세계 최대 AI 개발 플랫폼 허깅페이스(Hugging Face)에서 악성코드가 숨겨진 AI와 기계학습(ML) 모델이 100개 이상 발견되었다. 해당 AI 모델을 사용할 경우 시스템 제어권을 모두 빼앗기는 등 치명적인 결과를 초래할 수 있다. 해커들은 LLM에 악성코드를 숨겨 배포하는 일명 트로이 목마 공격으로 국가 및 기업을 위협하고 있다.

허깅페이스 플랫폼에서 발견된 악성코드가 포함된 AI모델 (출처: JFlog)

공격자가 생성형 AI를 이용해 멀웨어를 만든다면, 보안 업계는 이를 방어하는 규칙을 만든다. 이는 마치 창과 방패의 싸움과같이 아주 치열하다. 결국 생성형 AI를 악용한 공격에 대응하기 위해서는 생성형 AI 기술이 필요하다. 보안 업계에서는 이미 이를 적극적으로 도입하고 있으며, 앞으로도 이러한 추세가 지속될 것으로 보인다. 따라서 보안 전문가들은 생성형 AI 기술의 발전을 주시하고, 이를 활용할 수 있는 방안을 모색해야 할 것이다.

보안 운영 현장에서의 AI

그럼, 보안 운영 현장에서는 어떨까? 보안관제 업무는 사이버 보안 위협과 취약점을 실시간으로 감시, 분석, 대응하는 과정의 반복이다. 이 과정은 조직의 네트워크, 시스템, 애플리케이션 등 IT 인프라 전반에 대한 지속적인 모니터링이 포함되며, 보안 사고를 예방하고, 만약 보안사고가 발생할 경우 신속하게 대처하여 피해를 최소화하는 것을 목표로 한다.

보안관제는 과거 보안관제 요원이 직접 대응하는 사람 중심에서, 보안관제방법론과 같은 프로세스 중심, 그리고 AI가 결합한 자동화 시스템 중심으로 변하고 있다.

AI 도입으로 강화된 보안관제 기능 (출처 : 이글루코퍼레이션)

그렇다면 AI가 보안 전문가의 업무를 대체할 수 있을까? 정보보호 비영리 단체 ISC2의 연구에 따르면 1100명 이상의 보안 전문가를 대상으로 한 설문에서 응답자 중 88%가 ‘AI가 자신의 업무에 큰 영향을 미칠 것’이라고 답변했다. AI로 보안 전문가의 업무 효율성을 향상시키는 반면 내 직업의 일부를 쓸모없게 만들 수도 있을 것이라고 답변했다. 이러한 답변으로 볼 때 AI에 대한 기대감과 우려를 동시에 느끼고 있다는 점을 알 수 있다.

하지만 중요한 것은 AI가 보안 전문가의 업무를 어디까지 대체할 수 있느냐가 아닐까? AI는 이미 사고대응 시간 단축 등과 같은 성과를 보이고 있다. 가까운 미래에 인간은 컴플라이언스 이슈, 전략적 계획 수립 등과 같은 전문가의 판단이 반드시 요구되는 중요도 높은 업무에 집중하게 될 것이다.

그러나 아직 보안 현장에서는 AI와 보안 전문가 사이에 큰 차이가 존재한다. AI는 데이터 분석 및 자동화와 같은 보안 업무를 지원하는 도구인 반면, 보안 전문가는 이 도구를 활용해 보안 전략을 수립하고 실행하는 역할을 맡고 있다. 또한 AI는 보안 전문가에게 중요한 정보를 제공해 전문가가 더 전략적인 업무에 집중할 수 있도록 돕는 조력자 역할을 수행한다. 다시 말해 인간은 복잡한 상황 속에서 AI의 결과를 해석하고 문제를 해결하는 최종 결정자이며, AI는 이를 뒷받침하는 도구이자 조력자이다.

실제 보안 운영 현장에서 원하는 것은 보안 어시스턴트, 보안 코파일럿, 보안 어드바이저와 같이 보안 전문가의 업무를 지원하는 조력자 역할이다. AI를 통해 방대한 양의 데이터를 신속하게 분석하고, 공격자의 위협을 빠르게 감지하여 업무의 정확성과 보안성을 높이는 것이 중요할 것이다.

다음 기고에서는 하이브리드(분류형·설명형·생성형) AI 탐지모델 서비스를 통해 보안 분석가가 더욱 정확하고 빠른 의사결정을 내릴 수 있도록 돕는 AI 조력자에 대해 알아보도록 하겠다.

글. 정일옥 이글루코퍼레이션 기술위원

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다