올해 사이버 위협 화두는 ‘생성AI’…모델 겨냥한 공격까지 등장?

올해는 인공지능(AI)이 사이버 위협의 뿌리로 작용할 전망이다. 생성AI를 도구로 악성코드를 만들어 더 쉬운 해킹 시도가 늘어나는 고전적 수법을 넘어 AI 서비스 활용 자체를 노리는 공격도 만연할 것으로 보인다. 정치적 목적을 가진 ‘핵티비즘(Hacktivizm)’이 증가할 거라는 분석도 나온다.

2일 보안 업계에 따르면 올해 사이버 보안 위협에는 AI가 핵심 도구로 작용할 것으로 보인다. 이스트시큐리티는 챗GPT 등 생성AI 기술의 발전으로 사이버 공격자들 역시 이 기술에 주목할 거라고 분석했다. 지난해가 해커들이 생성AI 기술을 습득한 시기였다면 올해는 실제 공격에 활용하는 원년이 될 것으로 봤다. 잉카인터넷 또한 해킹 기술 접근성을 높이는 요인으로 생성AI를 꼽았다.

생성AI가 위협적인 건 단순히 악성코드 생성을 넘어 쓰임새가 무궁무진해서다. 대표적인 게 ‘딥보이스(Deepvoice)’다. 생성 AI로 실제 사람의 목소리를 입히고 사실로 믿게 만들면서 피해를 키운다. 텍스트-음성변환(TTS) 기술을 기본으로 딥러닝을 통해 사람의 목소리를 학습시켜 피싱에 악용한다.

칸디드 뷔스트(Candid Wuest) 아크로니스 사이버 보호 리서치 부사장은 “민감한 정보를 빼내기 위해 창의적인 방법으로 AI를 사용하기 시작할 수도 있다. 피싱은 생성AI의 맏아들이 됐다”며 생성AI가 피싱 공격을 가속할 것으로 분석했다.

또한 텍스트 작성과 입력을 자동화해 다양한 버전의 스팸 메일을 보내는 고전적인 수법의 피싱도 더 기승을 부릴 수 있다. 이스트시큐리티는 “더 자연스러운 문체로 작성한 다국어 피싱메일의 기승을 부릴 것”이라며 “해커들만을 대상으로 서비스를 진행하는 생성형 AI도 다수 공개될 수도 있다”고 밝혔다.

이글루코퍼레이션도 보안 아키텍처를 우회하는 등 사이버 보안 체계를 무너뜨리는 데 생성AI가 활용될 수 있다고 경고했다. 특히 AI 활용 자체가 공격자들에겐 좋은 먹잇감이 되는데, AI 모델 학습 데이터를 탈취하거나 딥러닝 과정에 개입해 생성AI가 잘못된 결과를 내게 하는 것도 올해 이슈가 될 것으로 바라봤다.

(자료=이글루코퍼레이션)

일례로 데이터 인젝션(Injection)과 데이터 수정(Modification)은 새로운 위협으로 작용할 전망이다. AI 모델의 데이터 학습 시 잘못된 샘플을 끼워 넣는 데이터 인젝션은 학습 알고리즘에도 영향을 미쳐 AI 모델을 손상시킬 수 있다. 또한 훈련 데이터를 오염시키는 데이터 수정도 막아야 할 위협이다.

트렌드마이크로 또한 AI 모델이 민감 데이터 유출, 탐지 필터 우회, 커넥티드 카 방해와 같은 다양한 목적의 데이터 오염 공격 대상이 될 수 있다고 전망했다.

이와 같은 추세에서 사이버 공격의 식별·예방·탐지·대응·복구·관리를 수행하기 위한 보안관제센터(SOC)의 중요성은 올해 더 커질 전망이다. 이글루코퍼레이션은 “지능형 사이버 보안 위협을 분석하고 인프라 내에 존재하는 보안 취약점 및 관리 등을 수행할 수 있는 보안관제 기술로 가시성을 확보하는 것이 중요하다”고 강조했다.

더 강한 규제도 필요할 것으로 보인다. 아크로니스는 규제 당국의 조사가 강화되고 사이버 보안 부문에서 자체적으로 문제를 해결하려는 움직임이 나타날 수 있다고 전망했다.

한편 다수의 정치적 행사가 예정된 올해는 핵티비즘도 화두다. 이스트시큐리티는 미국을 포함한 70여개 국가의 선거 과정에서 결과 개입을 목적으로 하는 해킹 공격이 증가할 것으로 예상했다. 특히 우리나라도 4월에 총선을 앞둔 만큼 북한의 사이버 공작을 주의해야 한다는 게 이스트시큐리티의 조언이다.

글. 바이라인네트워크
<이진호 기자>jhlee26@byline.network

관련 글

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다