[인터뷰] 솔트웨어 “공공기관도 보안 걱정 없이 챗GPT 쓰세요”
공공, 금융, 헬스케어, 대기업 등 민감한 정보를 다루거나 보안을 중시하는 조직은 아무래도 챗GPT 사용이 껄끄럽다. 평소에 흔히 쓰는 편리한 생성형 인공지능(AI) 도구지만, 내부 기밀이나 개인정보가 혹시나 외부로 유출될 수 있다는 위험 때문이다.
솔트웨어가 올해 9월 출시한 ‘사피가디언(Sapie-Guardian)’은 공공기관에서 챗GPT를 사용해도 민감 정보 유출 걱정 없이 쓸 수 있는 보안 솔루션이다. AI 엔진 ‘사피LLM(Sapie-LLM)’을 탑재해, AI로 특정 키워드나 패턴 감지뿐 아니라 문맥과 내용을 고려하고 민감 정보 여부를 탐지한다.
사피가디언은 “어떻게 하면 사람들이 흔히 쓰는 상용 AI 서비스를 기업이나 공공기관에서도 자유롭게 사용할 수 있을까?”라는 고민에서 출발했다. 여러 고객사에서 ‘챗GPT’ 같은 상용 서비스로 업무 효율을 높이고 싶은데 보안 때문에 어려운 상황이라는 이야기를 듣게 됐다는 것. 솔트웨어는 이러한 수요를 충족시킬 수 있다는 생각에 솔루션 개발에 뛰어들었고, ‘사피가디언’을 새롭게 선보였다.
조재윤 솔트웨어 기술연구소 연구원과 맹인호 솔트웨어 AI서비스본부 영업팀장은 <바이라인네트워크>와 진행한 인터뷰에서 “다양한 보안 솔루션이 외국이나 한국에도 존재하지만, 기존 솔루션들은 특정 키워드나 패턴만 탐지할 수 있다”며 “사피가디언은 AI를 탑재해 키워드나 패턴 감지를 넘어 문맥과 내용을 고려해 회사의 기밀문서 유출을 막고, 관리자 페이지에서 회사 정책에 맞게 규제 대상이나 규정을 조정할 수 있는 보안 솔루션”이라고 소개했다.
사피가디언은 어떻게 ‘보안’ 걱정을 덜었나
기본적으로 사피가디언은 기업의 프라이빗 네트워크와 외부 인터넷이 연결되는 프록시 구간에서 동작한다. 기업 내부에서 챗GPT와 같은 AI에 전달하는 사용자의 요청(쿼리)을 사전 검토한다. 만약 그 요청에서 유출될 위험이 있다고 판단되면, ‘차단되었다’는 경고 메시지와 함께 해당 요청이 외부로 넘어가지 않는다. 마치 악성 바이러스가 감지되었을 때만 알람을 보내는 백신 프로그램과 비슷하다.
그런데 이런 ‘민감 정보’의 기준을 어떻게 판단할까? 보안 관리자가 AI나 IT 전문가가 아니라면 더욱 판단이 어려울 수 있다. 이에 조재윤 연구원은 “접근성을 위해서 학습이 필요한 데이터나 환경이라면 저희가 직접 데이터를 학습시켜 주기도 하고, 학습이 필요 없게 기본적으로 학습된 모델이 탑재된다”고 설명했다.
주민등록번호나 전화번호, 주소와 같은 개인정보는 기본적으로 탐지가 가능하다. 여기에 기업 특성에 맞는 데이터 학습이 들어간다. 예를 들어, 자동차와 같은 특정 분야 기업이라면 그 분야에 맞는 데이터를 학습한다. 도입 즉시 활용할 수 있도록 개인정보보호법이나 정보공개법 등과 같은 국내 법규정에 맞춰 커스터마이징되어 있는 것도 특징이다. 조직의 정책에 따라 유출이 금지되어 있는 내부 정보나 기밀정보도 포함한다.

하지만 데이터 자체를 얻기 힘든 공공기관 등에는 어떻게 기밀 데이터를 학습시킬 수 있었을까? 방법은 두 가지다. 기밀 정보를 변형시켜서 학습하는 방법과 AI로 생성한 데이터를 통한 학습이다. 맹인호 팀장은 “후자는 AI 모델이 생성한 데이터를 갖고 사람이 한 번 검증을 해서 데이터의 유효성을 판단해 학습하는 방식”이라며 “사피가디언의 (차단) 정확도는 97~95% 정도이며, 실제 솔루션 도입 시에는 내부 데이터에 맞게 최적화하는 단계가 있어 이와 유사한 수준으로 나온다”고 덧붙였다. 현재 수치는 실제 사용에 문제없는 수준이지만, 보안 솔루션인 점을 고려해 정확도를 더 높이고 있다.
더 완벽한 보호를 원한다면 온프레미스(구축형)를 고려할 수 있다. 혹은 서비스형소프트웨어(SaaS) 형태로도 가능하다. 조 연구원은 “온프레미스 환경에서 회사 또는 공공기관 내부에서 아예 검증까지 하는 방식이 있고, 아마존웹서비스(AWS)에도 강점이 있는 회사라 커스터마이징을 통해 SaaS화 시킬 수 있는 장점이 있다”며 두 가지 버전 모두 가능하다는 설명이다.
솔루션을 개발하면서 가장 어려웠던 점은 ‘추상적인 보안 정책’이다. 기업에 따라서는 별도로 문서화되지 않은 경우도 있다. 조 연구원은 “이같은 상황에서 거대언어모델(LLM)이 활용할 수 있는 데이터로 구체화하는 부분이 가장 어려웠다”라며 “다행히 저희 회사 내에 보안 솔루션 사업을 하고 있는 조직도 있고, 보안 관련 업무를 수행했던 전문 인력도 있어 많은 조언을 얻을 수 있었다”고 이야기했다.
현장의 ‘페인포인트’ 놓치지 않은 개발 방향
실제로 솔루션을 내부에서 테스트해 봤을 때, 조 연구원은 “‘생각보다 불편하거나 거슬리지 않는다’라는 반응이 많았다”고 설명했다. 챗GPT를 쓴다고 해서 계속 경고창이 뜨지 않고, 꼭 필요한 상황에만 경고창이 떴다는 것. 따라서 큰 이질감을 느끼지 않았다는 평가다. 조 연구원은 “사실 사용자 입장에서는 알람 아이콘도 안 뜨는게 제일 좋고, 평소와 별 차이 없는 상태가 제일 좋은 상황”이라며 “그래서 따로 클라이언트를 설치하지 않는 방향으로 개발했다”고 덧붙였다.
혹시나 사피가디언을 쓰면, 답변 속도가 느려지진 않을까? 챗GPT도 어려운 질문에는 답이 느려지곤 하는데, 거기다 솔루션을 하나 더 끼얹는다면 당연히 더 느려질 것이라는 생각이 든다.
이같은 질문에 조 연구원은 “개발할 때 성능과 함께 속도도 중점을 뒀다”며 “대기업 보안 담당자들도 내부에서 비슷한 시도를 했지만 속도 이슈로 사용을 못 했다고 해, 이러한 페인포인트(고객이 겪는 불편함, 문제점)를 고려해 지금은 3초 안으로 탐지하고 있다”고 강조했다. 문서가 길어지거나 내용이 많다면 달라질 수 있지만, 최대한 빠르게 탐지할 수 있도록 신경 썼다는 설명이다.
현업에서 이야기되는 페인포인트를 놓치지 않은 덕에 사피가디언은 일부 성과를 보이고 있다. 솔트웨어 관계자는 “얼마 나온 지 안 된 솔루션임에도 불구하고, 대기업 측과 사피가디언 도입 건에 대해 지금 논의 중”이라고 밝혔다.
그만큼 현장에서 수요가 있었고, 이에 따라 빠르게 개발을 추진하게 됐다. 실제 사피가디언 솔루션 구현에는 약 3개월 정도 소요됐다. 짧은 시간 내에 개발된 만큼 계속 기능 고도화를 해나갈 계획이다. 기존 차단 문구에서 ‘개인정보가 감지되었습니다’ 같은 차단 사유를 조금 더 상세히 안내하는 방향으로 개선해 나갈 예정이다.

사피가디언은 챗GPT, 제미나이, 클로드와 같은 상용 AI 서비스뿐 아니라 기업 내부 자체 LLM과도 연결할 수 있다. 하지만 기업이 내부에 구축한 LLM은 이미 보안을 고려해 설계했을 텐데, 왜 사피가디언이 필요할까? 이에 대해 조 연구원은 “사피가디언은 보안 관리자 기능이 있고 로그를 확인할 수 있기 때문에, 어떤 내용이나 행동을 했는지 추적할 수 있다”는 점을 장점으로 꼽았다.
맹 팀장은 “내부 LLM은 외부로 나가는 보안 유출 위험이 없다고 해도, 직원이 약간 위험한 질문을 하거나 그런 직원을 찾을 수 있다”며 “LLM과 연결된 데이터베이스(DB)에 우회적으로 접근을 하거나, 혹은 LLM 자체를 공격하는 경우도 가능하다”고 설명했다. 그러면서 보안 사고는 예상치 못한 곳에서 나오기 때문에, 해당 기록이 증거 자료로 쓰일 수 있다고 덧붙였다.
내부 테스트에서 반응이 가장 좋았던 점 역시, 보안 규정을 시스템화하고 자동 적용할 수 있다는 점이다. 보안 담당자는 개인의 의지에 의존하지 않고, 감사에 대응할 수 있는 근거 자료를 확보하는 등 보안 업무 효율을 높일 수 있었다.
AI 에이전트 시대에 맞춘 보안 솔루션으로 진화
사피가디언의 다음 단계는 AI 에이전트 사용 시 보안 강화다. 현재 사피가디언 솔루션이 챗GPT와 같은 생성형 AI 대상이었다면, 이제는 에이전트 기반 AI가 그다음 대상이다. 조 연구원은 “요즘에 AI 에이전트가 각광받고 있고, 개발자들이 커서와 같은 AI 툴을 많이 사용하는 시대이기 때문에 그 부분도 보안을 신경 써야 할 것이라고 생각해 타깃으로 잡고 있다”고 말했다.
생성형 AI와는 다르게 AI 에이전트는 보안상 고려해야 하는 부분이 더 많다. 챗GPT는 외부와 연결되는 통로가 하나라면, AI 에이전트는 양방향으로 다니면서 상호작용한다. 내부망에 있는 에이전트가 다른 내부 에이전트와도 연결되기 때문이다. 즉, 사용자의 요청이 문제없었다고 하더라도, 에이전트가 다른 에이전트에게 요청해 가져온 데이터에 문제가 생길 수 있다. 다른 DB에 연결된 에이전트에서 가져온 데이터가 다른 사용자에게 넘어가는 등 보안 이슈가 발생할 수 있다.
조 연구원은 “결국 보안상 모두 확인을 해야 완벽하게 차단이 되는데, 솔루션이 도입된다면 각각의 통로에서 한 번 더 체크하고 통제할 수 있게 된다”며 “개발자 포럼을 보면 종종 커서가 마음대로 코드를 지워버리는 등 위험한 부분들이 있어서, 에이전트가 그런 명령을 내리기 전에 통제할 수 있는 보안 솔루션을 만들 예정”이라고 재차 강조했다.
결국 ‘통제권’이다. 조 연구원은 “바이브 코딩은 비개발자도 쓰는 사람이 많은데, 권한을 많이 부여하다 보니 에이전트가 하지 말아야 할 행동을 하는 것”이라며 “에이전트가 위험한 행동을 할 때 막는 기능을 만드는 것이 목표”라고 제시했다.
만약, 사용자가 SaaS, 네트워크나 DB에 대한 이해가 부족하다면, 에이전트에 과도한 권한 부여를 할 가능성이 있다. 이를 위해 솔트웨어는 초반에 컨설팅을 제공한다. 중요한 데이터가 무엇인지부터, 어떤 내용을 차단해야 하는지 모르는 경우에 방향성을 잡아준다.
지난해 한국정보보호산업협회(KISIA)의 국내 정보보호산업 실태조사에 따르면, 국내 정보보안 솔루션 시장은 약 4조2000억원 규모다. AI 관련 보안 솔루션 시장만 본다면, 그랜드뷰리서치(Grand View Research) 조사 결과 올해 기준 약 1조원 규모로 추산하고 있다.
조 연구원은 “향후 지속적인 성장이 예상되는 시장인 만큼, 솔트웨어도 사피가디언을 통해 큰 성장이 가능할 것이라 기대하고 있다”고 강조했다.
이어 맹 팀장은 “현재 단계에서는 상용 AI 서비스를 이용하고 싶은 기업들이 주요 타깃이지만, 여기서 더 발전해 내부에 서비스를 구축할 때 보안을 갖추고 싶은 기업까지 우리 고객층”이라며 “그만큼 시장이 더 넓어질 것으로 전망하고 있다”고 밝혔다.
글. 바이라인네트워크
<최가람 기자> ggchoi@byline.network

