[인터뷰] “로펌의 역할이 달라진다” 디엘지가 AI센터를 연 까닭
하나의 상상을 해보자. 내가 어느 기업의 주요 경영진이다. 순간순간의 판단에 수십, 수백억원 돈이 오간다. 의사결정에 상당히 많은 것을 고려하는데, 마지막에는 항상 법에 위반되는 것은 없는지 검토해야 한다. 통상은 공정거래, 개인정보보호, 노동, 환경 등, 여러 영역에서 문제 소지는 없는지 법무팀이 리스크 관리를 한다. 그런데 만약, AI가 의사 결정 과정을 실시간 검토하고 조언 한다면?
법무법인 디엘지는 이런 일이 먼 미래가 아닐 거라고 생각한다. 그래서 로펌으로는 발빠르게 ‘AI센터’라는 걸 열었다. 센터장엔 이수화 박사가 앉았다. 서양사학을 공부했고, 인지과학을 전공한 이 센터장은 LG CNS에서 시스템 엔지니어로 일하며 법원행정처 부동산등기전산화 프로젝트를 수행했고, 영어교육 인공지능으로 공동창업했다가 대학에서 AI 융합을 연구한 독특한 이력의 소유자다.
“AI가 문장과 문장, 문단과 문단 사이의 맥락을 이해하고, 이를 다른 나라 언어로, 혹은 다른 지적 수준으로 설명해주는 단계가 됐습니다. 초거대언어모델(LLM)이 복잡한 법률적인 판단(decision-making)을 가능하게 하는 수준으로 올라온 것이죠.”
지난 11일 서울 강남에 위치한 디엘지 AI센터에서 이수화 센터장을 만났다. 그는 “10년 전만 해도 인공지능으로 챗봇이나 자연어처리 프로젝트를 하면 몇 년 간 수십억원 씩 시간과 돈만 날렸는데 이제는 진짜로 성과를 내는 AI를 만들 수 있다”며 웃었다. 특히, “방대한 텍스트 데이터 처리와 논리적 추론 능력이 요구되는 법률 영역에서는 AI의 효용성이 더욱 클 것”이라고도 강조했다.

디엘지는 왜 AI센터를 열었나
“AI로 사람들이 실시간 자신의 건강 상태를 알 수 있게 됐다고 가정해봅시다. 사람들이 건강해져 병원에 덜 오게 되면 그게 의사들한테 손해일까요?”
물론, 이렇게 물으면 대답은 “아니요”가 나오게 된다. 병원은 사람들이 건강을 유지해 오래 살 수 있도록 하는 ‘관리’의 영역에 무게를 둘 수 있다. 어쩌면 여기서 병원이 더 큰 돈을 벌 수도 있다. 법률 서비스도 마찬가지다.
“조원희 대표 변호사가 2017년에 회사(디엘지)를 만들면서 ‘클라이언트의 활동을 지켜보면서 예상되는 법률적 문제를 실시간으로 얘기해주는 게 어떨까’라는 아이디어를 냈었는데 그때는 AI의 성능이 이만큼 올라오질 못했어요.”
AI 기술이 충분히 올라오면 병원의 역할이 ‘치료’에서 ‘관리’로 옮겨갈 가능성이 높아지듯, 로펌의 역할도 마찬가지다. ‘의뢰인의 문제 해결’보다는, ‘문제가 일어날 가능성’을 차단하는 것이 로펌의 일이 될 수 있다. 이런 트렌드를 먼저 따라가려면 기술에 대한 깊은 이해가 있어야 하고, 기술도 선행적으로 연구해야 한다.
그 일을 AI센터가 맡는다는 것이 이수화 센터장의 이야기다. 마침, 기술도 충분히 올라왔다. 이 센터장은 LLM 기술이 기존 AI의 한계였던 ‘이해(Understanding)’의 영역을 상당 부분 해결했다고 진단했다. 과거 음성이나 이미지를 인식하는 ‘지각(Perception)’ 단계는 딥러닝으로 크게 발전했지만, 문맥을 파악하고 숨은 의미를 읽어내는(‘read between the lines’) 능력은 부족했는데, 최근에는 이 문제가 크게 해결된 것이다.
AI가 문맥을 이해하고, 추론하는 능력이 생기면서 법률 서비스도 진일보 할 수 있게 됐다. 이 센터장은 “AI 에이전트를 활용하면 고객의 상황 변화를 지속적으로 모니터링하며 예상되는 법률 리스크를 선제적으로 알리거나, 성장 단계에 맞는 맞춤형 법률 컨설팅, 나아가 관련 비즈니스 영역까지 연계한 새로운 서비스를 제공할 수 있다”고 전망했다.
이는 필요한 법률 지식을 자연스럽게 전달하는 ‘교육’의 효과도 가진다. 이 센터장은 “자신의 사례를 통해 법률 지식을 접하면 딱딱한 법률 교육보다 훨씬 효과적”이라며, “이는 고객과의 신뢰 관계를 구축하고 장기적인 파트너십을 가능하게 할 것”이라고 말했다.
DLG AI센터는 이러한 기술 발전을 바탕으로 법률 서비스의 혁신을 모색하고 있다고도 설명했다. 최근 LLM 모델들이 방대한 데이터를 한 번에 처리할 수 있도록 하는 능력이 비약적으로 커지면서, 과거처럼 데이터를 일일이 파인튜닝(미세조정)하지 않고도 로펌이나 기업이 보유한 특정 데이터를 즉석에서 참조해 답변을 생성하는 ‘AI 에이전트’ 구현이 쉬워졌기 때문에 가능한 일이다.
기술이 발전해도 인간은 모두 ‘독립 공화국’
기술이 발전해 실시간으로 위험을 알려주고, 법률적 소견도 딱딱 내놓으면 인간은 무얼하나.
이 센터장은 AI 기술의 발전 이면에 놓인 윤리적 문제와 ‘인간 소외’ 가능성에 대해서는 깊은 우려를 표했다. 그는 인지과학적 관점을 빌려 “인간의 머릿속은 저마다의 경험과 해석으로 세상을 받아들이는 ‘독립 공화국’과 같다”면서 AI가 외부 기준에 맞춰 인간을 평가하고 통제하는 도구로 쓰일 위험성을 경계해야 한다고 강조하기도 했다.
그러려면 AI를 ‘인간의 노동을 대체하는 효율성 높은 도구’로 바라봐야 한다고도 조언했다. 궁극적인 판단이나 가치 결정은 여전히 인간의 몫이라는 것. 아울러, ‘창의적’인 영역에서는 여전히 AI가 아닌 인간의 능력이 뛰어나다고도 말했다. 문제는, 이 창의적인 일을 인간이 할 수 있도록 얼마나 밀어줄 수 있느냐는 것이다. 챗GPT를 만든 오픈AI와 같은 회사는 이렇다할 프로덕트도 없는데도, 가능성을 인정받아 엄청난 돈을 투자 받으면서 AI혁명을 이끌었다.
“한국이 (오픈AI와 같은) 프로젝트를 법률 차원에서도 부스팅 되도록 밀어줘야 하고, 그 사람들의 생각을 존중해줘야 해요”
세상을 바꾸는 AI 기술을 우리가 따라가고, 그 결과를 올바르게 쓰기 위해서는 AI를 바라보는 태도와 지원 법안을 올바르게 가져가야 한다는 이야기다. 따라서, 최근 논의되는 AI 기본법 등 관련 법제화 움직임에 대해서는 신중한 접근을 주문했다.
그는 “AI 기술, 특히 인간의 지능과 관련된 영역은 사회 전반에 미치는 영향이 크고 복잡하기 때문에 단편적인 규제나 정치적 이해관계에 따른 접근은 위험하다”고 지적했다. 하나의 법을 잘못 만들면 이후 나오는 법들도 잇달아 잘못된 접근법을 가지게 될 것도 우려했다. “AI 기본법을 하나 잘못 만들면 다른 게 또 문제가 생길 가능성도 있다”는 것이다.
이 센터장은 AI와 관련된 법안에 대해 “법률, 기술, 인지과학, 사회학 등 다양한 분야의 전문가들이 참여해 깊이 있는 논의를 거쳐야 하며, 혁신을 저해하지 않으면서도 발생 가능한 위험을 최소화하는 균형점을 찾아야 한다”고 강조했다.
그는 마지막으로 “AI 시대에 법률가의 역할은 더욱 중요해질 것”이라면서 “기술을 이해하고 활용하는 능력을 넘어, 인간과 사회에 대한 깊은 이해를 바탕으로 AI 기술이 올바른 방향으로 나아갈 수 있도록 중심을 잡는 역할을 (법률가가) 해야 한다”고 당부했다.
글. 바이라인네트워크
<남혜현 기자> smilla@byline.network