파수 연례행사 FDI2025…출시 1년 된 ELLM 성과 공유
"상거래 AI 서비스 프로토콜 MCP 확대…ELLM으로 안전한 통신"
22일 서울 영등포구 여의도에서 열린 파수 연례 고객행사 'FDI 205'에서 윤경구 파수 개발1본부장(전무이사)가 기업용 언어모델 'ELLM'의 발전 방향을 설명하는 모습이다./뉴스1 ⓒ News1 윤주영 기자
(서울=뉴스1) 윤주영 기자 = 보안기업 파수(150900)가 인공지능(AI)으로 업을 확장하면서 지난해 기업용 소형언어모델 'ELLM'을 출시했다.
출시 1년이 지난 지금 ELLM은 영화 예매 등 작업을 직접 수행하는 '에이전틱 AI' 간의 안전한 연결을 지원해 주는 방향으로 고도화하고 있다.
22일 서울 영등포구 여의도에서 진행된 파수 연례행사 'FDI2025'에서 윤경구 파수 개발1본부장은 이런 내용을 공유했다.
윤 본부장에 따르면 현재 언어모델은 주로 내부 데이터 등을 벡터화시킨 데이터베이스(DB)에서 사용자 요청과 부합하는 내용을 호출한다. 이른바 '검색증강생성'(RAG)이다.
하지만 앞으로는 '모델 컨텍스트 프로토콜'(MCP)에 기반한 호출이 증가할 거란 게 그의 분석이다. MCP는 AI 모델이 다양한 데이터 소스와 실시간으로 정보를 주고받을 수 있게 도와주는 프로토콜이다.
윤 본부장은 "MPC의 발전으로 거대언어모델(LLM)은 사용자가 요청하면 답변을 넘어 여행 예약 등 현실에서의 작업을 대신 수행해 줄 수 있게 됐다. 이른바 에이전틱 AI"라며 "이 때문에 LLM 벤더들이 MCP를 준수하기 시작했고, AI와 상관없던 숙박·모빌리티·쇼핑 등 업계도 서비스 확장을 위해 MCP 기반 서버를 개방하는 중"이라고 설명했다.
이에 따라 MCP를 준수하는 다양한 에이전틱 AI 간 소통이 증가할 전망이다.
이때 에이전틱 AI의 환각(할루시네이션)이 문제다. 과거 언어모델의 환각이 지닌 의미가 '엉뚱하거나 불쾌한 답변' 수준이었다면, 에이전틱 AI의 환각은 예매 등 상거래상의 사고로 이어진다.
또 에이전틱 AI 간 통신에서 고객·기업 민감 데이터가 노출될 우려도 있다.
이를 해결하고자 파수는 ELLM 아키텍처 구성요소로 데이터 정제 기능을 갖춘 'ELLM CX'를 구현했다. ELLM CX에는 다양한 MCP 서버들이 조화롭게 통신할 수 있는 근거가 되는 MCP 호스트 모듈이 들어있다.
또 ELLM에는 입력 데이터를 정제하는 모듈인 'DLP'가 탑재됐다. 에이전틱 AI 운용 시 데이터 손실 등 사고를 입력 차원에서 예방하는 역할이다.
아울러 문제를 일으킬 수 있는 출력을 차단하는 모듈 'DHC'도 출시될 예정이다.
윤 본부장은 "ELLM은 현재 구글 젬마3 120억개 파라미터(매개변수) 모델을 사용 중이다. 가장 한국어 능력이 우수해 사용성이 매끄럽다"며 "모델이 요청 수행 전 추론부터 먼저 하는 '리즈닝' 학습을 시켜 글쓰기 능력을 키우고 있다. 또 문서 속 표를 잘 이해할 수 있게 만드는 등의 성능 개선에 주력하는 중"이라고 덧붙였다.
legomaster@news1.kr
Copyright © 뉴스1. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.