콕스웨이브 'AI 안전성 취약점 발견 논문', 글로벌 학회 채택

1 month ago 5
콕스웨이브 논문 참여 연구진. 왼쪽부터 김상엽 AI 팀장, 이엽 이사, 김동언 이사. 회사 제공콕스웨이브 논문 참여 연구진. 왼쪽부터 김상엽 AI 팀장, 이엽 이사, 김동언 이사. 회사 제공

인공지능(AI) 제품 분석기업 콕스웨이브의 거대언어모델(LLM) 관련 취약점 발견 연구 논문이 국제자연어처리학회(ACL) 2025 메인 콘퍼런스에 채택됐다.

논문은 대화형 AI 모델의 장문 맥락 처리 시 발생하는 구조적 보안 취약점 발견 연구다. 과열되는 AI 기술 경쟁 속 새로운 관점을 제시했다는 혁신성을 인정받아 ACL 2025 '윤리·편향성·공정성' 트랙에 선정됐다.

ACL은 자연어처리와 컴퓨터 언어학 분야 글로벌 학술대회로 뉴립스, 국제머신러닝학회(ICML)와 함께 세계적인 학회로 꼽힌다.

콕스웨이브는 얼라인 운영 과정에서 LLM의 긴 맥락 처리 시 발생하는 보안 취약점을 발견, AI 안전성·정렬 분야 전문가인 구글리서치 출신 이기민 KAIST 교수와 협업해 체계적 학술연구로 발전시켰다.

연구를 통해 '맥락 길이 확장'이 복잡한 문서 분석, 장편 소설 요약, 대화형 AI 서비스 등 성능 혁신과 향상을 가능하게 하지만 예상치 못한 안전성 리스크를 동반한다는 점을 밝혀냈다.

최대 12만8000개 토큰을 활용한 광범위한 실험으로 기존 AI 안전 매커니즘의 한계를 발견했다. '다중샷 탈옥' 기법으로 LLM 취약점이 입력값의 정교함이나 유해성과 무관하게 대화 길이에 따라 리스크가 발생할 수 있다는 것을 입증한 것이다.

콕스웨이브는 연구 성과를 바탕으로 얼라인 플랫폼 기능 고도화와 후속 연구를 지속할 예정이다. 김주원 콕스웨이브 대표는 “ACL 논문 채택은 단순한 생성형 AI 오류 탐지를 넘어 위험 요소의 근본 원인을 분석하고 선제 대응할 수 있는 콕스웨이브의 기술력을 인정 받은 결과”라고 말했다.

박종진 기자 truth@etnews.com

Read Entire Article