인터넷 연결 안돼도 AI 작동…구글 '젬마4' 출격

6 hours ago 1

터보퀀트로 메모리 크기를 획기적으로 줄여 글로벌 반도체 시장에 충격을 줬던 구글이 이번엔 작은 크기에도 최정상급 성능을 내는 인공지능(AI) 모델을 내놨다. 중국 AI모델보다 크기를 20분의 1로 줄이고 비슷한 성능을 갖춘 ‘젬마4’다. 노트북·스마트폰 등에 탑재돼 인터넷 없이도 AI를 작동시키는 ‘온디바이스(기기 내) AI’ 시장을 미리 대비하고 있다는 분석이다.

◇크기 획기적 줄인 AI모델

인터넷 연결 안돼도 AI 작동…구글 '젬마4' 출격

구글은 2일(현지시간) AI모델 젬마4를 4가지 크기로 출시했다. 모델의 크기는 각각 20억·40억·260억·310억 매개변수(파라미터)로 구성됐다. 파라미터는 ‘뇌’ 역할을 하는 AI모델의 ‘뉴런’에 해당하는 최소 구성 단위다. 챗GPT 제미나이 등 첨단 AI모델의 파라미터 갯수는 1조개가 넘는다. 파라미터가 많을수록 차지하는 실력은 좋아지는데, 용량이 커지고 전력 소모도 크다.

젬마4의 성능은 전작인 젬마3보다 크게 향상됐다. 박사급 수준의 과학 질문 198개로 이뤄진 ‘GPQA 다이아몬드’ 테스트에서 젬마4(310억파라미터 기준)는 84.3%의 정답률을 기록했다. 젬마3(270억파라미터 기준) 정답률 42.4%의 두 배로 뛰었으며, 제미나이3.1 프로(94.3%) 수준에 육박했다. 1만2000개 질문을 통해 추론능력을 측정하는 MMMU프로 테스트에선 젬마4가 76.9%를 맞혀, 제미나이3.1프로(80.5%)와 비슷한 성적을 거뒀다. 젬마3의 정답률은 47.9%였다.

중국 모델과 비교해서는 압도적인 효율성을 자랑한다. ‘ELO 점수(AI 모델 간 답변 대결로 매긴 성능 지표)’에서 젬마4는 1452점을 얻어 중국 지푸AI의 GLM-5(1453), 키미 K2.5(1456)와 비슷한 수준이었지만, GLM-5의 파라미터는 7540억개, K2.5는 1조1000억개로 각각 젬마4의 24배, 35배나 컸다.

◇온디바이스 AI 선점 가능해져

그간 대형 AI 모델은 너무 커서 스마트폰이나 노트북에 넣지 못했다. 사용자의 질문을 데이터센터에 보내 처리한 뒤 답변이 다시 기기로 보내야 했다. 인터넷이 항상 연결돼야 하는 이유다.

하지만 구글이 크기를 획기적으로 줄이면서 이제 스마트폰 등에 성능이 좋은 AI모델을 넣을 수 있게 됐다. 20억파라미터의 젬마4의 크기는 10.3기가바이트(GB)에 불과했고, 가장 많은 310억파라미터 모델도 63GB가 안 된다. 구글은 “파라미터가 20억·40억개인 모델은 휴대폰 등 기기에서 완전히 오프라인으로 실행된다”고 밝혔다.

구글은 260억·310억파라미터 모델이 코딩과 AI에이전트 업무에 최적화됐다고 강조했다. 사용자의 질문에 답변하는 챗봇과 달리 AI에이전트는 자율적으로 업무를 수행한다.

구글은 지난달 24일(현지시간) 공개한 자사의 메모리 압축기술인 터보퀀트를 이용하면 젬마4를 애플 기기 등에서 효과적으로 작동시킬 수 있다고 이날 설명했다. 크기를 줄인 AI모델을 기기에 넣고, 이를 구동할 땐 또 메모리 반도체내 캐시를 6배 이상 압축하면 온디바이스 AI 시장에서 구글의 기술만으로도 효율성을 극대화할 수 있다는 얘기다.

구글은 이날 젬마4의 모델을 개발자 커뮤니티인 허깅페이스, 캐글 등에 공개했다. 그간 구글·오픈AI·앤스로픽 등 미 AI모델 개발사는 자사 첨단 모델을 폐쇄형으로 내놨다. 빈자리를 딥시크를 필두로 한 중국 개방형 AI 모델이 메웠다. 실리콘밸리 개발자들도 구글·오픈AI 등의 비싼 AI모델을 쓰기보다는 보안상 우려가 있더라도 딥시크 모델을 개량해 사용하는 사례가 많았다.

구글이 젬마4를 통해 개방형 AI 모델 시장의 주도권을 다시 가져올 수 있다는 분석이 나온다. 구글은 “젬마1 출시 후 개발자들이 4억회 이상 젬마를 다운로드했고 10만개 이상의 변형된 모델을 만들었다”며 “혁신가들이 무엇을 필요로 하는지 귀 기울인 결과가 바로 젬마4”라고 밝혔다.

실리콘밸리=김인엽 특파원 inside@hankyung.com

Read Entire Article