-
CanIRun.ai는 사용자의 로컬 머신이 어떤 AI 모델을 실제로 실행할 수 있는지를 확인할 수 있는 웹 기반 도구
- 브라우저의 WebGPU API를 활용해 하드웨어 성능을 추정하며, 결과는 실제 사양과 다를 수 있음
- 모델별로 메모리 요구량, 토큰 처리 속도, 컨텍스트 길이, 실행 등급(S~F) 등을 표시
-
Qwen, Llama, Gemma, Mistral, DeepSeek, GPT-OSS 등 주요 오픈소스 및 상용 모델이 포함되어 있음
- 로컬 AI 실행 가능성을 빠르게 판단할 수 있어, 개발자와 연구자에게 유용한 참고 지표로 활용 가능
서비스 개요
-
CanIRun.ai는 로컬 환경에서 실행 가능한 AI 모델을 탐색할 수 있는 웹사이트
- 사용자는 자신의 브라우저에서 사이트를 열면, 시스템 성능에 기반해 실행 가능한 모델 목록을 확인 가능
- 결과는 WebGPU API를 통해 추정되며, 실제 하드웨어 성능과는 차이가 있을 수 있음
- 각 모델은 성능 등급(S~F) 으로 분류되어, 실행 가능성 및 효율성을 직관적으로 파악 가능
모델 등급 체계
- 등급은 S, A, B, C, D, F로 구분되며, S가 가장 원활한 실행을 의미
- 예: Qwen 3.5 0.8B, Llama 3.2 1B, Gemma 3 1B 등은 S(89/100) 으로 표시되어 원활히 실행 가능
- Qwen 2.5 Coder 1.5B, DeepSeek R1 1.5B 등은 A(83/100) 으로 평가
- Phi-3.5 Mini, Qwen 3 4B 등은 B(66/100) 으로 ‘적당히 실행 가능’ 수준
- Mistral 7B, Qwen 2.5 7B 등은 C(49/100) 으로 ‘간신히 구동 가능’
- Llama 3.1 8B, Qwen 3.5 9B 등은 D(29~33/100) 으로 ‘거의 실행 불가’
- 12B 이상 모델 대부분은 F(0/100) 으로 ‘너무 무거움’으로 표시
주요 모델 예시
-
소형 모델 (S~A 등급)
- Qwen 3.5 0.8B, Llama 3.2 1B, Gemma 3 1B 등은 엣지 디바이스용 초경량 모델
- TinyLlama 1.1B, Qwen 2.5 Coder 1.5B 등은 코딩 및 추론용 경량 모델
-
중형 모델 (B~C 등급)
- Phi-3.5 Mini, Qwen 3 4B, Gemma 3 4B 등은 일반 대화 및 멀티모달 작업에 적합
- Mistral 7B, Qwen 2.5 7B 등은 멀티링구얼 및 코딩 지원 기능 포함
-
대형 모델 (D~F 등급)
- Llama 3.1 8B, Qwen 3.5 9B, Phi-4 14B 등은 메모리 사용량이 높아 로컬 실행 어려움
- 30B 이상 모델(예: Qwen 3 30B-A3B, DeepSeek R1 Distill 32B 등)은 대부분 F 등급
데이터 출처 및 기술 기반
- 모델 데이터는 llama.cpp, Ollama, LM Studio에서 수집
- 사이트는 midudev가 제작했으며, 약 50 GB/s 처리 속도를 기반으로 동작
- 각 모델 페이지에는 메모리 사용률, 컨텍스트 길이, 토큰 속도, 아키텍처 유형(Dense/MoE) 등이 상세히 표시
활용 의의
- 로컬 환경에서 AI 모델을 직접 실행하려는 개발자, 연구자, 오픈소스 사용자에게 실질적인 참고 자료 제공
- GPU 성능 대비 모델 크기와 효율을 비교해, 적절한 모델 선택 및 배포 전략 수립에 도움
- 브라우저 기반으로 동작해 설치 없이 즉시 테스트 가능한 점이 특징