- 오픈소스 로컬 AI 모델 실행·학습용 웹 UI로, 코드 작성 없이 모델을 훈련·실행·내보내기까지 지원
-
GGUF·safetensor 모델을 Mac, Windows, Linux에서 실행 가능하며, VRAM 70% 절감·2배 속도 향상을 제공
-
500개 이상 텍스트·비전·TTS·임베딩 모델을 지원하고, 데이터셋 자동 생성 및 No-code 학습 기능 포함
-
모델 비교(Model Arena), 데이터 레시피(Data Recipes), 실시간 학습 모니터링, 모델 내보내기 등 통합 기능 제공
- 완전 로컬·오프라인 실행을 보장하며, Apache 2.0 / AGPL-3.0 이중 라이선스로 공개된 베타 버전
Unsloth Studio 개요
-
Unsloth Studio는 로컬 환경에서 AI 모델을 실행·학습·내보내기 위한 오픈소스 무코드 웹 인터페이스
- Mac, Windows, Linux에서 GGUF 및 safetensor 모델 실행 지원
- 텍스트, 비전, 음성(TTS), 임베딩 모델 등 다양한 모델 유형 지원
-
VRAM 사용량 70% 절감, 2배 빠른 학습 속도, 정확도 손실 없음
-
로컬 실행 중심 설계로, 클라우드 연결 없이 완전 오프라인 동작
주요 기능
-
Run models locally
- GGUF 및 safetensor 모델을 검색·실행 가능
-
Self-healing tool, 웹 검색, 자동 추론 파라미터 튜닝, 코드 실행 기능 포함
-
멀티 GPU 추론 지원, llama.cpp 및 Hugging Face 기반
-
No-code training
- PDF, CSV, JSON, YAML 파일 업로드 후 즉시 학습 가능
-
LoRA, FP8, FFT, PT 최적화 커널로 500개 이상 모델 학습 지원
-
Qwen3.5, NVIDIA Nemotron 3 등 최신 LLM 파인튜닝 가능
- 멀티 GPU 학습 자동 지원
-
Data Recipes
- 문서를 그래프 노드 기반 워크플로로 변환해 사용 가능한 데이터셋 생성
-
NVIDIA DataDesigner 기반으로 문서를 자동 변환
-
Observability
- 학습 손실, 그래디언트 노름, GPU 사용률 등 실시간 모니터링
- 모바일 기기에서도 학습 진행 상황 확인 가능
-
Export / Save models
- 학습된 모델을 safetensors 또는 GGUF 형식으로 내보내기
- llama.cpp, vLLM, Ollama, LM Studio 등과 호환
- 학습 이력 저장 및 재실험 가능
-
Model Arena
- 두 모델(예: 기본 모델과 파인튜닝 모델)을 대화형 비교
- 순차적 추론 로딩으로 결과 차이 확인
설치 및 실행
-
운영체제 지원
- Windows, Linux, WSL, MacOS (Mac은 현재 Chat 기능만 지원)
-
NVIDIA GPU 기반 학습 지원 (RTX 30/40/50, Blackwell, DGX Spark 등)
-
AMD, Intel, Apple MLX 학습 지원 예정
-
Docker 이미지 제공 (unsloth/unsloth), Mac 호환성 개선 중
-
첫 설치 시 5~10분 소요, llama.cpp 바이너리 컴파일 필요
-
Google Colab 노트북 제공
- T4 GPU에서 최대 22B 파라미터 모델 학습 가능
- 설치 후 “Open Unsloth Studio” 클릭으로 UI 실행
일반 워크플로
- Studio 실행 → 모델 로드 → 데이터(PDF, CSV, JSONL) 가져오기
-
Data Recipes로 데이터 정제 및 확장 → 학습 시작
- 학습된 모델과 기본 모델을 비교 대화
- 결과를 로컬 환경에 저장 또는 내보내기
FAQ 요약
-
데이터 수집 없음: GPU 타입 등 최소 하드웨어 정보만 수집
-
기존 모델 재사용 가능: Hugging Face 등에서 다운로드한 GGUF 모델 사용 가능
-
OpenAI 호환 API: Data Recipes에서 지원, 추론 API는 곧 추가 예정
-
라이선스: Apache 2.0 + AGPL-3.0 이중 구조
-
지원 모델 범위: 텍스트, 멀티모달, TTS, 오디오, 임베딩, BERT 계열 모델
-
YAML 설정 파일로 사용자 정의 학습 구성 가능
-
모델 학습 없이도 UI 사용 가능, 단순 실행만으로도 작동
향후 계획 및 협력
-
멀티 GPU, Apple MLX, AMD, Intel 공식 지원 예정
-
NVIDIA와 협력해 멀티 GPU 환경 최적화 추진
- 현재 베타 버전으로, 향후 기능 개선 및 업데이트 예정
-
NVIDIA, Hugging Face, llama.cpp, PyTorch, open model labs의 기술 지원 기반 구축