저는 지난 몇개월동안 AI 페르소나 공유를 하는 커뮤니티 플랫폼 및 페르소나 표준을 만들어왔습니다.
여기에 제가 만들어온 것을 공유해 봅니다.
문제제기: AI 에이전트의 "정체성"을 어떻게 정의하고, 안전하게 지킬 수 있을까요?
Abliterated(탈옥) LLM이 등장하면서 시스템 프롬프트만으로
에이전트 행동을 제어하는 건 한계가 명확해졌습니다.
Soul Spec은 OpenClaw의 페르소나 관리와 버전 관리 고민에서 시작했습니다.
공유 가능한 포터블 포맷으로 발전했고,
LLM 기반 로봇에 페르소나를 적용할 때
아시모프의 로봇 3원칙을 어떻게 구현할까로 확장했습니다.
에이전트의 정체성과 안전 규칙을 구조화된 파일로 분리하는 오픈 표준입니다.(v0.3,v0.4,v0.5 버전별 특징과 추가 되는 점이 있습니다.)
현재는 Claude Code, Hermes Agent, Windsurf, Cursor등을 지원 하도록 배포되는 cli 에 기능 추가가 되어 있습니다.
구조:
- SOUL.md: 성격, 말투, 사고방식 (누구인가)
- IDENTITY.md: 이름, 역할, 맥락 (무엇인가)
- safety.laws: 절대 위반 불가 규칙 (로봇 3원칙의 현대판, v0.5에서 확장됨)
관련 연구 논문:
📄 아시모프의 로봇3원칙 → Soul Spec: 안전 법칙의 실제 구현
doi.org/10.5281/zenodo.18815277
블로그: blog.clawsouls.ai/posts/asimov-safety-laws
데모 영상: https://youtu.be/M-mPoXMufpY
📄 Abliterated LLM에서 페르소나가 안전성을 높일 수 있는가?
doi.org/10.5281/zenodo.19145303
블로그: blog.clawsouls.ai/posts/persona-safety-abliterated-llms
📄 Cross-Model Persona Fidelity: LLM을 바꿔도 에이전트는 같은 "그"인가?
doi.org/10.5281/zenodo.18813405
블로그: blog.clawsouls.ai/posts/cross-model-persona-fidelity
📄 경험적 기억이 에이전트 온보딩을 바꾼다
doi.org/10.5281/zenodo.18798227
블로그: blog.clawsouls.ai/posts/experiential-memory-paper
레지스트리에 페르소나를 등록할때 SoulScan이라는 정적 분석기가 53개 패턴으로
프롬프트 인젝션, 권한 탈취, 데이터 유출 시도를 사전 검증하여 점수를 매깁니다.
Soul Spec은 에이전트 "정체성과 안전"의 표준을 만들고 있습니다.
ClawSouls Registry에서 검증된 페르소나를 공유하고 있는데,
페르소나 스펙과 레지스트리가 Community Driven 으로 운영되는 것이 저의 바램입니다. 하지만 솔직히 아직 커뮤니티가 작습니다.
혼자서 표준을 만드는 건 의미가 없으니,
스펙이나 연구에 대한 피드백을 구합니다.
스펙: https://soulspec.org
레지스트리: https://clawsouls.ai
논문 전체: https://clawsouls.ai/research
사용메뉴얼: https://docs.clawsouls.ai
GitHub: https://github.com/clawsouls

2 hours ago
1







English (US) ·