- 생성형 AI는 급속도로 발전하는 기술로, 많은 오해와 잘못된 정보가 존재함
- 기업과 정부가 위험하거나 비효율적인 AI 제품을 출시하며, 제대로 이해하지 못한 채 AI를 잘못 적용하는 사례가 발생함
- AI 발전을 올바르게 이해하려면 공식 소스와 신뢰할 만한 전문가의 의견을 직접 참고하는 것이 중요함
-
AI 연구소 공식 발표·블로그·연구 논문, 신뢰받는 실무자들의 블로그와 글을 꾸준히 확인하는 방법이 제안됨
-
AI의 빠른 변화를 따라가기 위한 다양한 정보 출처와 선별적 정보 습득 방법이 공유됨
서론: AI의 오해와 정보 오염
- 생성형 AI는 필자의 일생에서 가장 빠르게 발전하는 기술임
- 하지만 AI에 대한 오해 역시 만연하며, 정보 환경 자체가 매우 혼란스러운 상황임
- 관련 기술을 충분히 이해하지 못한 기업, 정부, 혹은 사람들이 오용하거나 심각한 피해를 초래하는 사례가 실제로 발생함
- AI를 과소평가하거나(“곧 사라질 유행” 취급) 과대평가(“프로그래머가 더 이상 필요없음”)하는 양극단 오해가 존재함
-
올바른 기술 이해 부족이 이런 오해의 근원임
AI 정보 습득의 접근법
- AI 관련 정보를 올바르게 이해하는 일은 생각보다 쉽지 않음
- 왜곡된 정보, 과장 혹은 억압된 담론이 일상적으로 노출되는 환경임
- 의도적이고 체계적으로 정보를 선별하지 않으면 오류, 과장, 왜곡에 쉽게 노출될 위험이 있음
- 필자는 균형 잡힌 정보 파이프라인을 구축하여 도움을 받고 있으며, 이를 초심자에게 좋은 시작점으로 추천함
정보 습득의 일반 원칙
-
원천 자료와 가까운 정보를 참고하는 것이 중요함
- AI 연구소의 공식 발표나 주요 인물의 의견을 1차 소스로 확인해야 함
- 2차, 3차 보도를 신뢰하지 않는 자세 필요
-
신뢰할 수 있는 전문가의 코멘트를 적극적으로 찾아 참고해야 함
추천 정보 출발점
Simon Willison’s Blog
- 기술자에게 최고의 출발점으로 추천되는 블로그
- AI 최신 능력, 애플리케이션 레이어 활용사례, 보안/윤리 논의를 폭넓게 다룸
-
Django, Datasette 창시자로도 유명함
- 예시: “The Lethal Trifecta”, “LLMs in 2024”
AI 연구소 내부자 및 동영상 강의
- OpenAI 창립 멤버이자 Tesla AI 총괄 디렉터의 LLM 내부 구조 설명 영상이 초심자에게도 유용함
- AI 성능 해설, 내부 작동 방식 해설, 문화적 영향 및 AI가 미치는 사회적 변화 관찰 포함
- “Deep Dive into LLMs like ChatGPT”, “How I Use LLMs” 등을 참고하면 도움이 됨
Every’s Chain of Thought
-
Dan Shipper(Every 공동창업자)가 집필하며 최신 AI 모델 실험기, 실용적 활용법을 다룸
-
일상 업무 적용과 벤치마크 외의 실제 모델 경험을 제공함
공식 AI 연구소 소식과 자료
-
OpenAI, Google DeepMind, Anthropic, DeepSeek, Meta AI, xAI, Qwen 등 주요 연구소의 공식 발표에는 유용한 정보가 다수 포함됨
- 참고 항목:
- 새 모델의 공지 블로그 글
-
엔지니어링 블로그, 가이드, 요리책(큐크북)
- 시스템/모델 카드(컨텍스트 크기, 벤치마크, 안전성 테스트 등 상세 정보)
- 논문 및 연구 보고서
- 현장에서 직접 AI를 적용한 자신만의 경험과 데이터가 가장 중요한 자료가 됨
-
소규모 연구소(Nous Research, Allen AI, Prime Intellect, Pleias, Cohere, Goodfire 등)도 기술적 깊이가 있고, frontier 연구소와는 다른 시각을 제공함
신뢰할 만한 AI 실무자
- 오픈소스 도구 제작, AI 엔지니어링 실무 경험 보유 전문가들의 정보가 공식 가이드보다 실질적으로 도움이 되는 경우가 많음
대표 추천 인물 및 블로그
- Hamel Husain: evals, 라이브러리 활용, 지속적 개선 관련 인사이트 제공
- Shreya Shankar: 실무 경험 공유
- Jason Liu: RAG, evals, 컨설팅 가이드 및 RAG 실전 적용 사례 소개
- Eugene Yan: 경험 공유
- Applied-LLMs: LLM 실전 개발 사례 아카이브
- Chip Huyen, Kwindla Hultman Kramer, Han Chung Lee, Jo Kristian Bergum, David Crawshaw, Alexander Doria / Pierre Carl-Langlais, Nathan Lambert, Ethan Mollick, Arvind Narayanan 및 Sayash Kapoor 등 다양한 전문가의 블로그와 뉴스레터 존재
소셜 미디어 및 뉴스레터 활용
-
Twitter(X) 는 AI 실시간 담론이 모이는 유일한 대규모 플랫폼임
- 논쟁적이거나 유해한 측면도 있지만 올바르게 사용하면 최적의 정보원을 확보 가능함
-
Latent Space(swyx 운영) 뉴스레터는 트위터를 대체할 수 있는 산업 동향 및 주요 소식 요약 제공
-
AI 최신 뉴스 아카이브도 비교적 편리하게 소식을 확인할 수 있음
-
Dwarkesh Patel: AI 전문가 인터뷰 중심의 팟캐스트 운영
심층 논의와 포럼
LessWrong / AI Alignment Forum
- AI 정렬, 거버넌스, 안전성 논의가 아주 깊이 있게 이루어지는 포럼
- 트위터 등 주류에서는 잘 다루지 않는 고난이도 논의가 많이 나옴
- 예시: “Claude plays Pokémon breakdown”, “The Waluigi Effect”
개인 백과사전식 저작
- 대량의 AI 관련 글과 LLM 스케일링 등 예측적 통찰이 담긴 글들을 제공
- 주목할 만한 아카이브와 “You could have invented transformers” 튜토리얼 제공
Prompt 연구자 및 Latent Space 탐험자
- 새로운 prompt 기법 및 잠재 공간 실험자들의 글도 탐색 가치가 있음
정보 습득 실전 방법
- 모든 소스를 완벽하게 챙길 필요 없이 트위터 피드 신문 읽듯이 접근하는 것이 실천적 방법임
- 흥미로운 글을 발견하면 해당 저자를 팔로우하고, 그의 다른 작업도 챙겨보는 식의 확장적 탐독도 추천됨
- 과거 음악 탐색과 유사한 정보 탐색 방식임
- 지적 탐색의 재미로 접근하면 의무감이 아닌 즐거움이 될 수 있음
결론 및 추천 리스트
- 제공된 트위터/X 리스트를 통해 위의 전문가와 실무자를 한 번에 팔로우 가능함
- 곧 RSS 포맷의 리스트도 추가할 예정임
트위터 리스트 바로가기