-
대규모 언어 모델(LLM) 이 단순한 단어 예측을 넘어 실제 이해와 사고의 형태를 보인다는 논의 확산
- 신경과학자 도리스 차오(Doris Tsao) 는 머신러닝이 지난 100년간의 신경과학보다 지능의 본질을 더 많이 밝혀냈다고 평가
-
딥러닝과 신경망 구조가 인간의 뇌 작동 원리를 모방하며, ‘이해=압축’ 이라는 개념으로 설명됨
-
더글러스 호프스태터(Douglas Hofstadter) 와 펜티 카네르바(Pentti Kanerva) 의 연구가 LLM의 ‘seeing as’ 인지 구조와 연결됨
- 인간과 유사한 학습 효율, 경험, 의식의 부재 등 AI의 한계와 윤리적 위험이 여전히 핵심 과제로 남음
AI의 발전과 ‘이해’의 착각
- Anthropic의 CEO 다리오 아모데이(Dario Amodei) 는 2027년까지 노벨상 수상자보다 똑똑한 AI가 등장할 수 있다고 전망
- OpenAI의 샘 올트먼(Sam Altman) 도 “디지털 초지능(digital superintelligence)” 시대가 임박했다고 언급
- 그러나 일상 속 AI 도구들은 여전히 Clippy 수준의 보조 기능에 머물러 있음
- 예: Gmail의 “Thank and tell anecdote” 버튼이 존재하지 않는 여행 이야기를 생성
- 필자는 프로그래머로서 AI를 실제 업무에 활용하며 코드 분석·버그 탐지·기능 설계에서 인간 수준의 성과를 경험
- AI의 유창함과 맥락 이해 능력이 실제 사고인지 착각인지에 대한 의문 제기
신경과학과 인공지능의 교차점
- UC 버클리의 도리스 차오는 “AI가 인간 지능의 본질을 드러냈다”고 평가
- 그녀의 연구팀은 원숭이의 얼굴 인식 뉴런 패턴을 해독하고, 이를 기반으로 얼굴을 재구성
- 1980년대 루멜하트·힌튼·맥클렐랜드가 제안한 인공신경망과 경사하강법(gradient descent) 이 오늘날 딥러닝의 기초
-
다음 토큰 예측(next-token prediction) 을 통해 모델이 텍스트를 예측하며, 그 과정에서 ‘이해하는 듯한’ 행동을 보임
- 일부 과학자들은 이러한 과정이 두뇌의 사고 메커니즘과 유사하다고 평가
AI 이해에 대한 찬반 논쟁
-
테드 창(Ted Chiang) 은 ChatGPT를 “웹의 흐릿한 JPEG”이라 비유, 단순한 통계적 복제물로 평가
-
에밀리 벤더(Emily Bender) 와 알렉스 해나(Alex Hanna) 는 LLM을 “확률적 앵무새(stochastic parrots)”로 규정
- 반면 조너선 코언(Jonathan Cohen) 과 사무엘 거쉬먼(Samuel Gershman) 은 LLM이 인간 대뇌피질(neocortex) 의 일부 기능을 반영한다고 주장
-
에릭 바움(Eric Baum) 은 “이해는 압축이며, 압축은 이해”라 정의
- LLM이 방대한 데이터를 고도로 압축된 형태로 내재화함으로써 지능을 획득한다고 설명
‘생각’의 정의와 인지 구조
-
더글러스 호프스태터는 “인지란 인식(recognition)”이라 정의하며, ‘seeing as’ 개념을 사고의 핵심으로 제시
- 예: 글자 ‘A’를 다양한 형태로 인식하거나, 체스판의 패턴을 즉시 파악하는 능력
-
펜티 카네르바의 ‘희소 분산 기억(Sparse Distributed Memory)’ 이론은 고차원 공간에서의 기억 좌표 구조로 사고를 설명
- 이는 LLM의 벡터 공간 표현(word vector) 과 유사
- GPT-4 이후 호프스태터는 입장을 바꿔 “이 시스템들은 이질적 방식으로 사고한다”고 평가
AI 내부 구조와 신경과학적 접근
- Anthropic 연구진은 Claude 모델 내부의 ‘피처(feature)’ 활성 패턴을 분석, 개념별 뉴런 집합을 확인
- 예: ‘Golden Gate Bridge’ 피처를 강화하면 초콜릿 케이크 레시피에 ‘바다 안개’가 포함되는 현상
-
Transformer 구조가 카네르바의 이론과 수학적으로 유사하다는 지적
- MIT, 프린스턴 등 연구자들은 LLM을 인지 신경과학의 실험 모델로 활용
- 개별 인공 뉴런의 활동을 관찰·조작 가능, ‘사고의 풍동(wind tunnel)’ 역할 수행
한계와 과제
-
모델 크기 증가의 한계: GPT-5는 성능 향상이 미미해 AI 투자 거품 붕괴 우려
- 인간은 수백만 단어로 언어를 습득하지만, GPT-4는 수조 단어가 필요
- 인간의 학습은 체화·감정·지속적 갱신을 포함하지만, AI는 정적 모델에 머무름
-
비디오·물리적 추론 등 비언어적 영역에서 AI는 여전히 상식적 이해 부족
-
브렌든 레이크(Brenden Lake) 는 “AI는 인간처럼 학습하지 않는다”며 지속적 자기갱신 능력 부재를 지적
철학적·윤리적 함의
- 일부 신경과학자들은 AI가 인간 인지의 올바른 모델일 수 있다고 평가
- 프린스턴의 유리 하손(Uri Hasson) 은 “문제는 AI가 우리를 닮은 것이 아니라, 우리가 AI를 닮았다는 점”이라 언급
- 인간의 사고 메커니즘이 단순한 학습 규칙으로 재현된다면, 인간의 특수성이 약화될 가능성 제기
- 호프스태터는 “사고의 비밀이 너무 단순하다면, 인간성의 아름다움이 사라진다”며 두려움과 실망을 표현
- AI 연구가 핵물리학의 1930년대처럼 인류적 위험을 내포할 수 있다는 경고로 마무리됨