주요 댓글들 요약
1. AI가 작성한 PR은 부정확하고, 맥락을 이해하지 못한 채 단순히 '추측'만 반복
- 실제 PR 코드가 무엇을 하는지 이해 없이 변경을 제안함
- 반복적인 오류 수정 → 여전히 잘못된 코드 → 또 다른 오류 수정…의 끝없는 루프
- “수정했어요” → “아직도 틀렸어” → “이번엔 정말 고쳤어요”… 이 과정이 Junior Dev 패턴 같다는 의견도
2. 복잡한 문제 해결엔 오히려 더 많은 시간 소요
- 단순한 수정에는 도움이 되지만, 진짜 시간 아끼고 싶은 복잡한 문제엔 쓸모없음
- 문제 이해 → Copilot 이해 → 비교 → 확인 → 수동 조치 필요
- 실제로는 내가 직접 해결하는 게 빠름
3. 기업 리더들의 'AI 만능주의'가 개발자를 소외시키고 있음
- "Copilot을 쓰면 뒤처지지 않는다"는 메시지는 실무 개발자와 괴리
- PR 리뷰 시간은 길어지고, 책임은 개발자에게 전가
- Copilot이 만든 코드로 학습된 AI가 다시 코드 품질을 악화시키는 'AI의 AI를 위한 학습 루프' 우려
4. AI는 확신에 찬 ‘틀린 답’을 내놓을 뿐, '이게 맞다'는 확신은 없음
- 틀렸다는 피드백에도 “수정했습니다!” → 더 이상한 수정 제안
- "이건 괜찮은 코드야, 고칠 필요 없어"라는 판단은 하지 않음
- 이는 법적 책임 회피를 위한 설계일 수 있다는 지적도
5. 지속적인 AI 도입 강요로 개발자 경험은 피폐해지고 있음
- 관리자 지시나 실적 평가 때문에 AI 도입 실험이 이어짐
- 개발자들은 자신이 AI의 베이비시터가 된 듯한 피로감을 호소
- 이 흐름이 이어지면 "개발자들이 AI에 지쳐 업계를 떠날 것"이라는 비관적 전망도
주요 문장들
-
“AI는 잘못된 추측을 반복하면서도 자기 주장을 확신하는 인턴 같아요”
-
“Copilot 코드 리뷰하는 데 시간 쓰느니, 내가 새로 짜는 게 낫다”
-
“이건 개발자가 기계를 돕는 'reverse centaurs' 상태”
- Cory Doctorow가 쓴 단어로, "우리는 기계의 도움을 받는 인간이 아니라, 기계를 돕도록 강요받는 인간이라는 것"
-
“Copilot은 개발자가 엉터리 반창고를 붙이는 것과 같은데, 다만 자동화 되어있어서 수천개의 부담스러운 반창고가 됨”
-
“LLM은 ‘잘못될 수 있지만, 불확실하진 않아’가 기본값인 듯”