
이미지 텍스트 확인
“Al, 오래 생각활수록 더 명청해진
다” 엔트로픽의 충격적 연구
Al 에디터
입력 :2025/07/25 08.05
수정: 2025/07/25 08.52
URL
가
가
HIS
T0o
THINkIIS
TlNkIS
TiiNclMG
mattero
THAiNRIHS
TCO VA
I8C
T
ICov
Nls
DIrINC
비iklbS
Yoo
NAIUS
NYING
KWC
세S
1I5
TMIJLIRC
7uNriio
THiiklNG
VFKWS
EDNET Korea
이미지 텍스트 확인
간단한 계산 문제도 햇갈리논 정보가 섞이면 시I가 틀
린다
연구진이 “사과 1개와 오렌지 1개가 있습니다: 과일이
총 몇 개인가요?”라는 간단한 문제에 “61% 확출로 사
과는 빨간색이다” 같은 관련 없는 정보들 섞어 넣엇더
니; AI가 점점 더 햇갈려햇다: 킬로드 Opus 4는 즉답
하면 거의 1009 맞혀지만 오래 생각하게 하니까 정답
물이 85~90%까지 떨어적다 연구진은 수학적 혼란
과제와 파이씬 코드 혼란 과제에서 각각 2,500개의
질문으로 이 현상올 테스트햇다:
더 충격적인 것은 덥시크(DeepSeek) RI이없다: 방해
요소가 5개나 들어가면 정답출이 70%에서 3096
곤두박질쳐다: 사람이라면 “아 이건 상관없는 O-OP
네”하고 무시할 렌데 시는 모든 정보들 다 씨야 한다
고 생각해서 더 복잡하게 계산하려다 틀딪다:
흥미롭게도 같은 양의 토근올 사용하더라도 AI가 자
이미지 텍스트 확인
연스럽게 그만큼 생각한 경우가 연구자가 강제로 그만
금 생각하라고 지시한 경우보다 성능이 더 떨어젓다:
이논 시I가 스스로 길계 생각하기로 결정햇올 때는 이
미 햇갈리고 있다는 신호일 가능성이 높기 때문이다
첫GPT는 익숙한 문제만 보면 외운 답 찾으려 한다
오른시의 첫GPT 계엽 모델들은 다른 방식으로 실수햇
다: 쓸데없는 정보에는 잘 속지 않지만 학교에서 배운
유명한 수학 문제와 비슷하게 생기면 진짜 질문올 잎
지 않고 암기한 복잡한 풀이법부터 찾으려 햇다: 예름
들어 “방에 사람이 몇 명 있냐요?”라는 단순한 질문올
생일 역설이나 잠자는 미녀 역설 같은 유명한 확출 문
제처럼 포장하면 시는 실제로는 간단한 계산인데도
어려운 공식올 쓰러고 애벗다: 연구진은 이런 유명한
“”AI, 오래 생각할수록 더 멍청해진다””…앤트로픽의 충격적 연구
자사제품 홍보일수도 있겠는데
그래도 유의한 경향성은 있다고함




