https://www.netzeronews.kr/news/articleViewAmp.html?idxno=3715
Gemini 요약
-
삼성리서치 몬트리올(SAIL Montréal)이 발표한 논문 **“Less is More: Recursive Reasoning with Tiny Networks”**에서는
**TRM (Tiny Recursive Model)**이라는 초소형 모델을 제안했어. 파라미터 수는 약 700만 개. -
이 TRM은 기존 거대 언어모델(LLM)들보다 훨씬 적은 전력 소모(기존 대비 1만분의 1 수준)로도, 일부 벤치마크에서 더 나은 성능을 보였다는 주장이야.
-
TRM의 핵심 설계는 재귀적 추론(recursive reasoning) 구조야:
-
질문을 보고 초안을 만든 뒤
-
내부의 잠재 추론 공간(latent scratchpad)을 열고
-
초안과 입력을 비교해 논리적 불일치나 오류를 찾아 스스로 반복적으로 개선하는 자기비판 루프(self-critique loop)를 거침
-
이 사이클을 최대 16회까지 반복하며 답안을 점진적으로 정제함
-
-
기존 LLM들이 “생성하면서 생각하는 방식”이라고 하면, TRM은 “먼저 생각하고 난 뒤 말하는 방식”에 가깝다는 설명이야.
-
특히 기사에서는 이 연구가 AI 분야의 패러다임 전환 가능성을 제시한다고 강조해:
-
거대 모델 중심의 “크기로 승부한다”는 접근법을 넘어 “효율 중심 경쟁”이 미래가 될 수 있다고 보았고
-
에너지 소비, 탄소 배출 측면에서 AI의 지속 가능성 — 즉 ‘그린 AI’ 쪽으로 방향이 바뀔 수 있다는 제안도 함
-
한국 입장에서는 AI 반도체 + 저전력 모델 전략, AI 정책의 전환 등이 시사된다고 평가했어
-