top of page
  • Blogger
  • Facebook
  • Linkedin

LLM의 한계를 다소나마 극복한 Sapient의 HRM과 삼성의 TRM

AI 버블이 터질 때가 됐다는 전망이 많이 나오고 있다. AI 버블이 터져도 내년 글로벌 GDP가 +1.5% 올라갈 거란 낙관론과 -4.0% 떨어질 거라는 비관론이 대치하고 있다.


AI 버블이 터질 거라는 전망의 기반은 현재 AI 붐을 조성하고 있는 LLM(Large Language Model)의 한계 때문이다.


  • LLM은 CoT( Chain of Thought) 추론 방식을 쓰는 데, 이게 너무 많은 컴퓨팅 자원과 데이터를 소모하면서도 처리 속도가 매우 느리다 (T. Zheng, et al., The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning, April 2025 [arXiv:2504.05081] https://share.google/SlimAU06qyTqXmd7E).


  • 또한 LLM은 근원적으로 Hallucination(뻔뻔스럽게 거짓말을 하는 것)을 피할 수 없다 (A. T. Kalai, et al., Why Language Models Hallucinate, Sept. 2025 [arXiv:2509.04664] https://share.google/YFFpYDMxtGNtALiaQ).


따라서 투자 대비 경제적 이득이 작고, 그 결과 AI 거대 기업의 경영 성과가 안 나오고 많은 AI 창업이 도산할 거란 것이다.


  • 이런 LLM의 한계를 다소나마 극복한 AI 모델이 나타났다. 금년 7월, 싱가폴에 청화대 졸업생들이 세운 Sapient Intelligence라는 회사에서 Hierarchical Reasoning Model(HRM)을 개발 발표했다. HRM은 LLM 보다 10~100배 적은 컴퓨팅 자원과 훈련용 데이터를 소모하면서, Hallucinatiin을 30~60% 줄인다고 알려 졌다.


  • 금년 10월 삼성이 다시 획기적인 모델을 발명 발표하였다. 캐나다 몬트리얼에 있는 삼성 AI 랩의 Alexia Jolicoeur-Martineau 연구원이 HRM을 더 발전시킨 Tiny Recursive Model(TRM)을 개발했다. TRM은 HRM 대비 5~10배 적은 컴퓨팅 자원과 훈련용 데이터를 소모하먼서, Hallucinatiin을 50~80% 줄인다고 알려 졌다.

Tiny Recursive Model

Press enter or click to view image in full size

Comments


bottom of page