LLM의 한계를 다소나마 극복한 Sapient의 HRM과 삼성의 TRM
- 박준성 박사: Univ. of Iowa 종신교수, 삼성SDS CTO, KAIST 초빙교수

- Nov 3, 2025
- 1 min read
AI 버블이 터질 때가 됐다는 전망이 많이 나오고 있다. AI 버블이 터져도 내년 글로벌 GDP가 +1.5% 올라갈 거란 낙관론과 -4.0% 떨어질 거라는 비관론이 대치하고 있다.
AI 버블이 터질 거라는 전망의 기반은 현재 AI 붐을 조성하고 있는 LLM(Large Language Model)의 한계 때문이다.
LLM은 CoT( Chain of Thought) 추론 방식을 쓰는 데, 이게 너무 많은 컴퓨팅 자원과 데이터를 소모하면서도 처리 속도가 매우 느리다 (T. Zheng, et al., The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning, April 2025 [arXiv:2504.05081] https://share.google/SlimAU06qyTqXmd7E).
또한 LLM은 근원적으로 Hallucination(뻔뻔스럽게 거짓말을 하는 것)을 피할 수 없다 (A. T. Kalai, et al., Why Language Models Hallucinate, Sept. 2025 [arXiv:2509.04664] https://share.google/YFFpYDMxtGNtALiaQ).
따라서 투자 대비 경제적 이득이 작고, 그 결과 AI 거대 기업의 경영 성과가 안 나오고 많은 AI 창업이 도산할 거란 것이다.
이런 LLM의 한계를 다소나마 극복한 AI 모델이 나타났다. 금년 7월, 싱가폴에 청화대 졸업생들이 세운 Sapient Intelligence라는 회사에서 Hierarchical Reasoning Model(HRM)을 개발 발표했다. HRM은 LLM 보다 10~100배 적은 컴퓨팅 자원과 훈련용 데이터를 소모하면서, Hallucinatiin을 30~60% 줄인다고 알려 졌다.
금년 10월 삼성이 다시 획기적인 모델을 발명 발표하였다. 캐나다 몬트리얼에 있는 삼성 AI 랩의 Alexia Jolicoeur-Martineau 연구원이 HRM을 더 발전시킨 Tiny Recursive Model(TRM)을 개발했다. TRM은 HRM 대비 5~10배 적은 컴퓨팅 자원과 훈련용 데이터를 소모하먼서, Hallucinatiin을 50~80% 줄인다고 알려 졌다.

Press enter or click to view image in full size




Comments