logo
공유된 기사
소형언어모델, 대형언어모델 능가! 새로운 코드 생성 제어 방법으로 AI 성능 혁신
소형언어모델(sLM)이 대형언어모델(LLM)의 코딩 성능을 능가하도록 설계된 새로운 코드 생성 제어 방법이 제시됐다. MIT, 존스홉킨스대학교, 예일대학교 및 밀라 퀘벡 AI 연구진은 '순차적 몬테카를로를 통한 대형언어모델의 구문 및 의미 제어'라는 논문을 ICLR 2025에서 발표했다. 이 방법을 통해 sLM은 정확도와 견고성에서 현저한 개선을 보였고, 기존의 LLM을 초과하는 성능을 기록했다. 연구진은 코드 생성 초기 단계에서 잘못된 코드를 일찍 버리고, 제대로 작동할 가능성이 높은 코드에 계산 자원을 집중하는 새로운 방법을 고안했다.

연구진은 순차적 몬테카를로(SMC) 기법을 적용하여 LLM이 생성한 코드의 타당성과 정확성을 높였다. SMC는 제안 분포, 중요도 가중치, 재샘플링의 세 가지 핵심 과정을 통해 효율성을 향상시킨다. 이를 통해 LLM은 타당성과 정확성이 높은 출력에 집중하고, 기대에 미치지 못하는 출력은 초기에 폐기하여 계산 효율을 높인다. 연구진은 다양한 실험을 통해 SMC의 효과를 입증했으며, sLM이 여러 분야에서 LLM을 능가하는 성능을 발휘할 수 있음을 보여주었다.

이번 연구는 AI가 생성한 코드의 유용성과 정확성을 높여 프로그래밍, 데이터 분석, 과학적 도구의 개선에 기여할 수 있음을 시사한다. 연구진은 SMC 방법을 활용해 제약 조건이나 선호도를 충족하는 코드 생성 라이브러리를 공개했다. 이를 통해 sLM은 분자 생물학이나 로봇 공학 등 다양한 분야에서 큰 모델보다 우수한 성능을 발휘할 수 있게 됐다. 연구진은 이번 결과가 연구 이상의 의미를 가지며, AI의 실용성을 한층 높일 수 있다고 강조했다.
Copyright © 2025. Codenary All Rights Reserved.