2024년 6월 14일, 대형언어모델(LLM)이 복잡한 문제를 해결할 때 기존 학습 데이터를 이용하는 대신, 자율적으로 해결 프로그램을 생성해서 해결하는 기술
https://arxiv.org/pdf/2309.10814
예를 들어 미국 역대 대통령의 생일을 알려줄 수는 있지만, 반대로 "1950년 이후에 선출된 미국 대통령 중 월요일에 태어난 사람은 누구인가"라는 질문에 취약하다.
NLEP는 이 경우 사용자 질문을 해결하기 위해 LLM이 간단한 파이썬 프로그램을 생성하도록 유도한다. 이후 파이썬 인터프리터가 생성된 코드를 실행한 다음, 답을 자연어로 출력
프로그램을 통해 추론 과정을 명확히 설명할 수 있고, 모델이 잘못된 답변을 제공하는 경우 프로그램을 수정할 수 있다. 따라서 모델의 투명성도 향상
NLEP는 'GPT-4'를 통한 객체 추적이나 다양한 기호 추론 작업, 명령 수행 및 텍스트 분류 작업에서 90% 이상의 정확도를 달성했다. 일반적인 작업별 프롬프트 방식보다 30% 더 높은 정확도다. 이 방법은 오픈 소스 LLM에서도 성능 개선을 보여줬다.
NLEP는 개인정보 보호도 개선할 수 있다는 설명이다. 로컬에서 실행되기 때문에 사용자 데이터를 오픈AI나 구글과 같은 회사로 보낼 필요가 없다.
또 비용이 많이 드는 재훈련 과정 없이도 소형언어모델(sLM)의 성능을 향상할 수 있음
프롬프트 기반 학습 내에서 자연어 추론과 프로그램 합성을 통합하는 새로운 접근법인 자연어 내장 프로그램(NLEP)
목표: NLEP는 코드 생성 시 자연어를 활용하여 프로그램 합성의 응용 범위를 확장하는 것
그러나 NLEP 프롬프트는 장문의 자연어 응답 생성에는 덜 효과적이므로, 향후 연구에서는 장문의 자연어 프로그램을 사전 학습 세트에 포함시키는 것이 필요하다고 합니다. 또한, 책임감 있고 투명한 애플리케이션을 보장하기 위해 프로그램 생성 모델의 강력한 정렬과 신중한 관리가 필요하다는 점을 강조합니다.
'TechStudy > LLM' 카테고리의 다른 글
wandb 1회 밋업: intro, Chris Van Pelt, FriendliAI (1) | 2024.06.27 |
---|---|
[펌글] 인스트럭트 튜닝 모델에서 데이터 뽑기 (0) | 2024.06.27 |
고급(?) 파인튜닝 기술 Reranker (0) | 2024.06.12 |
LoRA? 신 기술 MoRA를 사용해보자! (0) | 2024.06.11 |
Unsloth 환경을 도입하고 ORPO 파인튜닝(fine-tuning)하기 (0) | 2024.06.07 |