LLM 답변 향상을 위한 RAG이란 무엇인가?

  • 기사입력 2024.03.14 13:51
  • 최종수정 2024.04.02 12:54
  • 기자명 배운철

거대언어모델(LLM, Large Language Model)과 관련한 최신 기사를 읽다보면 RAG(Retrieval Augmented Generation, 검색증강생성)이란 단어가 자주 등장한다. '검색증강생성'이란 표현도 참 어색하다. 인공지능 관련 최신 용어들을 적절한 한글로 표현하는 것조차 힘들 정도로 인공지능의 세계는 빠르게 발전하고 있다. RAG(랙)에 대해서 알아보자

RAG이란 무엇인가?

검색증강생성(RAG)은 자연어 처리(NLP) 작업, 특히 개방형 도메인 질문의 답변에 사용되는 접근 방식이다. 검색기반모델과 생성기반모델의 강점을 결합하여 보다 정확하고 유익한 답변을 제공한다.(by Claude) RAG은 LLM의 출력을 최적화하여 응답을 생성하기 전에 LLM 외부의 신뢰할 수 있는 콘텐츠를 참조하는 방식이다.

RAG은 LLM의 문제를 해결하는 한 가지 접근 방식

LLM의 목표는 신뢰할 수 있는 지식 소스를 상호 참조하여 다양한 상황에서 이용자 질문에 답변하는 것이다. LLM 기술의 특성상 LLM 응답에 대한 예측이 불가능하다. LLM 학습 데이터는 정적이며 학습한 이후의 데이터에 대해서는 알 수 없다.

LLM의 알려진 문제점은 다음과 같다.

1. 답변이 없을 때 허위 정보를 제공한다. (환각현상, 할루시네이션, hallusination) 

2. 이용자가 구체적이고 최신의 응답을 기대할 때 오래되었거나 일반적인 정보를 제공한다. (out of data)

3. 신뢰할 수 없는 출처로부터 응답을 생성한다. (source)

LLM은 최신 정보가 없을 때도 항상 절대적인 자신감을 가지고 모든 질문에 답변하는 지나치게 열정적인 신입 사원으로 생각할 수 있다. 이러한 반응은 응답 내용에 대한 신뢰에 부정적인 영향을 미친다. RAG는 LLM의 문제 중 일부를 해결하기 위한 한 가지 접근 방식이다. (참고: 아마존)

회원전용기사

로그인 또는 회원가입을 해주세요. (회원만 열람가능)

로그인 회원가입
"트렌드와칭 텔레그램 참여하기 (최신 소식, 자료 공유)"

brian@trendw.kr

광고문의 보도자료

이 기사를 공유합니다
관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전