오늘날 대규모 언어 모델은 매우 강력해졌습니다. 그들은 우리의 가장 어려운 질문에 대한 답을 제공하는 데 도움이 될 수 있습니다. 그러나 그들은 또한 우리를 잘못된 길로 이끌 수도 있습니다. 환각을 일으키는 경향이 있습니다. 즉, 옳아 보이지만 그렇지 않은 대답을 한다는 의미입니다.
여기에서는 LLM의 환각을 중지하는 세 가지 방법인 검색 증강 생성(RAG), 추론 및 반복 쿼리를 살펴보겠습니다.
와 함께
관련 문서가 검색되면 LLM은 이러한 문서와 함께 쿼리를 사용하여 사용자에 대한 응답을 요약합니다. 이렇게 하면 모델이 내부 지식에만 의존할 필요 없이 적시에 제공하는 모든 데이터에 액세스할 수 있습니다. 어떤 의미에서 LLM은 자체적으로는 보유할 수 없는 "장기 기억"을 제공합니다. 모델은 벡터 데이터베이스에 저장된 독점 데이터를 포함하여 보다 정확하고 상황에 맞는 응답을 제공할 수 있습니다.
대체 RAG 접근 방식에는 사실 확인이 포함됩니다. LLM은 답변을 묻는 메시지를 받은 후 벡터 데이터베이스의 데이터에 대해 사실 확인 및 검토를 거칩니다. 쿼리에 대한 답변은 벡터 데이터베이스에서 생성되며, LLM은 해당 답변을 프롬프트로 사용하여 사실과 관련이 있는지 식별합니다.
LLM은 많은 일에 매우 능숙합니다. 입력 데이터의 다양한 부분에 다양한 수준의 주의를 기울여 기계가 인간 언어를 이해하는 방식을 변화시키는 "변환기"의 발전 덕분에 문장의 다음 단어를 예측할 수 있습니다. LLM은 또한 많은 정보를 매우 간결한 답변으로 요약하고, 많은 양의 텍스트에서 원하는 것을 찾고 추출하는 데 능숙합니다. 놀랍게도 LLMS는 계획도 세울 수 있습니다. 문자 그대로 데이터를 수집하고 여행을 계획할 수 있습니다.
그리고 더욱 놀랍게도 LLM은 인간과 거의 유사한 방식으로 추론을 사용하여 답을 도출할 수 있습니다. 사람들은 추론할 수 있기 때문에 예측이나 결정을 내리는 데 엄청난 양의 데이터가 필요하지 않습니다. 추론은 또한 LLM이 환각을 피하는 데 도움이 됩니다. 이에 대한 예는 “
이 방법은 모델이 다단계 문제를 중간 단계로 나누는 데 도움이 됩니다. 일련의 사고방식 프롬프트를 통해 LLM은 표준 프롬프트 방법으로는 해결할 수 없는 복잡한 추론 문제를 해결할 수 있습니다(자세한 내용은 블로그 게시물을 확인하세요).
LLM에 복잡한 수학 문제를 주면 틀릴 수도 있습니다. 그러나 LLM에 문제와 해결 방법을 제공하면 정확한 답변을 얻을 수 있고 답변 뒤에 숨은 이유를 공유할 수 있습니다. 벡터 데이터베이스는 이와 유사한 질문의 예를 제공하고 예제로 프롬프트를 채우므로 이 방법의 핵심 부분입니다.
더 좋은 점은 질문과 답변이 있으면 이를 벡터 데이터베이스에 다시 저장하여 생성 AI 애플리케이션의 정확성과 유용성을 더욱 향상시킬 수 있다는 것입니다.
다음을 포함하여 배울 수 있는 다양한 추론 발전이 있습니다.
LLM 환각을 줄이는 데 도움이 되는 세 번째 방법은 대화형 쿼리입니다. 이 경우 AI 에이전트는 LLM과 벡터 데이터베이스 사이를 오가는 호출을 중재합니다. 이는 최상의 답변에 도달하기 위해 여러 번 반복적으로 발생할 수 있습니다. FLARE라고도 알려진 미래 지향적인 능동 검색 세대의 예입니다.
질문을 받고 지식 기반에 더 많은 유사한 질문을 쿼리합니다. 일련의 비슷한 질문을 받게 될 것입니다. 그런 다음 모든 질문이 포함된 벡터 데이터베이스를 쿼리하고, 답변을 요약하고, 답변이 적절하고 타당해 보이는지 확인합니다. 그렇지 않은 경우에는 될 때까지 단계를 반복하십시오.
기타 고급 대화형 쿼리 방법에는 다음이 포함됩니다.
상담원 조정에 도움이 될 수 있는 도구가 많이 있습니다.
또 다른 그러한 도구는
이 회사는 "현재 메디케어에 등록된 거주자는 몇 명입니까?"와 같은 질문에 AI가 생성한 답변을 제공하기 위해 정형 및 비정형의 다양한 데이터를 활용합니다. SkyPoint CEO인 Tisson Mathew는 최근 저에게 이렇게 말했습니다. 이는 의료 서비스 제공자가 정확한 데이터를 기반으로 정보에 근거한 결정을 신속하게 내리는 데 도움이 된다고 그는 말했습니다.
그러나 그 지점에 도달하는 것은 하나의 과정이었다고 Mathew는 말했습니다. 그의 팀은 표준 LLM을 수강하고 이를 SkyPoint 데이터로 미세 조정하는 것으로 시작했습니다. "그것은 비참한 결과를 가져왔습니다. 심지어 무작위적인 단어조차도요."라고 그는 말했습니다. 프롬프트를 이해하고 생성하는 것은 SkyPoint가 처리할 수 있는 작업이었지만 대규모로 정확한 답변을 생성하려면 AI 기술 스택이 필요했습니다.
SkyPoint는 예를 들어 전자 의료 기록 및 급여 데이터를 포함하여 운영업체 및 제공업체로부터 구조화된 데이터를 수집하는 시스템을 구축했습니다. 이는 컬럼형 데이터베이스에 저장됩니다. RAG는 이를 쿼리하는 데 사용됩니다. 정책, 절차, 주 규정 등 비정형 데이터는 벡터 데이터베이스에 저장됩니다.
Tisson은 예를 들어 다음과 같은 질문을 던졌습니다. 주민이 폭력을 행사하면 어떻게 되나요? Astra DB는 국가 규정과 사용자의 상황, 다양한 문서와 정보를 토대로 답변을 구성합니다.
"이것은 옳아야 하는 구체적인 답변입니다."라고 Tisson은 말했습니다. "이것은 조직이 지역 사회와 비즈니스를 위해 정보에 입각한 결정을 내리기 위해 의존하는 정보입니다."
SkyPoint AI는 AI 환각의 위험을 완화하는 것의 중요성을 보여줍니다. 정확한 답변을 보장하는 데 사용할 수 있는 방법과 도구가 없으면 결과는 잠재적으로 끔찍할 수 있습니다.
RAG, 추론, FLARE와 같은 반복 쿼리 접근 방식을 통해 특히 독점 데이터를 기반으로 하는 생성 AI는 기업이 고객에게 효율적이고 효과적으로 서비스를 제공할 수 있도록 지원하는 점점 더 강력한 도구가 되고 있습니다.
작성자: Alan Ho, DataStax
DataStax가 어떻게 도움이 되는지 자세히 알아보세요.
여기에도 게시되었습니다.