paint-brush
다단계 텍스트 검색을 위한 LLaMA 미세 조정~에 의해@textmodels
647 판독값
647 판독값

다단계 텍스트 검색을 위한 LLaMA 미세 조정

너무 오래; 읽다

이 연구에서는 최첨단 LLaMA 모델을 사용하여 텍스트 검색 향상을 탐구합니다. RepLLaMA 및 RankLLaMA로 미세 조정된 이 모델은 긴 컨텍스트를 처리하는 능력을 활용하고 강력한 제로샷 성능을 보여줌으로써 통과 및 문서 검색 모두에서 뛰어난 효율성을 달성합니다.
featured image - 다단계 텍스트 검색을 위한 LLaMA 미세 조정
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

저자:

(1) Xueguang Ma, 워털루 대학교 컴퓨터 공학부 David R. Cheriton 학교;

(2) 마이크로소프트 리서치의 Liang Wang;

(3) 난양(Microsoft Research);

(4) 마이크로소프트 리서치의 푸루 웨이(Furu Wei);

(5) 지미 린(Jimmy Lin), 워털루 대학교 컴퓨터 공학과 David R. Cheriton 학교.

링크 표

개요 및 소개

방법

실험

절제 연구 및 분석

관련된 일

결론, 감사의 말, 참고자료

추상적인

다단계 텍스트 검색의 효율성은 사전 훈련된 언어 모델 시대 이전부터 확실하게 입증되었습니다. 그러나 대부분의 기존 연구는 LLM(대형 언어 모델)의 최근 발전보다 앞선 모델을 활용합니다. 이 연구는 최첨단 LLM이 가져올 수 있는 잠재적인 개선 사항을 탐구하고자 합니다. 우리는 MS MARCO 데이터 세트를 사용하여 구절 검색과 문서 검색 모두를 위해 밀집 검색기(RepLLaMA)와 포인트별 재순위 지정 도구(RankLLaMA)로 최신 LLaMA 모델을 미세 조정하는 포괄적인 연구를 수행합니다. 우리의 연구 결과는 큰 언어 모델의 효율성이 실제로 작은 모델의 효율성을 능가한다는 것을 보여줍니다. 또한 LLM은 본질적으로 더 긴 컨텍스트를 처리할 수 있으므로 전체 문서를 전체적으로 표현할 수 있으므로 기존 분할 및 풀링 전략이 필요하지 않습니다. 또한 BEIR에 대한 평가는 RepLLaMA–RankLLaMA 파이프라인이 강력한 제로샷 효율성을 나타냄을 보여줍니다. 본 연구의 모델 체크포인트는 HuggingFace.1에서 확인할 수 있습니다.

1. 소개

쿼리에 대한 응답으로 가장 관련성이 높은 문서 또는 텍스트 조각을 식별하고 순위를 매기는 텍스트 검색은 웹 검색(Bajaj et al., 2016)을 포함한 다양한 오픈 도메인 언어 이해 작업(Petroni et al., 2021)에서 매우 중요합니다. 오픈 도메인 질문 답변(Chen et al., 2017) 및 사실 검증(Thorne et al., 2018). 검색은 또한 검색 증강 생성(RAG) 파이프라인에서 대규모 언어 모델(LLM)의 효율성을 향상시키는 데 중요한 역할을 합니다(Lewis et al., 2020b; Shi et al., 2023). 이 접근 방식은 환각을 완화할 뿐만 아니라 LLM이 매개변수 내에서 포착되지 않은 지식에 접근할 수 있게 해줍니다(Yang et al., 2023; Jiang et al., 2023).


일반적인 다단계 텍스트 검색 파이프라인은 코퍼스에서 상위 k 관련 텍스트를 효율적으로 찾도록 설계된 검색기와 검색된 후보의 순서를 더욱 구체화하여 출력 품질을 향상시키는 reranker로 구성됩니다(Nogueira 및 Cho, 2019 ). 검색기와 reranker 모두 BERT(Devlin et al., 2019) 및 T5(Raffel et al., 2020)와 같은 Transformers(Vaswani et al., 2017)를 기반으로 사전 훈련된 언어 모델의 출현으로 인해 큰 이점을 얻었습니다. 이러한 모델은 검색을 위해 쿼리와 문서를 벡터 표현으로 인코딩하거나(Karpukhin et al., 2020; Lin, 2021) 순위 재지정을 위해 쿼리와 문서 간의 관련성을 직접 점수를 매기도록 훈련되었습니다(Nogueira et al., 2019; Zhuang et al. al., 2023).


InstructGPT(Ouyang et al., 2022), GPT-4(OpenAI, 2023) 및 LLaMA(Touvron et al., 2023a,b)와 같은 지침을 따르도록 미세 조정된 수십억 개의 매개변수가 있는 최신 대규모 언어 모델 이전의 소규모 사전 훈련된 언어 모델을 능가하는 많은 NLP 작업에서 탁월한 기능을 보여주었습니다(Zhao et al., 2023). 검색을 위해 LRL(Ma et al., 2023), RankGPT(Sun et al., 2023) 및 PRP(Qin et al., 2023)와 같은 최근 방법에서는 LLM이 쌍별 또는 목록별로 접근합니다. 이러한 방법은 순위 재지정을 텍스트 생성으로 확인하여 LLM을 활용합니다.


그러나 우리는 여러 가지 잠재적인 문제를 발견했습니다. 첫째, 이러한 방법은 전체 다단계 파이프라인을 다루지 않습니다. 왜냐하면 대규모 자료에서 검색을 텍스트 생성 작업으로 캐스팅하는 것이 어렵기 때문입니다. 둘째, 가능한 경우 레이블이 지정된 데이터를 활용하지 않습니다. 마지막으로 이러한 reranker는 병렬 채점을 지원하지 않고 다중 패스 디코딩 설계로 인해 속도가 느려지므로 효율적이지 않습니다.


따라서 우리는 검색자 및 순위 재지정자 역할을 하도록 최첨단 대규모 언어 모델을 미세 조정하면 이전의 소규모 모델보다 더 나은 효율성을 얻을 수 있다고 주장합니다. 이 접근 방식은 다단계 파이프라인 내에서 LLM을 최적으로 활용할 수도 있습니다. 따라서 우리는 다음과 같은 연구 질문을 조사할 동기가 있습니다: 다단계 텍스트 검색을 위해 특별히 미세 조정될 때 최첨단 대형 언어 모델이 어떻게 작동합니까?


우리의 연구는 최첨단 오픈 소스 대형 언어 모델인 최신 LLaMA-2 모델(Touvron et al., 2023b)을 리트리버이자 리트리버로서 미세 조정하는 방법에 대한 포괄적인 조사를 수행함으로써 이 질문에 대답하는 것을 목표로 합니다. RepLLaMA와 RankLLaMA라고 각각 부르는 reranker입니다. 구체적으로 우리는 실험에 MS MARCO(Bajaj et al., 2016) 및 BEIR(Thakur et al., 2021) 데이터 세트를 활용합니다. 우리의 연구 결과에 따르면 대규모 언어 모델은 이전의 소규모 모델을 능가하여 간단한 훈련 방식을 통해 검색 및 순위 재지정에 대한 최첨단 효율성을 달성하고 강력한 제로샷 효율성을 나타냅니다. 또한 본질적으로 더 긴 컨텍스트에 대해 사전 훈련된 LLM이 전체 문서를 나타내는 잠재력을 보여줌으로써 문서 검색을 위한 전통적인 분할 및 풀링 전략의 필요성을 제거한다는 것을 관찰했습니다.


이 문서는 CC 4.0 라이선스에 따라 arxiv에서 볼 수 있습니다.



1 https://huggingface.co/castorini