Ollama 사용 방법: 현지 LLM 실습 및 챗봇 구축
너무 오래; 읽다
지역 LLM 공간에서 저는 LMStudio를 처음 접했습니다. 앱 자체는 사용하기 쉽지만 Ollama가 제공하는 단순성과 조작성이 마음에 들었습니다. Ollama에 대해 더 자세히 알아보려면 여기로 이동하세요.
요약: Ollama는 귀하가 액세스할 수 있는 자체 선별된 모델 목록을 호스팅합니다.
이러한 모델을 로컬 시스템에 다운로드한 다음 명령줄 프롬프트를 통해 해당 모델과 상호 작용할 수 있습니다. 또는 모델을 실행할 때 Ollama는 API 및 Langchain과 같은 기타 라이브러리를 통해 상호 작용할 수 있는 포트 11434(기본값)에서 호스팅되는 추론 서버도 실행합니다.