paint-brush
100 дней искусственного интеллекта, день 18. Разработка RAG с использованием семантического ядра Microsoftк@sindamnataraj
1,567 чтения
1,567 чтения

100 дней искусственного интеллекта, день 18. Разработка RAG с использованием семантического ядра Microsoft

к Nataraj5m2024/04/05
Read on Terminal Reader

Слишком долго; Читать

В этом посте мы рассмотрим создание RAG с использованием семантического ядра Microsoft.
featured image - 100 дней искусственного интеллекта, день 18. Разработка RAG с использованием семантического ядра Microsoft
Nataraj HackerNoon profile picture

Всем привет! Я Натарадж и , как и вы, я был очарован недавним прогрессом в области искусственного интеллекта. Понимая, что мне нужно быть в курсе всех происходящих событий, я решил начать личный путь обучения, таким образом 100 дней ИИ был рожден! В этой серии я буду узнавать о LLM и делиться идеями, экспериментами, мнениями, тенденциями и знаниями в своих сообщениях в блоге. Вы можете следить за путешествием на HackerNoon. здесь или мой личный сайт здесь . В сегодняшней статье мы рассмотрим, как разработать RAG с использованием семантического ядра Microsoft.

Поисковая дополненная генерация (RAG) — одно из наиболее распространенных приложений, разрабатываемых с использованием различных LLM. Ранее мы изучали, как разработать RAG с использованием langchain . В этом посте мы создадим RAG, используя семантическое ядро Microsoft .


Для дальнейшего вам понадобится Open AI API.

Шаг 1. Инициализируйте семантическое ядро

Первым шагом является инициализация семантического ядра и сообщение ядру, что мы хотим использовать автодополнение чата Open AI и модель внедрения Open AI, которую мы позже будем использовать для создания внедрений. Мы также сообщим ядру, что хотим использовать хранилище памяти, которым в нашем случае будет Chroma DB. Обратите внимание, что мы также сообщаем ядру, что это хранилище памяти должно быть постоянным.


 kernel = sk.Kernel() kernel.add_text_completion_service("openai", OpenAIChatCompletion("gpt-4",api_key)) kernel.add_text_embedding_generation_service("openai-embedding", OpenAITextEmbedding("text-embedding-ada-002", api_key)) # chrome db kernel.register_memory_store(memory_store=ChromaMemoryStore(persist_directory='mymemories2')) print("Made two new services attached to the kernel and made a Chroma memory store that's persistent.")

Шаг 2 – Создание вложений

В этом примере мы создаем RAG, который может отвечать на вопросы SWOT-анализа, который мы создали для пиццерии. Итак, чтобы сделать это, мы проводим SWOT-анализ, получаем для них внедрения и сохраняем соответствующие внедрения в коллекции под названием «SWOT» в постоянном хранилище данных, которое мы создали на последнем шаге.


 strength_questions = ["What unique recipes or ingredients does the pizza shop use?","What are the skills and experience of the staff?","Does the pizza shop have a strong reputation in the local area?","Are there any unique features of the shop or its location that attract customers?", "Does the pizza shop have a strong reputation in the local area?", "Are there any unique features of the shop or its location that attract customers?"] weakness_questions = ["What are the operational challenges of the pizza shop? (eg, slow service, high staff turnover)","Are there financial constraints that limit growth or improvements?","Are there any gaps in the product offering?","Are there customer complaints or negative reviews that need to be addressed?"] opportunities_questions = ["Is there potential for new products or services (eg, catering, delivery)?","Are there under-served customer segments or market areas?","Can new technologies or systems enhance the business operations?","Are there partnerships or local events that can be leveraged for marketing?"] threats_questions = ["Who are the major competitors and what are they offering?","Are there potential negative impacts due to changes in the local area (eg, construction, closure of nearby businesses)?","Are there economic or industry trends that could impact the business negatively (eg, increased ingredient costs)?","Is there any risk due to changes in regulations or legislation (eg, health and safety, employment)?"] strengths = [ "Unique garlic pizza recipe that wins top awards","Owner trained in Sicily at some of the best pizzerias","Strong local reputation","Prime location on university campus" ] weaknesses = [ "High staff turnover","Floods in the area damaged the seating areas that are in need of repair","Absence of popular calzones from menu","Negative reviews from younger demographic for lack of hip ingredients" ] opportunities = [ "Untapped catering potential","Growing local tech startup community","Unexplored online presence and order capabilities","Upcoming annual food fair" ] threats = [ "Competition from cheaper pizza businesses nearby","There's nearby street construction that will impact foot traffic","Rising cost of cheese will increase the cost of pizzas","No immediate local regulatory changes but it's election season" ] print("✅ SWOT analysis for the pizza shop is resident in native memory") memoryCollectionName = "SWOT" # lets put these in memory / vector store async def run_storeinmemory_async(): for i in range(len(strengths)): await kernel.memory.save_information_async(memoryCollectionName, id=f"strength-{i}", text=f"Internal business strength (S in SWOT) that makes customers happy and satisfied Q&A: Q: {strength_questions[i]} A: {strengths[i]}") for i in range(len(weaknesses)): await kernel.memory.save_information_async(memoryCollectionName, id=f"weakness-{i}", text=f"Internal business weakness (W in SWOT) that makes customers unhappy and dissatisfied Q&A: Q: {weakness_questions[i]} A: {weaknesses[i]}") for i in range(len(opportunities)): await kernel.memory.save_information_async(memoryCollectionName, id=f"opportunity-{i}", text=f"External opportunity (O in SWOT) for the business to gain entirely new customers Q&A: Q: {opportunities_questions[i]} A: {opportunities[i]}") for i in range(len(threats)): await kernel.memory.save_information_async(memoryCollectionName, id=f"threat-{i}", text=f"External threat (T in SWOT) to the business that impacts its survival Q&A: Q: {threats_questions[i]} A: {threats[i]}") asyncio.run(run_storeinmemory_async()) print("😶‍🌫️ Embeddings for SWOT have been generated and stored in vector db")

Шаг 3 – Задайте свой вопрос

Теперь, когда у нас есть встроенные данные, хранящиеся в хранилище векторов Chrome, мы можем задавать вопросы, связанные с бизнесом по производству пиццы, и получать ответ.


 #ask questions on swot potential_question = "What are the easiest ways to make more money?" counter = 0 async def run_askquestions_async(): memories = await kernel.memory.search_async(memoryCollectionName, potential_question, limit=5, min_relevance_score=0.5) display(f"### ❓ Potential question: {potential_question}") for memory in memories: if counter == 0: related_memory = memory.text counter += 1 print(f" > 🧲 Similarity result {counter}:\n >> ID: {memory.id}\n Text: {memory.text} Relevance: {memory.relevance}\n") asyncio.run(run_askquestions_async())


Это сильно упрощенная версия того, как можно создать RAG с помощью семантического ядра. Самый популярный выбор платформы для создания прямо сейчас с использованием LLM — это langchain, и ранее мы видели, как создать RAG с использованием langchain. Хотя Langchain становится более популярным, поскольку мы видим, что все больше и больше компаний создают инструменты, будут и более сложные инструменты, и я обнаружил, что у Semantic Kernel есть несколько особых функций, которые выделяют его.


Вот и все, что касается 18-го дня программы «100 дней искусственного интеллекта».


Я пишу информационный бюллетень под названием «Выше среднего», в котором рассказываю об идеях второго порядка, стоящих за всем, что происходит в больших технологиях. Если вы разбираетесь в технологиях и не хотите быть средним, подпишитесь на него .


Следуйте за мной в Twitter , LinkedIn или HackerNoon, чтобы получать последние новости о 100 днях ИИ, или добавьте эту страницу в закладки . Если вы работаете в сфере технологий, возможно, вам будет интересно присоединиться к моему сообществу технических специалистов здесь .