paint-brush
Použitie MinIO na zostavenie aplikácie na rozhovor s rozšírenou generáciou načítaniapodľa@minio
5,680 čítania
5,680 čítania

Použitie MinIO na zostavenie aplikácie na rozhovor s rozšírenou generáciou načítania

podľa MinIO21m2024/09/18
Read on Terminal Reader

Príliš dlho; Čítať

Vytvorenie aplikácie RAG na produkčnej úrovni si vyžaduje vhodnú dátovú infraštruktúru na ukladanie, verzie, spracovanie, vyhodnocovanie a dopytovanie častí údajov, ktoré tvoria váš vlastný korpus.
featured image - Použitie MinIO na zostavenie aplikácie na rozhovor s rozšírenou generáciou načítania
MinIO HackerNoon profile picture
0-item


Často sa hovorí, že vo veku AI sú dáta vašou priekopou. Na tento účel si vybudovanie aplikácie RAG na produkčnej úrovni vyžaduje vhodnú dátovú infraštruktúru na ukladanie, verzie, spracovanie, vyhodnocovanie a dopytovanie častí údajov, ktoré tvoria váš vlastný korpus. Keďže MinIO využíva k AI prístup na prvom mieste na základe údajov, naším predvoleným odporúčaním pre počiatočnú infraštruktúru pre projekt tohto typu je nastavenie Modern Data Lake (MinIO) a vektorovej databázy. Zatiaľ čo iné pomocné nástroje možno bude potrebné zapojiť počas cesty, tieto dve jednotky infraštruktúry sú základom. Budú slúžiť ako ťažisko pre takmer všetky úlohy, s ktorými sa následne stretnete pri uvedení vašej aplikácie RAG do výroby.


Ale ste v rébuse. O týchto pojmoch LLM a RAG ste už počuli, ale okrem toho ste sa toho veľa neodvážili kvôli neznámemu. Nebolo by však pekné, keby existovala aplikácia „Hello World“ alebo štandardná aplikácia, ktorá vám pomôže začať?


Neboj sa, bol som na jednej lodi. Takže v tomto blogu ukážeme, ako použiť MinIO na vytvorenie chatovacej aplikácie založenej na rozšírenej generácii (RAG) s využitím komoditného hardvéru.


  • Použite MinIO na uloženie všetkých dokumentov, spracovaných kusov a vložení pomocou vektorovej databázy.


  • Použite funkciu oznamovania vedra MinIO na spustenie udalostí pri pridávaní alebo odstraňovaní dokumentov do vedra


  • Webhook, ktorý využíva udalosť a spracováva dokumenty pomocou Langchain a ukladá metadáta a rozdelené dokumenty do skupiny metadát


  • Spúšťať udalosti oznamovania bloku MinIO pre novo pridané alebo odstránené blokované dokumenty


  • Webhook, ktorý využíva udalosti a generuje vloženia a ukladá ich do vektorovej databázy (LanceDB), ktorá je uložená v MinIO


Použité kľúčové nástroje

  • MinIO - Ukladanie objektov na uchovávanie všetkých údajov
  • LanceDB – Bezserverová open-source vektorová databáza, ktorá uchováva údaje v objektovom úložisku
  • Ollama – na lokálne spustenie LLM a modelu vkladania (kompatibilné s OpenAI API)
  • Gradio - Rozhranie, cez ktoré možno komunikovať s aplikáciou RAG
  • FastAPI – Server pre webhooky, ktorý prijíma oznámenie o bucket z MinIO a odhaľuje aplikáciu Gradio
  • LangChain & Unstructured - na extrahovanie užitočného textu z našich dokumentov a ich rozrezanie na vkladanie


Použité modely

  • LLM – Phi-3-128K (3,8B parametrov)
  • Vloženie – Nomic Embed Text v1.5 ( Matrioshka Embeddings / 768 Dim, 8K kontext)

Spustite MinIO Server

Ak ho ešte nemáte, môžete si stiahnuť binárny súbor odtiaľto


 # Run MinIO detached !minio server ~/dev/data --console-address :9090 &


Spustiť server Ollama + stiahnuť LLM a model vkladania

Stiahnite si Ollama odtiaľto


 # Start the Server !ollama serve


 # Download Phi-3 LLM !ollama pull phi3:3.8b-mini-128k-instruct-q8_0


 # Download Nomic Embed Text v1.5 !ollama pull nomic-embed-text:v1.5


 # List All the Models !ollama ls


Vytvorte základnú aplikáciu Gradio pomocou FastAPI na testovanie modelu

 LLM_MODEL = "phi3:3.8b-mini-128k-instruct-q8_0" EMBEDDING_MODEL = "nomic-embed-text:v1.5" LLM_ENDPOINT = "http://localhost:11434/api/chat" CHAT_API_PATH = "/chat" def llm_chat(user_question, history): history = history or [] user_message = f"**You**: {user_question}" llm_resp = requests.post(LLM_ENDPOINT, json={"model": LLM_MODEL, "keep_alive": "48h", # Keep the model in-memory for 48 hours "messages": [ {"role": "user", "content": user_question } ]}, stream=True) bot_response = "**AI:** " for resp in llm_resp.iter_lines(): json_data = json.loads(resp) bot_response += json_data["message"]["content"] yield bot_response


 import json import gradio as gr import requests from fastapi import FastAPI, Request, BackgroundTasks from pydantic import BaseModel import uvicorn import nest_asyncio app = FastAPI() with gr.Blocks(gr.themes.Soft()) as demo: gr.Markdown("## RAG with MinIO") ch_interface = gr.ChatInterface(llm_chat, undo_btn=None, clear_btn="Clear") ch_interface.chatbot.show_label = False ch_interface.chatbot.height = 600 demo.queue() if __name__ == "__main__": nest_asyncio.apply() app = gr.mount_gradio_app(app, demo, path=CHAT_API_PATH) uvicorn.run(app, host="0.0.0.0", port=8808)

Testovací model vkladania

 import numpy as np EMBEDDING_ENDPOINT = "http://localhost:11434/api/embeddings" EMBEDDINGS_DIM = 768 def get_embedding(text): resp = requests.post(EMBEDDING_ENDPOINT, json={"model": EMBEDDING_MODEL, "prompt": text}) return np.array(resp.json()["embedding"][:EMBEDDINGS_DIM], dtype=np.float16)


 ## Test with sample text get_embedding("What is MinIO?")


Prehľad prijímacieho potrubia

Vytvorte MiniIO buckety

Použite príkaz mc alebo to urobte z používateľského rozhrania

  • custom-corpus - Na uloženie všetkých dokumentov
  • sklad – na ukladanie všetkých metadát, častí a vektorových vložení


 !mc alias set 'myminio' 'http://localhost:9000' 'minioadmin' 'minioadmin'


 !mc mb myminio/custom-corpus !mc mb myminio/warehouse

Vytvorte webhook, ktorý spotrebuje upozornenia o segmente z vlastného korpusového segmentu

 import json import gradio as gr import requests from fastapi import FastAPI, Request from pydantic import BaseModel import uvicorn import nest_asyncio app = FastAPI() @app.post("/api/v1/document/notification") async def receive_webhook(request: Request): json_data = await request.json() print(json.dumps(json_data, indent=2)) with gr.Blocks(gr.themes.Soft()) as demo: gr.Markdown("## RAG with MinIO") ch_interface = gr.ChatInterface(llm_chat, undo_btn=None, clear_btn="Clear") ch_interface.chatbot.show_label = False demo.queue() if __name__ == "__main__": nest_asyncio.apply() app = gr.mount_gradio_app(app, demo, path=CHAT_API_PATH) uvicorn.run(app, host="0.0.0.0", port=8808)


 ## Test with sample text get_embedding("What is MinIO?")


Vytvorte upozornenia na udalosti MinIO a prepojte ich s vlastným korpusom

Vytvoriť udalosť Webhooku

V konzole prejdite na Udalosti-> Pridať cieľ udalosti -> Webhook


Vyplňte polia nasledujúcimi hodnotami a stlačte Uložiť


Identifikátor - doc-webhook


Koncový bod - http://localhost:8808/api/v1/document/notification


Po zobrazení výzvy kliknite na Reštartovať MinIO v hornej časti


( Poznámka : Na tento účel môžete použiť aj mc)

Prepojte udalosť Webhooku s udalosťami vlastného korpusu

V konzole prejdite na Buckets (Administrator) -> custom-corpus -> Events


Vyplňte polia nasledujúcimi hodnotami a stlačte Uložiť


ARN – Z rozbaľovacej ponuky vyberte doc-webhook


Vyberte Udalosti - Začiarknite PUT a DELETE


( Poznámka : Na tento účel môžete použiť aj mc)


Máme za sebou prvé nastavenie webhooku

Teraz otestujte pridaním a odstránením objektu

Extrahujte údaje z dokumentov a bloku

Na čítanie objektu z MinIO a rozdelených dokumentov na viacnásobné časti použijeme Langchain a Unstructured


 from langchain_text_splitters import RecursiveCharacterTextSplitter from langchain_community.document_loaders import S3FileLoader MINIO_ENDPOINT = "http://localhost:9000" MINIO_ACCESS_KEY = "minioadmin" MINIO_SECRET_KEY = "minioadmin" # Split Text from a given document using chunk_size number of characters text_splitter = RecursiveCharacterTextSplitter(chunk_size=1024, chunk_overlap=64, length_function=len) def split_doc_by_chunks(bucket_name, object_key): loader = S3FileLoader(bucket_name, object_key, endpoint_url=MINIO_ENDPOINT, aws_access_key_id=MINIO_ACCESS_KEY, aws_secret_access_key=MINIO_SECRET_KEY) docs = loader.load() doc_splits = text_splitter.split_documents(docs) return doc_splits


 # test the chunking split_doc_by_chunks("custom-corpus", "The-Enterprise-Object-Store-Feature-Set.pdf")

Pridajte logiku Chunking do Webhooku

Pridajte logiku blokov do webhooku a uložte metadáta a bloky do segmentu skladu


 import urllib.parse import s3fs METADATA_PREFIX = "metadata" # Using s3fs to save and delete objects from MinIO s3 = s3fs.S3FileSystem() # Split the documents and save the metadata to warehouse bucket def create_object_task(json_data): for record in json_data["Records"]: bucket_name = record["s3"]["bucket"]["name"] object_key = urllib.parse.unquote(record["s3"]["object"]["key"]) print(record["s3"]["bucket"]["name"], record["s3"]["object"]["key"]) doc_splits = split_doc_by_chunks(bucket_name, object_key) for i, chunk in enumerate(doc_splits): source = f"warehouse/{METADATA_PREFIX}/{bucket_name}/{object_key}/chunk_{i:05d}.json" with s3.open(source, "w") as f: f.write(chunk.json()) return "Task completed!" def delete_object_task(json_data): for record in json_data["Records"]: bucket_name = record["s3"]["bucket"]["name"] object_key = urllib.parse.unquote(record["s3"]["object"]["key"]) s3.delete(f"warehouse/{METADATA_PREFIX}/{bucket_name}/{object_key}", recursive=True) return "Task completed!"

Aktualizujte server FastAPI pomocou novej logiky

 import json import gradio as gr import requests from fastapi import FastAPI, Request, BackgroundTasks from pydantic import BaseModel import uvicorn import nest_asyncio app = FastAPI() @app.post("/api/v1/document/notification") async def receive_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() if json_data["EventName"] == "s3:ObjectCreated:Put": print("New object created!") background_tasks.add_task(create_object_task, json_data) if json_data["EventName"] == "s3:ObjectRemoved:Delete": print("Object deleted!") background_tasks.add_task(delete_object_task, json_data) return {"status": "success"} with gr.Blocks(gr.themes.Soft()) as demo: gr.Markdown("## RAG with MinIO") ch_interface = gr.ChatInterface(llm_chat, undo_btn=None, clear_btn="Clear") ch_interface.chatbot.show_label = False demo.queue() if __name__ == "__main__": nest_asyncio.apply() app = gr.mount_gradio_app(app, demo, path=CHAT_API_PATH) uvicorn.run(app, host="0.0.0.0", port=8808)

Pridajte nový webhook na spracovanie metadát/kúskov dokumentu

Teraz, keď funguje prvý webhook, ďalším krokom je získať všetky časti s metadátami, vygenerovať vloženia a uložiť ich do vektorovej databázy



 import json import gradio as gr import requests from fastapi import FastAPI, Request, BackgroundTasks from pydantic import BaseModel import uvicorn import nest_asyncio app = FastAPI() @app.post("/api/v1/metadata/notification") async def receive_metadata_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() print(json.dumps(json_data, indent=2)) @app.post("/api/v1/document/notification") async def receive_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() if json_data["EventName"] == "s3:ObjectCreated:Put": print("New object created!") background_tasks.add_task(create_object_task, json_data) if json_data["EventName"] == "s3:ObjectRemoved:Delete": print("Object deleted!") background_tasks.add_task(delete_object_task, json_data) return {"status": "success"} with gr.Blocks(gr.themes.Soft()) as demo: gr.Markdown("## RAG with MinIO") ch_interface = gr.ChatInterface(llm_chat, undo_btn=None, clear_btn="Clear") ch_interface.chatbot.show_label = False demo.queue() if __name__ == "__main__": nest_asyncio.apply() app = gr.mount_gradio_app(app, demo, path=CHAT_API_PATH) uvicorn.run(app, host="0.0.0.0", port=8808)


Vytvorte upozornenia na udalosti MinIO a prepojte ich s vedro skladu

Vytvorte udalosť Webhooku

V konzole prejdite na Udalosti-> Pridať cieľ udalosti -> Webhook


Vyplňte polia nasledujúcimi hodnotami a stlačte Uložiť


Identifikátor - metadata-webhook


Koncový bod - http://localhost:8808/api/v1/metadata/notification


Po zobrazení výzvy kliknite na Reštartovať MinIO v hornej časti


( Poznámka : Na tento účel môžete použiť aj mc)

Prepojte udalosť Webhooku s udalosťami vlastného korpusu

V konzole prejdite na Buckets (Správca) -> sklad -> Udalosti


Vyplňte polia nasledujúcimi hodnotami a stlačte Uložiť


ARN – z rozbaľovacej ponuky vyberte webhook metadát


Predpona - metadáta/


Prípona – .json


Vyberte Udalosti - Začiarknite PUT a DELETE


( Poznámka : Na tento účel môžete použiť aj mc)


Máme za sebou prvé nastavenie webhooku

Teraz otestujte pridaním a odstránením objektu vo vlastnom korpuse a zistite, či sa tento webhook spustí

Vytvorte LanceDB vektorovú databázu v MinIO

Teraz, keď už funguje základný webhook, poďme nastaviť vektorovú databázu lanceDB v skladovom vedre MinIO, do ktorého uložíme všetky vloženia a ďalšie polia metadát.


 import os import lancedb # Set these environment variables for the lanceDB to connect to MinIO os.environ["AWS_DEFAULT_REGION"] = "us-east-1" os.environ["AWS_ACCESS_KEY_ID"] = MINIO_ACCESS_KEY os.environ["AWS_SECRET_ACCESS_KEY"] = MINIO_SECRET_KEY os.environ["AWS_ENDPOINT"] = MINIO_ENDPOINT os.environ["ALLOW_HTTP"] = "True" db = lancedb.connect("s3://warehouse/v-db/")


 # list existing tables db.table_names()


 # Create a new table with pydantic schema from lancedb.pydantic import LanceModel, Vector import pyarrow as pa DOCS_TABLE = "docs" EMBEDDINGS_DIM = 768 table = None class DocsModel(LanceModel): parent_source: str # Actual object/document source source: str # Chunk/Metadata source text: str # Chunked text vector: Vector(EMBEDDINGS_DIM, pa.float16()) # Vector to be stored def get_or_create_table(): global table if table is None and DOCS_TABLE not in list(db.table_names()): return db.create_table(DOCS_TABLE, schema=DocsModel) if table is None: table = db.open_table(DOCS_TABLE) return table


 # Check if that worked get_or_create_table()


 # list existing tables db.table_names()

Pridajte Ukladanie/odstraňovanie údajov z lanceDB do metadata-webhook

 import multiprocessing EMBEDDING_DOCUMENT_PREFIX = "search_document" # Add queue that keeps the processed meteadata in memory add_data_queue = multiprocessing.Queue() delete_data_queue = multiprocessing.Queue() def create_metadata_task(json_data): for record in json_data["Records"]: bucket_name = record["s3"]["bucket"]["name"] object_key = urllib.parse.unquote(record["s3"]["object"]["key"]) print(bucket_name, object_key) with s3.open(f"{bucket_name}/{object_key}", "r") as f: data = f.read() chunk_json = json.loads(data) embeddings = get_embedding(f"{EMBEDDING_DOCUMENT_PREFIX}: {chunk_json['page_content']}") add_data_queue.put({ "text": chunk_json["page_content"], "parent_source": chunk_json.get("metadata", "").get("source", ""), "source": f"{bucket_name}/{object_key}", "vector": embeddings }) return "Metadata Create Task Completed!" def delete_metadata_task(json_data): for record in json_data["Records"]: bucket_name = record["s3"]["bucket"]["name"] object_key = urllib.parse.unquote(record["s3"]["object"]["key"]) delete_data_queue.put(f"{bucket_name}/{object_key}") return "Metadata Delete Task completed!"

Pridajte plánovač, ktorý spracováva údaje z frontov

 from apscheduler.schedulers.background import BackgroundScheduler import pandas as pd def add_vector_job(): data = [] table = get_or_create_table() while not add_data_queue.empty(): item = add_data_queue.get() data.append(item) if len(data) > 0: df = pd.DataFrame(data) table.add(df) table.compact_files() print(len(table.to_pandas())) def delete_vector_job(): table = get_or_create_table() source_data = [] while not delete_data_queue.empty(): item = delete_data_queue.get() source_data.append(item) if len(source_data) > 0: filter_data = ", ".join([f'"{d}"' for d in source_data]) table.delete(f'source IN ({filter_data})') table.compact_files() table.cleanup_old_versions() print(len(table.to_pandas())) scheduler = BackgroundScheduler() scheduler.add_job(add_vector_job, 'interval', seconds=10) scheduler.add_job(delete_vector_job, 'interval', seconds=10)

Aktualizujte FastAPI pomocou zmien vkladania vektorov

 import json import gradio as gr import requests from fastapi import FastAPI, Request, BackgroundTasks from pydantic import BaseModel import uvicorn import nest_asyncio app = FastAPI() @app.on_event("startup") async def startup_event(): get_or_create_table() if not scheduler.running: scheduler.start() @app.on_event("shutdown") async def shutdown_event(): scheduler.shutdown() @app.post("/api/v1/metadata/notification") async def receive_metadata_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() if json_data["EventName"] == "s3:ObjectCreated:Put": print("New Metadata created!") background_tasks.add_task(create_metadata_task, json_data) if json_data["EventName"] == "s3:ObjectRemoved:Delete": print("Metadata deleted!") background_tasks.add_task(delete_metadata_task, json_data) return {"status": "success"} @app.post("/api/v1/document/notification") async def receive_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() if json_data["EventName"] == "s3:ObjectCreated:Put": print("New object created!") background_tasks.add_task(create_object_task, json_data) if json_data["EventName"] == "s3:ObjectRemoved:Delete": print("Object deleted!") background_tasks.add_task(delete_object_task, json_data) return {"status": "success"} with gr.Blocks(gr.themes.Soft()) as demo: gr.Markdown("## RAG with MinIO") ch_interface = gr.ChatInterface(llm_chat, undo_btn=None, clear_btn="Clear") ch_interface.chatbot.show_label = False ch_interface.chatbot.height = 600 demo.queue() if __name__ == "__main__": nest_asyncio.apply() app = gr.mount_gradio_app(app, demo, path=CHAT_API_PATH) uvicorn.run(app, host="0.0.0.0", port=8808) 




Teraz, keď funguje plynovod pre príjem, integrujme konečný plynovod RAG.

Pridajte schopnosť vektorového vyhľadávania

Teraz, keď máme dokument vložený do lanceDB, pridajte možnosť vyhľadávania


 EMBEDDING_QUERY_PREFIX = "search_query" def search(query, limit=5): query_embedding = get_embedding(f"{EMBEDDING_QUERY_PREFIX}: {query}") res = get_or_create_table().search(query_embedding).metric("cosine").limit(limit) return res


 # Lets test to see if it works res = search("What is MinIO Enterprise Object Store Lite?") res.to_list()

Vyzvite LLM, aby použila príslušné dokumenty

 RAG_PROMPT = """ DOCUMENT: {documents} QUESTION: {user_question} INSTRUCTIONS: Answer in detail the user's QUESTION using the DOCUMENT text above. Keep your answer ground in the facts of the DOCUMENT. Do not use sentence like "The document states" citing the document. If the DOCUMENT doesn't contain the facts to answer the QUESTION only Respond with "Sorry! I Don't know" """


 context_df = [] def llm_chat(user_question, history): history = history or [] global context_df # Search for relevant document chunks res = search(user_question) documents = " ".join([d["text"].strip() for d in res.to_list()]) # Pass the chunks to LLM for grounded response llm_resp = requests.post(LLM_ENDPOINT, json={"model": LLM_MODEL, "messages": [ {"role": "user", "content": RAG_PROMPT.format(user_question=user_question, documents=documents) } ], "options": { # "temperature": 0, "top_p": 0.90, }}, stream=True) bot_response = "**AI:** " for resp in llm_resp.iter_lines(): json_data = json.loads(resp) bot_response += json_data["message"]["content"] yield bot_response context_df = res.to_pandas() context_df = context_df.drop(columns=['source', 'vector']) def clear_events(): global context_df context_df = [] return context_df

Aktualizujte FastAPI Chat Endpoint na používanie RAG

 import json import gradio as gr import requests from fastapi import FastAPI, Request, BackgroundTasks from pydantic import BaseModel import uvicorn import nest_asyncio app = FastAPI() @app.on_event("startup") async def startup_event(): get_or_create_table() if not scheduler.running: scheduler.start() @app.on_event("shutdown") async def shutdown_event(): scheduler.shutdown() @app.post("/api/v1/metadata/notification") async def receive_metadata_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() if json_data["EventName"] == "s3:ObjectCreated:Put": print("New Metadata created!") background_tasks.add_task(create_metadata_task, json_data) if json_data["EventName"] == "s3:ObjectRemoved:Delete": print("Metadata deleted!") background_tasks.add_task(delete_metadata_task, json_data) return {"status": "success"} @app.post("/api/v1/document/notification") async def receive_webhook(request: Request, background_tasks: BackgroundTasks): json_data = await request.json() if json_data["EventName"] == "s3:ObjectCreated:Put": print("New object created!") background_tasks.add_task(create_object_task, json_data) if json_data["EventName"] == "s3:ObjectRemoved:Delete": print("Object deleted!") background_tasks.add_task(delete_object_task, json_data) return {"status": "success"} with gr.Blocks(gr.themes.Soft()) as demo: gr.Markdown("## RAG with MinIO") ch_interface = gr.ChatInterface(llm_chat, undo_btn=None, clear_btn="Clear") ch_interface.chatbot.show_label = False ch_interface.chatbot.height = 600 gr.Markdown("### Context Supplied") context_dataframe = gr.DataFrame(headers=["parent_source", "text", "_distance"], wrap=True) ch_interface.clear_btn.click(clear_events, [], context_dataframe) @gr.on(ch_interface.output_components, inputs=[ch_interface.chatbot], outputs=[context_dataframe]) def update_chat_context_df(text): global context_df if context_df is not None: return context_df return "" demo.queue() if __name__ == "__main__": nest_asyncio.apply() app = gr.mount_gradio_app(app, demo, path=CHAT_API_PATH) uvicorn.run(app, host="0.0.0.0", port=8808)


Podarilo sa vám prejsť a implementovať chat založený na RAG s MinIO ako backendom dátového jazera? V blízkej budúcnosti urobíme webový seminár na rovnakú tému, kde vám poskytneme živú ukážku pri vytváraní tejto chatovacej aplikácie založenej na RAG.

RAGs-R-Us

Ako vývojár zameraný na integráciu AI v MinIO neustále skúmam, ako možno naše nástroje bezproblémovo integrovať do moderných architektúr AI, aby sa zvýšila efektivita a škálovateľnosť. V tomto článku sme vám ukázali, ako integrovať MinIO s Retrieval-Augmented Generation (RAG) na vytvorenie chatovacej aplikácie. Toto je len špička ľadovca, ktorá vám poskytne impulz vo vašej snahe vybudovať viac unikátnych použitých puzdier pre RAG a MinIO. Teraz na to máte stavebné kamene. Poďme na to!


Ak máte akékoľvek otázky týkajúce sa integrácie MinIO RAG, určite nás kontaktujte na Slack !