Թեև որոշ վեբկայքեր հեշտությամբ կարելի է քերել՝ օգտագործելով միայն Selenium, Puppeteer և այլն, այլ կայքեր, որոնք իրականացնում են անվտանգության առաջադեմ միջոցներ, ինչպիսիք են CAPTCHA-ները և IP-ի արգելքները, կարող են դժվար լինել: Այս մարտահրավերները հաղթահարելու և համոզվելու համար, որ դուք կարող եք անվճար քերել կայքերի 99%-ը՝ օգտագործելով Scraper-ը, դուք դա կկառուցեք այս հոդվածում և կինտեգրեք ձեր կոդի մեջ, որը կօգնի շրջանցել անվտանգության այս միջոցները: վստահված անձի գործիք Այնուամենայնիվ, տվյալների հավաքումը ընդամենը մեկ քայլ է. այն, ինչ դուք անում եք այդ տվյալների հետ, հավասարապես, եթե ոչ ավելի, կարևոր է: Հաճախ դա պահանջում է մեծ ծավալի տեղեկատվության ձեռքով մանրակրկիտ ուսումնասիրել: Բայց ի՞նչ կլիներ, եթե կարողանայիք ավտոմատացնել այս գործընթացը: Լեզվի մոդելը (LLM) օգտագործելով՝ դուք կարող եք ոչ միայն տվյալներ հավաքել, այլև հարցումներ կատարել՝ իմաստալից պատկերացումներ կորզելու համար՝ խնայելով ժամանակ և ջանք: Այս ուղեցույցում դուք կսովորեք, թե ինչպես համատեղել վեբ քերծումը AI-ի հետ՝ ստեղծելու հզոր գործիք՝ անվճար մասշտաբով տվյալներ հավաքելու և վերլուծելու համար: Եկեք սուզվենք: Նախադրյալներ Նախքան սկսելը, համոզվեք, որ ունեք հետևյալը. Python-ի հիմնական գիտելիքները, քանի որ այս նախագիծը ներառում է Python կոդը գրելն ու հասկանալը: Տեղադրեք Python (3.7 կամ ավելի նոր) ձեր համակարգում: Դուք կարող եք ներբեռնել այն . python.org Տեղադրում և կարգավորում Այս ձեռնարկը շարունակելու համար կատարեք հետևյալ քայլերը. Հետևեք այս քայլերին՝ ձեր միջավայրը կարգավորելու և AI-ով աշխատող քերիչի կառուցմանը պատրաստվելու համար: 1. Ստեղծեք վիրտուալ միջավայր Նախ, ստեղծեք վիրտուալ միջավայր՝ ձեր նախագծի կախվածությունները կառավարելու համար: Սա կապահովի, որ դուք կունենաք մեկուսացված տարածք բոլոր անհրաժեշտ փաթեթների համար: Ստեղծեք նոր նախագծի գրացուցակ. Բացեք ձեր տերմինալը (կամ Command Prompt/PowerShell Windows-ում) և ստեղծեք նոր գրացուցակ ձեր նախագծի համար. mkdir ai-website-scraper cd ai-website-scraper Ստեղծեք վիրտուալ միջավայր. Վիրտուալ միջավայր ստեղծելու համար գործարկեք հետևյալ հրամանը. Windows-ում. python -m venv venv MacOS/Linux-ում. python3 -m venv venv Սա ստեղծում է թղթապանակ, որը կպահի վիրտուալ միջավայրը: venv 2. Ակտիվացրեք վիրտուալ միջավայրը Ակտիվացրեք վիրտուալ միջավայրը՝ դրա ներսում աշխատելու համար. Windows-ում. .\venv\Scripts\activate MacOS/Linux-ում. source venv/bin/activate Ձեր տերմինալի հուշումը կփոխվի և կցուցադրվի ( )՝ հաստատելով, որ դուք այժմ գտնվում եք վիրտուալ միջավայրում: venv 3. Տեղադրեք Պահանջվող Կախվածությունները Այժմ տեղադրեք գրադարանները, որոնք անհրաժեշտ են ձեր նախագծին: Ստեղծեք ֆայլ ձեր նախագծի գրացուցակում և ավելացրեք հետևյալ կախվածությունները. requirements.txt streamlit selenium Beautifulsoup4 langchain langchain-ollama lxml html5lib Այս փաթեթները կարևոր են քերելու, տվյալների մշակման և միջերեսի կառուցման համար. : Սա օգտագործվում է ինտերակտիվ ինտերֆեյսի ստեղծման համար: streamlit : Կայքի բովանդակությունը քերելու համար: Սելեն . HTML-ը վերլուծելու և մաքրելու համար: beautifulsoup4 և . Սա նախատեսված է Ollama LLM-ի հետ ինտեգրվելու և տեքստի մշակման համար: langchain langchain-ollama և . առաջադեմ HTML վերլուծության համար: lxml html5lib Տեղադրեք կախվածությունները՝ գործարկելով հետևյալ հրամանը. (Հրահանգը գործարկելուց առաջ համոզվեք, որ գտնվում եք այն թղթապանակում, որտեղ գտնվում է ֆայլը): pip install -r requirements.txt UI-ի կառուցում Streamlit-ով հեշտացնում է Python հավելվածների համար ինտերակտիվ ինտերֆեյսի (UI) ստեղծումը: Այս բաժնում դուք կկառուցեք պարզ, օգտագործողի համար հարմար ինտերֆեյս, որտեղ օգտվողները կարող են մուտքագրել URL և ցուցադրել քերված տվյալները: Streamlit 1. Ստեղծեք Streamlit Script-ը Ստեղծեք ui.py անունով ֆայլ ձեր նախագծի գրացուցակում: Այս սցենարը կսահմանի միջերեսը ձեր քերիչի համար: Օգտագործեք ստորև բերված կոդը՝ ձեր դիմումը կառուցելու համար. import streamlit as st import pathlib from main import scrape_website # function to load css from the assets folder def load_css(file_path): with open(file_path) as f: st.html(f"<style>{f.read()}</style>") # Load the external CSS css_path = pathlib.Path("assets/style.css") if css_path.exists(): load_css(css_path) st.title("AI Scraper") st.markdown( "Enter a website URL to scrape, clean the text content, and display the result in smaller chunks." ) url = st.text_input(label= "", placeholder="Enter the URL of the website you want to scrape") if st.button("Scrape", key="scrape_button"): st.write("scraping the website...") result = scrape_website(url) st.write("Scraping complete.") st.write(result) և գործառույթները կարգավորում են հավելվածի անվանումը և հրահանգներ տրամադրում օգտվողներին: St.title st.markdown բաղադրիչը թույլ է տալիս օգտատերերին մուտքագրել կայքի URL-ը, որը ցանկանում են քերել: St.text_input Սեղմելով «Scrape» կոճակը գործարկում է քերման տրամաբանությունը՝ ցուցադրելով առաջընթացի հաղորդագրությունները՝ օգտագործելով : st.info Դուք կարող եք ավելին իմանալ streamlit բաղադրիչների մասին դրանցից . փաստաթղթեր 2. Ավելացնել մաքսային ոճեր Ձեր հավելվածը ոճավորելու համար ստեղծեք ակտիվների թղթապանակ ձեր նախագծի գրացուցակում և ավելացրեք style.css ֆայլ: Անհատականացրեք Streamlit ինտերֆեյսը CSS-ով. .stAppViewContainer { background-image: url("https://images.unsplash.com/photo-1732979887702-40baea1c1ff6?q=80&w=2832&auto=format&fit=crop&ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D"); background-size: cover; color: black; } .stAppHeader { background-color: rgba(0, 0, 0, 0); } .st-ae { background-color: rgba(233, 235, 234, 0.895); } .st-emotion-cache-ysk9xe { color: black; } .st.info, .stAlert { background-color: black; } .st-key-scrape_button button { display: inline-block; padding: 10px 20px; font-size: 16px; color: #fff; background-color: #007bff; border: none; border-radius: 5px; cursor: pointer; animation: pulse 2s infinite; } .st-key-scrape_button button:hover { background-color: #0056b3; color: #fff; } 3. Գործարկեք Streamlit հավելվածը Ձեր նախագծի գրացուցակում գործարկեք հետևյալ հրամանը. streamlit run ui.py Սա կգործարկի տեղական սերվեր, և դուք պետք է տեսնեք URL տերմինալում, սովորաբար : Բացեք այս URL-ը ձեր բրաուզերում՝ վեբ հավելվածի հետ փոխազդելու համար: http://localhost:8501 Կայքի քերծում սելենի միջոցով Հաջորդը, գրեք կոդը՝ սելենի միջոցով ցանկացած վեբ էջի HTML բովանդակությունը հանելու համար: Այնուամենայնիվ, որպեսզի կոդը աշխատի, ձեզ հարկավոր է Chrome WebDriver: Տեղադրեք ChromeDriver-ը Selenium-ի համար Selenium-ը պահանջում է WebDriver՝ վեբ էջերի հետ փոխազդելու համար: Ահա թե ինչպես կարելի է այն կարգավորել. Ներբեռնեք ChromeDriver. Այցելեք սա և ներբեռնեք ձեր Google Chrome բրաուզերի համապատասխան տարբերակը: ChromeDriver կայք Ավելացնել ChromeDriver-ը PATH-ին ChromeDriver-ը ներբեռնելուց հետո հանեք ֆայլը և պատճենեք հավելվածի ֆայլի անունը « » և տեղադրեք այն ձեր նախագծի թղթապանակում: chromedriver Երբ դա արվի, ստեղծեք նոր ֆայլ, որը կոչվում է և գործադրեք ստորև նշված կոդը. main.py from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.chrome.service import Service from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC # Function to scrape HTML from a website def scrape_website(website_url): # Path to WebDriver webdriver_path = "./chromedriver" # Replace with your WebDriver path service = Service(webdriver_path) driver = webdriver.Chrome(service=service) try: # Open the website driver.get(website_url) # Wait for the page to fully load WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.TAG_NAME, "body"))) # Extract the HTML source html_content = driver.page_source return html_content finally: # Ensure the browser is closed after scraping driver.quit() Պահպանեք և գործարկեք կոդը; դուք պետք է ստանաք ձեր քերած էջի ամբողջ HTML-ը, որը ցուցադրվում է ձեր պարզեցված հավելվածում այսպես. Օգտագործելով վստահված անձի մատակարար՝ վեբկայքը շրջանցելու Captcha-ի և IP-ի արգելքներով Թեև այժմ դուք կարող եք առբերել վեբկայքի HTML-ը, վերը նշված կոդը կարող է չաշխատել առաջադեմ հակագրոհման մեխանիզմներով կայքերի համար, ինչպիսիք են CAPTCHA մարտահրավերները կամ IP-ի արգելքները: Օրինակ՝ Indeed-ի կամ Amazon-ի նման կայք քերելը Selenium-ի միջոցով կարող է հանգեցնել CAPTCHA էջի մուտքի արգելափակմանը: Դա տեղի է ունենում այն պատճառով, որ կայքը հայտնաբերում է, որ բոտը փորձում է մուտք գործել իր բովանդակությունը: Եթե այս պահվածքը շարունակվի, կայքը կարող է ի վերջո արգելել ձեր IP հասցեն՝ կանխելով հետագա մուտքը: Դա շտկելու համար ինտեգրվեք ձեր սցենարի մեջ: Scraping զննարկիչը հզոր գործիք է, որը օգտագործում է բազմաթիվ վստահված ցանցեր, ներառյալ բնակելի IP-ները, շրջանցելու հակաքերական պաշտպանությունը: Այն կարգավորում է էջերի ապաշրջափակումը` կառավարելով հատուկ վերնագրերը, դիտարկիչի մատնահետքերը, CAPTCHA լուծումը և այլն: Սա ապահովում է, որ ձեր քերծող ջանքերը մնան չբացահայտված՝ բովանդակություն անխափան մուտք գործելիս: Bright Data's Scraping Browser Bright Data's Scraping Browser-ի անվճար կարգավորում Գրանցվել — գնալ և սեղմեք « »: Եթե դուք արդեն ունեք հաշիվ Bright Data-ով, կարող եք պարզապես մուտք գործել: Bright Data-ի գլխավոր էջը Սկսել անվճար փորձարկումը Մուտք գործելուց հետո կտտացրեք « »: Ստացեք վստահված անձի արտադրանք Կտտացրեք « » կոճակը և ընտրեք « »: Ավելացնել Scraping Browser Հաջորդը, դուք կտեղափոխվեք « » էջ, որտեղ ձեզանից կպահանջվի ընտրել անուն ձեր նոր քերծող բրաուզերի վստահված անձի գոտու համար: Դրանից հետո կտտացրեք « »: Ավելացնել գոտի Ավելացնել Դրանից հետո ձեր վստահված անձի գոտու հավատարմագրերը կստեղծվեն: Ձեզ անհրաժեշտ կլինեն այս մանրամասները ձեր սկրիպտում, որպեսզի շրջանցեք ցանկացած վեբկայքում օգտագործվող հակագրոհման մեխանիզմները: Դուք կարող եք նաև ստուգել Bright Data-ի մշակողի փաստաթղթերը՝ քերող բրաուզերի մասին լրացուցիչ մանրամասների համար: Ձեր ֆայլում փոխեք կոդը սրանով: Դուք կնկատեք, որ այս կոդը ավելի մաքուր է և կարճ, քան նախորդ կոդը: main.py from selenium.webdriver import Remote, ChromeOptions from selenium.webdriver.chromium.remote_connection import ChromiumRemoteConnection from selenium.webdriver.common.by import By from bs4 import BeautifulSoup AUTH = '<username>:<passord>' SBR_WEBDRIVER = f'https://{AUTH}@brd.superproxy.io:9515' # Function to scrape HTML from a website def scrape_website(website_url): print("Connecting to Scraping Browser...") sbr_connection = ChromiumRemoteConnection(SBR_WEBDRIVER, "goog", "chrome") with Remote(sbr_connection, options=ChromeOptions()) as driver: driver.get(website_url) print("Waiting captcha to solve...") solve_res = driver.execute( "executeCdpCommand", { "cmd": "Captcha.waitForSolve", "params": {"detectTimeout": 10000}, }, ) print("Captcha solve status:", solve_res["value"]["status"]) print("Navigated! Scraping page content...") html = driver.page_source return html Փոխարինեք և ը ձեր զննարկիչի օգտանունով և գաղտնաբառով: <username>-ը <password>- Մաքրում է Dom-ի բովանդակությունը Կայքի HTML բովանդակությունը քերելուց հետո այն հաճախ լցվում է ավելորդ տարրերով, ինչպիսիք են JavaScript-ը, CSS ոճերը կամ անցանկալի պիտակները, որոնք չեն նպաստում ձեր արդյունահանվող հիմնական տեղեկատվությանը: Տվյալներն ավելի կառուցվածքային և օգտակար դարձնելու համար անհրաժեշտ է մաքրել DOM-ի բովանդակությունը՝ հեռացնելով անհամապատասխան տարրերը և կազմակերպելով տեքստը: Այս բաժինը բացատրում է, թե ինչպես մաքրել HTML բովանդակությունը, հանել իմաստալից տեքստ և այն բաժանել փոքր կտորների՝ ներքևում մշակման համար: Մաքրման գործընթացը կարևոր է այնպիսի առաջադրանքների համար տվյալների պատրաստման համար, ինչպիսիք են բնական լեզվի մշակումը կամ բովանդակության վերլուծությունը: Code Walkthrough DOM-ի բովանդակությունը մաքրելու համար Ահա կոդը, որը կավելացվի ին՝ DOM-ի բովանդակությունը մաքրելու համար. main.py- from bs4 import BeautifulSoup # Extract the body content from the HTML def extract_body_content(html_content): soup = BeautifulSoup(html_content, "html.parser") body_content = soup.body if body_content: return str(body_content) return "" # Clean the body content by removing scripts, styles, and other unwanted elements def clean_body_content(body_content): soup = BeautifulSoup(body_content, "html.parser") # Remove <script> and <style> tags for script_or_style in soup(["script", "style"]): script_or_style.extract() # Extract cleaned text with each line separated by a newline cleaned_content = soup.get_text(separator="\n") cleaned_content = "\n".join( line.strip() for line in cleaned_content.splitlines() if line.strip() ) return cleaned_content # Split the cleaned content into smaller chunks for processing def split_dom_content(dom_content, max_length=5000): return [ dom_content[i : i + max_length] for i in range(0, len(dom_content), max_length) ] Ինչ է անում օրենսգիրքը Մարմնի բովանդակության արդյունահանում. ֆունկցիան օգտագործում է BeautifulSoup HTML-ը վերլուծելու և թեգի բովանդակությունը հանելու համար: Extract_body_content <body> Եթե կա թեգ, ֆունկցիան այն վերադարձնում է որպես տող: Հակառակ դեպքում այն վերադարձնում է դատարկ տող: <body> Բովանդակության մաքրում. ֆունկցիան մշակում է արդյունահանված բովանդակությունը՝ ավելորդ տարրերը հեռացնելու համար. clean_body_content և թեգերը հեռացվում են JavaScript-ը և CSS-ը վերացնելու համար: <script> <style> Ֆունկցիան առբերում է պարզ տեքստը մաքրված բովանդակությունից: Այն ֆորմատավորում է տեքստը՝ հեռացնելով դատարկ տողերն ու կողմնակի տարածությունները: Բովանդակության բաժանում. ֆունկցիան վերցնում է մաքրված բովանդակությունը և այն բաժանում է ավելի փոքր կտորների՝ լռելյայն առավելագույն երկարությունը 5000 նիշով: Split_dom_content Սա օգտակար է կառավարելի կտորներով մեծ քանակությամբ տեքստ մշակելու համար, հատկապես երբ տվյալներ փոխանցվում են նշանների կամ մուտքային չափի սահմանափակումներով մոդելներին: Պահպանեք ձեր փոփոխությունները և փորձարկեք ձեր դիմումը: Դուք պետք է ստանաք այսպիսի արդյունք վեբ կայքը քերելուց հետո: Դոմի բովանդակության վերլուծություն Օլամային Երբ DOM-ի բովանդակությունը մաքրվի և պատրաստվի, հաջորդ քայլը տեղեկատվության վերլուծությունն է՝ օգտագործելով հատուկ մանրամասներ , մեծ լեզվի մոդել (LLM)՝ ինտեգրված LangChain-ի հետ։ Ollama-ն CLI գործիք է, որն օգտագործվում է տեղական LLM-ները ներբեռնելու և գործարկելու համար: Այնուամենայնիվ, նախքան Ollama-ն օգտագործելը, դուք պետք է կատարեք հետևյալ տեղադրումները. Օլլամա Եթե չեք արել, ներբեռնեք և տեղադրեք Ollama-ից . Դուք կարող եք տեղադրել այն Mac-ում՝ օգտագործելով Homebrew հրամանը: պաշտոնական կայք brew install ollama Հաջորդը, տեղադրեք ցանկացած մոդել ; կան մոդելներ, ինչպիսիք են Phi3, Mistral, Gemma 2 և այլն; յուրաքանչյուրն ունի իր համակարգի պահանջները: Այս կոդը օգտագործում է phi3 հիմնականում այն պատճառով, որ այն թեթև է: այս ցանկը ollama pull phi3 Տեղադրվելուց հետո դուք կարող եք կանչել այդ մոդելը ձեր սկրիպտից՝ օգտագործելով LangChain՝ նրան ուղարկվող տվյալներից իմաստալից պատկերացումներ տրամադրելու համար: Ահա թե ինչպես կարելի է կարգավորել ֆունկցիոնալությունը՝ DOM բովանդակությունը մոդելի մեջ վերլուծելու համար phi3 Կոդի ուղեցույց llm.py-ի համար Հետևյալ կոդը իրականացնում է DOM-ի կտորները Օլլամայի հետ վերլուծելու և համապատասխան մանրամասներ հանելու տրամաբանությունը. from langchain_ollama import OllamaLLM from langchain_core.prompts import ChatPromptTemplate # Template to instruct Ollama for parsing template = ( "You are tasked with extracting specific information from the following text content: {dom_content}. " "Please follow these instructions carefully: \n\n" "1. **Extract Information:** Only extract the information that directly matches the provided description: {parse_description}. " "2. **No Extra Content:** Do not include any additional text, comments, or explanations in your response. " "3. **Empty Response:** If no information matches the description, return an empty string ('')." "4. **Direct Data Only:** Your output should contain only the data that is explicitly requested, with no other text." ) # Initialize the Ollama model model = OllamaLLM(model="phi3") # Function to parse DOM chunks with Ollama def parse_with_ollama(dom_chunks, parse_description): prompt = ChatPromptTemplate.from_template(template) chain = prompt | model parsed_results = [] for i, chunk in enumerate(dom_chunks, start=1): if not chunk.strip(): # Skip empty chunks print(f"Skipping empty chunk at batch {i}") continue try: print(f"Processing chunk {i}: {chunk[:100]}...") # Print a preview print(f"Parse description: {parse_description}") response = chain.invoke( { "dom_content": chunk, "parse_description": parse_description, } ) print(f"Response for batch {i}: {response}") parsed_results.append(response) except Exception as e: print(f"Error parsing chunk {i}: {repr(e)}") parsed_results.append(f"Error: {repr(e)}") return "\n".join(parsed_results) Ինչ է անում կոդը: Հրահանգների ձևանմուշ. Տրամադրում է ճշգրիտ ուղեցույց Օլամային, թե ինչ տեղեկատվություն պետք է կորզել: Ապահովում է, որ ելքը մաքուր է, հակիրճ և համապատասխան վերլուծության նկարագրությանը: Հատվածի մշակում. Parse_with_ollama ֆունկցիան կրկնվում է DOM կտորների միջով՝ յուրաքանչյուրը մշակելով LLM-ով: Բաց թողնում է դատարկ կտորները՝ արդյունավետությունը օպտիմալացնելու համար: Սխալների կառավարում. Հիանալի կերպով վարվում է սխալների հետ, գրանցում դրանք և շարունակում է մշակել մնացած կտորները: Ֆայլի ui.py ֆայլի թարմացում Ավելացրե՛ք հետևյալ կոդը ui.py ֆայլում՝ թույլ տալու օգտվողներին մուտքագրել վերլուծության հրահանգներ LLM-ում և դիտել արդյունքները. from main import scrape_website, extract_body_content, clean_body_content, split_dom_content from llm import parse_with_ollama if "dom_content" in st.session_state: parse_description = st.text_area("Enter a description to extract specific insights from your scraped data:") if st.button("Parse Content", key="parse_button"): if parse_description.strip() and st.session_state.get("dom_content"): st.info("Parsing the content...") dom_chunks = split_dom_content(st.session_state.dom_content) parsed_result = parse_with_ollama(dom_chunks, parse_description) st.text_area("Parsed Results", parsed_result, height=300) else: st.error("Please provide valid DOM content and a description to parse.") Ինչպես է այն աշխատում UI-ում Օգտագործողի մուտքագրում. Օգտագործողը տրամադրում է տվյալների բնական լեզվով նկարագրությունը՝ տեքստային տարածքում հանելու համար: Վերլուծման ձգան. Երբ կտտացնում ենք «Perse Content» կոճակը, մաքրված DOM բովանդակությունը բաժանվում է կառավարելի մասերի և փոխանցվում է parse_with_ollama-ին: Արդյունքների ցուցադրում՝ Վերլուծված արդյունքները ցուցադրվում են տեքստային տարածքում՝ թույլ տալով օգտվողներին վերանայել արդյունահանված տեղեկատվությունը: Դրանով քերիչը այժմ կարող է պատասխաններ տալ ձեր հուշումներին՝ հիմնվելով քերված տվյալների վրա: Ի՞նչ է հաջորդը: Վեբ քերծվածքի և AI-ի համադրությունը հետաքրքիր հնարավորություններ է բացում տվյալների վրա հիմնված պատկերացումների համար: Տվյալների հավաքագրումից և պահպանումից բացի, այժմ կարող եք օգտագործել AI-ն՝ օպտիմիզացնելու քերված տվյալներից պատկերացում կազմելու գործընթացը: Սա օգտակար է մարքեթինգի և վաճառքի թիմերի, տվյալների վերլուծության, բիզնեսի սեփականատերերի և շատ ավելին: Դուք կարող եք գտնել AI քերիչի ամբողջական կոդը այստեղ: Ազատորեն փորձարկեք դրա հետ և հարմարեցրեք այն ձեր յուրահատուկ կարիքներին: Ներդրումները նույնպես ողջունելի են. եթե բարելավման գաղափարներ ունեք, մտածեք ստեղծելու խնդրանք: Դուք կարող եք նաև դա շարունակել: Ահա մի քանի գաղափարներ. Փորձարկեք հուշումներով. հարմարեցրեք ձեր հուշումները՝ որոշակի պատկերացումներ հանելու կամ ծրագրի եզակի պահանջները լուծելու համար: Օգտվողի միջերես Ինտեգրել այլ LLM մոդելներ. Բացահայտեք այլ լեզուների մոդելներ, ինչպիսիք են , և այլն՝ ձեր տվյալների վերլուծությունը հետագայում օպտիմալացնելու համար: OpenAI Երկվորյակներ