ការដំណើរការប្រព័ន្ធផ្សព្វផ្សាយពាណិជ្ជកម្ម (LLM) នៅលើកុំព្យូទ័ររបស់អ្នកគឺមានភាពងាយស្រួលជាងមុន។ ប្រសិនបើអ្នកមិនត្រូវការទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទាត់ទូទូទាត់ទូទាត់ទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទាត់ទូទូទូទាត់ទូទូទូទាត់ទូទូទូទាត់ទូ វគ្គបណ្តុះបណ្តាលនេះនឹងបង្ហាញអ្នកពីរបៀបដើម្បីបង្កើត LLM សៀវភៅអ៊ីនធឺណិតនៅលើតំបន់, ការបង្ហាញឧបករណ៍ដែលមានន័យនិងដំណើរការអ្នកតាមរយៈវិធីសាស្រ្តដំឡើង UI និង command-line ។ អ្វីដែលយើងនឹងបំពាក់ ការយល់ដឹងអំពី Open Source LLMs ការជ្រើសរើសបណ្តាញដើម្បីដំណើរការ LLMs នៅកន្លែង ការដំឡើង Ollama ការដំឡើងនិងដំណើរការ LLMs ដោយតាមរយៈបន្ទាត់គោលបំណង ការគ្រប់គ្រងម៉ូដែលនិងឧបករណ៍ ការប្រើ Ollama ជាមួយកម្មវិធីផ្សេងទៀត ការដោះស្រាយបញ្ហានិងបញ្ហាធម្មតា ហេតុអ្វីដែលធ្វើការ LLMs ជាកន្លែងសំខាន់ លទ្ធផល ការយល់ដឹងអំពី Open Source LLMs ម៉ូដែលភាសាអំណាចធំគឺជាប្រភេទនៃ AI ដែលអាចយល់និងបង្កើតសៀវភៅដូចជា ChatGPT ។ ប៉ុន្តែវាអាចធ្វើការដោយគ្មានការផ្លាស់ប្តូរដោយផ្នែកខាងក្រៅ។ អ្នកអាចទាញយកឯកសារម៉ូដែលបានធ្វើដំណើរការរបស់ពួកគេនៅលើម៉ាស៊ីនរបស់អ្នកហើយប៉ុណ្ណោះបានកែច្នៃប្រឌិតរបស់ពួកគេសម្រាប់ការប្រើប្រាស់របស់អ្នក។ គម្រោងដូចជា Llama 3, Mistral, Gemma, និង Phi បានអនុញ្ញាតឱ្យធ្វើឱ្យប្រសើរឡើងម៉ូដែលដែលសមរម្យជាមួយនឹងឧបករណ៍អតិថិជន។ អ្នកអាចជ្រើសរើសរើសរើសរើសរើសរើសរើសម៉ូដែលតូចដែលធ្វើការនៅលើ CPU ឬម៉ូដែលធំជាងនេះដែលទទួលបានអត្ថប្រយោជន៍ពី GPUs ។ ការដំណើរការម៉ូដែលទាំងនេះនៅកន្លែងនេះផ្តល់ឱ្យអ្នកនូវការផ្ទាល់ខ្លួន, ការគ្រប់គ្រងនិងភាពងាយស្រួល។ វាត្រូវបានជួយអ្នកអភិវឌ្ឍន៍ក្នុងការរួមបញ្ចូលលក្ខណៈពិសេស AI ទៅក្នុងកម្មវិធីរបស់ពួកគេដោយគ្មានការផ្លាស់ប្តូរ APIs លើបណ្តាញបណ្តាញបណ្តាញ។ ការជ្រើសរើសបណ្តាញដើម្បីដំណើរការ LLMs នៅកន្លែង ដើម្បីដំណើរការម៉ូដែលអេឡិចត្រូនិអេឡិចត្រូនិអេឡិចត្រូនិអ្នកត្រូវការប្លាស្ទិចដែលអាចផ្ទុកវា, ការគ្រប់គ្រងទំហំរបស់វានិងផ្តល់នូវអេឡិចត្រូនិដើម្បីធ្វើការជាមួយវា។ 3 ការជ្រើសរើសដែលមានប្រជាប្រិយភាពសម្រាប់ការដំឡើងផ្ទាល់ខ្លួនគឺ: Ollama — ប្រព័ន្ធដែលមានភាពងាយស្រួលក្នុងការប្រើប្រាស់ដែលដំណើរការម៉ូដែលដូចជា OpenAI GPT OSS, Google Gemma ជាមួយនឹងការគ្រប់គ្រងមួយ។ វាមានប្រព័ន្ធប្រតិបត្តិការ Windows UI និងកំណែ CLI ។ LM Studio — កម្មវិធីកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រកុំព្យូទ័រ Gpt4All — ប្រព័ន្ធប្រតិបត្តិការ GUI ដែលមានប្រជាប្រិយភាពផ្សេងទៀត។ យើងនឹងប្រើ Ollama ដូចជាឧបករណ៍ជាឧបករណ៍ជាឧបករណ៍នៅក្នុងឧបករណ៍នេះដោយសារតែវាត្រូវបានគាំទ្រយ៉ាងទូលំទូលាយនិងរួមបញ្ចូលយ៉ាងងាយស្រួលជាមួយឧបករណ៍ផ្សេងទៀត។ ការដំឡើង Ollama វាគឺជាកម្មវិធីដំឡើងមួយដែលផ្តល់នូវអ្វីគ្រប់យ៉ាងដែលអ្នកត្រូវការដើម្បីដំឡើងម៉ូដែលផ្ទាល់ខ្លួន។ យោបល់ សូមស្វែងរកគេហទំព័ររបស់ Ollama និងទាញយកកម្មវិធីដំឡើង Windows ។ បន្ទាប់ពីបានទាញយក, ចុចពីរដងលើឯកសារដើម្បីចាប់ផ្តើមការដំឡើង។ ឧបករណ៍ដំឡើងនឹងរក្សាទុកអ្នកតាមរយៈដំណើរការដែលគ្រាន់តែមានរយៈពេលខ្លះ។ នៅពេលដែលការដំឡើងបានបញ្ចប់ Ollama នឹងដំណើរការនៅក្នុងបណ្តាញដូចជាសេវាកម្មផ្ទាល់ខ្លួន។ អ្នកអាចចូលទៅក្នុងវាឬតាមរយៈអ៊ីនធឺណិតផ្ទាល់ខ្លួនរបស់វាឬតាមរយៈបន្ទាត់គោលបំណង។ បន្ទាប់ពីការដំឡើង Ollama អ្នកអាចបើកកម្មវិធីពី Menu Start ។ UI បានធ្វើឱ្យវាងាយស្រួលសម្រាប់អ្នកចាប់ផ្តើមដើម្បីចាប់ផ្តើមការទំនាក់ទំនងជាមួយម៉ូដែលផ្ទាល់ខ្លួន។ ក្នុងអ៊ីនធឺណិត Ollama, អ្នកនឹងមើលឃើញកញ្ចប់សៀវភៅដែលមានភាពងាយស្រួលដែលអ្នកអាចសរសេរសំណួរនិងទទួលបានការឆ្លើយតប។ វាគឺជាកញ្ចប់ដែលបានបញ្ចូលគំរូដែលអាចរកបាន។ ដើម្បីទាញយកនិងប្រើម៉ូដែលអ្នកគ្រាន់តែជ្រើសរើសវាពីសៀវភៅ។ Ollama នឹងស្វែងរកទម្ងន់ម៉ូដែលដោយស្វ័យប្រវត្តិហើយទាញយកវាទៅក្នុងការចែកចាយ។ នៅពេលដែលអ្នកធ្វើសំណួរជាលើកដំបូងវានឹងទាញយកម៉ូដែលប្រសិនបើវាមិនមាន។ អ្នកអាចជ្រើសម៉ូដែលពី . ម៉ូដែលទំព័រស្វែងរក ខ្ញុំ នឹង ប្រើ នេះ ម៉ូដែលដែលជាម៉ូដែលតូចបំផុតដែលអាចរកបាននៅក្នុង Ollama ។ មូលដ្ឋាន 270m អ្នកអាចមើលឃើញម៉ូដែលដែលត្រូវបានទាញយកនៅពេលដែលបានប្រើជាលើកដំបូង។ ដោយផ្អែកលើទំហំម៉ូដែលនិងការអនុវត្តរបស់ប្រព័ន្ធរបស់អ្នកវាអាចមានពេលវេលាមួយចំនួន។ នៅពេលដែលវាបានទាញយកអ្នកអាចចាប់ផ្តើមការជួញដូរឬដំណើរការការងារដោយផ្ទាល់ក្នុងប្រព័ន្ធប្រតិបត្តិការ UI ។ វាត្រូវបានរចនាឡើងដើម្បីធ្វើឱ្យវាបានដូចជាការជួញដូរធម្មតាទេប៉ុន្តែអ្វីគ្រប់យ៉ាងត្រូវបានធ្វើឡើងនៅកន្លែងនៅលើ PC របស់អ្នក។ អ្នកមិនត្រូវការតភ្ជាប់អ៊ីនធឺណិតបន្ទាប់ពីម៉ូដែលត្រូវបានទាញយក។ ការដំឡើងនិងដំណើរការ LLMs ដោយតាមរយៈបន្ទាត់គោលបំណង ប្រសិនបើអ្នកចង់គ្រប់គ្រងបន្ថែមទៀតអ្នកអាចប្រើប្រព័ន្ធប្រតិបត្តិការ Ollama Command-Line Interface (CLI) ។ វាគឺជាប្រយោជន៍សម្រាប់អ្នកអភិវឌ្ឍន៍ឬអ្នកដែលចង់រួមបញ្ចូលគ្នានៃម៉ូដែលផ្ទាល់ខ្លួនទៅក្នុងសៀវភៅនិងដំណើរការការងារ។ ប្រសិនបើអ្នកចង់បើកដំណើរការបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ជាបញ្ ដើម្បីត្រួតពិនិត្យថាការដោះស្រាយនេះបានធ្វើបានឬទេ, ចុច: ollama --version ប្រសិនបើអ្នករកឃើញលេខកំណែ, Ollama គឺបានរចនាឡើង។ បន្ទាប់មក, ដើម្បីដំណើរការម៉ូដែលដំបូងរបស់អ្នក, ប្រើជម្រើសបង្វិល: ollama pull gemma3:270m នេះនឹងទាញយកម៉ូដែល Gemma ទៅម៉ាស៊ីនរបស់អ្នក។ នៅពេលដែលដំណើរការនេះបានបញ្ចប់បានចាប់ផ្តើមជាមួយ: ollama run gemma3:270m Ollama នឹងចាប់ផ្តើមម៉ូដែលនិងបើកពាក្យសំរាប់អ៊ីនធឺណិតដែលអ្នកអាចសរសេរប្រកាស។ អ្វីគ្រប់យ៉ាងធ្វើឡើងនៅកន្លែងនិងទិន្នន័យរបស់អ្នកមិនដោះស្រាយទិន្នន័យរបស់អ្នកទេ។ អ្នកអាចកាត់បន្ថយម៉ូដែលនៅពេលណាមួយដោយចុច . /bye ការគ្រប់គ្រងម៉ូដែលនិងឧបករណ៍ ម៉ូដែលមួយដែលអ្នកទាញយកបានរក្សាទុកតំបន់បណ្តាញនិងម៉ាស៊ីនថត។ ម៉ូដែលតូចជាងនេះដូចជា Phi-3 Mini ឬ Gemma 2B គឺមានភាពងាយស្រួលនិងសមរម្យសម្រាប់ទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្នន័យទិន្ន អ្នកអាចបញ្ចូលគំរូទាំងអស់ដែលបានដំឡើងដោយប្រើ: ollama list និងទាញយកមួយនៅពេលដែលអ្នកមិនត្រូវការវាជាច្រើនទៀត: ollama rm model_name ប្រសិនបើកុំព្យូទ័ររបស់អ្នកមានប្រសិនបើមានប្រសិនបើមានប្រសិនបើមានប្រសិនបើមានប្រសិនបើមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមានប្រសិនបើអ្នកមាន ការប្រើ Ollama ជាមួយកម្មវិធីផ្សេងទៀត នៅពេលដែលអ្នកបានដំឡើង Ollama អ្នកអាចប្រើវាដោយផ្អែកលើអ៊ីនធឺណិតអ៊ីនធឺណិត។ អ្នកអភិវឌ្ឍន៍អាចដំឡើងវាដោយប្រើ APIs និងផ្លាស់ប្តូរផ្ទាល់ខ្លួន។ Ollama បានដំណើរការសេវាកម្ម lokal នៅលើ នេះមានន័យថាអ្នកអាចផ្ញើសំណួរពីកម្មវិធីឬសៀវភៅរបស់អ្នក។ http://localhost:11434 លក្ខណៈពិសេសនៃកម្មវិធី Python នេះគឺដូចខាងក្រោម: import requests, json # Define the local Ollama API endpoint url = "http://localhost:11434/api/generate" # Send a prompt to the Gemma 3 model payload = { "model": "gemma3:270m", "prompt": "Write a short story about space exploration." } # stream=True tells requests to read the response as a live data stream response = requests.post(url, json=payload, stream=True) # Ollama sends one JSON object per line as it generates text for line in response.iter_lines(): if line: data = json.loads(line.decode("utf-8")) # Each chunk has a "response" key containing part of the text if "response" in data: print(data["response"], end="", flush=True)This setup turns your computer into a local AI engine. You can integrate it with chatbots, coding assistants, or automation tools without using external APIs. ការដោះស្រាយបញ្ហានិងបញ្ហាធម្មតា ប្រសិនបើអ្នកមានបញ្ហានៅក្នុងការដំណើរការម៉ូដែលអ្នកគួរតែត្រួតពិនិត្យថាមពលប្រព័ន្ធរបស់អ្នកជាលើកដំបូង។ ម៉ូដែលគួរតែមានអារម្មណ៍ថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពលថាមពល ប្រសិនបើ Ollama មិនបានចាប់ផ្តើម, សូមបន្ថែមវាទៅក្នុងអត្ថបទនៃកម្មវិធីដែលអនុញ្ញាត។ ប្រសិនបើអ្នកប្រើ CLI និងមើលឃើញបញ្ហាអំពីកម្មវិធីដំណើរការ GPU របស់អ្នក, សូមធានាថាកម្មវិធីដំណើរការកុំព្យូទ័រកុំព្យូទ័ររបស់អ្នកគឺមានប្រសិទ្ធភាព។ Ollama អនុញ្ញាតឱ្យដំណើរការ CPU និង GPU ទាំងពីរប៉ុន្តែមានកម្មវិធីដំណើរការកុំព្យូទ័រដែលមានប្រសិទ្ធភាពល្អប្រសើរជាងមុន។ ហេតុអ្វីដែលធ្វើការ LLMs ជាកន្លែងសំខាន់ ការដំណើរការ LLMs ក្នុងតំបន់ផ្លាស់ប្តូររបៀបដែលអ្នកធ្វើការជាមួយ AI ។ វាគឺជាការល្អឥតគិតថ្លៃសម្រាប់អ្នកអភិវឌ្ឍន៍ដែលចង់កាត់បន្ថយល្បឿនលឿនអ្នកស្រាវជ្រាវស្រាវជ្រាវដែលស្រាវជ្រាវការដំឡើងល្អឥតគិតថ្លៃឬអ្នកគួរឱ្យចាប់អារម្មណ៍ដែលមានគុណភាពឯកជន។ ម៉ូដែលផ្ទាល់ខ្លួនគឺល្អឥតគិតថ្លៃសម្រាប់បរិស្ថានដោយឥតគិតថ្លៃ។ អ្នកអាចសាកល្បងជាមួយការរចនាសម្ព័ន្ធឆាប់រហ័ស, ការបង្កើតសម្ភារៈឬការធ្វើតេស្តកម្មវិធីដែលគាំទ្រដោយ AI ដោយគ្មានការតភ្ជាប់អ៊ីនធឺណិត។ ក្នុងនាមជាឧបករណ៍ធ្វើឱ្យប្រសើរឡើងនិងសហគមន៍ប្រព័ន្ធប្រតិបត្តិការអ៊ីនធឺណិតបានកើនឡើង, អេឡិចត្រូនិអ៊ីនធឺណិតនឹងបន្តធ្វើឱ្យមានប្រសិទ្ធិភាពនិងអាចរកបានច្រើនទៀត។ លទ្ធផល ការបង្កើតនិងដំណើរការ LLM នៅលើប្រព័ន្ធប្រតិបត្តិការ Windows គឺជាការងាយស្រួលឥឡូវនេះ. ជាមួយនឹងឧបករណ៍ដូចជា Ollama និង LM Studio, អ្នកអាចទាញយកម៉ូដែលបានដំណើរការវាដោយផ្ទាល់ហើយចាប់ផ្តើមបង្កើតសៀវភៅក្នុងរយៈពេល ២ វិនាទី។ ប្រព័ន្ធ ប្រតិបត្តិការ UI បានធ្វើឱ្យវាជាភាពងាយស្រួលសម្រាប់អ្នកចាប់ផ្តើម, ខណៈពេលដែលបន្ទាត់គោលបំណងផ្តល់នូវការគ្រប់គ្រងពេញលេញសម្រាប់អ្នកដំណើរការ។ ប្រសិនបើអ្នកមានការបង្កើតកម្មវិធី, ការធ្វើតេស្តគំនិតឬការស្រាវជ្រាវ AI សម្រាប់ការប្រើប្រាស់ផ្ទាល់ខ្លួន, ការដំណើរការម៉ូដែលនៅកន្លែងផ្តល់នូវអ្វីគ្រប់យ៉ាងនៅក្នុងការរបស់អ្នក, ដោយធ្វើឱ្យវាយ៉ាងឆាប់រហ័ស, ដោយផ្ទាល់ខ្លួននិងមានភាពងាយស្រួល។ ខ្ញុំនឹងឱ្យអ្នករីករាយជាមួយអត្ថបទនេះ។ សៀវភៅដោយឥតគិតថ្លៃរបស់ខ្ញុំ TuringTalks.ai សម្រាប់បច្ចុប្បន្នបច្ចុប្បន្នបច្ចុប្បន្នបច្ចុប្បន្នអំពី AI ។ សៀវភៅដោយឥតគិតថ្លៃរបស់ខ្ញុំ TuringTalks.ai សម្រាប់បច្ចុប្បន្នបច្ចុប្បន្នបច្ចុប្បន្នបច្ចុប្បន្នអំពី AI ។ ហ្វេសប៊ុក