paint-brush
Том хэлний загвар (LLM) дүгнэлтийг оновчтой болгох праймер: 2. Хиймэл оюун ухаан (AI) хурдасгуурын танилцуулгаby@mandliya
645 уншилтууд
645 уншилтууд

Том хэлний загвар (LLM) дүгнэлтийг оновчтой болгох праймер: 2. Хиймэл оюун ухаан (AI) хурдасгуурын танилцуулга

by Ravi Mandliya8m2024/11/07
Read on Terminal Reader

Хэтэрхий урт; Унших

Энэхүү нийтлэл нь AI хурдасгуурууд болон тэдгээрийн том хэлний загваруудыг (LLMs) өргөн хүрээнд ашиглахад үзүүлэх нөлөөллийг судлах болно.
featured image - Том хэлний загвар (LLM) дүгнэлтийг оновчтой болгох праймер: 2. Хиймэл оюун ухаан (AI) хурдасгуурын танилцуулга
Ravi Mandliya HackerNoon profile picture

AI хурдасгуурын судалгаа ба тэдгээрийн том хэлний загваруудыг (LLMs) өргөн хүрээнд ашиглахад үзүүлэх нөлөө.


Энэ цувралын нийтлэлүүд :

  1. Том хэлний загвар (LLM) дүгнэлтийг оновчтой болгох праймер: 1. Үндэслэл ба асуудлын томъёолол

  2. Том хэлний загвар (LLM) дүгнэлтийг оновчтой болгох праймер: 2. Хиймэл оюун ухааны (AI) хурдасгуурын танилцуулга (энэ нийтлэл)


Өмнөх нийтлэлд бид Том хэлний загвар (LLM)-ийн дүгнэлтэд тулгарч буй бэрхшээлүүд болох өндөр хоцролт, эрчимтэй нөөцийн хэрэглээ, өргөтгөх чадвар зэрэг асуудлуудыг хэлэлцсэн. Эдгээр асуудлыг үр дүнтэй шийдвэрлэхийн тулд ихэвчлэн зөв техник хангамжийн дэмжлэг шаардлагатай байдаг. Энэхүү нийтлэл нь хиймэл оюун ухааны хурдасгуур буюу AI-ийн ажлын ачааллын гүйцэтгэлийг сайжруулахад зориулагдсан тусгай техник хангамж, түүний дотор LLM-ийн дүгнэлтийг багтаасан бөгөөд тэдгээрийн архитектур, үндсэн төрлүүд болон LLM-ийг өргөн цар хүрээтэй нэвтрүүлэхэд үзүүлэх нөлөөллийг онцолсон болно.

Яагаад AI хурдасгуур гэж?

Хэрэв та OpenAI, Google зэрэг компаниуд сая сая хэрэглэгчдэд нэгэн зэрэг үйлчилдэг эдгээр том хэлний загваруудыг хэрхэн ажиллуулж чадаж байгаа талаар бодож байсан бол нууц нь AI хурдасгуур гэж нэрлэгддэг тусгай техник хангамжид оршдог. Уламжлалт CPU-үүд ерөнхий зориулалтын даалгавруудыг сайн гүйцэтгэдэг ч хиймэл оюун ухааны ажлын ачааллын шаардлагад тохируулаагүй байдаг. AI хурдасгуурууд нь эсрэгээрээ хиймэл оюун ухааны даалгавруудад зориулагдан бүтээгдсэн бөгөөд өгөгдөлд өндөр хурдны хандалт, зэрэгцээ боловсруулах чадвар, бага нарийвчлалтай арифметикийг дэмждэг. Тооцооллыг AI хурдасгуур руу шилжүүлснээр байгууллагууд гүйцэтгэлийн мэдэгдэхүйц өсөлтийг олж, зардлыг бууруулж, ялангуяа LLM гэх мэт нарийн төвөгтэй загваруудыг ажиллуулж чадна. AI хурдасгуурын зарим нийтлэг төрлүүд болон эдгээр ажлын ачаалалд зориулсан өвөрмөц давуу талуудыг авч үзье.

AI хурдасгуурын төрлүүд

AI хурдасгуурууд нь хэд хэдэн хэлбэрээр ирдэг бөгөөд тус бүр нь хиймэл оюун ухааны тодорхой ажил, орчинд зориулагдсан байдаг. Гурван үндсэн төрөл нь GPU, TPU болон FPGA/ASIC бөгөөд тус бүр нь өвөрмөц онцлог, давуу талтай:

График боловсруулах нэгжүүд (GPU)

Анх график дүрслэхэд зориулж бүтээгдсэн GPU нь зэрэгцээ боловсруулах чадвараараа гүнзгий суралцах даалгавруудыг гүйцэтгэх хүчирхэг хэрэгсэл болсон. Тэдний архитектур нь LLM дүгнэлт гэх мэт ажлуудад зайлшгүй шаардлагатай өндөр хүчин чадалтай матрицын тооцоололд маш сайн тохирдог. GPU нь сургалт, дүгнэлт гаргахад зориулагдсан мэдээллийн төвүүдэд ялангуяа түгээмэл байдаг. NVIDIA Tesla, AMD Radeon, Intel Xe зэрэг GPU-г үүлэн болон дотоод орчинд өргөнөөр ашигладаг.

Тензор боловсруулах нэгжүүд (TPUs)

Google нь TensorFlow-д суурилсан сургалт, дүгнэлтэд зориулсан оновчлол бүхий гүнзгий сургалтын ажлын ачаалалд зориулагдсан TPU-г тусгайлан боловсруулсан. TPU нь том хэмжээний хиймэл оюун ухааны даалгавруудыг үр ашигтай хурдасгахад зориулагдсан бөгөөд хайлт, орчуулга зэрэг Google-ийн олон програмыг идэвхжүүлдэг. Google Cloud-ээр дамжуулан ашиглах боломжтой TPU-ууд нь сургалт, дүгнэлтийн аль алинд нь өндөр гүйцэтгэлийг санал болгодог тул TensorFlow хэрэглэгчдийн хувьд илүүд үздэг.

Талбайд програмчлагдах хаалганы массив (FPGA) / Хэрэглээний нэгдсэн хэлхээ (ASIC)

FPGA болон ASIC нь хиймэл оюун ухааны тодорхой ажлуудыг дэмждэг хоёр өөр төрлийн тохируулж болох хурдасгуур юм. FPGA нь дахин программчлагдах боломжтой бөгөөд энэ нь хиймэл оюун ухааны янз бүрийн загвар, хэрэглээнд дасан зохицох боломжийг олгодог бол ASIC нь тодорхой ажлуудад зориулж бүтээгдсэн бөгөөд эдгээр ажлын ачаалалд хамгийн их үр ашгийг өгдөг. Энэ хоёр төрлийг өгөгдлийн төв болон захад ашигладаг бөгөөд бага хоцролт, өндөр дамжуулах чадвар чухал байдаг. Жишээ нь: Intel Arria болон Xilinx Alveo (FPGAs) болон Google-ийн Edge TPU (ASICs).

CPU болон AI хурдасгуурын гол ялгаа

CPU болон хиймэл оюун ухаан хурдасгууруудын өвөрмөц бүтэц нь тэдгээрийг янз бүрийн төрлийн ажлын ачаалалд тохирсон болгодог. Энд хамгийн чухал шинж чанаруудын харьцуулалт энд байна:

  • Архитектур : CPU нь ерөнхий зориулалттай процессор боловч AI хурдасгуур нь хиймэл оюун ухааны ажлын ачаалалд зориулагдсан тусгай техник хангамж юм. CPU нь ихэвчлэн цөөхөн цөмтэй боловч өндөр цагийн хурдтай байдаг тул тэдгээрийг хурдан нэг урсгалтай гүйцэтгэл шаарддаг ажлуудад тохиромжтой болгодог. AI хурдасгуурууд нь зэрэгцээ боловсруулалт, өндөр дамжуулах чадварт зориулж оновчтой болгосон мянга мянган цөмтэй байдаг.
  • Нарийвчлал ба санах ой : CPU нь ихэвчлэн өндөр нарийвчлалтай арифметик болон том кэш санах ойг ашигладаг бөгөөд энэ нь ерөнхий тооцоолох ажлыг дэмждэг. Үүний эсрэгээр, AI хурдасгуурууд нь 8 бит эсвэл 16 бит гэх мэт бага нарийвчлалтай арифметикийг дэмжиж, нарийвчлалд ихээхэн хохирол учруулахгүйгээр санах ойн ул мөр, эрчим хүчний зарцуулалтыг бууруулж, LLM дүгнэлт гаргах түлхүүр юм.
  • Эрчим хүчний хэмнэлт : Өндөр эрчимтэй хиймэл оюун ухааны даалгавруудад зориулагдсан хурдасгуурууд нь CPU-ээс хамаагүй бага эрчим хүч зарцуулдаг бөгөөд өргөн цар хүрээтэй ашиглах үед зардал хэмнэж, байгаль орчинд үзүүлэх нөлөөллийг бууруулдаг.


CPU болон GPU архитектурыг харьцуулсан диаграм, үндсэн тоо болон зэрэгцээ боловсруулах чадварын ялгааг онцолсон. Лавлагаа: Дэвид Б.Кирк, Вэн-Мэй В.Хву нарын асар их параллель процессоруудыг програмчлах [1]


CPU-д цөөхөн цөм (4-8) байдаг бөгөөд дизайн нь хоцрогдол багатай, нэг урсгалтай өндөр гүйцэтгэлтэй байхаар оновчтой болсон гэдгийг анхаарна уу. Үүний эсрэгээр, GPU нь олон мянган цөмтэй бөгөөд өндөр дамжуулах чадвар, зэрэгцээ боловсруулалт хийхэд оновчтой байдаг. Энэхүү зэрэгцээ боловсруулах чадвар нь GPU-д том хэмжээний AI ажлын ачааллыг үр ашигтайгаар зохицуулах боломжийг олгодог.

AI хурдасгуурын гол онцлогууд ба LLM дүгнэлтэд үзүүлэх нөлөө

AI хурдасгуурууд нь LLM дүгнэлт гэх мэт том хэмжээний хиймэл оюун ухааны ажлын ачааллыг зохицуулахад тохиромжтой болгодог хэд хэдэн онцлог шинж чанартай байдаг. Гол онцлогууд нь:

Зэрэгцээ боловсруулалт

AI хурдасгуурууд нь олон мянган цөмтэй архитектурын ачаар том хэмжээний зэрэгцээ боловсруулалт хийхэд зориулагдсан. Энэхүү параллелизм нь LLM-ийн дүгнэлтэд шаардагдах эрчимтэй матрицын тооцооллыг үр ашигтайгаар зохицуулах боломжийг олгодог. Олон хурдасгуурууд нь матрицын үржүүлэх гэх мэт тензорын үйлдлүүдэд зориулагдсан тусгай тензор цөмүүдийг агуулдаг. Эдгээр чадварууд нь LLM-ийн даалгавруудыг масштабаар боловсруулахад хиймэл оюун ухааны хурдасгуурыг CPU-ээс хамаагүй хурдан болгодог.

AI хурдасгуур дахь өтгөн ба сийрэг матрицын үржүүлэх Лавлагаа: Youngsuk Park, et al.-ийн AI хурдасгуур дээрх суурийн загваруудын дүгнэлтийг оновчтой болгох.

Өндөр зурвасын өргөнтэй санах ой

Хурдасгуурууд нь өндөр зурвасын өргөнийг идэвхжүүлдэг тусгай санах ойтой бөгөөд том өгөгдлийн багц болон загварын параметрүүдэд хамгийн бага хоцролттой хандах боломжийг олгодог. Энэ функц нь оролтын текст болон загварын параметрүүдийг ачаалахын тулд байнга өгөгдөлд хандах шаардлагатай байдаг LLM дүгнэлт хийхэд зайлшгүй шаардлагатай. Өндөр зурвасын өргөнтэй санах ой нь өгөгдөл сэргээхэд саад бэрхшээлийг багасгаж, хоцролтыг багасгаж, гүйцэтгэлийг сайжруулдаг.

Өндөр хурдны харилцан холболтын зурвасын өргөн

AI хурдасгуурууд нь олон төхөөрөмжийн тохиргоонд хурдан өгөгдөл дамжуулахад туслах өндөр хурдны харилцан холболтоор тоноглогдсон байдаг. Энэ нь ялангуяа хурдасгуурууд мэдээлэл солилцох, үр дүнтэй харилцах шаардлагатай олон төхөөрөмж дээр LLM-ийн дүгнэлтийг өргөжүүлэхэд чухал юм. Өндөр харилцан холболтын зурвасын өргөн нь том өгөгдлийн багцыг төхөөрөмжүүдэд хувааж, саад бэрхшээл үүсгэхгүйгээр хослуулан боловсруулах боломжийг олгодог.

Бага нарийвчлалтай арифметик

AI хурдасгуурын өөр нэг давуу тал нь 8 битийн бүхэл тоо, 16 битийн хөвөгч цэгийн тооцоо зэрэг бага нарийвчлалтай арифметикийг дэмждэг. Энэ нь санах ойн хэрэглээ болон эрчим хүчний зарцуулалтыг бууруулж, хиймэл оюун ухааны ажлыг илүү үр дүнтэй болгодог. LLM-ийн дүгнэлтийн хувьд бага нарийвчлалтай тооцоолол нь ихэнх програмуудад хангалттай нарийвчлалыг хадгалахын зэрэгцээ илүү хурдан боловсруулалтыг хангадаг. AI хурдасгуурууд нь өгөгдлийн төрлийн маш баялаг сонголттой байдаг.

Өгөгдлийн төрлүүдийг AI хурдасгуурт дэмждэг. Лавлагаа: Youngsuk Park, et al.-ийн AI хурдасгуур дээрх суурийн загваруудын дүгнэлтийг оновчтой болгох.

Оновчтой номын сан ба хүрээ

Ихэнх хиймэл оюун ухааны хурдасгуурууд нь NVIDIA GPU-д зориулсан cuDNN, Google TPU-д зориулсан XLA зэрэг алдартай хиймэл оюун ухааны хүрээнүүдэд зориулсан оновчтой номын сангуудтай ирдэг. Эдгээр номын сангууд нь хиймэл оюун ухааны нийтлэг үйлдлүүдийг гүйцэтгэх өндөр түвшний API-уудыг хангадаг бөгөөд LLM-д тусгайлан зориулсан оновчлолуудыг агуулдаг. Эдгээр санг ашиглах нь илүү хурдан загвар боловсруулах, байршуулах, дүгнэлтийг оновчтой болгох боломжийг олгодог.

Өргөтгөх чадвар ба эрчим хүчний хэмнэлт

AI хурдасгуурууд нь маш томруулж чаддаг тул их хэмжээний ажлын ачааллыг үр дүнтэй шийдвэрлэхийн тулд кластер эсвэл дата төвүүдэд байршуулах боломжийг олгодог. Эдгээр нь эрчим хүчний хэмнэлттэй байхаар бүтээгдсэн бөгөөд харьцуулж болохуйц ажлуудад CPU-ээс бага эрчим хүч зарцуулдаг бөгөөд энэ нь LLM-ийн дүгнэлт зэрэг тооцооллын эрчимтэй програмуудад тохиромжтой болгодог. Энэхүү үр ашиг нь хиймэл оюун ухааны том загваруудыг ажиллуулахад үйл ажиллагааны зардал болон байгаль орчинд үзүүлэх нөлөөллийг бууруулахад тусалдаг.

AI хурдасгуур дахь параллелизм

LLM дүгнэлт гаргахад хиймэл оюун ухааны хурдасгуурын үр ашгийг нэмэгдүүлэхийн тулд янз бүрийн төрлийн параллелизмын аргуудыг ашигладаг.

Өгөгдлийн параллелизм

Өгөгдлийн параллелизм нь оролтын өгөгдлийг олон багц болгон хувааж, багц бүрийг зэрэгцүүлэн боловсруулах явдал юм. Энэ нь гүнзгий суралцах сургалт, дүгнэлт зэрэг том өгөгдлийн багц агуулсан AI-ийн ажлын ачаалалд хэрэгтэй. Өгөгдлийг олон төхөөрөмжид түгээснээр AI хурдасгуур нь ажлын ачааллыг илүү хурдан боловсруулж, ерөнхий гүйцэтгэлийг сайжруулж чадна. LLM-ийн дүгнэлт дэх өгөгдлийн параллелизмын жишээ бол оролтын текстийг багц болгон хувааж, багц бүрийг тусдаа хурдасгуур дээр боловсруулах явдал юм.

AI хурдасгуур дахь өгөгдлийн параллелизм

Загварын параллелизм

Загварын параллелизм нь AI загварын бүрэлдэхүүн хэсгүүдийг олон төхөөрөмжид хувааж, өөр өөр загварын хэсгүүдийг зэрэгцээ боловсруулах боломжийг олгодог. Энэ арга нь нэг төхөөрөмжийн санах ойн багтаамжаас давсан эсвэл үр ашигтай боловсруулалт хийхэд тархсан тооцоолол шаарддаг том AI загваруудад онцгой ач холбогдолтой юм. Загварын параллелизм нь том хэлний загвар (LLMs) болон бусад гүнзгий сургалтын архитектурт өргөн хэрэглэгддэг бөгөөд энэ нь загварын хэмжээ нь ихээхэн хязгаарлалт болдог.

Загварын параллелизмыг хоёр үндсэн аргаар хэрэгжүүлж болно.

Давхарга доторх параллелизм (Тензорын параллелизм) : Тус тусад нь давхарга эсвэл бүрэлдэхүүн хэсгүүд нь төхөөрөмжүүдэд хуваагддаг бөгөөд төхөөрөмж бүр нь нэг давхарга доторх тооцооллын хэсгийг зохицуулдаг. Жишээлбэл, трансформаторын загварт анхаарал хандуулах толгой эсвэл урагшлах сүлжээний давхаргыг олон төхөөрөмжид тарааж болно. Төхөөрөмжүүд зөвхөн давхаргын хил дээр синхрончлох шаардлагатай байдаг тул энэ арга нь харилцаа холбооны ачааллыг багасгадаг.

AI хурдасгуур дахь тензор параллелизм

Давхарга хоорондын параллелизм (Хамгийн шугамын параллелизм) : Давхаргын дараалсан бүлгүүд нь төхөөрөмжүүдэд тархаж, тооцооллын шугамыг үүсгэдэг. Үр дүнг дамжуулах хоолойн дараагийн төхөөрөмж рүү дамжуулахын өмнө төхөөрөмж бүр өөрт оноогдсон давхаргуудаа боловсруулдаг. Энэ арга нь ялангуяа гүнзгий сүлжээнүүдэд үр дүнтэй боловч дамжуулах хоолойн хоцролтыг бий болгодог.

AI хурдасгуур дахь дамжуулах хоолойн параллелизм

Даалгаврын параллелизм

Даалгаврын параллелизм нь AI-ийн ажлын ачааллыг хэд хэдэн ажилд хувааж, ажил бүрийг зэрэгцүүлэн боловсруулах явдал юм. Энэ нь бие даасан жолоодлого зэрэг олон бие даасан даалгавруудыг багтаасан хиймэл оюун ухааны ажлын ачаалалд хэрэгтэй. Даалгавруудыг зэрэгцүүлэн боловсруулснаар AI хурдасгуур нь нарийн төвөгтэй ажлуудыг дуусгахад шаардагдах хугацааг багасгаж, ерөнхий гүйцэтгэлийг сайжруулж чадна. Даалгаврын параллелизмыг ихэвчлэн хиймэл оюун ухааны хурдасгуурт объект илрүүлэх, видео шинжилгээ хийх зэрэг ажилд ашигладаг.

AI хурдасгуур дахь ажлын параллелизм

Текст оруулах багцыг боловсруулдаг 70 тэрбум параметр бүхий LLM-ийг авч үзье.

  • Өгөгдлийн зэрэгцээ байдал : Оролтын багц нь олон GPU-д хуваагддаг бөгөөд тус бүр нь оролтын зарим хэсгийг бие даан боловсруулдаг.
  • Тензорын параллелизм : Трансформаторын загварын анхаарлын толгойнууд нь хэд хэдэн төхөөрөмжид тархсан бөгөөд төхөөрөмж тус бүр нь толгойн дэд багцыг зохицуулдаг.
  • Шугам хоолойн параллелизм : Трансформаторын загварын давхаргууд нь дараалсан бүлгүүдэд хуваагддаг бөгөөд бүлэг бүрийг дамжуулах шугамын дагуу өөр төхөөрөмжөөр боловсруулдаг.
  • Даалгаврын параллелизм : Олон бие даасан дүгнэлт гаргах хүсэлтийг янз бүрийн хурдасгуурын нэгжүүд дээр нэгэн зэрэг боловсруулдаг.

AI хурдасгуур дахь хамтран боловсруулах горим

AI хурдасгуурууд нь ихэвчлэн үндсэн CPU-тэй хамт ажилладаг бөгөөд тооцооллын хүнд даалгавруудыг ачааллаас ангижруулдаг. Үндсэн CPU нь ерөнхий зориулалтын даалгавруудыг хариуцдаг бол AI хурдасгуурууд нь тооцооллын хүнд даалгавруудыг хариуцдаг. Үүнийг ихэвчлэн хамтын боловсруулалт гэж нэрлэдэг. AI хурдасгуурууд үндсэн CPU-тэй хэрхэн ажилладагийг харуулах энгийн диаграмм энд байна. Хамтран боловсруулах зарим товч нэр томъёо энд байна:

  • Хост : Үндсэн CPU. Энэ нь хөтөлбөрийн үндсэн урсгалыг хариуцдаг. Энэ нь үндсэн өгөгдлийг ачаалах, оролт/гаралтын үйлдлүүдийг зохицуулах замаар даалгаврыг зохион байгуулдаг. Хамтран боловсруулах горимд хост процессыг эхлүүлж, өгөгдлийг AI Accelerators руу шилжүүлж, үр дүнг хүлээн авдаг. Энэ нь бүх тооцооллын бус логикийг зохицуулж, AI хурдасгагчид тоог нь хянадаг.
  • Төхөөрөмж : AI хурдасгуур. Тэд хүнд тооцооллын ажлыг хариуцдаг. Хостоос өгөгдлийг хүлээн авсны дараа хурдасгуур нь үүнийг тусгай санах ойдоо ачаалж, матрицын үржүүлэх гэх мэт хиймэл оюун ухааны ажлын ачаалалд тохирсон зэрэгцээ боловсруулалтыг гүйцэтгэдэг. Боловсруулалтыг дуусгасны дараа үр дүнг хадгалж, хост руу буцааж шилжүүлдэг.

Хамтран боловсруулах ажлын урсгал

Хиймэл оюун ухааны хурдасгуурт шинээр гарч ирж буй чиг хандлага

AI-ийн ажлын ачаалал нарийн төвөгтэй, цар хүрээгээрээ өссөөр байгаа тул хиймэл оюун ухааны хурдасгуурууд орчин үеийн хэрэглээний эрэлт хэрэгцээнд нийцүүлэн хөгжиж байна. AI хурдасгуурын ирээдүйг тодорхойлох зарим гол чиг хандлагад [3]:

Ухаалаг боловсруулах нэгжүүд (IPUs)

Graphcore-ийн бүтээсэн IPU нь машин сургалтын нарийн төвөгтэй ажлуудыг өндөр үр ашигтайгаар шийдвэрлэхэд зориулагдсан. Тэдний архитектур нь зэрэгцээ боловсруулалтад төвлөрч, том хэмжээний хиймэл оюун ухааны ажлын ачаалалд тохиромжтой.

Дахин тохируулах боломжтой мэдээллийн урсгалын нэгжүүд (RDUs)

SambaNova Systems-ийн боловсруулсан RDU нь процессор доторх өгөгдлийн урсгалыг динамикаар оновчтой болгох замаар хиймэл оюун ухааны ажлын ачааллыг хурдасгах зорилготой юм. Энэ арга нь LLM дүгнэлт гэх мэт ажлуудын гүйцэтгэл, үр ашгийг сайжруулдаг.

Мэдрэлийн боловсруулалтын нэгжүүд (NPUs)

NPU-ууд нь гүнзгий суралцах, мэдрэлийн сүлжээний ажлуудад зориулагдсан бөгөөд хиймэл оюун ухааны ажлын ачаалалд тохируулан үр дүнтэй өгөгдөл боловсруулах боломжийг олгодог. Тэд төхөөрөмж дээрх хиймэл оюун ухааны чадавхийг шаарддаг төхөөрөмжүүдэд улам бүр нэгтгэгдэж байна.

Дүгнэлт

Энэ нийтлэлд бид AI-ийн ажлын ачааллын гүйцэтгэлийг сайжруулахад хиймэл оюун ухаан хурдасгуурын үүрэг, түүний дотор LLM-ийн дүгнэлтийг хэлэлцсэн. Зэрэгцээ боловсруулах чадвар, өндөр хурдны санах ой, хурдасгуурын нарийвчлал багатай арифметикийг ашигласнаар байгууллагууд LLM-ийг өргөн цар хүрээтэй ашиглах үед гүйцэтгэлийн мэдэгдэхүйц өсөлт, зардлыг хэмнэх боломжтой. AI хурдасгуурын үндсэн шинж чанар, төрлийг ойлгох нь LLM-ийн дүгнэлтийг оновчтой болгох, томоохон хэмжээний хиймэл оюун ухааныг ашиглахад нөөцийн үр ашигтай ашиглалтыг хангахад зайлшгүй шаардлагатай. Дараагийн нийтлэлд бид AI хурдасгуур ашиглан LLM-ийг өргөн цар хүрээтэй ашиглах системийг оновчтой болгох арга техникийг хэлэлцэх болно.

Лавлагаа

  • [1] Дэвид Б.Кирк, Вэнь-Мэй В.Хву нарын асар их параллель процессоруудыг програмчлах
  • [2] Youngsuk Park, et al.-ийн хиймэл оюун ухааны хурдасгуур дээрх суурийн загваруудын дүгнэлтийг оновчтой болгох.
  • [3] Шинээр гарч ирж буй AI/ML хурдасгууруудыг үнэлэх нь: IPU, RDU болон NVIDIA/AMD GPU-г Hongwu Peng, et al.


L O A D I N G
. . . comments & more!

About Author

Ravi Mandliya HackerNoon profile picture
Ravi Mandliya@mandliya
Machine Learning Engineer focused on building AI-driven recommendation systems and exploring AI safety.

TAG ҮҮ

ЭНЭ ӨГҮҮЛЛИЙГ ТОЛГОЙЛУУЛСАН...