Lieli valodu modeļi ne tikai kļūdās – tie kļūdas prezentē kā faktus. pat ar jauniem izdevumiem problēma nav pazudusi. GPT-5 pamatotā kļūdu īpatsvars ir 1,4%, kas ir zemāks par GPT-4 1,8%, un tikai 0,09% labāks par GPT-4o 1,49%. LLM Hallucination vadības panelis Neliels uzlabojums, bet problēma paliek. Sabiedrība jau ir redzējusi, cik slikti tas var kļūt. 2024. gada vidū Google AI pārskati teica cilvēkiem ēst akmeņus minerālvielām - Google vēlāk atzina šo problēmu. 2023. gada sākumā Google Bard demo maldināja Džeimsa Webba kosmosa teleskopa faktu. pievienojiet "glue-on-pizza" padomu un 2023. gada Avianca lietu, kurā divi advokāti tika sodīti pēc tam, kad citēja sešus sagatavotus gadījumus no ChatGPT. Mazas kļūdas ir vienkārši kaitinošas, bet tādās jomās kā veselība, likums vai terapija, tās var būt bīstamas. What causes hallucinations in LLMs Kas izraisa halucinācijas LLMs LLM, ieskaitot ChatGPT, ir apmācīti paredzēt nākamo vārdu secībā, nevis pārbaudīt faktus. viņiem nav iebūvēta garantēto patiesību datubāze; tā vietā viņi ģenerē tekstu, sintezējot modeļus no apmācības datiem. Apmācības dati nāk no milzīgajiem tīmekļa skrāpējumiem - emuāriem, forumiem, wikijām.Mūsdienās liela daļa tīmekļa ir rakstīta ar AI, tāpēc modeļi sāk mācīties no saviem iznākumiem. No more free data Vairāk bezmaksas datu Līdz 2023. gada vidum lietotāju radītā satura (UGC) platformas sāka bloķēt piekļuvi. Reddit ierobežoja savu bezmaksas API; subreddits kļuva tumšs. Twitter / X izbeidza bezmaksas API piekļuvi. LinkedIn apkaroja masveida skrāpēšanu. Stack Overflow teica, ka tas maksās par apmācību piekļuvi savam Q&A. Quora pārcēlās vairāk satura savā Poe lietotnē. Meta pastiprināja likmju ierobežojumus un juridiskos brīdinājumus Facebook un Instagram. Lieli AI uzņēmumi pārcēlās uz maksas licencēšanu, un publiskie modeļi palika ar vecākiem, neskaidriem tīmekļa datiem - padarot to vairāk iespējams, ka viņi apmācītu savu AI rakstīto tekstu. Paying for access Maksā par piekļuvi OpenAI vispirms parakstīja līgumu ar Associated Press 2023. gadā, kam seko daudzgadu līgumi ar Axel Springer un News Corp. Līdz 2025. gadam pievienojās vairāk nekā divdesmit izdevēji, tostarp The Guardian un The Washington Post. Pati AI apmācības datu tirgus vērtība ir aptuveni $ 3,2B 2024. gadā un tiek lēsts, ka līdz 2034. gadam tas pieaugs līdz $ 16,3B. Where the clean data lives Kur dzīvo tīri dati Licencēti un attīrīti dati veido nozares specifiskus rezervuārus: Ziņas un izdevēji (2023–25): AP, Axel Springer, News Corp, Dotdash Meredith; plus The Guardian, The Washington Post, Vox Media un The Atlantic (arhīvu piekļuves un produktu saiknes / piešķiršanas kombinācija). Academic & cultural (2024–25): Harvardas publiskā domēna grāmatas; MIT darbs par datu izcelsmi; atvērti repozitori kā arXiv un Semantic Scholar. Medicīna un uzticamība (2025): pētniecības repozitoriji, piemēram, ScaleMAI (kurēts medicīnas attēlveidošana) un DR-AIR (AI uzticamības datu kopas); PubMed abstrakti ir atvērti, bet daudzi pilni teksti paliek ierobežoti. Komercdarbība un uzņēmējdarbība (2023–25): BloombergGPT apmācīti īpašumtiesību finanšu dati; Thomson Reuters saturs, kas pieejams, izmantojot integrācijas; lieli datu / anotācijas sniedzēji (Appen, Scale AI); kā arī sensoru / rūpniecisko telemetriju, ko izmanto uzņēmumos. Specializēti (2025): lieli ieguldījumi, lai nodrošinātu licencētus apmācību datus un infrastruktūru (piemēram, Meta-Scale AI); “Godīgi apmācīts” sertifikāts apmācībai, kas balstīta uz piekrišanu. Ņujorkas Times 2023. gada decembrī iesniedza prasību pret OpenAI un Microsoft, skaidrojot, ka tā neļauj licencēt savus arhīvus. „Financial Times” parakstīja līgumu ar OpenAI 2024. gada aprīlī. „Elsevier” un „Wiley” uztur slēgtu zinātnisko arhīvu. „Bloomberg” ir saglabājis savu finanšu datu īpašumtiesības. Paid, specialised data is next Apmaksāts, specializēti dati ir nākamais Mēs, visticamāk, virzāmies uz sadalījumu: atvērtais tīkls ir piemērots vienkāršiem uzdevumiem, piemēram, ātrai meklēšanai, teksta sastādīšanai vai ikdienas jautājumu atbildēšanai; nopietni pētījumi, analīze un AI būves pāriet uz tīriem datu rezervuāriem - pārbaudīti, filtrēti, pārbaudīti - bieži aiz abonēšanas. Šai konfigurācijai ir nepieciešama uz lomu balstīta piekļuve, kas ir iebūvēta - HR redz HR, finanses redz finanses, juridiskā redz likumīgu. Lomu balstīta piekļuve nozīmē, ka modelis izvelk tikai no tā, ko persona ir izslēgta. Ja šī plaisa paliek, komandas, kas veido lomu apzinātu meklēšanu un bloķētas zināšanu bāzes, nopelnīs uzticību - un līgumus. What to do with only public AI access Ko darīt ar tikai publisku AI piekļuvi Prompt inženierija bieži vien ir pirmā aizsardzības līnija pret izgatavotām atbildēm - tā ir lēta un tūlītēja. Ja prompt ir neskaidrs, atbilde būs neskaidra. Rūpniecības speciālisti uzsver to pašu punktu: bez pietiekama konteksta iznākums, visticamāk, būs slikts, un modelis ir vairāk pakļauts halucinācijām. Labākās prakses ietver: Ietver: esiet piesardzīgi; ja neesat pārliecināts, sakiet “nepazīstams”; izmantojiet tikai zemāk minētos avotus; neizdomājiet citātus. Ja pārlūkošana ir izslēgta, ielieciet atslēgvārdu daļas un marķējiet tās ar skaidrām robežām (piemēram, <data>...</data>), tad pavadiet modelim atbildēt tikai no šī teksta. Statuss mērķis, auditoriju, garumu un jebkuru laika logu (piemēram, izvēlieties avotus no pēdējiem 12 mēnešiem laika jutīgām tēmām). Aizliegt papildu prasījumus. aizliegt apgalvojumus, kurus neatbalsta piegādātais materiāls. Pieprasiet kvītis (droši). Pēc prasībām pieprasiet citātus tikai no norādītajiem avotiem ar publicēšanas datumu un īsu atbalsta citātu (≤ 25 vārdi). Izvēlieties pareizo režīmu. izvēlieties precīzu / analītisku pār radošu; zemāka temperatūra / top-p, ja iespējams. Sāciet ar priekšlikumu vai īsu priekšlikumu; pilnveidojiet ar koncentrētiem turpinājumiem. Pārbaudiet vārdus, numurus, datumus, citātus; izdzēst jebkuru līniju bez reāla avota. Veselības, juridiskās vai naudas prasības ir jāapstiprina oficiālajā tīmekļa vietnē vai otrā uzticamā avotā pirms rīcības. Pārveidojiet efektīvus ielūgumus par atkārtoti izmantojamiem veidnēm; pielāgojiet, kad parādās atkārtotas kļūdas. Saglabājiet nelielu uzticamu saišu / teksta izvilkumu kopumu, kas ir gatavs ankorēt atbildes. The bottom line Apakšējā līnija Līdz 2025. gadam sadalījums ir skaidrs: Sabiedriskais AI: Ātrs, pieejams, apmācīts plašā interneta skrāpējumos. Labs nejaušai lietošanai, neuzticams atbilstībai. Uzņēmējdarbības AI: samaksāts, kurēts un revidēts.Būvēts uz licencētiem rezervuāriem, apvienojumā ar pārvaldību un žurnāliem. Abas turpināsies. atšķirība ir tāda, ka viena prioritāte ir ātrums, otra atbildība. Glue picas mērcē padara smieklīgu virsrakstu, kad tas nāk no patērētāju meklēšanas. Slimnīcu diagrammā vai tiesas telpā, tas ir katastrofāli.