Büyük dil modelleri sadece yanlış şeyler yapmaz - hataları gerçekler olarak sunar. Yeni sürümlerle bile, sorun ortadan kalkmadı. GPT-5’nin temel hata oranı %1,4’e yükselir – GPT-4’in %1,8’inden daha düşük ve GPT-4’in %1,49’dan sadece %0,09 daha iyi. LLM Halüsinasyon Lider Tablosu Küçük bir iyileşme ama sorun devam ediyor. Halk, bunun ne kadar kötü olabileceğini zaten görmüştür. 2024'in ortalarında, Google'ın AI Genel Bakışları, insanlara madenler için taş yiyeceklerini söyledi - Google daha sonra sorunu kabul etti. 2023'in başlarında, Google'ın Bard demo, James Webb Uzay Teleskobu gerçeğini yanlışlaştırdı. "glue-on-pizza" ipucu ekleyin ve 2023'te iki avukatın ChatGPT'den altı yapılmış davayı itiraf ettikten sonra cezalandırıldığı Avianca davası. Bunlar komik başlıklar gibi görünebilir, ancak insanlar aslında bu araçlara güvendiğinde farklıdır.Küçük hatalar sadece sinir bozucu, ancak sağlık, hukuk veya terapi gibi alanlarda tehlikeli olabilirler. What causes hallucinations in LLMs LLM'lerde Halüsinasyonların Nedenleri ChatGPT de dahil olmak üzere LLM'ler, gerçekleri doğrulamak için değil, bir sırada bir sonraki kelimeyi tahmin etmek için eğitilmiştir. Garanti edilen gerçeklerin dahili bir veritabanına sahip değillerdir; bunun yerine, eğitim verilerinden desenler sentezleyerek metin oluştururlar. Eğitim verileri dev web taramalarından geldi - bloglar, forumlar, wiki. Bugün webin birçoğu AI yazılmıştır, böylece modeller kendi çıkışlarından öğrenmeye başlar. hatalar tekrarlanır ve güçlendirilir. No more free data Artık ücretsiz veri yok 2023'in ortalarında, kullanıcı oluşturan içerik (UGC) platformları erişimi engellemeye başladı. Reddit ücretsiz API'sini kısıtladı; subreddits karanlık gitti. Twitter / X ücretsiz API erişimi sona erdi. LinkedIn, toplu kaydırma işlemini durdurdu. Stack Overflow, Q&A'ya eğitim erişimi için ücret ödeyeceğini söyledi. Quora, Poe uygulamasına daha fazla içerik taşıdı. Meta, Facebook ve Instagram'da oran sınırlarını ve yasal uyarıları sıkılaştırdı. Büyük AI şirketleri ücretli lisanslamaya taşındı ve kamu modelleri eski, karmaşık web verileri ile kaldı - kendi AI yazılı metinlerini eğitme olasılığını arttırdı. Paying for access erişim için ödeme OpenAI ilk olarak 2023 yılında Associated Press ile bir anlaşma imzaladı, ardından Axel Springer ve News Corp. ile çok yıllık anlaşmalar. 2025'e kadar, The Guardian ve The Washington Post dahil olmak üzere yirmi'den fazla yayıncı katıldı. Bazı anlaşmalar, AI modellerine arşivlere erişim sağlar, diğerleri ürünler içindeki bağlantıları ve atölyeleri kapsar. Google ayrıca AP'yle 2025'in başlarında imzaladı, Microsoft ise Copilot'u Thomson Reuters'ın Westlaw'a yasal arama için bağladı (kullanıcılar için, eğitim için değil). AI eğitim verileri piyasası 2024'te yaklaşık 3.2 milyar dolar değerinde ve 2034'e kadar 16.3 milyar dolara çıkması bekleniyor. Where the clean data lives Temiz Veri Nerede Yaşar Lisanslı ve temizlenen veriler sektörsel rezervuarlar oluşturuyor: Haber & Yayıncılık (2023-25): AP, Axel Springer, News Corp, Dotdash Meredith; yanı sıra The Guardian, The Washington Post, Vox Media ve The Atlantic (arşiv erişimi ve ürün içi bağlantı / atıfta bulunma karışımı). Akademik ve kültürel (2024-25): Harvard'un kamu alanı kitapları; MIT'in veri kaynakları üzerinde çalışması; arXiv ve Semantic Scholar gibi açık depolar. Tıp ve güvenilirlik (2025): ScaleMAI (kurated medical imaging) ve DR-AIR (AI güvenilirlik veritabanı) gibi araştırma depoları; PubMed özetleri açıkken, birçok tam metin kısıtlı kalır. Ticaret ve işletme (2023-25): BloombergGPT, özel finans verilerinde eğitim aldı; Thomson Reuters içeriği entegrasyonlar aracılığıyla kullanılabilir; büyük veri/anotasyon sağlayıcıları (Appen, Scale AI); yanı sıra şirketler içinde kullanılan sensör/endüstriyel telemetri. Özel (2025): lisanslı eğitim verileri ve altyapıları (örneğin, Meta-Scale AI) güvence altına almak için büyük yatırımlar; onay tabanlı eğitim için “Doğrudan Eğitilmiş” sertifikası. The New York Times, Aralık 2023'te OpenAI ve Microsoft'a dava açtı.Financial Times, Nisan 2024'te OpenAI ile bir anlaşma imzaladı.Elsevier ve Wiley, kapalı bilimsel arşivleri korudu.Bloomberg, finansal verilerini mülkiyet olarak tuttu. Paid, specialised data is next Ödeme, özel veriler sonraki Büyük olasılıkla bir bölünme için yola çıkıyoruz: açık web, hızlı arama, metin yazma veya günlük soruları yanıtlamak gibi basit görevler için iyidir; ciddi araştırma, analiz ve AI yapıları - denetlenmiş, filtrelenmiş, doğrulanmış - verilerin temiz depolarına geçiyor - genellikle aboneliklerin arkasında. büyük şirketler bunu zorlayacak, çünkü kötü veriler onları yavaşlatıyor. veri temizliği, etiketleme ve güvenilir verileri karışıklığından ayıran güvenlik duvarlarına daha fazla harcamayı bekleyin. Bu kurulumun rol tabanlı erişim gerektirir - HR HR görür, finans finans finans görür, yasal yasal görür. rol tabanlı erişim, modeli yalnızca kişinin görmek için temizlendiği şeyden çekiyor demektir. Bu, özel verileri cevaplardan uzak tutar ve modelin yanlış havuzdan "gerçekleri" çekme riskini azaltır. Çoğu chatbot bugün bunu yapmaz. eğer bu boşluk kalırsa, rol bilinen arama ve kilitli bilgi tabanları oluşturan ekipler güven kazanır - ve sözleşmeler. What to do with only public AI access Yalnızca kamuya açık AI erişimi ile neler yapılabilir Prompt mühendisliği genellikle yapılmış yanıtlara karşı ilk savunma çizgisi - ucuz ve anlık. Eğer prompt belirsizse, cevap belirsiz olacaktır. Endüstri uygulayıcıları aynı noktaya dikkat çekiyor: yeterli bağlam olmadan, çıkış zayıf olabilir ve model halüsinasyonlara daha eğilimlidir. net kurallar ve temiz kaynaklar cevapları yolda tutar. En iyi uygulamalar şunları içerir: Önce açık kurallar koyun: dikkatli olun; emin değilseniz “bilinmeyen” deyin; yalnızca aşağıdaki kaynakları kullanın; siteleri icat etmeyin. Eğer tarama kapalıysa, anahtar geçişleri kendiniz yapıştırın ve onları açık sınırlamalarla (örneğin <data>...</data>) işaretleyin, sonra modelin yalnızca o metinden yanıt vermesi için talimat verin. Görevin sınırlandırılması: Hedef, seyirci, uzunluk ve herhangi bir zaman penceresi (örneğin, zaman duyarlı konular için son 12 ayın kaynaklarını tercih edin). Ekstra talepleri yasaklayın. sağlanan malzeme tarafından desteklenmeyen ifadeleri yasaklayın. Taleplerinizden sonra, yayın tarihi ve kısa bir destekleyici özet (≤25 kelime) ile sağlanan kaynaklardan yalnızca iç çizgi özetleri talep edin. Doğru modu seçin. yaratıcı yerine hassas / analitik seçin; mümkün olduğunca düşük sıcaklık / üst-p. Küçük tasarımı, daha sonra genişletin. bir çerçeve veya kısa bir çerçeve ile başlayın; odaklı takiplerle geliştirin. İkinci bir geçiş çalıştırın. isimleri, rakamları, tarihleri, tarifleri doğrulayın; gerçek bir kaynağı olmadan herhangi bir satırı silin. Sağlık, yasal veya para talepleri eylemden önce resmi bir web sitesinde veya ikinci güvenilir bir kaynaktan onaylanmalıdır. Etkili iletileri tekrar kullanılabilir şablonlara dönüştürün; tekrarlanan hatalar ortaya çıktığında ayarlayın. Kaynak paketi tutun. yanıtları ankaraya hazırlamak için güvenilir bağlantılar / metin ayrıntıları küçük bir dizi tutun. The bottom line Aşağı hattı 2025 yılına kadar bölünme şunlardır: Public AI: Hızlı, erişilebilir, geniş internet çöpleri üzerinde eğitilmiş. Sıradan kullanım için iyi, uyumluluk için güvenilir değildir. Enterprise AI: Ödenen, kurulan ve denetlenen. lisanslı rezervuarlar üzerine inşa edilmiş, yönetim ve günlükleri ile birleştirilmiştir. Her ikisi de devam edecektir.Fark, birinin hız, diğerinin sorumluluğu öncelik verdiğidir.Hangi pistleri kullandığınızı bilmek önemli. Glue pizza sosunda, bir tüketici aramasında komik bir başlık yapar. Bir hastane grafikinde veya bir mahkeme salonunda, felakettir. İşte bu yüzden kurulan rezervuarlar ve koridorlar ciddi AI'nin temelleri haline geliyor.