דגמי שפה גדולים לא רק מקבלים דברים לא נכון - הם מציגים טעויות כעובדות.גם עם שחרורים חדשים, הבעיה לא נעלמה. מעלה את שיעור השגיאות של GPT-5 ב- 1.4% - נמוך יותר מ- 1.8% של GPT-4 ורק 0.09% טוב יותר מ- 1.49% של GPT-4o. LLM Hallucination מנהיגות שיפור קטן, אבל הבעיה נשארת. הציבור כבר ראה כמה רע זה יכול להיות. באמצע 2024, Google's AI Overviews אמר לאנשים לאכול סלעים עבור מינרלים - Google הודה מאוחר יותר בבעיה. בתחילת 2023, דומיין Bard של Google טועה עובדה טלסקופ החלל ג'יימס ווב. אלה עשויים להיראות כמו כותרות מצחיקות, אבל זה שונה כאשר אנשים באמת מסתמכים על כלים אלה.טעויות קטנות פשוט מעצבן, אבל בתחומים כגון בריאות, משפטים, או טיפול, הם יכולים להיות מסוכנים. What causes hallucinations in LLMs מה גורם לחשישות ב LLMs LLMs, כולל ChatGPT, מאומנים לחזות את המילה הבאה ברצף, לא כדי לאמת עובדות.אין להם מסד נתונים מובנה של אמיתות מובטחות; במקום זאת, הם יוצרים טקסט על ידי סינתזת דפוסים מן נתוני הכשרה. נתוני ההכשרה הגיעו מברשות האינטרנט הענקיות - בלוגים, פורומים, ויקי.היום, הרבה מהאינטרנט נכתב על ידי AI, כך שהמודלים מתחילים ללמוד ממוצריהם. No more free data אין עוד נתונים חופשיים עד אמצע 2023, פלטפורמות תוכן שנוצר על-ידי משתמשים (UGC) החלו לחסום גישה. Reddit הגביל את API החופשי שלה; subreddits הלך כהה. Twitter / X סיים גישה API חופשית. LinkedIn דחתה את סריקת המוניות. Stack Overflow אמרה כי היא תשלם גישה הכשרה ל- Q&A שלה. Quora העביר יותר תוכן ליישום Poe שלה. חברות AI הגדולות עברו לרישיון בתשלום, ומודלים ציבוריים נשארו עם נתונים אינטרנט ישנים ומבלבלים - מה שהופך את הסיכוי שלהם להתאמן על טקסט הכתוב על ידי AI שלהם. Paying for access תשלום עבור גישה OpenAI חתמה לראשונה על הסכם עם Associated Press בשנת 2023, ולאחר מכן חתמה על הסכמים רב-שנים עם אקסל ספרינגר ו-News Corp. עד שנת 2025, יותר מעשרים מפרסמים - כולל The Guardian ו- The Washington Post - הצטרפו. שוק הנתונים של אימון AI מוערך בסביבות 3.2 מיליארד דולר בשנת 2024 וצפוי לגדול ל-16.3 מיליארד דולר עד 2034. Where the clean data lives היכן גרים הנתונים הנקיים נתונים מורשים ונקיים יוצרים מחסנים ספציפיים לתעשייה: חדשות ופרסום (2023–25): AP, Axel Springer, News Corp, Dotdash Meredith; פלוס The Guardian, The Washington Post, Vox Media, ו The Atlantic (השילוב של גישה ארכיון ו-in-product linking / attribution). אקדמי ותרבותי (2024–25): ספרים בתחום הציבורי של הרווארד; עבודת MIT על מקור הנתונים; מחסנים פתוחים כמו arXiv ו- Semantic Scholar. רפואה ואמינות (2025): מחירי מחקר כגון ScaleMAI (דימוי רפואי משומש) ו- DR-AIR (סוגי נתונים אמינים של AI); ציטוטים של PubMed פתוחים, בעוד טקסטים רבים מלאים נשארים מוגבלים. מסחר ועסקים (2023-25): BloombergGPT מאומנים על נתונים פיננסיים קנייניים; תומסון רויטרס תוכן זמין באמצעות אינטגרציות; ספקי נתונים גדולים / הערות (Appen, Scale AI); פלוס חיישנים / טלאמטיקה תעשייתית בשימוש בתוך חברות. מומחה (2025): השקעות גדולות כדי להבטיח נתוני אימון מורשים ותשתית (למשל, Meta-Scale AI); אישור "הכשרה הוגנת" לחינוך מבוסס הסכמה. "ניו יורק טיימס" הגישה תביעה נגד OpenAI ו-Microsoft בדצמבר 2023, והבהירה כי היא לא תעניק רישיון לאריכיה. "פיננסל טיימס" חתמה על הסכם עם OpenAI באפריל 2024. "אלסוויר וווילי" שומרים על ארכיונים מדעיים סגורים. Paid, specialised data is next תשלום, נתונים מיוחדים הוא הבא אנחנו כנראה הולכים לפריצה: האינטרנט הפתוח הוא בסדר עבור משימות פשוטות כגון חיפושים מהירים, הכנת טקסט, או לענות על שאלות יומיומיות; מחקר רציני, ניתוח, ו- AI בונים לעבור לאחסונים נקיים של נתונים - נבדק, מסנן, נבדק - לעתים קרובות מאחורי מנויים. ההתקנה הזאת צריכה גישה מבוססת תפקיד מובנית - HR רואה HR, פיננסים רואה מימון, משפטי רואה חוקי. גישה מבוססת תפקיד פירושו שהמודל משאיר רק ממה שהאדם מסוגל לראות. אם הפער הזה יישאר, צוותי בניית חיפוש מודע לתפקידים ובסיסי ידע חסומים ירוויחו אמון - וההסכמים. What to do with only public AI access מה לעשות עם רק גישה AI ציבורית הנדסת דחיפות היא לעתים קרובות קו ההגנה הראשון נגד תשובות מעוצבות - זה זול ומיידי. אם הדחיפה היא לא ברורה, התשובה תהיה לא ברורה. מתרגלים בתעשייה מדגישים את אותו הנקודה: ללא מספיק הקשר, התוצאה היא סבירה להיות גרועה, ואת המודל הוא יותר נוטה לחלוק. כללים ברורים ומקורות נקיים לשמור על התשובות על המסלול. השיטות הטובות ביותר כוללות: הגדרת כללים ברורים קדימה, כולל: להיות זהיר; אם לא בטוח, לומר "לא ידוע"; להשתמש רק במקורות למטה; לא להמציא ציטוטים. אם הגלישה מופעלת, הקלד את הפרקים המפתח בעצמך וסימן אותם עם גבולות ברורים (לדוגמה, <data>...</data>), ולאחר מכן הורא למודל להגיב רק מהטקסט הזה. המדינה המטרה, הקהל, האורך וכל חלון זמן (לדוגמה, העדיפו מקורות מ-12 החודשים האחרונים לנושאים רגישים לזמן). איסור על טענות נוספות; איסור על טענות שאינן נתמכות על ידי החומר המסופק. לאחר טענות, דורשים ציטוטים מקורות מסופקים בלבד עם תאריך פרסום וציטוט תומך קצר (≤25 מילים). בחר מדויק / אנליטי מעל יצירתי; טמפרטורה נמוכה / top-p כאשר אפשרי. התחל עם תסריט או תסריט קצר; מעמיק עם עקרונות ממוקדים. בדוק שמות, מספרים, תאריכים, ציטוטים; למחוק כל שורה ללא מקור אמיתי. טענות בריאות, משפטיות או כספיות חייבות להיות מאושרות באתר רשמי או מקור אמין שני לפני הפעולה. הפוך הזמנות יעילות לתבניות ניתנות לשימוש חוזר; להתאים כאשר מופיעים שגיאות חוזרות. שמור על קבוצה קטנה של קישורים אמין / קטע טקסט מוכן כדי להדביק תשובות. The bottom line קו התחתון עד שנת 2025 ההפרדה ברורה: AI ציבורי: מהיר, נגיש, מאומן על שרידים רחבים באינטרנט. טוב לשימוש אקראי, לא אמין לצייתנות. Enterprise AI: Paid, curated, and audited. Built on licensed reservoirs, combined with governance and logs. שניהם ימשיכו.ההבדל הוא שאחד מעדיף מהירות, השני אחראיות. Glue בסל פיצה עושה כותרת מצחיקה כשמדובר בחיפוש של הצרכנים.בתמונה של בית חולים או בקשת בית משפט, זה קטלני.זה למה מיכלים ושמורות קוריאניים הופכים את היסודות של AI רציני.