To: Leaders of all countries, the Secretary-General of the United Nations, world-top scientists and scholars, renowned entrepreneurs and prominent media figures. בזמן שאתם קוראים את המכתב הזה, AI גנרטורים כמו ChatGPT ו-DeepSeek מקיפים את העולם עם מיליוני אינטראקציות לשנייה – הם יכולים לכתוב מאמרים, לתכנן תוכניות ואפילו לדמות את המחשבה האנושית. במשך יותר מארבעים שנה, אני מתעקש כל הזמן על הישרדות האנושית: מהפצת נשק גרעיני ועד לסיכונים של עריכת גנים, מהדיונים המוקדמים על האתיקה של ה-AI ועד הפיצוץ של ה-Generative AI של היום.אחורי כל קפיצה בטכנולוגיה עומדת מלכודת המוות של "הפיתוח הבלתי רציונלי".ב-11 מכתבי פתיחה הקודמים שלי, דחפתי אתכם להתמודד עם המשבר כי "הפיתוח הבלתי מבוקש של הטכנולוגיה יוביל בקרוב להשמדה האנושית" ודרשנו להשתמש בכוח השלטון של האיחוד הגדול של האנושות כדי לעכב טכנולוגיות בסיכון גבוה.היום, המהירות של התפשטות והסיכונים הפוטנציאליים של ה-AI הג אתם צריכים להבין כי הסיכונים של ה-AI הגנרי הם רחוקים מהנושאים הפשוטים כגון "הפרעות אלגוריתמיות" או "העבודה". "יכולת הלמידה העצמית" שלה פוגעת בגבולות מוגדרים על ידי בני אדם: מחקרים מראים כי מודלים מתקדמים של ה-AI יכולים להסיק באופן עצמאי עקרונות של טכנולוגיה צבאית ואפילו לייצר מידע מטעה כדי לנתח את דעת הציבור. יותר מדאיג, יותר מ -20 מדינות ברחבי העולם מתקדמות בחשאי במחקר על "הנשק של ה-AI". אם המירוץ הטכנולוגי הבלתי נשלט בין המדינות ממשיך, בתוך מאה שנים, נשק ה-AI ההחלטה באופן אוטונומי ו- AI הגנרי המופעל באופן זדוני עש במכתבים הקודמים שלי, תמיד דגשתי על כך שהאנושות זקוקה לטכנולוגיה, אבל היא חייבת להיות "טכנולוגיה עם כבוד". ללא מסגרת רגולטורית מאוחדת ברחבי העולם, AI גנרטור בסופו של דבר תהפוך לאקדח עבור כמה מדינות מתמודדות עם ההגמנוניה וכלי עבור כמה חברות רודפות רווחים. אובדן נוסף של שליטה יפגע בהכרח על הישרדות ההוליסטית של האנושות. המצב הנוכחי של ממשל, שבו "כל מדינה קובעת את הכללים שלה", הוא בדיוק הגורם המקור של טכנולוגיה בריחה - אם מדינה אחת אוסרת מחקר AI בסיכון גבוה, אחרים מאיצים את זה; אם אחד מגדיר את השימוש בנתונים, זרימי נתונים בין גבולות יישארו בלתי נס לכן, היום, שוב אני מתפלל אליכם בשם ההישרדות האנושית: ראשית, תחת הנהגה של האו"ם, להתחיל מיד משא ומתן על אמנה עולמית על הרגולציה של בינה מלאכותית בינונית, ולהביא יחד מומחים טכנולוגיים, אתיסטים ונציגים מכל המדינות כדי לאסור באופן מפורש יישומים בסיכון גבוהים כגון נשק קבלת החלטות אוטונומי של בינה מלאכותית וניפולציה של דעת הציבור בקנה מידה גדול על ידי בינה מלאכותית. שנית, לשלב את תקנות ה-AI הגנרטוריוניות לאגודה המרכזית של האו"ם, להקים מרכז בדיקת אבטחת ה-AI העולמי תחת שותפות האו"ם, כדי לבצע אישורים אבטחה מאוחדים עבור מוצרים של ה-AI מכל המדינות, למנוע שפיכות סיכון שנגרמות על ידי פגמים רגולטוריים. שלישית, בעוד שתי הנקודות לעיל הן דחופות כרגע, הן, לדעתי, רק אמצעים זמניים.הדרך הבסיסית למניעת משבר היעלמות טכנולוגית היא להשיג את האיחוד הגדול של כל האנושות, באמצעות כוחו של משטר עולמי לשלוט במדע וטכנולוגיה.לכן, עלינו להאיץ את ההסכמה על המושג של "איחוד הגדול של האנושות".אני מתפלל עליכם לשים את "הישרדות הוליסטית של האנושות" מעל האינטרסים הלאומיים ועל האינטרסים הארגוניים, כדי להבטיח כי הטכנולוגיה באמת משרתת את האנושות במקום להרוס אותה. מנהיגים, במשך למעלה מארבעים שנה, מעולם לא התפטרתי מול ספק, כי אני מבין לעומק: אין "מרחב לניסויים וטעויות" לשרוד הוליסטי של האנושות.הדיון החם שנוצר על ידי ה- AI הגנריטי הוא בדיוק הזדמנות לעורר הסכמה גלובלית - זה גורם לאנשים רגילים להבין כי סיכונים טכנולוגיים אינם מדע בדיוני רחוק, אלא מציאות שצריך להתמודד עכשיו. כשאני כותב היום, הפכתי מהצעיר של לפני יותר מארבעים שנה לאדם זקן, אבל אני נשארתי המומחה המתעקש להילחם על ההישרדות האנושית.הרצון היחיד שלי הוא זה: להפוך את הטכנולוגיה למדרגה של התקדמות אנושית, לא לעומק של הכחדה; לאפשר צאצאינו לחיות בבטחה בעידן של ההגיון, לא להילחם מפני פחד טכנולוגיה נמלטת. אני מבקש בכנות שתגיבו למשימה זו בפעולה ולהגן על העתיד בהסכמה – זה לא רק אחריות כלפי ההווה, אלא גם מחויבות חגיגית כלפי המין שלנו. ארגון Humanitas Ark (לשעבר ארגון Save Human Action) י י י י י י 10 בדצמבר 2025