paint-brush
AI uchun navbatdagi narsa: Antropik bosh direktorning qarashlarini talqin qilishtomonidan@learning2survive
717 o'qishlar
717 o'qishlar

AI uchun navbatdagi narsa: Antropik bosh direktorning qarashlarini talqin qilish

tomonidan Vitalii Chukhlantcev6m2024/11/21
Read on Terminal Reader

Juda uzoq; O'qish

Lex Fridmanning antropik AI rahbarlari bilan podkasti sun'iy intellektni rivojlantirish bo'yicha asosiy fikrlarni ta'kidladi: Masshtablash effektlari: Hali baland bo'lmagan, lekin qaysi jihatlarni o'lchash kerakligini tushunishga e'tibor qarating. Sintetik ma'lumotlarni yaratish va himoyalangan ma'lumotlar va'da beradi. AI xavfsizligi: Model taraqqiyoti bilan bir qatorda ishlab chiqish. Xatarlar ASL darajalariga bo'lingan, kelgusi yilda ASL-3 (noqonuniy shaxslarni yoqish) kutilmoqda. AGI xronologiyasi: Potensial 2027 yilgacha, domenga bog'liq taraqqiyot va sanoatga xos qabul qilish stavkalari bilan. Mexanik talqin qilish: Model xatti-harakatlarini tushunish va nazorat qilish uchun ortib borayotgan ahamiyat. Prognozlarga quyidagilar kiradi: 2025 yil: Muayyan vazifalarda odamlardan ustun bo'lgan ilg'or AI o'zini o'zi tayyorlash; himoya choralariga qaramay, sun'iy intellektdan noto'g'ri foydalanish; ko'proq avtonom AI ilovalari, ayniqsa kodlashda. 2030: AIning umumlashtirilgan o'zini o'zi takomillashtirish; ma'lum sohalarda odamlardan ko'ra aqlliroq o'zida mujassamlangan AI; tarmoqlar bo'ylab keng tarqalgan AI integratsiyasi; AI yordamida potentsial ilmiy yutuqlar. Maqolada AI rivojlanishining tez sur'atlari va uning kelajakdagi ta'siri bilan bog'liq noaniqlik ta'kidlangan.
featured image - AI uchun navbatdagi narsa: Antropik bosh direktorning qarashlarini talqin qilish
Vitalii Chukhlantcev HackerNoon profile picture
0-item

Yaqinda Lex Fridman Antropik AIdan Dario Amodei, Amanda Askell va Kris Olah bilan besh soatlik podkastni chiqardi.


"Sevgi inoyati mashinalari" AIni rivojlantirish bo'yicha o'zining juda uzun maqolasini nashr etgandan so'ng, Dario bu mavzuni kengaytirdi, chunki xuddi shu tarzda Lex bilan suhbatning boshqa antropik a'zolari bilan ushbu mavzular bo'yicha kengaygan suhbatining asosiy maqsadi edi.


Anthropic' CEO article with the vision for AI

Mendan kamroq aql bovar qilmaydiganlar uchun ushbu etakchi AI jamoasi baham ko'rishi kerak bo'lgan asosiy g'oyalarni umumlashtirishni yaxshi deb o'yladim. Klod 3.5 Sonnet (Yangi) shu kuzda chiqarilganidan beri Anthropic kompaniyasining LLMdagi yutuqlari openAI o1 ko'rish modeli bilan erishgan yutuqlari bilan teng ekanligi aniq. Ular ushbu AI poygasida etakchilar qatorida, bu ularga mavzu bo'yicha yaxshi vakolat beradi.


Antropik jamoa tomonidan aytilganlarni takrorlashdan tashqari, men har bir nuqta amaliy AI qo'llanilishining kelajagi uchun 1 yildan keyin va 5 yildan keyin ikkita muhim vaqt jadvali sifatida nimani anglatishini ham tasavvur qilmoqchiman. Men bashoratlarimda noto'g'ri bo'lishni kutyapman (o'yinda juda ko'p omillar), lekin menimcha, aqliy gimnastikani bajarish va biz o'sha "haqiqiy kelajakda" vaqt bo'yicha paydo bo'lganimizda ushbu matnga qarash juda qiziqarli.



  1. O'lchov effekti qachon paydo bo'lishini bilmaymiz, lekin HAZIR EMAS

    Men uchun asosiy fikrlardan biri uning gipoteza yo'lini pasaytirishning kelajakdagi ta'siriga bo'lgan nuqtai nazari bo'ldi (ko'proq qobiliyatli hisoblash bilan ko'proq va yaxshiroq ma'lumotlarni tashlash, shunga mos ravishda modellarni aqlli qiladi). Dario, oddiygina barcha eski texnikalardan foydalanish va qo'shimcha ma'lumotlarni qo'shish AIni sezilarli darajada oshirishda unchalik samarali bo'lmasligiga ishora qilganga o'xshaydi. Hozirgi vaqtda AI laboratoriyalarining asosiy yo'nalishi qaysi qismni o'lchash kerakligini tushunishdir.


    Uning fikricha, ba'zi istiqbolli yo'llar sintetik ma'lumotlarni ishlab chiqarish (murakkab vazifalar uchun sinov va xato o'rgatishda AlphaGo yondashuvini qo'llash) yoki qo'shimcha ma'lumotlarni qo'shish, ya'ni. modellarga aniq domenlar uchun yaxshi javoblar va yomon javoblar misollarini berib, u umumiy qoidalarni tushunadi va ularni biroz yaxshiroq qo'llaydi.


    • 2025 yil - AlphaGo AI o'z-o'zini o'rgatish yondashuvi keng tarqalgan bo'lib qoladi va modellar zudlik bilan teskari aloqa zanjiriga ega bo'lgan qo'shimcha murakkab mashqlarda inson qobiliyatidan oshib ketadi (ehtimol savdo)

    • 2030 yil - AlphaGo o'z-o'zini o'rgatish yondashuvi modellarda umumlashtirilishi mumkin, shunda ular topshiriqni bajarish uchun etarli vaqt berilsa, qiyin amaliy vazifalarni o'z-o'zidan yaxshilaydi.


      2. AI xavfsizligiga yondashuv modelni ishlab chiqish bilan birga rivojlanadi


    The current state of the art models (o1 & claude 3.5 sonnet) are ASL-2

Avtonomiya va noto'g'ri foydalanish eng katta xavf tug'diradi.

Darioning ta'kidlashicha, uning jamoasi har safar yangi modelni o'rgatganda ikkala xavfni ham sinab ko'rishadi, shunda ular uni chiqarishdan oldin oldini olishlari mumkin.


ASL-1 (shaxmat boti kabi) - xavf tug'dirmaydi

ASL-2 (hozirgi AI modellari) - shunchaki Google orqali qidirish mumkin bo'lgan ma'lumotlardan tashqari unchalik xavfli ma'lumotlarni taqdim etmaydi.

ASL-3 (noqonuniylarning imkoniyatlarini oshirishi mumkin) - modellar chiqarilishidan oldin ushbu tizimlar orqali kiber, yadroviy, biologik qurollarni faollashtirish jiddiy ravishda o'chirilishi kerak.

ASL-4+ (ASL-3 + avtonom dan aqlliroq) - ular qanday boshqarilishi hozircha noma'lum, ular faqat treningdan so'ng bunday model belgilari paydo bo'lganda xavfdan chiqariladi.


  • 2025 yil - Dario kelgusi yilda ASL-3 ni kutmoqda. Ishonchim komilki, odamlar tomonidan ushbu tizimlardan noto'g'ri foydalanish to'siqlarga qaramay sodir bo'ladi, chunki chiqarilgunga qadar barcha xatolarni (yangi firibgarliklar yoki dasturiy viruslar) qo'lga kiritish mumkin bo'lmaydi.

  • 2030 yil - sun'iy intellektning bir nechta va qobiliyatli robot ilovalari, masalan, Tesla Optimus robotlari , sun'iy intellekt ma'lum sohalarda o'rtacha odamga qaraganda bir vaqtning o'zida mujassamlangan va ancha aqlli bo'ladi. Bunday murakkab tizimlardan noto'g'ri foydalanishning to'liq oldini olish qiyin bo'lishi mumkin, ayniqsa ular jinoyatchilar uchun oddiy vazifalarni bajaradigan hollarda.


    3. AGI (yoki Dario soʻzlari bilan aytganda “ kuchli AI ”) 2027- yilgacha yetib kelishi mumkin.


    U bir necha marta AI qanchalik aqlli bo'lishi domenga bog'liq bo'lishini va sun'iy intellektni rivojlantirishga to'sqinlik qiluvchilar doimiy ravishda to'xtab qolganga o'xshaydi. Mantiqan, inson tomonidan yaratilgan tarkibdan to'g'ri foydalanish orqali, odamlarning fikrlash qobiliyati oxir-oqibat AI tomonidan takrorlanishi kerak. Shaxmat o‘ynaydigan kompyuterlar va AlphaGo o‘xshashligidan ma’lum bo‘ladiki, aniq vazifalarni bajarishda AI inson qobiliyatlaridan oshib ketishi mumkin va bu domen qanchalik yaxshi hujjatlashtirilgan va qattiq bo‘lsa, unumdorlik ham shunchalik yuqori bo‘lishi kerak. Shunday qilib, yakuniy AGI ning eng yomon stsenariysi bu inson darajasidagi aqliy AI bo'lib, u muayyan sohalarda ajoyib imkoniyatlarga ega bo'lib, biz uni eng yuqori darajada rivojlantirishga muvaffaq bo'ldik.


    Xuddi shunday, sun'iy intellektning haqiqiy qo'llanilishi ma'lum bir soha AI ishlab chiquvchilardan qanchalik uzoqda ekanligiga bog'liq bo'ladi. Shubhasiz, qishloq xo'jaligi sharoitida ushbu modellardan unumli foydalanishdan ko'ra, kod yozishga yordam beradigan yangi modellarni sinab ko'rish va moslashtirish ularga osonroqdir. Shu mantiqqa ko'ra, IT/kodlash, fan, yirik shahar biznesi va shundan keyingina iqtisodiyotning boshqa qismlari AI ta'sirini shu tartibda his qilishi kerak.


    • 2025 yil - Biz sun'iy intellektning yanada ta'sirchan/avtonom ilovalarini ko'rishni boshlaymiz, ayniqsa kodlashda, bu erda texnik bo'lmagan mahsulot menejerlari koderdan yordam so'ramasdan kodga asoslangan loyihalarni amalga oshirishlari mumkin.

    • 2030 yil - Har bir biznes sun'iy intellektni o'z ish oqimiga u yoki bu tarzda integratsiya qiladi, chegara modellari biologiya, fizika va matematika kabi sohalarda ko'plab ilmiy kashfiyotlarga yordam bergan bo'lar edi.


    1. Modelni izchil ishlab chiqish uchun mexanik talqin qilish muhimroq bo'ladi


    Modellar juda tez rivojlanmoqda, ammo ular qora quti bo'lib qolmoqda, nima uchun ular yaxshi ishlaydi va nima uchun yomon ishlaydi, noma'lum.

    Ko'pincha bu shuni anglatadiki, bunday modellarni o'zgartirish / masshtablash gallyutsinatsiyalarga, oldindan aytib bo'lmaydigan harakatlarga yoki favqulodda xatti-harakatlarga olib keladi, ularni ishlab chiquvchilar boshqariladigan modelni yaxshilash uchun oldindan tushunishni xohlashadi.


    “Ichki mojaro” funksiyasi yaqinidagi xususiyatlar xaritasi, jumladan muvozanatlash kelishuvlari, romantik kurashlar, qarama-qarshi sodiqliklar va 22-larni tutish bilan bog'liq klasterlar.


    Anthropic o'z modeli Klodning "ongida" nima sodir bo'lishini tasvirlashga harakat qiladi. Ushbu yondashuv, nazariy jihatdan, Klod nima uchun ma'lum javoblarni tupurayotganini va turli xil o'qitish usullari ushbu neyron tarmoq ichida hosil bo'ladigan naqshlardagi o'zgarishlarga qanday yordam berishini tushuntirishi kerak. Bundan tashqari, kashf qilish shunchaki qiziqarli.


    • 2025 yil - Klod modelining yangi vizualizatsiya va tafsilotlar bilan yanada kengroq tavsiflovchi talqini (nashr qilingan yoki bu ma'lumotlar Anthropicning raqobatdosh ustunligi uchun qanchalik sezgir bo'lishiga qarab).


    • 2030 yil - Agar Anthropicning yondashuvi muvaffaqiyatli bo'lsa, har bir yirik AI laboratoriyasi o'zlarining AI tizimlarining ichki xaritasini yaratgan bo'lishi mumkin (talqin qilingan). Biroq, agar bu yondashuv modelni ishlab chiqishga real ta'sir qilmasdan juda tavsiflovchi bo'lsa, 2030 yilda hech kim mexanik talqin qilish haqida eslay olmaydi ...


Xulosa

Bashoratlardan qat'i nazar, AIning keyingi bosqichini kuzatish qiziqarli bo'ladi. Va agar 5 yil ichida hech qanday inqilob sodir bo'lmasa, hech bo'lmaganda ushbu maqolani qayta o'qish tetiklantiruvchi bo'ladi, chunki men nihoyat oyiga 300 dollarlik OpenAI obunasini bekor qilishni tanladim.