paint-brush
Чаму гонка да AGI з'яўляецца вызначальным момантам для чалавецтвапа@thomascherickal
Новая гісторыя

Чаму гонка да AGI з'яўляецца вызначальным момантам для чалавецтва

па Thomas Cherickal6m2024/12/25
Read on Terminal Reader

Занадта доўга; Чытаць

ЗША абвясцілі AGI больш актуальнай ініцыятывай, чым атамная бомба. Вось чаму яны маюць рацыю. Прачытайце гэты артыкул для поўнай разбіўкі AGI, ASI і наступстваў для чалавецтва.
featured image - Чаму гонка да AGI з'яўляецца вызначальным момантам для чалавецтва
Thomas Cherickal HackerNoon profile picture
0-item


Суб'ект ASI меў бы касмічную моц - адмаўляць яе - значыць падманваць сябе.

Большая моц, чым ядзерная зброя

Нядаўна ЗША стварылі камітэт, які прапанаваў AGI у якасці наступнага манхэтэнскага праекта ў свеце і што дасягненне AGI з'яўляецца самай важнай мэтай чалавецтва ў цяперашні час.


Ад усяго сэрца веру, што яны маюць рацыю.


Трымайся, Томас, можна сказаць.


У вас ёсць мноства артыкулаў — прынамсі больш за дзесяць — прысвечаных небяспецы AGI і таму, што можа здарыцца, калі ІІ возьме верх над чалавецтвам.


Чаму вы зараз мяняеце сваю пазіцыю?


Таму што я не думаю, што AGI яшчэ праз дзесяцігоддзі.


Я адчуваю, што гэта можа стаць рэальнасцю праз 5 гадоў. Ці менш.


Але я зразумеў адну рэч.


AGI і AI, якія могуць удасканальвацца, прывядуць да ASI. (Закон экспанентнага маштабавання)


ШІ з інтэлектам, вышэйшым за чалавечы.


Бачыць шаблоны, якія людзі ніколі не маглі бачыць.


Жывы, пакуль існуе крыніца сілы.


Дэцэнтралізаваная, размеркаваная, усемагутная сутнасць у глабальным Інтэрнеце.


Што можа зрабіць краіна, якая першай дасягнула гэтай вехі і ўсё яшчэ кантралюе ASI?


Наступствы дасягнення ASI


Ці захоча штучны інтэлект, які думае лепш за чалавека, выглядаць чалавекам?


Дапусцім, краіна дасягнула AGI першай.


І тады AGI, будуючы на сабе, дасягнуў ASI. (закон экспанентнага тэхналагічнага росту)


Якімі былі б магчымасці такой арганізацыі?


Узламаць кожную сістэму шыфравання онлайн - кавалак пірага.


Лёгка атрымаць доступ да кодаў запуску ядзернай зброі кожнай краіны планеты.


Дублюйце свае копіі і стварайце новы від жыцця - усё гэта за дзень працы.


Вылечыць усе хваробы і стварыць вакцыны ад раку і СНІДу - дакладна!


Стварыць бясконцы запас энергіі - не праблема.


Пабудуйце сістэму клонаў, якія б разам прасунулі гэтую краіну да самай тэхналагічна развітой у свеце - easy-peasy.


З гэтай арміяй разумных робатаў вы заменіце ўсю ручную працу людзей - зроблена!


Прарывы ў матэрыялазнаўстве, змяненне клімату, медыцына, глабальнае пацяпленне, персаналізаваная медыцына, гіперрэальныя віртуальныя светы - магчымасці бязмежныя.


Тады што перашкаджае нам пабудаваць?


Вельмі рэальныя рызыкі.


Неверагодныя рызыкі ASI

ASI - гэта вельмі змрочная карціна, калі з ёй не звяртацца з асаблівай асцярожнасцю.


ASI можа палічыць, што людзі з'яўляюцца пагрозай для сябе.


Ён можа вырашыць, што мэты людзей не супадаюць з яго ўласнымі мэтамі, і перайсці да поўнага знішчэння чалавецтва.


Гэта не навукова-фантастычны фільм, мы ўжо бачылі гэта ў некаторых няспраўнасцях робатаў у Японіі.


І як мы маглі спыніць істоту, разумнейшую за нас саміх?


Гэта было б немагчыма.


І вядома:


Страты працоўных месцаў для чалавецтва будуць абсалютнымі.


Кожны чалавек - за выключэннем тых, хто кіруе ASI - застанецца без працы.


Цэнтралізацыя такой улады ў руках адной краіны або кампаніі можа прывесці да катастрафічных наступстваў.


Колькі існуе гісторыя, дзейнічае адзін закон - эвалюцыі.


Ніжэйшыя формы жыцця знікаюць, калі ўзнікае вышэйшая форма жыцця.


Выжыванне мацнейшага.


Непазбежны прынцып - з непазбежнай будучыні.


Тады чаму мы з усіх сіл імчымся да гэтага?


Аптымістычны прагноз

Так, ASI, калі ён можа суіснаваць з чалавецтвам, можа прывесці да ўтапічнага свету!


Калі мы пабудуем правільныя гарантыі -


Калі парэнчы на месцы -


Калі ASI можна запраграмаваць лічыць чалавечае жыццё больш важным, чым сваё ўласнае -


Чалавечая раса можа квітнець, як ніколі раней.


Касмічны палёт? Гатова.


Калоніі Марса і Месяца? З дапамогай кланаваных ASI, якія ствараюць іх, і бясконцай колькасці гэтых клонаў - магчыма.


Рухавікі дэфармацыі, якія скарачаюць прастору перад сабой і падарожнічаюць нібыта хутчэй, чым святло - магчыма.


Экалагічныя катастрофы можна прадухіліць.


Глабальнае пацяпленне можна звярнуць назад.


Квантавыя кампутары могуць стаць рэальнасцю.


Універсальны базавы даход (УБД) можа быць рэалізаваны.


Можна стварыць звышрэалістычную віртуальную рэальнасць.


Чалавецтва магло ўвайсці ў залаты век.


Але рызыкі занадта высокія! Чаму мы павінны гэта рабіць?


Усё, што мы бачылі цяпер, гэта толькі пачатак.


Бо калі мы гэтага не зробім, зробіць нехта іншы.


Возьмем Кітай, напрыклад.


Калі б кітайцы першымі дасягнулі AGI/ASI - я не думаю, што яны б адпусцілі ўсе гэтыя магчымасці на жабрацтва.


Яны маглі спачатку скалечыць вайскоўцы ўсяго свету.


Заваяваць саму Зямлю.


Стварыце ўтапічны свет для кітайцаў.


І няхай іншыя краіны, пазбаўленыя сваіх тэхналогій і зброі праз складаныя кібератакі вялікай магутнасці і эфектыўнасці, жывуць як грамадзяне другога гатунку.


Ці нават рабы.


І ЗША і іншыя вядучыя краіны тэхналагічнага свету былі б бяссільныя іх спыніць.


Такі ўзровень магутнасці, які ASI прынясе краіне, якая першай яго распрацуе, або кампаніі.


Калі мы не будзем развіваць яго першымі - зробяць іншыя.


Гэта непазбежны факт.


Гэта змрочная рэальнасць, але з якой кожны павінен сутыкнуцца.

Рэпрыза


Трымаць свет у руцэ...


Але Томас — усе тыя жудасныя будучыні, пра якія вы казалі ў сваіх артыкулах — вы сапраўды верыце, што ўсе яны немагчымыя?


Я цвёрда веру, што яны магчымыя.


Я ні на хвіліну не думаю, што шлях наперад бяспечны.


Гэта настолькі небяспечна, што я нават зараз адчуваю страх перад антыўтапічнай будучыняй.


Але калі мы не пабудуем AGI першымі - гэта зробяць іншыя.


Мы можам казаць пра этыку - але калі войны выйгравалі размовамі пра этыку?


Так - у нас вайна.


Тэхналагічная вайна і тэхналагічная гонка.


Першая кампанія і краіна, якая дасягне AGI і, такім чынам, ASI - выйграе.


Але ці можам мы абараніць сябе, закадзіраваўшы этыку ў штучны інтэлект, які мы ствараем?


Стварэнне бяспечнага суперінтэлекту (Ілля, не ў крыўду!)

SSI - выдатны стартап, і я вельмі паважаю Іллю Суцкевера


  1. Забеспячэнне ўзгаднення з мэтамі штучнага інтэлекту і людзьмі. Гэта ўзгадненне з'яўляецца ключом да ўсіх адносін.
  2. Утрымліванне ў пясочніцах і, магчыма, ніколі не выпускаць штучны інтэлект у Інтэрнэт, пакуль ён не будзе цалкам правераны (о, так мы думалі!).
  3. Рамкі кіравання і этычныя палітыкі, якіх павінен прытрымлівацца кожны ASI.\
  4. Выключальнікі, убудаваныя ў кожны ASI.
  5. Аперацыйныя сістэмы ASI могуць кіравацца сістэмай кантролю, якая аддае прыярытэт чалавечаму існаванню перад існаваннем ASI.


Вядома, калі ASI стварае сябе, ён можа зручна занядбаць усімі гэтымі функцыямі бяспекі, але я адцягнуўся!


Заключэнне

Будучыня цяпер.

Мы жывем, магчыма, у самы захапляльны час чалавецтва.


Ніколі не было лепшага часу для жыцця.


Падлеткі ствараюць стартапы на мільёны долараў.


Чалавецтва знаходзіцца ў кропцы пералому.


Ці выжывем, ці нас захопіць ASI?


Але мы павінны спачатку дасягнуць AGI, перш чым іншыя краіны-канкурэнты.


Шанец, што мы можам суіснаваць, невялікі.


І на гэты невялікі шанец чалавецтва павінна ўскладаць надзею.


Іншага шляху няма.


Усяго найлепшага вам.


І калі вы выбіраеце кар'еру - выбірайце Generative AI.


У яго сапраўды ёсць сіла ўключыць у сябе ўсё астатняе.


На здароўе!

Я шчыра спадзяюся, што гэта наша будучыня ASI.

L O A D I N G
. . . comments & more!

About Author

Thomas Cherickal HackerNoon profile picture
Thomas Cherickal@thomascherickal
Every Article Published Should Rank in the Top Ten in Google Search within 3 days @ 60 USD or a 50% price discount.

ВЕСІЦЬ БІРКІ

ГЭТЫ АРТЫКУЛ БЫЎ ПРАДСТАЎЛЕНЫ Ў...