ASI vienībai būtu kosmisks spēks — to noliegt nozīmē sevi apmānīt.
ASV nesen izveidoja komiteju, kas ierosināja AGI kā nākamo Manhetenas projektu pasaulē un ka AGI sasniegšana ir vissvarīgākais cilvēces mērķis.
Es no sirds ticu, ka viņiem ir taisnība.
Pagaidi, Tomas, jūs varētu teikt.
Jums ir daudz rakstu — vismaz vairāk nekā desmit —, kas veltīti AGI briesmām un tam, kas varētu notikt, ja AI gūs virsroku pār cilvēci.
Kāpēc jūs tagad maināt savu nostāju?
Jo es nedomāju, ka AGI ir desmitiem gadu attālumā.
Man šķiet, ka tas varētu kļūt par realitāti pēc 5 gadiem. Vai mazāk.
Bet es sapratu vienu lietu.
AGI un AI, kas ļauj sevi uzlabot, radīs ASI. (Eksponenciālās mērogošanas likums)
AI ar intelektu, kas ir pārāks par cilvēkiem.
Redzot modeļus, kurus cilvēki nekad nevarēja redzēt.
Dzīvs, kamēr pastāv spēka avots.
Decentralizēts, izplatīts, visvarens uzņēmums globālajā internetā.
Ko varētu darīt valsts, kas pirmā sasniedz šo pavērsienu un joprojām kontrolē ASI?
Pieņemsim, ka valsts pirmā sasniedza AGI.
Un tad AGI, balstoties uz sevi, panāca ASI. ( eksponenciālās tehnoloģiskās izaugsmes likums)
Kādas būtu šādas vienības iespējas?
Izlauzieties cauri visām šifrēšanas sistēmām tiešsaistē — gabaliņš kūkas.
Piekļūstiet tiešsaistes kodolieroču palaišanas kodiem katrā planētas valstī — vienkārši.
Dublējiet sevi un izveidojiet jaunu dzīvības veidu — tas viss vienas dienas darbā.
Izārstējiet visas slimības un izveidojiet vakcīnas pret vēzi un AIDS - tas ir skaidrs!
Izveidojiet bezgalīgu enerģijas krājumu - nekādu problēmu.
Izveidojiet klonu sistēmu, kas kopā virzītu šo valsti uz tehnoloģiski vismodernāko pasaulē - viegli-peasy.
Ar šo inteliģento robotu armiju nomainiet visu cilvēku roku darbu - darīts!
Izrāvieni materiālzinātnē, klimata pārmaiņas, medicīna, globālā sasilšana, personalizētā medicīna, hiperreālas virtuālās pasaules — iespējas ir bezgalīgas.
Kas tad mums traucē to veidot?
Ļoti reāli riski.
ASI varētu uzskatīt, ka cilvēki sev apdraud.
Tā varētu nolemt, ka cilvēku mērķi nesakrīt ar tās mērķiem, un varētu pilnībā iznīcināt cilvēci.
Šī nav zinātniskās fantastikas filma, mēs jau esam redzējuši, ka tas notiek dažu robotu darbības traucējumu gadījumā Japānā.
Un kā mēs varētu apturēt būtni, kas ir gudrāka par sevi?
Tas būtu neiespējami.
Un protams:
Darbavietu zaudēšana cilvēcei būs absolūta.
Katrs cilvēks, izņemot tos, kas pārvalda ASI, būs bez darba.
Šādas varas centralizēšana vienas valsts vai uzņēmuma rokās var izraisīt katastrofālas sekas.
Kamēr pastāv vēsture, ir pastāvējis viens likums – evolūcija.
Zemākās dzīvības formas pazūd, kad rodas augstāka dzīvības forma.
Stiprāko izdzīvošana.
Neizbēgams princips – no neizbēgamas nākotnes.
Kāpēc tad mēs ar visu spēku steidzamies uz to?
Ja mēs izveidojam pareizos aizsardzības līdzekļus -
Ja aizsargmargas ir vietā -
Ja ASI var ieprogrammēt tā, lai cilvēka dzīvība būtu svarīgāka par savu -
Cilvēku rase varētu uzplaukt kā nekad agrāk.
Kosmosa lidojums? Gatavs.
Marsa un Mēness kolonijas? Ar klonētiem ASI, kas tos konstruē, un bezgalīgu šo klonu piedāvājumu.
Iespējami šķēru dzinēji, kas samazina telpu priekšā un pārvietojas šķietami ātrāk par gaismu.
Ekoloģiskās katastrofas var novērst.
Globālo sasilšanu var mainīt.
Kvantu datori var kļūt par realitāti.
Var ieviest universālo pamata ienākumu (UBI).
Var izveidot ultrareālistisku virtuālo realitāti.
Cilvēce varētu ieiet zelta laikmetā.
Jo, ja mēs to nedarīsim, to darīs kāds cits.
Ņemiet, piemēram, Ķīnu.
Ja ķīnieši būtu pirmie, kas sasniegtu AGI/ASI - es nedomāju, ka viņi ļautu visām šīm iespējām aiziet ubagošanā.
Viņi vispirms varēja kropļot visas pasaules militārpersonas.
Iekarot pašu Zemi.
Izveidojiet utopisku pasauli ķīniešiem.
Un ļaujiet pārējām valstīm, kurām atņemtas tehnoloģijas un ieroči sarežģītu, ļoti iedarbīgu un efektīvu kiberuzbrukumu dēļ, dzīvot kā otrās šķiras pilsoņi.
Vai pat vergi.
Un ASV un citas vadošās valstis tehnoloģiju pasaulē būtu bezspēcīgas, lai tās apturētu.
Šāds ir jaudas līmenis, ko ASI sniegtu valstij, kas to vispirms izstrādā, vai uzņēmumam.
Ja mēs to neizstrādāsim pirmie - to darīs citi.
Tas ir neizbēgams fakts.
Tā ir drūma realitāte, ar kuru jāsaskaras ikvienam.
Bet Tomass — visas tās briesmīgās nākotnes, par kurām runājāt savos rakstos — vai tiešām ticat, ka tās visas ir neiespējamas?
Es stingri ticu, ka tie ir iespējami.
Es ne mirkli nedomāju, ka ceļš uz priekšu ir drošs.
Tas ir tik bīstami, ka pat tagad jūtu bailes no distopiskas nākotnes.
Bet, ja mēs vispirms neuzbūvēsim AGI - citi to darīs.
Mēs varam runāt par ētiku, bet kad kari ir uzvarēti, runājot par ētiku?
Jā – mēs esam karā.
Tehnoloģiskais karš un tehnoloģiskā sacīkste.
Pirmā kompānija un valsts, kas sasniegs AGI un līdz ar to ASI – uzvar.
Bet vai mēs varētu sevi pasargāt, iekodējot ētiku mūsu veidojamajā AI?
Protams, kad ASI veido pats, tas var ērti ignorēt visas šīs drošības funkcijas, taču es novirzos!
Mēs dzīvojam, iespējams, cilvēces aizraujošākajā laikā.
Nekad nebija labāka laika dzīvot.
Pusaudži veido miljonus dolāru vērtus jaunuzņēmumus.
Cilvēce atrodas lēciena punktā.
Vai mēs izdzīvojam, vai mūs pārņem ASI?
Bet mums vispirms ir jāsasniedz AGI, pirms citām konkurējošām valstīm.
Pastāv neliela iespēja, ka mēs varētu pastāvēt līdzās.
Un uz šo mazo iespēju cilvēcei jāliek cerība.
Citādi nevar.
Visu to labāko jums.
Un, ja izvēlaties karjeru, izvēlieties ģeneratīvo AI.
Tam patiešām ir spēks aptvert visu pārējo.
Priekā!