Mens AI har skabt en del røre i de sidste par år, blev grundlaget for AI-udvikling lagt allerede i begyndelsen af det 20. århundrede.
Med den seneste hype omkring AI, kan nogle af os føle, at det er et nyligt fænomen. Det er det ikke. Det hele startede i begyndelsen af det 20. århundrede. Væsentligt arbejde på dette område begyndte dog først at ske omkring midten af det 20. århundrede. Det var omkring dette tidspunkt, at den visionære matematiker, Alan Turing, udtænkte skabelsen af intelligente maskiner - en drøm, der er blevet realiseret med fremkomsten af teknologi som maskinlæring og naturlig sprogbehandling.
Denne udviklingshistorie på over 100 år er spændende. Det svarer til et agern, der bliver sået i markerne, bliver vandet og næret, og så venter på, at det udvikler sig til et mægtigt egetræ. For at forstå, hvordan det tidlige grundlag udviklede sig til den intelligente teknologi, vi ser i dag, lad os dykke ned i historien om kunstig intelligens.
Før et begreb eller en idé af videnskabelig interesse bliver udforsket af videnskabsmænd, er det født i kunstneres hoveder. Det samme gælder ideen om "kunstige mennesker" eller "robotter", der spirede i hovedet på den tjekkiske dramatiker Karel Capek og kulminerede i hans hitspil "RUR - Rossum's Universal Robots" fra 1920. Han er krediteret for opfundet af udtrykket "robot", der betyder arbejdere.
Vi er begejstrede for Googles selvkørende biler, men ved vi, at konceptet med førerløse biler først blev lanceret i 1925? De første førerløse biler, der kom på gaden i New York City, var radiostyrede biler udgivet af Houdina Radio Control. Det tog 90 år for Alphabet Inc., Googles moderselskab, at lancere Waymo, som nu leverer kommercielle robotaxi-tjenester – et vidunder af intelligent teknologi.
Når først en idé starter i én del af verden, rejser den hurtigt og får nye dimensioner. I 1929 skabte den japanske professor Makoto Nishimura med en vis succes, hvad Karel Capek havde forestillet sig i sit skuespil - en robot! Dette japanske vidunder kaldet Gakutensoku, der betyder at lære af naturens love, kunne bevæge hovedet og hænderne og ændre ansigtsudtryk. Nishimura opnåede det ved at bruge en lufttryksmekanisme.
Det ser ud til, at den menneskelige strøm af bevidsthed i fællesskab drømte om maskiner, der ikke bare kunne efterligne menneskeligt arbejde, men også gøre ting, som mennesker ikke kunne. HG Wells, den futuristiske forfatter, der udtænkte begreber som tidsrejser, usynlighed, bio-engineering og mere, forudsagde i 1937, at "hele den menneskelige hukommelse kan blive, og sandsynligvis på kort tid vil blive gjort tilgængelig for ethvert individ" og at "enhver studerende, i hvilken som helst del af verden, vil være i stand til at sidde med sin [mikrofilm] projektor i sit eget arbejdsværelse, når det passer ham, for at undersøge enhver bog eller ethvert dokument i en replika." Vi kan roligt antage, at han drømte om fremtidens computere, som vi bruger i dag.
Senere, i 1949, udgav den amerikanske datalog Edmund Callis Berkley bogen "Giant Brains Or Machines That Think". Det var første gang, at prototypen på, hvad man kan kalde den første personlige computer, Simon, blev beskrevet i en bog. Den mest spændende del af bogen for videnskabs- og teknologientusiaster var undersøgelsen af datidens banebrydende mekaniske hjerner (tidlige computere) - MITs differentialanalysator, Harvards IBM sekvenskontrollerede lommeregner, Moore Schools ENIAC og Bell Laboratories' relæberegner. .
Mens de tidlige 1900'ere var en tid, hvor mennesker enten stadig skabte intelligente maskiner i deres sind eller tog små skridt hen imod at skabe egentlige maskiner, var 1950'erne, da der blev taget virkelige skridt i denne retning. Det var langt den mest forfriskende periode i AI's historie.
Du skal være et barn i hjertet, hvis du ønsker at tænke så frit og kreativt som et barn. At spille spil er en af de bedste måder at holde barnet i live. Men Alan Turing gik et skridt foran, da han udtænkte "The Imitation Game", populært kendt som Turing Test, i sit banebrydende papir fra 1950 "Computer Machinery and Intelligence". Dette spil blev designet til at evaluere en maskines intelligente adfærd, hvilket gjorde det svært at skelne den fra et menneske. I moderne tid bruger vi den omvendte Turing-test, populært kaldet "Fuldstændig automatiseret offentlige Turing-test til at skelne computere og mennesker fra hinanden" eller CAPTCHA til at fastslå, at et menneske og ikke en bot betjener maskinen.
Det var i 1948, at Turing begyndte at skrive et program til en computer til at spille skak. I 1952 implementerede han dette program på Ferranti Mark 1. Desværre kunne computeren ikke bruge programmet til at spille spillet, men Turing aktiverede sit indre barn til at spille skak ved hjælp af instruktionerne i algoritmemanualen. Meget senere så den russiske skakstormester og tidligere verdensmester i skak, Garry Kasparov, på spillets optagelse og udråbte det som "et genkendeligt skakspil."
Men fascinationen af spil var ikke begrænset til Turing. En anden pioner inden for computerspil og kunstig intelligens, Arthur Samuel, introducerede verdens første succesrige selvlæringsprogram til at spille dam kaldet "Samuel Checkers-Playing Program" i 1952. Samuel så potentialet i spil i forskningen for kunstig intelligens, da de lavede det er nemt at vurdere computerens ydeevne i forhold til et menneskes. Samuels glans blev yderligere eksemplificeret, da han populariserede udtrykket "machine learning" i 1959, den forskning, som han havde startet i 1949.
Tiden i midten af 1950'erne var travl med forskning og arbejde omkring kunstig intelligens. Faktisk blev udtrykket "kunstig intelligens" eller "AI", som det populært kaldes, opfundet i 1955 af et andet blændende sind, som også er en af grundlæggerne af AI som disciplin - John McCarthy. Han opfandt udtrykket i et medforfattet dokument, men udtrykket vandt popularitet på hans sommerworkshop på Dartmouth College, der siges at have været overværet af datidens førende computersind. Han stoppede ikke der, da han yderligere forfinede sine tanker om kunstig intelligens ved at opfinde Lisp, et programmeringssprog, i 1958. Han fortsatte med at udgive "Programmer med sund fornuft" i 1959, hvor han beskrev programmet til at løse problemer ved at manipulere sætninger — det blev kaldt Rådtageren.
Alle disse opfindelser og opdagelser fra 1950'erne blev efterfulgt af andet banebrydende arbejde gennem 1960'erne og 70'erne. Den vigtigste blandt disse var det interaktive program ELIZA. Udviklet af Joseph Weizenbaum i 1965, kunne dette program føre en dialog om ethvert emne på det engelske sprog, ligesom nutidens chatbots! Det, der var mest nysgerrig ved dette program, var, at mange mennesker tilskrev det at have menneskelignende følelser - en funktion, der stadig er uhåndgribelig og diskutabel.
"Deep Learning"-metoden, der bruges i udviklingen af AI i dag, blev udtænkt i 1968 af den sovjetiske matematiker Alexey Ivakhnenko i hans arbejde "Group Method of Data Handling", som blev offentliggjort i tidsskriftet "Avtomatika". Det lyder måske utroligt, men de hurtige teknologiske fremskridt, vi ser i dag, står på skuldrene af langsomt og stabilt arbejde udført gennem midten af det 20. århundrede.
\Men tingene forblev ikke langsomt og stabile. De tog fart i 1980'erne, da interessen for kunstig intelligens og deraf følgende finansiering og forskning på området voksede med stormskridt. I denne periode blev der udviklet programmer, der replikerede menneskelige eksperters beslutningsevne inden for specifikke områder.
1980 var året for den første konference nogensinde for Association for the Advancement of Artificial Intelligence, eller AAAI, som blev grundlagt i 1979. Med sin 38. årlige konference afholdt i år, fortsætter denne forening med at fremme forskning inden for AI og udveksling af videnskabelige ideer blandt globale praktikere på området. Men der var et tidspunkt i 1984, hvor AAAI havde forudsagt, hvad der blev kaldt en " AI Winter " , en tid med træg forskning på grund af reduceret interesse for AI.
Men før denne forudsigelse tildelte det japanske ministerium for international handel og industri forbløffende 850 millioner dollars til Fifth Generation Computer Project i 1981. Det 10-årige projekt var ambitiøst forud for sin tid og en kommerciel fiasko - et perfekt eksempel at være en hype i stedet for en tidsånd. Projektet eksemplificerede imidlertid den japanske filosofi om IKIGAI, da forskerne udnyttede deres gejst til at give et boost til udviklingen af samtidig logisk programmering.
I modsætning til vejrudsigelser fra den meteorologiske afdeling viste AAAI's forudsigelse af en AI-vinter sig korrekt. Afslutningen på Fifth Generation-projektet var en af årsagerne til tabet af interesse og investeringer inden for kunstig intelligens i slutningen af 1980'erne. Men andre tilbageslag i ekspertsystemerne og maskinmarkederne, herunder sammenbruddet af den specialiserede LISP-baserede hardware på grund af billigere alternativer fra IBM og Apple i 1987, bidrog også til uinteressen for AI.
Men ikke alt var knas i denne periode. Faderen til den dræbte amerikanske journalist Daniel Pearl og vinderen af Turing Award 2011, Professor Judea Pearl, udgav "Probabilistic Reasoning in Intelligent Systems" i 1988. Forkæmperen for den probabilistiske tilgang til kunstig intelligens og opfinderen af Bayesianske netværk var en revolutionær tænker, hvis Bayesianske modeller blev et betydningsfuldt værktøj til vigtigt arbejde inden for ingeniør- og naturvidenskab.
Jabberwock er måske en skræmmende fiktiv karakter fra Alice i Eventyrland, men dens formål var det samme som Jabberwacky, en chatbot fra 1988 udviklet af Rollo Carpenter – at glæde og underholde. Jabberwacky var udstyret til at simulere naturlig menneskelig samtale underholdende og humoristisk.
Vinteren er ikke lang, især i de subtropiske områder, og når den forlader, indvarsler foråret smukke blomster, som er elsket af alle. Noget lignende skete også med AI-vinteren. Mens den ildevarslende forudsigelse om afslutningen på den menneskelige æra i 1993's "The Coming Technological Singularity" af Vernor Vinge kan have skræmt de bedste af os, forudsagde dette papir også, at inden for 30 år ville vi "have teknologien til at skabe overmenneskelig intelligens. ” Tredive år siden, vi har måske ikke opnået, hvad han forudsagde, men det ser ud til, at vi er på vej i den retning.
I 1997 så verden Gary Kasparov, en regerende verdensmester i skak, besejrede i hænderne på Deep Blue, det første computerskakspilprogram. Denne hændelse var et skelsættende øjeblik i AI's historie og blev dermed den kreative indflydelse for mange bøger og film. Samme år udgav Dragon NaturallySpeaking 1.0, også kendt som DNS, en talegenkendelsessoftware, der ville køre på Windows.
År 2000 så yderligere fremskridt på området med udviklingen af Kismet, en robot, der kunne simulere menneskelige følelser. Denne og andre robotter var udtænkt af professor Cynthia Breazeal, som stadig var studerende ved MIT Artificial Intelligence Lab. De drømme, som dramatikerne i begyndelsen af 1900-tallet så, begyndte at tage form.
Yuri Gagarins rumodyssé og Neil Armstrongs månelanding var værd at fejre, men det samme var landingen af Spirit and Opportunity, de to amerikanske rovere, på Mars i 2003. De opererede med succes på planeten uden menneskelig indblanding – en stor gevinst for teknologiens verden .
Twitter, Facebook og Netflix – de nutidige tech-giganter – begyndte at bruge AI til deres annoncering og UX-algoritmer for næsten to årtier siden i 2006. Tegnene på, at AI som teknologi virkelig ville starte, var begyndt at blive synlige. Sejren af Deep Blue i 1997 var et glimt af IBM's forskning inden for kunstig intelligens, og IBM Watson viste, hvor langt deres forskning havde ført dem, da programmet besejrede Brad Rutter og Ken Jennings i Jeopardy! Udfordring i 2011.
Det var IBMs Watson, der fik industrier fra detailhandel til finansielle tjenester til at tænke over muligheden for AI-implementering i erhvervslivet. 2011 var også året, hvor Apples Siri, en virtuel assistent, blev lanceret.
Tid er et kontinuum, og alt, hvad vi gør, selv AI, er en del af dette kontinuum. Vi har set, hvordan de små skridt fra 1900'erne førte til store opdagelser og opfindelser i 2000'erne. Da det første kvartal af 2000'erne tommer mod sin afslutning, ser vi, hvor langt AI er kommet, især i det seneste årti og lidt mere.
En af disse rejser er Deep Learning-modellen. Fra sin ydmyge opfattelse i 1968 opnåede modellen et gigantisk udsigter, da Googles Jeff Dean og Andrew Ng forbandt 16.000 computerprocessorer for at skabe et af de største neurale netværk med mere end en milliard forbindelser til maskinlæring i 2012. De fodrede netværket med 10 mio. tilfældige billeder af katte fra YouTube-videoer, og der skete noget ekstraordinært - netværket begyndte at genkende katte. Katteelskere kan lave noget støj!
Den anden rejse er robotternes. Fra Karel Capeks Rossums Universal Robots til Makoto Nishimuras Gakutensoku til Joseph Weizenbaums chatbot ELIZA til Cynthia Breazeals Kismet var robotten nået langt, men det var i år 2016, at Sophia, den humanoide robot med realistiske menneskelige træk og udtryk blev den første. "robotborger". Meget overrasket, vær ikke.
Nogle ting rocker vores båd og så nogle rocker menneskeheden. En sådan ting skete i 2017, da teknologiverdenen blev forbløffet over opførselen af to Facebook-chatbots, der så ud til at have udviklet deres eget forhandlingssprog, der var uforståeligt for mennesker, men som viste visse mønstre for at overbevise AI-ingeniører om, at det ikke var tilfældigt pludren, men et sprog, de faktisk forstod. Selvom dette ikke varslede ankomsten af singulariteten som forudsagt af Vernor Vinge, lod bots' forhandlinger, herunder deres foregivne interesse i en genstand for at overbevise den anden om et kompromis senere, mennesker til at gabe over maskinernes fremtidige muligheder.
I marts 2020 kom den første bølge af Covid-19-pandemien, der forstyrrede arbejdet, som vi kendte det indtil da. Da virksomheder begyndte at søge efter måder at udføre arbejde på afstand, lancerede Open AI sin Generative Pre-trained Transfomer, eller GPT-3, som det populært kaldes, i maj 2020. GPT-3 er en af de største sprogindlæringsmodeller, der kan udføre opgaver med øget nøjagtighed på grund af dens øgede kapacitet og højere antal parametre—175 milliarder, hvilket er 10 gange mere end dens nærmeste konkurrerende model Turing-NLG.
Siden da er nyere forbedrede versioner, GPT-3.5 og GPT-4 blevet lanceret. For nylig er GPT-5 også blevet annonceret, der lover avanceret kunstig intelligens, empati, fortrolighed, dynamisk tilpasning og tankekæde og ræsonnement trin for trin.
Vores rejse har bragt os til i dag, hvor AI gennemsyrer alle aspekter af vores liv. Fra virtuelle assistenter, der forudser vores behov, til selvkørende biler, der navigerer i byens gader, er AI-pionerernes engang så fantastiske drømme blevet vores daglige realitet.
Men efterhånden som vi vender siden mod fremtiden, bliver plottet tykkere med etiske dilemmaer, samfundspåvirkning og søgen efter kunstig generel intelligens – den ultimative grænse. Sagaen om AI fortsætter med at udfolde sig, fanger vores fantasi og udfordrer vores forståelse af, hvad det vil sige at skabe intelligens ud fra silicium og kode.
Og så går fortællingen om kunstig intelligens, en hypnotiserende blanding af menneskelig opfindsomhed og teknologisk udvikling, frem i det ukendte og inviterer os alle til at overvære de næste kapitler i denne medrivende fortælling.
Tillæg: