Yüksek Lisans'ların tarihine ilişkin serimizden yola çıkarak, bugün size "Yapay Zeka Kışları"nın, yani yapay zeka araştırmalarına olan ilginin ve finansmanın azaldığı dönemlerin büyüleyici hikayesini anlatmak istiyoruz. Heyecan ve hayal kırıklığının sırayla nasıl devam ettiğini göreceksiniz, ancak önemli araştırmalar her zaman devam ediyor. Yapay zeka kışlarının bu en kapsamlı zaman çizelgesinde yapay zekanın gelişen doğasını keşfederken bize katılın. (Eğer şimdi zamanınız yoksa, makaleyi daha sonra kullanmak üzere kaydettiğinizden emin olun! Öğrenilecek birkaç dersle birlikte okumaya değer).
Yaz olması iyi çünkü şuraya dalıyoruz:
Bu serinin ilk baskısında tartışıldığı gibi, NLP araştırmasının kökleri 1930'ların başlarına dayanır ve varlığı makine çevirisi (MT) üzerine yapılan çalışmalarla başlar. Ancak Warren Weaver'ın etkili bildirisinin 1949'da yayınlanmasından sonra önemli ilerlemeler ve uygulamalar ortaya çıkmaya başladı.
Memorandum araştırma camiasında büyük heyecan yarattı. Sonraki yıllarda dikkate değer olaylar ortaya çıktı: IBM ilk makinenin geliştirilmesine başladı, MIT makine çevirisi alanında ilk tam zamanlı profesörünü atadı ve MT'ye adanmış çeşitli konferanslar düzenlendi. Doruk noktası, 1954'te saygın gazetelerde geniş ilgi toplayan IBM-Georgetown makinesinin halka açık gösterimiyle geldi.
Mekanik çeviri alanını harekete geçiren bir diğer etken de Merkezi İstihbarat Teşkilatı'nın (CIA) gösterdiği ilgiydi . Bu dönemde CIA, makine çevirisi yeteneklerinin geliştirilmesinin önemine kesin olarak inandı ve bu tür girişimleri destekledi. Ayrıca bu programın CIA ve istihbarat topluluğunun çıkarlarının ötesine uzanan sonuçları olduğunun da farkındalardı.
Umutsuz yapay zeka kışlarının takip ettiği tüm yapay zeka patlamaları gibi, medya da bu gelişmelerin önemini abartma eğilimindeydi. IBM-Georgetown deneyine ilişkin manşetlerde " Elektronik beyin Rusça'yı çeviriyor ", "İki dilli makine", "Robot beyni Rusça'yı King'in İngilizcesine çeviriyor" ve " Çok dilli beyin çocuğu " gibi ifadeler yer alıyordu. Ancak asıl gösteri, makinenin sözcük dağarcığı yalnızca 250 kelimeyle sınırlı olacak şekilde , yalnızca 49 Rusça cümleden oluşan seçilmiş bir setin İngilizceye çevrilmesini içeriyordu. Olayları bir perspektife oturtmak gerekirse bu çalışma , insanların yazılı metinleri %98 doğrulukla kavrayabilmeleri için yaklaşık 8.000 ila 9.000 kelime ailesinden oluşan bir kelime dağarcığına ihtiyaç duyduğunu buldu.
Bu gösteri oldukça sansasyon yarattı. Bununla birlikte, yapay zeka araştırmasının teorik temelini oluşturan ilk öncülerden biri olarak kabul edilen Profesör Norbert Wiener gibi şüpheciler de vardı. Weaver'ın bildirisinin yayınlanmasından önce ve kesinlikle gösteriden önce bile Wiener, 1947'de Weaver'a yazdığı bir mektupta şüphelerini şöyle dile getirdi:
Açıkçası, farklı dillerdeki kelimelerin sınırlarının çok belirsiz olmasından ve duygusal ve uluslararası çağrışımların herhangi bir yarı mekanik çeviri şemasını umut verici kılmayacak kadar kapsamlı olmasından korkuyorum. [...] Şu anda, körler için fotoelektrik okuma fırsatlarının tasarlanması gibi bir aşamanın ötesinde dilin makineleşmesi çok erken görünüyor.
Ancak, hayalperestlerin endişelerini gölgede bırakması ve gerekli finansmanı başarılı bir şekilde sağlaması nedeniyle şüphecilerin azınlıkta olduğu görülüyor. Araştırmanın sponsorluğunda beş devlet kurumu rol oynadı: Ulusal Bilim Vakfı (NSF), Merkezi İstihbarat Teşkilatı (CIA), Ordu, Deniz Kuvvetleri ve Hava Kuvvetleri ile birlikte ana katkıda bulunanlar oldu. 1960 yılına gelindiğinde bu kuruluşlar mekanik çeviriyle ilgili projelere toplu olarak yaklaşık 5 milyon dolar yatırım yapmıştı.
1954'e gelindiğinde mekanik çeviri araştırmaları, Massachusetts Teknoloji Enstitüsü'ne (MIT) bağış sağlayan Ulusal Bilim Vakfı'nın (NSF) takdirini kazanmaya yetecek kadar ilgi kazandı. CIA ve NSF, 1956'nın başlarında iki Direktör arasında yazışmalarla sonuçlanan görüşmelere başladı. NSF, makine çevirisi konusunda ilgili tüm tarafların üzerinde mutabakata vardığı herhangi bir arzu edilen araştırma programını yönetmeyi kabul etti. Ulusal Bilim Vakfı'nın 1960 yılındaki ifadesine göre, Amerika Birleşik Devletleri'ndeki 11 grup, Federal Hükümet tarafından desteklenen mekanik çeviri araştırmasının çeşitli yönlerinde yer aldı. Hava Kuvvetleri, ABD Ordusu ve ABD Donanması'ndan da büyük ilgi vardı.
IBM-Georgetown makinesinin halka açık gösterimini takip eden yıl, "Yapay Zeka" terimi, McCarthy tarafından 1955'te yayınlanan Dartmouth Yaz Konferansı teklifinde icat edildi . Bu olay, yeni bir hayal ve umut dalgasını ateşledi ve mevcut düşünceyi daha da güçlendirdi. heves.
Gelişmiş bilgisayar gücü ve artırılmış bellek kapasitesiyle donatılmış yeni araştırma merkezleri ortaya çıktı. Eş zamanlı olarak üst düzey programlama dillerinin gelişimi de gerçekleşti. Bu ilerlemeler kısmen NLP araştırmalarının önemli bir destekçisi olan Savunma Bakanlığı'nın önemli yatırımlarıyla mümkün oldu.
Dilbilimdeki, özellikle de Chomsky'nin önerdiği biçimsel dilbilgisi modelleri alanındaki ilerleme, birçok çeviri projesine ilham kaynağı oldu. Bu gelişmeler önemli ölçüde geliştirilmiş çeviri yetenekleri vaat ediyor gibi görünüyordu.
John Hutchins'in " Özetle Makine Çevirisinin Tarihi" kitabında yazdığı gibi, yakın zamanda gerçekleşecek "atılımlara" dair çok sayıda tahmin vardı. Ancak araştırmacılar çok geçmeden, basit çözümler olmadan karmaşık zorluklar sunan ve giderek artan bir hayal kırıklığı hissine yol açan "anlamsal engellerle" karşılaştı.
" Viski Görünmezdi "de, John Hutchins tarafından çok eski bir örnek veriliyor ; İncil'de geçen "Ruh istekli ama beden zayıftır" deyimini Rusça'ya çeviren bir MT sisteminin hikayesi, daha sonra şu şekilde çevrildi: "Viski serttir ama eti çürüktür" deniliyor. Bu anekdotun doğruluğu şüpheli olsa da ve hatta Isidore Pinchuk hikayenin uydurma olabileceğini söylese de, Elaine Rich bunu ilk dönem makine çevirisi sistemlerinin deyimlerle başa çıkma konusundaki yetersizliğini göstermek için kullandı. Genel olarak bu örnek, MD sistemlerinin kelimelerin anlambilimiyle ilgili sorunlarını göstermektedir.
İncil'de "Ruh isteklidir, fakat beden zayıftır" sözü
MT sistemi tarafından "Viski güçlüdür ancak et çürüktür" şeklinde çevrilmiştir.
Asıl başarı, Amerika Birleşik Devletleri hükümeti tarafından görevlendirilen ve başkanlığını Ulusal Bilim Vakfı Direktörü Dr. Leland Haworth'un yaptığı ve gösterilen temel fikri destekleyen ALPAC grubunun bulgularından geldi. Raporlarında makine çevirisi, fizik ve yer bilimlerindeki çeşitli metinlerin insan çevirisiyle karşılaştırılıyor. Sonuç: İncelenen tüm örneklerde makine çevirisi çıktıları, insan çevirisine göre daha az doğru, daha yavaş, daha maliyetli ve daha az kapsamlıydı.
1966'da Ulusal Araştırma Konseyi, Amerika Birleşik Devletleri'nde makine çevirisi araştırmalarına verilen tüm desteği aniden kesti. İngiltere'de Alman gizli kodlarının şifresini çözmek için bilgisayarların başarılı bir şekilde kullanılmasının ardından, bilim adamları yanlışlıkla yazılı metni diller arasında çevirmenin şifrelerin kodunu çözmekten daha zor olmayacağına inandılar. Ancak "doğal dili" işlemenin karmaşıklığının beklenenden çok daha zorlu olduğu ortaya çıktı. Sözlük aramayı otomatikleştirme ve dil bilgisi kurallarını uygulama girişimleri saçma sonuçlar verdi. Yirmi yıl ve yirmi milyon dolarlık yatırımın ardından görünürde hiçbir çözüm bulunamaması, Ulusal Araştırma Konseyi komitesinin araştırma çabasını sonlandırmasına neden oldu.
Dilbilimde yeterli teorik temel olmamasına rağmen, alandaki pratik uygulamalara yönelik yüksek beklentiler nedeniyle hayal kırıklığı ortaya çıktı. Araştırmacılar pratik uygulamalardan ziyade teorik yönlere odaklandılar. Ayrıca, sınırlı donanım kullanılabilirliği ve teknolojik çözümlerin olgunlaşmamış olması ek zorluklar yarattı.
İkinci hayal kırıklığı dalgası, ilkinden hemen sonra geldi ve yapay zeka araştırmacıları için abartılı iddiaların tehlikeleri konusunda uyarıcı bir hikaye görevi gördü. Ancak, ardından gelen sorunlara girmeden önce bazı arka plan bilgilerine ihtiyaç var.
1940'larda McCulloch ve Walter Pitts, zihnin temel ilkelerini anlamaya başladılar ve biyolojik sinir ağlarının yapısından ilham alarak yapay sinir ağlarının ilk versiyonlarını geliştirdiler .
Yaklaşık on yıl sonra, 1950'lerde bilişsel bilim, "bilişsel devrim" olarak adlandırılan ayrı bir disiplin olarak ortaya çıktı. İlk yapay zeka modellerinin çoğu insan beyninin işleyişinden etkilenmişti. Dikkate değer bir örnek, labirentte gezinen bir fareyi simüle eden ilk bilgisayarlı yapay sinir ağı olan Marvin Minsky'nin SNARC sistemidir.
Ancak 1950'lerin sonlarında araştırmacılar dikkatlerini zekanın anahtarı olarak sembolik akıl yürütmeye çevirdikçe bu yaklaşımlar büyük ölçüde terk edildi. İlk yapay zeka programı olarak kabul edilen Logic Theorist (1956) ve Allen Newell, Herbert A. Simon ve Rand'dan Cliff Shaw tarafından evrensel bir problem çözme makinesi olarak tasarlanan General Problem Solver (1957) gibi programların başarısı Corporation bu değişimde rol oynadı.
Bir tür bağlantıcı çalışma devam etti: Frank Rosenblatt'ın sarsılmaz bir coşkuyla desteklediği algılayıcılar üzerine yapılan çalışmalar devam etti. Rosenblatt, algılayıcıları ilk olarak 1957'de Cornell Havacılık Laboratuvarı'ndaki bir IBM 704 bilgisayarında simüle etti. Ancak bu araştırma çizgisi, 1969'da Marvin Minsky ve Seymour Papert'in algılayıcıların algılanan sınırlamalarını tasvir eden Perceptrons kitabının yayınlanmasıyla aniden durduruldu.
Daniel Crevier'in yazdığı gibi:
Perceptron'ların ortaya çıkışından kısa bir süre sonra, trajik bir olay bu alandaki araştırmaları daha da yavaşlattı: Söylentilere göre o zamanlar kırık bir adam olan Frank Rosenblatt bir tekne kazasında boğuldu. En inandırıcı destekleyicisini kaybeden sinir ağı araştırmaları, on beş yıl süren bir tutulmaya girdi.
Bu süre zarfında bağlantıcı araştırmalarda daha küçük ölçekte de olsa önemli ilerlemeler kaydediliyordu. Paul Werbos'un 1974'te sinir ağlarının eğitimi için önemli bir algoritma olan geri yayılımı tanıtması, sınırlı kaynaklarla da olsa ilerlemeye devam etti. Bağlantıcı projeler için büyük miktarda fon sağlamak hâlâ zorlu olmaya devam etti ve bu da onların arayışlarında bir düşüşe yol açtı.
1980'lerin ortalarına kadar bir dönüm noktası yaşanmadı. John Hopfield, David Rumelhart ve diğerleri gibi önemli araştırmacıların sinir ağlarına olan ilginin yeniden canlanmasıyla kış sona erdi. Çalışmaları bağlantıcı yaklaşımlara olan ilgiyi yeniden alevlendirdi ve sinir ağları alanında büyük ölçekli araştırma ve geliştirmelerin yeniden canlanmasının yolunu açtı.
Yüksek beklentiler ve iddialı iddialar çoğu zaman doğrudan hayal kırıklığına giden yoldur. 1960'ların sonu ve 1970'lerin başında Minsky ve Papert, MIT'de Mikro Dünyalar projesini yönettiler ve burada mikro dünyalar adı verilen basitleştirilmiş modeller geliştirdiler. Çabanın genel itici gücünü şu şekilde tanımladılar:
[Mikro dünyaların] o kadar önemli olduğunu hissediyoruz ki, çabamızın büyük bir kısmını bu mikro dünyalardan oluşan bir koleksiyon geliştirmeye ve modellerin fikir verici ve öngörücü güçlerini, bunların modellerle uyumsuzluğuna yenilmeden nasıl kullanacağımızı bulmaya ayırıyoruz. gerçek gerçek.
Çok geçmeden mikro dünyaların savunucuları, insan kullanımının en spesifik yönlerinin bile, insan kültürünün daha geniş bağlamı dikkate alınmadan tanımlanamayacağını fark ettiler. Örneğin, SHRDLU'da kullanılan teknikler belirli uzmanlık alanlarıyla sınırlıydı. Mikro dünyalar yaklaşımı genel zeka için aşamalı bir çözüme yol açmadı. Minsky, Papert ve öğrencileri, bir mikro dünyayı giderek daha büyük bir evrene genelleştiremediler veya birkaç mikro dünyayı daha büyük bir küme halinde birleştiremediler.
Ülke genelindeki diğer yapay zeka laboratuvarlarında da beklentileri karşılama konusunda benzer zorluklarla karşılaşıldı. Örneğin Stanford'daki Shakey robot projesi, otomatik casusluk cihazı olma beklentilerini karşılayamadı. Araştırmacılar kendilerini, tekliflerinde yerine getirebileceklerinden daha fazlasını vaat ettikleri, giderek artan bir abartma döngüsünün içinde buldular. Nihai sonuçlar genellikle yetersiz kaldı ve ilk vaatlerden uzaktı.
Bu projelerin çoğunu finanse eden Savunma Bakanlığı kurumu DARPA, yaklaşımlarını yeniden değerlendirmeye ve araştırmacılardan daha gerçekçi beklentiler talep etmeye başladı.
1970'lerin başında, DARPA'nın Konuşmayı Anlama Araştırması (SUR) programı, savaş senaryolarında müdahalesiz etkileşim için sözlü komutları ve verileri anlayabilen bilgisayar sistemleri geliştirmeyi amaçlıyordu. Beş yıl ve on beş milyon dolarlık bir harcamanın ardından DARPA projeyi aniden sonlandırdı, ancak kesin nedenleri hala belirsizliğini koruyor. Stanford, MIT ve Carnegie Mellon gibi önde gelen kurumlar, multimilyon dolarlık sözleşmelerinin neredeyse önemsiz hale geldiğini gördü.
Daniel Crevier kitabında DARPA'nın o dönemdeki finansman felsefesi hakkında şunları yazıyor:
O zamanlar DARPA'nın felsefesi şuydu: "Projelere değil, insanlara fon sağlayın!" Minsky, Harvard'da Licklider'ın öğrencisiydi ve onu iyi tanıyordu. Minsky'nin bana söylediği gibi, "Licklider bize parayı büyük bir parça halinde verdi" ve ayrıntılara pek önem vermiyordu.
Bolt, Beranek ve Newman, Inc. (BBN) ve Carnegie Mellon'un da aralarında bulunduğu birçok tanınmış müteahhit, bu beş yıl boyunca kayda değer sistemler üretti. Bu sistemler arasında SPEECHLESS, HIM, HEARSAY-I, DRAGON, HARPY ve HEARSAY-II yer alıyordu; bu sistemler bağlantılı konuşmanın anlaşılmasında ve birden fazla konuşmacıdan gelen binlerce kelimelik kelime dağarcığının cümlelerini işlemede önemli ilerlemeler kaydetti.
Bu sistemlerin, kısıtlanmamış girdiyi anlama konusunda sınırlamaları vardı ve kısıtlı dilbilgisi nedeniyle kullanıcılara hangi komutların kendilerine uygulandığını tahmin etme hakkı veriyordu. Bu açıdan yaşanan hayal kırıklığına rağmen yapay zeka araştırmacıları bu projeleri gururla değerlendirdi. Örneğin, birden fazla bilgi kaynağını bir "karatahta" cihazı kullanarak entegre etmesiyle bilinen HEARSAY-II, şimdiye kadar yazılmış en etkili yapay zeka programlarından biri olarak övüldü.
Ancak bu noktada yapay zeka araştırmacıları ile sponsorları arasındaki beklentiler konusundaki iletişim uçurumu çok büyüdü.
Yapay zeka araştırmalarının azalan dalgası yalnızca Amerikalı araştırmacılara özgü değildi. İngiltere'de, akışkanlar dinamiği alanında seçkin bir isim ve Cambridge Üniversitesi'nin Lucasian Uygulamalı Matematik Kürsüsü'nün eski sakini olan Sir James Lighthill'in hazırladığı bir rapor , yapay zeka araştırmalarının durumuna yıkıcı bir darbe indirdi. Lighthill araştırmasını "Konunun ABC'si" olarak adlandırılan üç bölüme ayırdı.
"A", insanları amaca yönelik makinelerle değiştirmeyi amaçlayan Gelişmiş Otomasyonu temsil ediyordu. "C" Bilgisayar tabanlı merkezi sinir sistemi (CNS) araştırmasını ifade ediyordu. Son olarak "B", yapay zekanın kendisini simgeliyor ve A ile C kategorileri arasında köprü görevi görüyor.
A ve C kategorileri birbirini takip eden başarı ve başarısızlık dönemleri yaşarken Lighthill, B kategorisinin amaçlanan Köprü Etkinliği etrafındaki yaygın ve derin cesaret kırıklığı hissini vurguladı. Şunları söylüyor: “ Bu, tüm yapay zeka kavramının entegre bir alan olarak olup olmadığı konusunda şüpheleri artırıyor. araştırma geçerli bir araştırmadır. ”
Rapor, 1973'te BBC'nin "Tartışma" dizisinde yayınlanan hararetli bir tartışmayı ateşledi. "Genel amaçlı robot bir seraptır" başlıklı tartışma Kraliyet Enstitüsü'nde gerçekleşti ve Sir James Lighthill, Donald Michie, John ile karşı karşıya geldi. McCarthy ve Richard Gregory.
Ne yazık ki raporun yansımaları şiddetli oldu ve İngiltere'deki yapay zeka araştırmalarının tamamen ortadan kaldırılmasına yol açtı. Edinburgh, Essex ve Sussex gibi yalnızca birkaç üniversite yapay zeka araştırma çabalarına devam etti. Yapay zeka araştırmalarının daha büyük ölçekte bir canlanma yaşaması 1983 yılına kadar mümkün olmadı. Bu yeniden diriliş, İngiliz hükümetinin, Japon Beşinci Nesil Projesine yanıt olarak yapay zeka araştırmalarına 350 milyon £ tahsis eden Alvey adlı finansman girişimi tarafından tetiklendi.
Bağlantıcı kış olarak bilinen dönemde Logical Theorist (1956) ve General Problem Solver (1957) gibi sembolik sistemler donanım kısıtlamalarıyla karşı karşıya kalarak ilerlemeye devam etti. O zamanlar bilgisayar kapasitesinin sınırlı olması nedeniyle bu sistemler yalnızca oyuncak örneklerini işleyebiliyordu. Herbert Simon 1950'li ve 1960'lı yıllardaki durum hakkında şunları söylüyordu:
O zamanlar sahip olduğumuz bilgisayarlarla büyük veri tabanları oluşturamadığımız için insanlar bilgiyi merkeze alan görevlerden uzaklaşıyorlardı. İlk satranç programımız ve Mantık Teorisyenimiz, 64 ila 100 kelimelik bir çekirdeğe ve üzerinde 10.000 kelimelik kullanılabilir alan bulunan bir karalama tamburuna sahip bir bilgisayarda yapıldı. Yani anlambilim oyunun adı değildi. Büyük bir mağazadan nasıl bilgi alındığına dair tez yapmak isteyen bir öğrencim olduğunu hatırlıyorum. Ben ona "Olmaz! Bu tezi yalnızca bir oyuncak örneği üzerinde yapabilirsiniz ve bunun nasıl ölçeklendiğine dair hiçbir kanıtımız olmayacak. Yapacak başka bir şey bulsan iyi olur." Böylece insanlar bilginin temel konu olduğu sorunlardan uzaklaştılar.
1960 civarında, MIT'den McCarthy ve Minsky, özyinelemeli işlevlere dayanan bir programlama dili olan LISP'yi geliştirdi. LISP, erken yapay zeka gelişimi için çok önemli olan sembolik işleme yetenekleri ve karmaşık görevleri yönetme esnekliği nedeniyle çok önemli hale geldi. Yapay zeka araştırmalarında kullanılan ilk dillerden biriydi. Ancak, önemli bellek kapasitelerine sahip bilgisayarların ortaya çıktığı 1970'lerin başlarına kadar programcıların bilgi yoğun uygulamaları hayata geçirmeleri mümkün olmadı.
Bu sistemler, insan uzmanlığını birleştirmeyi ve belirli görevlerde insanların yerini almayı amaçlayan "uzman sistemler"in temelini oluşturdu. 1980'ler, yapay zekayı akademik bir alandan pratik uygulamalara dönüştüren uzman sistemlerin yükselişine işaret etti ve LISP bunun için tercih edilen programlama dili haline geldi. Y Combinator ve Hacker News'in kurucu ortağı ve bilgisayar programcısı Paul Graham'ın makalesine göre LISP "mevcut dillerden radikal bir sapmaydı" ve dokuz yenilikçi fikir ortaya koydu.
Uzman sistemlerin geliştirilmesi, yapay zeka alanında akademik araştırma ile pratik uygulamalar arasındaki boşluğu dolduran önemli bir kilometre taşını temsil ediyordu. Carnegie Mellon Üniversitesi'nden John McDermott, Ocak 1980'de XCON (eXpert CONfigurer) adı verilen ilk uzman sistemi önerdi. XCON, Digital Equipment Corporation (DEC) tarafından VAX bilgisayarlarının yapılandırma sürecini kolaylaştırmak için kullanıldı. 1987 yılına gelindiğinde XCON, etkisini ve etkinliğini gösteren önemli sayıda siparişi işleme koydu.
1981 yılında CMU, Xsel adında yeni bir sistem üzerinde çalışmaya başladı. Geliştirme daha sonra DEC tarafından devralındı ve Ekim 1982'de saha testleri başladı. Xcon ve Xsel önemli bir tanıtım alsa da hâlâ prototip aşamasındaydı. O zamanlar Xsel program yöneticisi olan Bruce Macdonald, tanıtımın başarılardan çok daha ağır bastığını söyleyerek protesto etmeye başladı, ancak satıştan sorumlu başkan yardımcısının durmaya niyeti yoktu. Aslında Macdonald, satıştan sorumlu başkan yardımcısının üst düzey yöneticilerle yaptığı toplantıda kendisine bakıp şunları söylediğini hatırlıyor: “Üç yıldır bu şey üzerinde çalışıyorsun. Hazır değil mi?”
1980'lerin başında, birçok büyük şirkette yapay zeka gruplarının oluşmasına yol açan uzman sistem başarı öykülerinin akınına tanık olundu. Kişisel bilgisayarların yükselişi, Star Wars filmlerinin popülaritesi ve Discover ve High Technology gibi dergiler, halkın yapay zekaya olan ilgisinin artmasına katkıda bulundu. 1970'lerin sonundaki milyar dolarlık biyoteknoloji patlaması, yüksek teknolojiye olan yatırım ilgisini artırdı ve önde gelen yapay zeka uzmanlarını yeni girişimlere girişmeye teşvik etti :
O dönemde ortaya çıkan şirketler, en çok satış yapandan en az satana doğru üç ana alana ayrılabilir:
1985 yılına gelindiğinde 150 şirket tarafından dahili yapay zeka gruplarına toplu olarak 1 milyar dolar harcandı . 1986'da ABD'de yapay zeka ile ilgili donanım ve yazılım satışları, 40 yeni şirketin kurulması ve toplam 300 milyon dolarlık yatırımla 425 milyon dolara ulaştı.
Akademik çevrenin muhabirlerin, risk sermayedarlarının, sektördeki kelle avcılarının ve girişimcilerin akınıyla dolup taştığı düşünüldüğünde, patlama yaratan büyüme zorluklara yol açtı. 1980'de Amerikan Yapay Zeka Derneği'nin açılış toplantısına yaklaşık bin araştırmacı katılırken, 1985'te AAAI ve IJCAI'nin ortak toplantısına katılımın altı bine yaklaştığı görüldü. Atmosfer gündelik kıyafetlerden resmi kıyafetlere geçti.
1984 yılında, AAAI'nin yıllık toplantısında Roger Schank ve Marvin Minsky, yaklaşmakta olan "Yapay Zeka Kışı" konusunda uyarıda bulunarak, üç yıl sonra yapay zeka balonunun yakında patlayacağını ve özel LISP tabanlı yapay zeka pazarının gerçekleşeceğini öngördüler. donanım çöktü .
Sun Microsystems ve Lucid gibi şirketler alternatif olarak güçlü iş istasyonları ve LISP ortamları sundu. Genel amaçlı iş istasyonları LISP Makineleri için zorluklar yarattı ve Lucid ve Franz LISP gibi şirketleri UNIX sistemleri için LISP'nin giderek daha güçlü ve taşınabilir sürümlerini geliştirmeye teşvik etti. Daha sonra Apple ve IBM'in masaüstü bilgisayarları, LISP uygulamalarını çalıştırmak için daha basit mimarilere sahip olarak ortaya çıktı. 1987'ye gelindiğinde bu alternatifler pahalı LISP makinelerinin performansına ulaşarak özel makinelerin geçerliliğini yitirmesine neden oldu. Yarım milyar dolar değerindeki sektör, bir yıl içinde hızla yenilendi.
LISP makine pazarının çöküşünden sonra yerini daha gelişmiş makineler aldı ancak sonunda aynı kaderle karşılaştı. 1990'ların başında, aralarında Sembolics ve Lucid Inc.'in de bulunduğu ticari LISP şirketlerinin çoğu başarısız oldu. Texas Instruments ve Xerox da sahadan çekildi. Bazı müşteri şirketleri LISP üzerine kurulu sistemleri sürdürmeye devam etti ancak bu, destek çalışması gerektiriyordu.
1990'larda ve sonrasında, "uzman sistem" terimi ve bağımsız yapay zeka sistemleri kavramı, BT sözlüğünden büyük ölçüde kayboldu. Bunun iki yorumu var. Bir görüşe göre, aşırı abartılı vaatlerini yerine getiremedikleri için "uzman sistemler başarısız oldu" ve bu da BT dünyasının yoluna devam etmesine yol açtı. Diğer bakış açısı ise uzman sistemlerin başarılarının kurbanı olduğu yönündedir. BT profesyonelleri kural motorları gibi kavramları benimsedikçe bu araçlar, uzmanlaşmış uzman sistemleri geliştirmeye yönelik bağımsız araçlardan, birçok araç arasında standart araçlar haline geldi.
1981 yılında Japonların Beşinci Nesil bilgisayar projesine yönelik iddialı planlarını açıklayarak dünya çapında endişelere neden oldu. Savunma Bakanlığı'nın yapay zeka araştırmaları ve teknik uzmanlığı için finansman geçmişi olan Amerika Birleşik Devletleri, 1983'te Stratejik Bilgi İşlem Girişimi'ni (SCI) başlatarak yanıt verdi. SCI, on yıllık bir zaman dilimi içinde gelişmiş bilgisayar donanımı ve yapay zeka geliştirmeyi hedefledi. Stratejik Hesaplama: DARPA ve Makine İstihbaratı Arayışı, 1983-1993 kitabının yazarları "SCI tarafından tasarlanan makineyi" şöyle tanımlamaktadır:
Bir insan gibi görmek, duymak, konuşmak ve düşünmek için saniyede on milyar talimat çalıştıracaktı. Gereken entegrasyon derecesi, insanoğlunun bildiği en karmaşık araç olan insan beyninin elde ettiğine rakip olacak düzeydedir.
Stratejik Bilgi İşlem Girişimi (SCI) kapsamındaki dikkate değer projelerden biri "Akıllı Kamyon" veya Otonom Kara Aracı (ALV) projesiydi. SCI'nin yıllık bütçesinin önemli bir kısmını aldı ve çeşitli görevler için çok yönlü bir robot geliştirmeyi hedefledi. Bu görevler arasında silah teslimatı, keşif, mühimmat elleçleme ve arka alan ikmali yer alıyordu. Amaç, engebeli arazide ilerleyebilen, engelleri aşabilen ve kamuflajı kullanabilen bir araç yaratmaktı. Başlangıçta tekerlekli prototipler yollar ve düz zeminlerle sınırlıydı, ancak nihai ürünün mekanik ayaklar üzerinde her türlü araziyi geçebilmesi öngörülüyordu.
1980'lerin sonlarına gelindiğinde, projenin istenen makine zekası düzeylerine ulaşmaya hiçbir şekilde yaklaşamadığı ortaya çıktı. Temel zorluk, programın farklı yönlerini koordine edebilecek ve bunları kolektif olarak makine zekası hedefine doğru ilerletebilecek etkili ve istikrarlı bir yönetim yapısının eksikliğinden kaynaklanıyordu. SCI'ye yönetim planlarını empoze etmek için çeşitli girişimlerde bulunuldu, ancak hiçbiri başarılı olamadı. Ek olarak, ALV projesinin kendi kendine sürüş kabiliyeti gibi SCI'nin iddialı hedefleri, o zamanlar ulaşılabilir olanı aştı ve çağdaş çok modlu yapay zeka sistemlerine ve anlaşılması zor AGI (Yapay Genel Zeka) konseptine benziyordu.
1987 yılında Bilgi İşlem Teknolojileri Ofisi'nin (IPTO) kontrolünü devralan Jack Schwarz'ın liderliğinde, DARPA içindeki yapay zeka araştırmalarına yönelik finansman azaltıldı . Düşünen Makineler: Yapay Zekanın Tarihi ve Beklentileri Üzerine Kişisel Bir Araştırma kitabında Pamela McCorduck, Schwarz'ın Stratejik Bilgi İşlem Girişimi'ne yönelik tutumunu ve yapay zekanın rolünü anlatıyor:
Schwartz, DARPA'nın bir yüzme modeli kullandığına, bir hedef belirlediğine ve akıntı veya fırtınalara aldırmadan o hedefe doğru kürek çektiğine inanıyordu. DARPA bunun yerine bir sörfçü modeli kullanmalı; büyük dalgayı beklemeli, bu da nispeten mütevazı fonlarının aynı hedefe doğru zarif ve başarılı bir şekilde sörf yapmasına olanak tanıyacaktır. Uzun vadede yapay zeka mümkün ve umut vericiydi ancak dalgası henüz yükselmemişti.
Yüksek düzeyde makine zekası elde etmekte yetersiz kalmasına rağmen SCI, belirli teknik kilometre taşlarını başardı. Örneğin, 1987 yılına gelindiğinde ALV, iki şeritli yollarda kendi kendine sürüş, engellerden kaçınma ve farklı koşullarda arazide sürüş yeteneklerini kanıtlamıştı. SCI ALV programının öncülüğünü yaptığı video kameraların, lazer tarayıcıların ve eylemsiz navigasyon birimlerinin kullanımı, günümüzün ticari sürücüsüz araç geliştirmelerinin temelini attı.
Savunma Bakanlığı, Stratejik Hesaplama: DARPA ve Makine İstihbaratı Arayışı, 1983-1993'te belirtildiği gibi, 1983 ile 1993 yılları arasında SCI'ya 1.000.417.775,68 $ yatırım yaptı. Proje sonunda 1990'larda Hızlandırılmış Stratejik Bilgi İşlem Girişimi ve daha sonra Gelişmiş Simülasyon ve Bilgi İşlem Programı tarafından başarılı oldu.
Soğuk! AI kışları kesinlikle eğlenceli değildi. Ancak büyük dil modelleriyle (LLM'ler) son atılımları mümkün kılan araştırmanın bir kısmı o zamanlarda yapıldı. Sembolik uzman sistemlerin yükselişe geçtiği dönemde, bağlantıcı araştırmacılar daha küçük ölçekte de olsa sinir ağları üzerindeki çalışmalarına devam ettiler. Paul Werbos'un sinir ağlarını eğitmek için önemli bir algoritma olan geri yayılmayı keşfetmesi, daha fazla ilerleme için çok önemliydi.
1980'lerin ortalarında, Hopfield, Rumelhart, Williams, Hinton ve diğerleri gibi araştırmacıların sinir ağlarında geri yayılımın etkinliğini ve karmaşık dağılımları temsil etme yeteneklerini göstermeleriyle "bağlantıcı kış" sona erdi. Bu yeniden diriliş, sembolik uzman sistemlerin gerilemesiyle eş zamanlı olarak meydana geldi.
Bu dönemden sonra sinir ağları üzerine yapılan araştırmalar herhangi bir aksaklık yaşanmadan gelişti ve çok sayıda yeni modelin geliştirilmesine yol açarak modern yüksek lisansların ortaya çıkmasının yolunu açtı. Bir sonraki baskıda, sinir ağı araştırmalarının bu verimli dönemine değineceğiz. Bizi izlemeye devam edin!
Devam edecek…
Bu hikaye ilk olarak Turing Post'ta yayınlandı . Bu sayıyı beğendiyseniz, LLM'lerin Tarihi'nin dördüncü bölümünü doğrudan gelen kutunuza almak için abone olun .