Yapay zekanın tarihi - History of artificial intelligence

Yapay Zeka tarihçesi ( AI ) başlayan antik mitler, öyküler ve usta tarafından, akıl ve şuur sahip yapay varlıkların söylentiler ile. Modern yapay zekanın tohumları, insan düşünme sürecini sembollerin mekanik manipülasyonu olarak tanımlamaya çalışan klasik filozoflar tarafından ekildi. Bu çalışma , 1940'larda matematiksel akıl yürütmenin soyut özüne dayanan bir makine olan programlanabilir dijital bilgisayarın icadıyla doruğa ulaştı . Bu cihaz ve arkasındaki fikirler, bir avuç bilim insanına elektronik bir beyin inşa etme olasılığını ciddi şekilde tartışmaya başlamaları için ilham verdi.

Yapay zeka araştırması alanı, 1956 yazında Dartmouth Koleji kampüsünde düzenlenen bir çalıştayda kuruldu . Katılanlar, onlarca yıl boyunca yapay zeka araştırmalarının lideri olacaktı. Birçoğu, bir insan kadar zeki bir makinenin bir nesilden daha kısa bir süre içinde var olacağını tahmin etti ve bu vizyonu gerçekleştirmeleri için onlara milyonlarca dolar verildi.

Sonunda, ticari geliştiricilerin ve araştırmacıların projenin zorluğunu büyük ölçüde hafife aldıkları ortaya çıktı. 1973'te, James Lighthill'in eleştirilerine ve kongrenin devam eden baskısına yanıt olarak, ABD ve İngiliz Hükümetleri , yapay zekaya yönelik yönlendirilmemiş araştırmaları finanse etmeyi bıraktılar ve bunu takip eden zorlu yıllar daha sonra bir " AI kışı " olarak bilinecekti . Yedi yıl sonra, Japon Hükümeti'nin vizyoner bir girişimi, hükümetlere ve endüstriye yapay zekaya milyarlarca dolar sağlama konusunda ilham verdi, ancak 80'lerin sonunda yatırımcılar hayal kırıklığına uğradı ve fonları tekrar geri çekti.

Yapay zekaya yatırım ve ilgi, yeni yöntemler, güçlü bilgisayar donanımının uygulanması ve muazzam veri setlerinin toplanması nedeniyle makine öğreniminin akademi ve endüstrideki birçok soruna başarıyla uygulandığı 21. yüzyılın ilk on yıllarında patladı .

öncüler

Efsanevi, kurgusal ve spekülatif öncüler

efsane ve efsane

Yunan Mitolojisinde Talos , Girit adasının koruyucusu olarak görev yapan bronzdan yapılmış bir devdi. İşgalcilerin gemilerine kayalar atar ve adanın çevresinde günde 3 tur atardı. Göre sözde Apollodorus ' Bibliotheke Hephaestus dövme Talos bir cyclops yardımıyla ve bir hediye olarak Otomaton'u takdim Minos . In Argonautica'nın , Jason ve Argonotlar, bir kez kaldırılmış ayağıyla yakın tek fiş yoluyla kendisini mağlup hayati izin irin bedeninden dışarı akmasına ve ona Cansız bıraktı.

Pygmalion , Ovid'in Metamorfozlarında ünlü olarak temsil edilen efsanevi bir kral ve Yunan Mitolojisi heykeltıraştı . Ovid'in anlatı şiirinin 10. kitabında Pygmalion , Propoetides'in kendilerini nasıl fahişeleştirdiğine tanık olduğunda kadınlardan iğrenir . Buna rağmen, o sadece golem verme konusunda carvexreThe en erken yazılı hesap yazılarında bulunur o heykel gibi ona bir kızı getirmesini tanrıça soran Venüs tapınağında teklifleri yapar Worms Eleazar ben Yahuda dolaylarında 12-13 C. Orta Çağ'da, bir Golem'in canlandırılmasının, üzerinde Tanrı'nın isimlerinden herhangi birinin yazılı olduğu bir kağıt parçasının kil figürün ağzına sokulmasıyla sağlanabileceğine inanılıyordu . Brazen Heads gibi efsanevi otomatların aksine , bir Golem konuşamazdı.

Yapay zekanın simya araçları

Goethe'nin Faust'undan bir homunculus tasviri

Gelen Şeyler Tabiatını İsviçre doğumlu simyacı tarafından yazılmış, Paracelsus , kendisinin bir "yapay adam" imal edebilirsiniz iddia eden bir prosedür açıklanmaktadır. "Bir adamın spermini" at gübresine koyarak ve onu 40 gün sonra "İnsanın Arcanum kanıyla" besleyerek, karışım canlı bir bebek haline gelecektir. Predating Paracelsus oldu Ebu Musa Câbir bin Hayyan homunculus hakkında yaptığı take: Takwin olarak Faust Tragedy İkinci Bölümü tarafından Johann Wolfgang von Goethe'nin , bir simya yaptığı oluştuğu kaptan içinde sonsuza kadar yaşamak kaderinde, Homunculus fabrikasyon, çaba olmak tam bir insan vücuduna doğdu. Ancak bu dönüşümün başlaması üzerine şişe paramparça olur ve Homunculus ölür.

modern kurgu

19. yüzyıla gelindiğinde, erkek ve düşünme makineleri suni ilgili fikirler olduğu gibi kurguda geliştirilmiştir Mary Shelley 'in Frankenstein ya Karel Čapek ' ın RUR (Rossum'un Universal Robots) gibi ve spekülasyon, Samuel Butler 'ın " Makineleri arasında Darwin ," ve Edgar Allan Poe'nun " Maelzel'in Satranç Oyuncusu " da dahil olmak üzere gerçek dünya örneklerinde . AI, günümüzde düzenli bir bilim kurgu konusu haline geldi.

otomatlar

Al-Jazari'nin programlanabilir otomatları (1206 CE)

Gerçekçi insansı otomatlar , Yan Shi , İskenderiye Kahramanı , Al-Jazari , Pierre Jaquet-Droz ve Wolfgang von Kempelen dahil olmak üzere her medeniyetten usta tarafından inşa edildi . Bilinen en eski otomatlar , eski Mısır ve Yunanistan'ın kutsal heykelleriydi . Sadıklar, zanaatkarların bu figürleri, bilgelik ve duyguya sahip çok gerçek zihinlerle donattığına inanıyordu - Hermes Trismegistus , "insan, tanrıların gerçek doğasını keşfederek, onu yeniden üretebilmiştir" diye yazmıştır.

Erken modern dönemde, bu efsanevi otomatların kendilerine sorulan soruları yanıtlamak için sihirli bir yeteneğe sahip oldukları söylenirdi. Geç ortaçağ simyacısı ve bilgini Roger Bacon'un, bir büyücü olduğuna dair bir efsane geliştirerek, yüzsüz bir kafa ürettiği iddia edildi . Bu efsaneler, Mímir Başkanı'nın İskandinav efsanesine benziyordu. Efsaneye göre, Mímir zekası ve bilgeliği ile biliniyordu ve Æsir-Vanir Savaşı'nda kafası idam edildi. Odin'in kafayı şifalı bitkilerle "mumyaladığı" ve Mímir'in kafasının Odin'e bilgelik konuşabilmesi için onun üzerinde büyülü sözler söylediği söylenir. Odin daha sonra tavsiye için başını yanında tuttu.

Resmi akıl yürütme

Yapay zeka, insan düşünce sürecinin mekanize edilebileceği varsayımına dayanmaktadır. Mekanik -ya da "biçimsel"- akıl yürütmenin uzun bir geçmişi vardır. Çinli , Hintli ve Yunan filozofların tümü, MÖ ilk binyılda yapılandırılmış biçimsel tümdengelim yöntemleri geliştirdiler. Onların fikirleri gibi filozoflar tarafından yüzyıllar boyunca geliştirilmiştir Aristo (resmi bir analizini verdi tasım ), Euclid ( Elemanları biçimsel mantık bir modeldi), Harizmi geliştirdi ( cebir ve "adını veren algoritma " ) ve William of Ockham ve Duns Scotus gibi Avrupalı skolastik filozoflar .

İspanyol filozof Ramon Llull (1232-1315) , bilginin mantıksal yollarla üretilmesine adanmış birkaç mantıksal makine geliştirdi ; Llull, makinelerini, olası tüm bilgileri üretecek şekilde mekanik anlamlarla üretilen, basit mantıksal işlemlerle temel ve inkar edilemez gerçekleri birleştirebilen mekanik varlıklar olarak tanımladı. Llull'un çalışmalarının , fikirlerini yeniden geliştiren Gottfried Leibniz üzerinde büyük etkisi oldu .

Gottfried Leibniz , insan aklının mekanik hesaplamaya indirgenebileceğini öne sürdü.

17. yüzyılda Leibniz , Thomas Hobbes ve René Descartes , tüm rasyonel düşüncenin cebir veya geometri kadar sistematik hale getirilebileceği olasılığını araştırdı. Hobbes , Leviathan'da ünlü bir şekilde şöyle yazdı : "akıl, hesap yapmaktan başka bir şey değildir". Leibniz , argümantasyonu hesaplamaya indirgeyecek evrensel bir akıl yürütme dili tasavvur etti (onun karakteristika universalis'i ), böylece "iki filozof arasında iki muhasebeci arasında olduğundan daha fazla tartışmaya gerek kalmayacaktı. ve birbirlerine (isterlerse bir arkadaş şahit olsunlar) desinler: Hesap yapalım ." Bu filozoflar , yapay zeka araştırmalarının yol gösterici inancı haline gelecek olan fiziksel sembol sistemi hipotezini dile getirmeye başlamışlardı.

20. yüzyılda, matematiksel mantık çalışması, yapay zekanın makul görünmesini sağlayan temel atılımı sağladı. Vakıf gibi eserleri ile set olmuştu Boole 'ın Düşünce Kanunlar ve Frege ' nin Begriffsschrift . Bina Frege 'nin sisteme, Russell ve Whitehead kendi başyapıtı matematik vakıfların resmi bir tedavi sundu, Principia Mathematica esinlenerek 1913 yılında Russell ' ın başarısı, David Hilbert bu temel soruyu cevaplamak için 1920 ve 30'lu matematikçiler meydan : "matematiksel akıl yürütmenin tümü biçimselleştirilebilir mi?" Onun soru cevap vermişlerdir Gödel 'in eksiklik kanıtı , Turing ' in makine ve Kilise 'nin Lambda hesabının .

Moore Elektrik Mühendisliği Okulu'ndaki ENIAC'ın ABD Ordusu fotoğrafı.

Cevapları iki yönden şaşırtıcıydı. İlk olarak, matematiksel mantığın başarabileceklerinin aslında sınırları olduğunu kanıtladılar. Ancak ikincisi (ve AI için daha da önemlisi) çalışmaları, bu sınırlar dahilinde, herhangi bir matematiksel akıl yürütme biçiminin mekanize edilebileceğini öne sürdü . Church-Turing tezi 0 ile 1 olarak basit gibi semboller karıştırma mekanik bir cihazın ima, matematiksel kesinti herhangi bir akla sürecini taklit olabilir. Temel kavrayış, soyut sembol manipülasyonunun özünü yakalayan basit bir teorik yapı olan Turing makinesiydi . Bu buluş, bir avuç bilim insanına, düşünen makinelerin olasılığını tartışmaya başlamaları için ilham verebilir.

Bilgisayar Bilimi

Hesap makineleri antik çağda inşa edildi ve tarih boyunca (bir kez daha) filozof Gottfried Leibniz de dahil olmak üzere birçok matematikçi tarafından geliştirildi . 19. yüzyılın başlarında, Charles Babbage programlanabilir bir bilgisayar tasarladı ( Analitik Motor ), ancak hiçbir zaman inşa edilmedi. Ada Lovelace , makinenin "herhangi bir derecede karmaşıklık veya ölçüde ayrıntılı ve bilimsel müzik parçaları oluşturabileceğini" tahmin etti. ( Bernoulli sayılarını Motor ile hesaplamak için bir yöntemi tamamen detaylandıran, yazdığı bir dizi not nedeniyle genellikle ilk programcı olarak kabul edilir .)

İlk modern bilgisayarlar, İkinci Dünya Savaşı'nın ( Z3 , ENIAC ve Colossus gibi ) devasa kod kırma makineleriydi . Bu makinelerin son ikisi Alan Turing tarafından atılan ve John von Neumann tarafından geliştirilen teorik temele dayanıyordu .

Yapay zekanın doğuşu 1952–1956

IBM 702: ilk nesil yapay zeka araştırmacıları tarafından kullanılan bir bilgisayar.

1940'larda ve 50'lerde, çeşitli alanlardan (matematik, psikoloji, mühendislik, ekonomi ve siyaset bilimi) bir avuç bilim adamı, yapay bir beyin yaratma olasılığını tartışmaya başladı. Yapay zeka araştırmaları alanı, 1956 yılında akademik bir disiplin olarak kurulmuştur.

Sibernetik ve erken sinir ağları

Düşünen makineler üzerine yapılan ilk araştırmalar, 1930'ların sonlarında, 1940'ların ve 1950'lerin başlarında yaygınlaşan fikirlerin bir araya gelmesinden ilham almıştır. Nörolojideki son araştırmalar , beynin ya hep ya hiç darbeleriyle ateşlenen elektriksel bir nöron ağı olduğunu göstermişti . Norbert Wiener sitesindeki sibernetik elektrikli ağ kontrol ve denge tarif. Claude Shannon 'in bilgi kuramı dijital sinyalleri (yani hepsi ya hiç sinyalleri) tanımlamıştır. Alan Turing'in sitesindeki hesaplama teorisi hesaplama herhangi bir şekilde dijital olarak tarif edilebilir olduğunu göstermiştir. Bu fikirler arasındaki yakın ilişki, elektronik bir beyin inşa etmenin mümkün olabileceğini düşündürdü .

Bu damar çalışma örnekleri arasında robotlar içerir W. Gri Walter sitesindeki kaplumbağa ve Johns Hopkins Beast . Bu makineler bilgisayar, dijital elektronik veya sembolik akıl yürütme kullanmıyordu; tamamen analog devre tarafından kontrol ediliyorlardı.

Walter Pitts ve Warren McCulloch , idealize edilmiş yapay nöron ağlarını analiz ettiler ve 1943'te basit mantıksal işlevleri nasıl gerçekleştirebileceklerini gösterdiler. Daha sonraki araştırmacıların sinir ağı olarak adlandıracağı şeyi ilk tanımlayanlar onlardı . Pitts ve McCulloch'tan ilham alan öğrencilerden biri , o zamanlar 24 yaşında bir yüksek lisans öğrencisi olan genç Marvin Minsky idi . 1951'de (Dean Edmonds ile birlikte) ilk sinir ağı makinesi olan SNARC'ı yaptı . Minsky , önümüzdeki 50 yıl boyunca yapay zekanın en önemli liderlerinden ve yenilikçilerinden biri olacaktı.

Turing'in testi

1950'de Alan Turing , düşünen makineler yaratma olasılığı hakkında spekülasyon yaptığı önemli bir makale yayınladı . "Düşünmenin" tanımlanmasının zor olduğunu belirtti ve ünlü Turing Testini tasarladı . Bir makine , bir insanla yapılan konuşmadan ayırt edilemeyen bir konuşmayı (bir teleprinter üzerinden ) sürdürebiliyorsa , o zaman makinenin "düşündüğünü" söylemek mantıklıydı. Sorunun bu basitleştirilmiş versiyonu, Turing'in bir "düşünen makinenin" en azından makul olduğunu ikna edici bir şekilde tartışmasına izin verdi ve makale, önermeye yönelik en yaygın itirazların tümünü yanıtladı. Turing Testi ilk ciddi öneriydi yapay zeka felsefesi .

Oyun AI

1951 yılında kullanarak Ferranti Mark 1 arasında makineyi Manchester Üniversitesi'nde , Christopher Strachey bir dama programı yazdım ve Dietrich Prinz satranç için bir tane yazdım. Arthur Samuel'in 50'lerin ortasında ve 60'ların başında geliştirdiği dama programı, sonunda saygın bir amatöre meydan okumak için yeterli beceriye ulaştı. Oyun AI , tarihi boyunca AI'daki ilerlemenin bir ölçüsü olarak kullanılmaya devam edecekti.

Sembolik muhakeme ve Mantık Kuramcısı

Ellili yılların ortalarında dijital bilgisayarlara erişim mümkün olduğunda, birkaç bilim adamı içgüdüsel olarak sayıları manipüle edebilen bir makinenin sembolleri de manipüle edebileceğini ve sembollerin manipüle edilmesinin insan düşüncesinin özü olabileceğini içgüdüsel olarak kabul etti. Bu, düşünen makineler yaratmak için yeni bir yaklaşımdı.

1955'te Allen Newell ve (geleceğin Nobel Ödülü sahibi) Herbert A. Simon ( JC Shaw'ın yardımıyla ) “ Mantık Teorisyeni ” ni yarattı . Program sonunda Russell ve Whitehead'in Principia Mathematica'sındaki ilk 52 teoremden 38'ini ispatlayacak ve bazıları için yeni ve daha zarif ispatlar bulacaktı. Simon, " maddeden oluşan bir sistemin nasıl zihin özelliklerine sahip olabileceğini açıklayarak , saygıdeğer zihin/beden problemini çözdüklerini" söyledi . (Bu, John Searle'ın daha sonra " Güçlü Yapay Zeka " olarak adlandıracağı felsefi konumun erken bir ifadesiydi : makinelerin tıpkı insan bedenlerinin yaptığı gibi zihinleri barındırabileceği.)

Dartmouth Workshop 1956: Yapay Zekanın Doğuşu

Dartmouth Atölye 1956 tarafından düzenlenen Marvin Minsky , John McCarthy : ve iki üst düzey bilim adamları Claude Shannon ve Nathan Rochester arasında IBM . Konferans önerisi şu iddiayı içeriyordu: "Öğrenmenin her yönü veya zekanın diğer herhangi bir özelliği o kadar kesin bir şekilde tanımlanabilir ki, onu simüle etmek için bir makine yapılabilir". Katılımcılar arasında , hepsi yapay zeka araştırmasının ilk yıllarında önemli programlar oluşturacak olan Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell ve Herbert A. Simon vardı. Konferansta Newell ve Simon " Mantık Teorisyeni " ni tanıttılar ve McCarthy katılımcıları alanın adı olarak "Yapay Zeka"yı kabul etmeye ikna etti. 1956 Dartmouth konferansı, yapay zekanın adını, misyonunu, ilk başarısını ve önemli oyuncularını kazandığı andır ve yaygın olarak yapay zekanın doğuşu olarak kabul edilir. "Yapay Zeka" terimi, McCarthy tarafından sibernetikle olan ilişkilerden ve etkili sibernetikçi Norbert Wiener ile bağlantılardan kaçınmak için seçildi .

Sembolik AI 1956–1974

Dartmouth Atölyesi'nden sonraki yıllarda geliştirilen programlar çoğu insan için sadece "şaşırtıcı"ydı: bilgisayarlar cebirsel kelime problemlerini çözüyor, geometrideki teoremleri kanıtlıyor ve İngilizce konuşmayı öğreniyordu. O zamanlar çok az kişi, makinelerin bu tür "akıllı" davranışlarının mümkün olduğuna inanabilirdi. Araştırmacılar, 20 yıldan daha kısa bir sürede tamamen akıllı bir makinenin inşa edileceğini öngörerek, özel ve basılı medyada yoğun bir iyimserlik ifade ettiler. DARPA gibi devlet kurumları yeni alana para akıttı.

Yaklaşımlar

50'lerin sonlarında ve 1960'larda birçok başarılı program ve yeni yönler vardı. En etkili olanlar arasında şunlar vardı:

Arama olarak akıl yürütme

Birçok erken AI programı aynı temel algoritmayı kullandı . Bir hedefe ulaşmak için (bir oyunu kazanmak ya da bir teoremi kanıtlamak gibi), bir labirentte arama yapıyormuş gibi adım adım (bir hamle ya da bir sonuç çıkararak) ona doğru ilerlediler, bir çıkmaza ulaştıklarında geri adım attılar. Bu paradigma " arama olarak akıl yürütme " olarak adlandırıldı .

Temel zorluk, birçok problem için, "labirent"ten geçen olası yolların sayısının basitçe astronomik olmasıydı (" kombinatoryal patlama " olarak bilinen bir durum ). Araştırmacılar, bir çözüme götürmesi muhtemel olmayan yolları ortadan kaldıracak buluşsal yöntemler veya " başparmak kuralları " kullanarak arama alanını küçülteceklerdi .

Newell ve Simon , " Genel Problem Çözücü " adlı bir programda bu algoritmanın genel bir versiyonunu yakalamaya çalıştılar . Öteki "arama" programları gibi geometri ve cebir içinde sorunları çözme gibi etkileyici görevleri yerine başardık Herbert Gelernter 'ın Geometri Teoremi Prover (1958) ve SAINT tarafından yazılmış, Minsky öğrencisi James Slagle (1961). Stanford'da robot Shakey'in davranışını kontrol etmek için geliştirilen STRIPS sistemi gibi, diğer programlar eylemleri planlamak için hedefler ve alt hedefler aradı .

Bir anlamsal ağ örneği

Doğal lisan

Yapay zeka araştırmasının önemli bir amacı, bilgisayarların İngilizce gibi doğal dillerde iletişim kurmasını sağlamaktır . Erken bir başarı, Daniel Bobrow'un lise cebirsel kelime problemlerini çözebilen STUDENT programıydı .

Bir semantik ağ ( "has-a" örneğin) düğümler arasında bağlantılar olarak düğümler ve kavramlar arasındaki ilişkiler gibi ( "kapı", örneğin "ev") kavramları temsil eder. Bir semantik ağı kullanan ilk AI programı tarafından yazılmıştır Ross Quillian ve en başarılı (ve tartışmalı) sürümü oldu Roger Schank 'ın Kavramsal bağımlılık kuramı .

Joseph Weizenbaum 'ın ELIZA kullanıcıları bazen onlar bir insan değil, bir program (Bkz ile iletişim edildi düşünce içine aptal o kadar gerçekçi idi konuşmaları yürütmek olabilir ELIZA etkisi ). Ama aslında ELIZA'nın neden bahsettiği hakkında hiçbir fikri yoktu. Sadece hazır bir yanıt verdi veya kendisine söyleneni tekrarladı, yanıtını birkaç dilbilgisi kuralıyla yeniden ifade etti. ELIZA ilk sohbet robotuydu .

mikro dünyalar

60'ların sonlarında , MIT AI Laboratuvarı'ndan Marvin Minsky ve Seymour Papert , AI araştırmasının mikro dünyalar olarak bilinen yapay olarak basit durumlara odaklanması gerektiğini önerdi. Fizik gibi başarılı bilimlerde, temel ilkelerin genellikle en iyi şekilde, sürtünmesiz düzlemler veya tamamen katı cisimler gibi basitleştirilmiş modeller kullanılarak anlaşıldığına dikkat çektiler. Araştırmaların çoğu, düz bir yüzey üzerine dizilmiş çeşitli şekil ve boyutlarda renkli bloklardan oluşan bir " bloklar dünyası "na odaklandı .

Bu paradigma , Gerald Sussman (ekibi yöneten), Adolfo Guzman , David Waltz (" kısıtlama yayılımını " icat eden ) ve özellikle Patrick Winston tarafından makine vizyonunda yenilikçi çalışmalara yol açtı . Aynı zamanda Minsky ve Papert , blokları üst üste dizebilen ve bloklar dünyasına hayat veren bir robot kol yaptılar . Mikro Dünya programın parlak başarı oldu Terry Winograd 'ın SHRDLU . Sıradan İngilizce cümlelerle iletişim kurabilir, operasyonları planlayabilir ve yürütebilir.

otomatlar

Japonya'da Waseda Üniversitesi , 1967'de WABOT projesini başlattı ve 1972'de dünyanın ilk tam ölçekli "akıllı" insansı robotu veya android olan WABOT-1'i tamamladı . Uzuv kontrol sistemi, alt ekstremitelerle yürümesine ve dokunsal sensörler kullanarak nesneleri elleriyle kavramasına ve taşımasına izin verdi. Görüş sistemi, harici alıcılar, yapay gözler ve kulaklar kullanarak nesnelere olan mesafeleri ve yönleri ölçmesine izin verdi. Ve konuşma sistemi, yapay bir ağızla Japonca bir kişiyle iletişim kurmasına izin verdi.

iyimserlik

İlk nesil AI araştırmacıları, çalışmaları hakkında şu tahminlerde bulundular:

  • 1958, HA Simon ve Allen Newell : "On yıl içinde bir dijital bilgisayar dünya satranç şampiyonu olacak" ve "on yıl içinde bir dijital bilgisayar önemli bir yeni matematik teoremini keşfedecek ve kanıtlayacak."
  • 1965, HA Simon : "Makineler, yirmi yıl içinde, bir insanın yapabileceği her işi yapabilir hale gelecek."
  • 1967, Marvin Minsky : "Bir nesil içinde... 'yapay zeka' yaratma sorunu büyük ölçüde çözülecek."
  • 1970, Marvin Minsky ( Life Magazine'de ): "Üç ila sekiz yıl içinde ortalama bir insanın genel zekasına sahip bir makinemiz olacak."

finansman

Haziran 1963'te MIT , yeni oluşturulan İleri Araştırma Projeleri Ajansı'ndan (daha sonra DARPA olarak bilinir ) 2.2 milyon dolarlık bir hibe aldı . Para, beş yıl önce Minsky ve McCarthy tarafından kurulan "AI Grubu"nu kapsayan MAC projesini finanse etmek için kullanıldı . DARPA , 70'li yıllara kadar yılda üç milyon dolar sağlamaya devam etti. DARPA , Newell ve Simon'ın CMU'daki programına ve Stanford AI Projesine ( 1963'te John McCarthy tarafından kurulan) benzer hibeler verdi . Bir diğer önemli yapay zeka laboratuvarı, 1965 yılında Donald Michie tarafından Edinburgh Üniversitesi'nde kuruldu . Bu dört kurum, uzun yıllar akademide yapay zeka araştırmalarının (ve finansmanının) ana merkezleri olmaya devam edecekti.

Para, birkaç koşulla teklif edildi: O zamanlar ARPA'nın yöneticisi olan JCR Licklider , kuruluşunun "projelere değil, insanlara fon sağlaması gerektiğine" inanıyordu. ve araştırmacıların ilgilerini çekebilecek herhangi bir yönü takip etmelerine izin verdi. Bu, MIT'de hacker kültürünü doğuran serbest bir atmosfer yarattı , ancak bu "ellerini bırakma" yaklaşımı sürmedi.

İlk AI kışı 1974-1980

1970'lerde, AI eleştirilere ve finansal aksiliklere maruz kaldı. AI araştırmacıları, karşılaştıkları sorunların zorluğunu takdir edemediler. Muazzam iyimserlikleri, beklentileri inanılmaz derecede yükseltmişti ve vaat edilen sonuçlar gerçekleşmediğinde, AI için finansman ortadan kalktı. Aynı zamanda, alan Bitişikcilik (veya nöral ağlar ) tarafından neredeyse tamamen 10 yıldır kapatıldı Marvin Minsky 'ın yıkıcı eleştiri ait algılayıcıların . 70'lerin sonlarında halkın AI algısı ile ilgili zorluklara rağmen, mantıksal programlama , sağduyulu akıl yürütme ve diğer birçok alanda yeni fikirler keşfedildi .

Problemler

Yetmişlerin başında, yapay zeka programlarının yetenekleri sınırlıydı. En etkileyici olanlar bile çözmeleri gereken sorunların yalnızca önemsiz versiyonlarını halledebilirdi; tüm programlar bir anlamda "oyuncak" idi. Yapay zeka araştırmacıları 1970'lerde üstesinden gelinemeyecek bazı temel sınırlarla karşılaşmaya başlamışlardı. Bu sınırların bir kısmı daha sonraki yıllarda fethedilecek olsa da, diğerleri hala bu güne kadar sahayı engelliyor.

  • Sınırlı bilgisayar gücü : Gerçekten yararlı bir şeyi başarmak için yeterli bellek veya işlem hızı yoktu. Örneğin, Ross Quillian'ın doğal dil üzerindeki başarılı çalışması, sadece yirmi kelimelik bir kelime dağarcığıyla gösterildi , çünkü hafızaya sığabilecek tek şey buydu . Hans Moravec 1976'da bilgisayarların hala milyonlarca kez zeka sergilemek için çok zayıf olduğunu savundu. Bir benzetme önerdi: Yapay zeka, uçakların beygir gücüne ihtiyaç duyduğu gibi bilgisayar gücüne ihtiyaç duyar . Belli bir eşiğin altında bu imkansızdır, ancak güç arttıkça sonunda kolay hale gelebilir. Bilgisayar görme ile ilgili olarak, bu sadece Moravec 10 edebilen bir genel amaçlı bilgisayar gerektirir, gerçek zamanlı olarak, insan retina kenar ve hareket algılama yetenekleri eşleşen tahmini 9 , ikinci çalışma / (1000 MIPS). 2011 itibariyle, pratik bilgisayarlı görü uygulamaları 10.000 ila 1.000.000 MIPS gerektirir. Karşılaştırıldığında, 1976'daki en hızlı süper bilgisayar olan Cray-1 (5 milyon ila 8 milyon dolar arasında perakende satış), yalnızca 80 ila 130 MIPS kapasiteye sahipti ve o sırada tipik bir masaüstü bilgisayar 1 MIPS'den daha azına ulaştı.
  • İnatçılık ve kombinatoryal patlama . 1972'de Richard Karp ( Stephen Cook'un 1971 teoremini temel alarak)muhtemelen sadece üstel zamanda (girdilerin boyutunda)çözülebilecek birçok problem olduğunugösterdi. Bu problemlere en uygun çözümleri bulmak, problemlerin önemsiz olduğu durumlar dışında, hayal edilemeyecek miktarda bilgisayar zamanı gerektirir. Bu neredeyse kesinlikle, AI tarafından kullanılan "oyuncak" çözümlerinin çoğunun muhtemelen hiçbir zaman yararlı sistemlere ölçeklenmeyeceği anlamına geliyordu.
  • Sağduyu bilgisi ve akıl yürütme . Görme veya doğal dil gibi birçok önemli yapay zeka uygulaması, dünya hakkında çok büyük miktarda bilgi gerektirir: programın neye baktığı veya neden bahsettiği hakkında bir fikri olması gerekir. Bu, programın bir çocuğun yaptığı dünya hakkında aynı şeylerin çoğunu bilmesini gerektirir. Araştırmacılar kısa süre sonra bunun gerçekten çok büyük miktarda bilgiolduğunu keşfettiler. 1970'de hiç kimse bu kadar büyük bir veri tabanı oluşturamazdı ve hiç kimse bir programın nasıl bu kadar çok bilgiyi öğrenebileceğini bilmiyordu.
  • Moravec'in paradoksu : Teoremleri kanıtlamak ve geometri problemlerini çözmek bilgisayarlar için nispeten kolaydır, ancak bir yüzü tanımak veya herhangi bir şeye çarpmadan bir odayı geçmek gibi sözde basit bir görev son derece zordur. Bu, görme ve robotik araştırmalarının1970'lerin ortalarındanedenbu kadar az ilerleme kaydettiğiniaçıklamaya yardımcı olur.
  • Çerçeve ve nitelik sorunları . Mantığı kullanan AI araştırmacıları ( John McCarthy gibi ) , mantığın yapısında değişiklik yapmadan planlama veya varsayılan akıl yürütmeyi içeren sıradan kesintileri temsil edemeyeceklerini keşfettiler . Problemleri çözmeye çalışmak için yeni mantıklar ( monoton olmayan mantıklar ve modsal mantıklar gibi ) geliştirdiler.

Finansmanın sonu

Yapay zeka araştırmalarını finanse eden kurumlar ( İngiliz hükümeti , DARPA ve NRC gibi ) ilerleme eksikliğinden dolayı hüsrana uğradılar ve sonunda yapay zekaya yönelik yönlendirilmemiş araştırmalar için neredeyse tüm fonları kestiler. Model, ALPAC raporunun makine çevirisi çabalarını eleştirdiği 1966 gibi erken bir tarihte başladı . 20 milyon dolar harcadıktan sonra NRC tüm desteği sonlandırdı. 1973'te, İngiltere'deki AI araştırmalarının durumu hakkındaki Lighthill raporu , AI'nın "görkemli hedeflerine" ulaşmaktaki mutlak başarısızlığını eleştirdi ve bu ülkedeki AI araştırmalarının feshedilmesine yol açtı. (Raporda özellikle belirtilen kombinasyon patlama AI başarısızlıkları için bir sebep olarak sorunu.) DARPA derinden çalışan araştırmacılar ile hayal kırıklığına uğradım Araştırma anlama Konuşma adresindeki program CMU üç milyon dolarlık bir yıllık hibe iptal etti. 1974'e gelindiğinde, yapay zeka projeleri için fon bulmak zordu.

Hans Moravec , krizin suçunu meslektaşlarının gerçekçi olmayan tahminlerine bağladı. "Birçok araştırmacı, artan bir abartı ağına yakalandı." Ancak başka bir sorun daha vardı: 1969'da Mansfield Değişikliği'nin yürürlüğe girmesinden bu yana DARPA , "temel yönlendirilmemiş araştırmalardan ziyade misyon odaklı doğrudan araştırmaları" finanse etmek için artan bir baskı altındaydı. 60'larda devam eden yaratıcı, serbest keşif için fon DARPA'dan gelmeyecekti . Bunun yerine para, otonom tanklar ve savaş yönetim sistemleri gibi net hedefleri olan belirli projelere yönlendirildi.

Kampüs genelinde eleştiriler

Birkaç filozofun, AI araştırmacıları tarafından yapılan iddialara güçlü itirazları vardı. En eskilerden biri, Gödel'in eksiklik teoreminin , resmi bir sistemin (bir bilgisayar programı gibi) bir insanın görebildiği halde belirli ifadelerin doğruluğunu asla göremeyeceğini gösterdiğini iddia eden John Lucas'tı . Hubert Dreyfus , 1960'ların tutulmayan vaatleriyle alay etti ve insan akıl yürütmesinin aslında çok az "sembol işleme" ve çok sayıda somutlaşmış , içgüdüsel , bilinçsiz " know how " içerdiğini öne sürerek AI'nın varsayımlarını eleştirdi . John Searle 'ın Çin Odası 1980 yılında sunulan görüş, bir program ( 'adında bir kaliteyi kullandığı 'anlama' sembollerine söylenebilir olamayacağını göstermeye teşebbüs amaçlılığı '). Searle, sembollerin makine için bir anlamı yoksa, makinenin "düşünme" olarak tanımlanamayacağını savundu.

Bu eleştiriler AI araştırmacıları tarafından ciddiye alınmadı, çünkü çoğu zaman bu noktadan çok uzak görünüyordu. İnatçılık ve sağduyu bilgisi gibi sorunlar çok daha acil ve ciddi görünüyordu. Gerçek bir bilgisayar programında " nasıl olduğunu bilmek " veya " kasıtlılığın " ne gibi bir fark yarattığı açık değildi. Minsky , Dreyfus ve Searle için "yanlış anlıyorlar ve görmezden gelinmeleri gerekiyor" dedi. MIT'de ders veren Dreyfus'a soğuk bir omuz verildi: daha sonra AI araştırmacılarının "benimle öğle yemeği yerken görünmeye cesaret edemediklerini" söyledi. Joseph Weizenbaum , yazarı ELIZA , onun arkadaşları tedavi hissetti Dreyfus profesyonelce ve çocukça oldu. Dreyfus'un pozisyonlarının açık sözlü bir eleştirmeni olmasına rağmen, "onlarınkinin bir insanı tedavi etmenin yolu olmadığını kasten açıkça ortaya koydu."

Weizenbaum, Kenneth Colby ELIZA'ya dayalı bir "psikoterapötik diyalog yürütebilen bilgisayar programı" yazdığında AI hakkında ciddi etik şüpheler duymaya başladı . Weizenbaum, Colby'nin akılsız bir programı ciddi bir terapötik araç olarak görmesinden rahatsız oldu. Bir kan davası başladı ve Colby programa katkılarından dolayı Weizenbaum'a kredi vermediğinde durum yardımcı olmadı. 1976'da Weizenbaum , yapay zekanın yanlış kullanımının insan yaşamını değersizleştirme potansiyeline sahip olduğunu savunan Computer Power and Human Reason'ı yayınladı .

Algılayıcılar ve bağlantıcılığa saldırı

Bir algılayıcı biçimiydi sinir ağı tarafından 1958 yılında tanıtılan Frank Rosenblatt bir okul olmuştu, Marvin Minsky de Bronx Fen Lisesi . Çoğu AI araştırmacısı gibi, o da onların gücü konusunda iyimserdi ve "algılayıcının sonunda öğrenebileceğini, karar verebileceğini ve dilleri çevirebileceğini" tahmin etti. 1960'lar boyunca paradigmaya yönelik aktif bir araştırma programı yürütüldü, ancak Minsky ve Papert'in 1969 tarihli Perceptrons kitabının yayınlanmasıyla aniden durdu . Algılayıcıların yapabilecekleri konusunda ciddi sınırlamalar olduğunu ve Frank Rosenblatt'ın tahminlerinin fazlasıyla abartılı olduğunu öne sürdü . Kitabın etkisi yıkıcı oldu: 10 yıl boyunca bağlantıcılık üzerine neredeyse hiç araştırma yapılmadı . Sonunda, yeni nesil araştırmacılar alanı canlandıracak ve bundan sonra yapay zekanın hayati ve faydalı bir parçası haline gelecekti. Rosenblatt , kitap yayınlandıktan kısa bir süre sonra bir tekne kazasında öldüğü için bunu görecek kadar yaşayamazdı.

Mantık ve sembolik akıl yürütme: "temizler"

Mantık tarafından 1959 gibi erken olarak AI araştırma içine tanıtıldı John McCarthy onun içinde Önerileri Taker önerisi. 1963'te J. Alan Robinson , bilgisayarlarda tümdengelim uygulamak için basit bir yöntem, çözümleme ve birleştirme algoritması keşfetti . Bununla birlikte, 1960'ların sonlarında McCarthy ve öğrencileri tarafından denenenler gibi basit uygulamalar özellikle zorluydu: programlar basit teoremleri kanıtlamak için astronomik sayıda adım gerektiriyordu. Mantığa daha verimli bir yaklaşım ile 1970'lerde geliştirilen Robert Kowalski de Edinburgh Üniversitesi ve yakında bu Fransız araştırmacılar ile işbirliği yol açtı Alain Colmerauer ve Philippe Roussel başarılı mantık programlama dili oluşturdu Prolog . Prolog, izlenebilir hesaplamaya izin veren bir mantığın alt kümesini ( "kurallar" ve " üretim kuralları " ile yakından ilgili olan boynuz cümleleri ) kullanır. Kurallar için bir temel sağlayarak, etkili olmaya devam edeceğini Edward Feigenbaum 'ın uzman sistemlerin ve tarafından devam eden çalışmaları Allen Newell ve Herbert A. Simon yol açacak süzülmek onların ve biliş birleşik teorileri .

Mantıksal yaklaşımı eleştirenler, Dreyfus'un sahip olduğu gibi , insanların problemleri çözerken mantığı nadiren kullandıklarına dikkat çekti . Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman ve diğerleri gibi psikologlar tarafından yapılan deneyler kanıt sağladı. McCarthy, insanların yaptıklarının alakasız olduğunu söyledi. Gerçekten ihtiyaç duyulanın, insanlar gibi düşünen makineler değil, sorunları çözebilen makineler olduğunu savundu.

Çerçeveler ve senaryolar: "kargaşalar"

McCarthy'nin yaklaşımını eleştirenler arasında ülke çapında MIT'deki meslektaşları vardı . Marvin Minsky , Seymour Papert ve Roger Schank , bir makinenin insan gibi düşünmesini gerektiren "hikaye anlama" ve "nesne tanıma" gibi sorunları çözmeye çalışıyorlardı . "Sandalye" veya "restoran" gibi sıradan kavramları kullanmak için, insanların normalde yaptıkları mantıksız varsayımların hepsini yapmaları gerekiyordu. Ne yazık ki, bunun gibi kesin olmayan kavramları mantıkta temsil etmek zordur. Gerald Sussman , "esas olarak kesin olmayan kavramları tanımlamak için kesin bir dil kullanmanın onları daha kesin hale getirmediğini" gözlemledi. Schank , McCarthy , Kowalski , Feigenbaum , Newell ve Simon tarafından kullanılan " düzgün " paradigmaların aksine, onların "mantık karşıtı" yaklaşımlarını " saçma " olarak nitelendirdi .

1975'te, ufuk açıcı bir makalesinde Minsky , birçok "pis" araştırmacı arkadaşının aynı tür aracı kullandığını belirtti: bir şey hakkındaki tüm sağduyulu varsayımlarımızı yakalayan bir çerçeve . Örneğin, kuş kavramını kullanırsak, hemen akla gelen bir takım gerçekler vardır: Onun uçtuğunu, solucan yediğini vb. varsayabiliriz. Bu gerçeklerin her zaman doğru olmadığını ve bu gerçekleri kullanan kesintilerin "mantıklı" olmayacağını biliyoruz, ancak bu yapılandırılmış varsayımlar, söylediğimiz ve düşündüğümüz her şeyin bağlamının bir parçasıdır . Bu yapılara " çerçeve " adını verdi . Schank , İngilizce kısa öykülerle ilgili soruları başarılı bir şekilde yanıtlamak için " komut dosyaları " adını verdiği çerçevelerin bir sürümünü kullandı . Yıllar sonra, nesne yönelimli programlama , çerçeveler üzerindeki AI araştırmalarından temel " kalıtım " fikrini benimseyecekti .

Patlama 1980–1987

1980'lerde , dünya çapındaki şirketler tarafından " uzman sistemler " olarak adlandırılan bir AI programı biçimi benimsendi ve bilgi , ana akım AI araştırmalarının odak noktası haline geldi. Aynı yıllarda, Japon hükümeti, beşinci nesil bilgisayar projesiyle AI'yı agresif bir şekilde finanse etti . 1980'lerin başlarındaki bir başka cesaret verici olay , John Hopfield ve David Rumelhart'ın çalışmalarında bağlantıcılığın yeniden canlanmasıydı . Yapay zeka bir kez daha başarıya ulaştı.

Uzman sistemlerin yükselişi

Bir uzman sistem bir program olduğunu mantıksal kullanarak bilginin belirli bir etki, yaklaşık cevapları soru veya çözer sorunları kuralları uzmanların bilgisine türetilmiştir. İlk örnekler Edward Feigenbaum ve öğrencileri tarafından geliştirildi . 1965 yılında başlayan Dendral , spektrometre okumalarından bileşikleri tanımladı. 1972 yılında geliştirilen MYCIN , bulaşıcı kan hastalıklarını teşhis etti. Yaklaşımın uygulanabilirliğini gösterdiler.

Uzman sistemler, kendilerini küçük bir özel bilgi alanıyla sınırladı (böylece sağduyu bilgi probleminden kaçındı ) ve basit tasarımları, programların oluşturulmasını ve yerine yerleştikten sonra değiştirilmesini nispeten kolaylaştırdı. Sonuç olarak, programlar yararlı olduğunu kanıtladı : AI'nın bu noktaya kadar başaramadığı bir şey.

1980 yılında, adlı bir uzman sistem XCON tamamlandı CMU için Digital Equipment Corporation . Muazzam bir başarıydı: 1986'ya kadar şirkete yılda 40 milyon dolar tasarruf sağlıyordu. Dünyanın dört bir yanındaki şirketler uzman sistemler geliştirmeye ve dağıtmaya başladılar ve 1985'te çoğu şirket içi yapay zekaya olmak üzere yapay zekaya bir milyar doların üzerinde harcama yapıyorlardı. bölümler. Symbolics ve Lisp Machines gibi donanım şirketleri ve IntelliCorp ve Aion gibi yazılım şirketleri de dahil olmak üzere bir endüstri onları desteklemek için büyüdü .

bilgi devrimi

Uzman sistemlerin gücü, içerdikleri uzman bilgisinden gelir. 70'ler boyunca zemin kazanan AI araştırmalarında yeni bir yönün parçasıydılar. Pamela McCorduck , "Yapay zeka araştırmacıları -isteksizce, çünkü bilimsel cimrilik kanonunu ihlal ettiğinden- istihbaratın çok sayıda farklı bilgiyi farklı şekillerde kullanma yeteneğine dayanabileceğinden şüphelenmeye başlıyorlardı " diye yazıyor . "[T] 1970'lerden alınan büyük ders, akıllı davranışın, belirli bir görevin bulunduğu bir alanın bilgisiyle, bazen oldukça ayrıntılı bilgisiyle uğraşmaya çok bağlı olduğuydu". Bilgi tabanlı sistemler ve bilgi mühendisliği , 1980'lerde AI araştırmalarının ana odak noktası haline geldi.

1980'ler ayrıca , ortalama bir insanın bildiği tüm sıradan gerçekleri içerecek büyük bir veri tabanı oluşturarak , sağduyu bilgi sorununa doğrudan saldırmaya yönelik ilk girişim olan Cyc'in doğuşuna da tanık oldu . Projeyi başlatan ve yöneten Douglas Lenat , kestirme bir yol olmadığını savundu - makinelerin insan kavramlarının anlamını bilmesinin tek yolu, onlara her seferinde bir kavram, elle öğretmek. Projenin onlarca yıldır tamamlanması beklenmiyordu.

Satranç oynama programları HiTech ve Deep Thought , 1989'da satranç ustalarını mağlup etti. Her ikisi de Carnegie Mellon Üniversitesi tarafından geliştirildi ; Derin Düşünce gelişimi Deep Blue'nun yolunu açtı .

Paranın geri dönüşü: Beşinci Nesil projesi

1981'de Japon Uluslararası Ticaret ve Sanayi Bakanlığı , Beşinci nesil bilgisayar projesi için 850 milyon dolar ayırdı . Amaçları, konuşmaları sürdürebilen, dilleri çevirebilen, resimleri yorumlayabilen ve insanlar gibi akıl yürütebilen programlar yazmak ve makineler yapmaktı. Çok üzülerek , proje için birincil bilgisayar dili olarak Prolog'u seçtiler .

Diğer ülkeler kendi yeni programlarıyla karşılık verdiler. İngiltere 350 milyon sterlinlik Alvey projesine başladı . Amerikan şirketlerinden oluşan bir konsorsiyum, AI ve bilgi teknolojisindeki büyük ölçekli projeleri finanse etmek için Microelectronics and Computer Technology Corporation'ı (veya "MCC") kurdu. DARPA da buna yanıt vererek Stratejik Bilgi İşlem Girişimi'ni kurdu ve 1984 ile 1988 arasında yapay zekaya yaptığı yatırımı üçe katladı.

Dört düğümlü bir Hopfield ağı.

Bağlantıcılığın canlanması

1982'de fizikçi John Hopfield , bir tür sinir ağının (şimdi " Hopfield ağı " olarak adlandırılır ) bilgiyi tamamen yeni bir şekilde öğrenip işleyebileceğini kanıtlayabildi . Aynı zamanda, Geoffrey Hinton ve David Rumelhart , Seppo Linnainmaa (1970) tarafından yayınlanan ve sinir ağlarına Paul Werbos tarafından uygulanan , otomatik farklılaşmanın ters modu olarak da bilinen " geri yayılım " adı verilen sinir ağlarını eğitmek için bir yöntemi popüler hale getirdiler . Bu iki keşif, bağlantıcılık alanını canlandırmaya yardımcı oldu .

Yeni alan birleştirildi ve 1986'da Paralel Dağıtılmış İşleme'nin ortaya çıkmasından ilham aldı - Rumelhart ve psikolog James McClelland tarafından düzenlenen iki ciltlik bir makale koleksiyonu . Sinir ağları, optik karakter tanıma ve konuşma tanıma gibi programları çalıştıran motorlar olarak kullanılmaya başladıkları 1990'larda ticari olarak başarılı olacaktı .

Gelişimi metal oksit yarı iletken (MOS) çok büyük ölçekli entegrasyon (VLSI) şeklinde tamamlayıcı MOS ( CMOS ) teknolojisi, pratik geliştirilmesi mümkün yapay sinir ağı 1980'lerde (YSA) teknolojisi. Bu alanda çığır açan bir yayın, Carver A. Mead ve Mohammed İsmail tarafından 1989 yılında yayınlanan Analog VLSI Sinir Sistemlerinin Uygulanması kitabıydı .

Büstü: İkinci AI kışı 1987-1993

İş dünyasının yapay zekaya olan hayranlığı 1980'lerde klasik bir ekonomik balon modelinde yükseldi ve düştü . Çöküş, ticari satıcıların çok çeşitli uygulanabilir çözümler geliştirememesinden kaynaklandı. Düzinelerce şirket başarısız olurken, algı, teknolojinin uygulanabilir olmadığıydı. Ancak alan eleştirilere rağmen ilerleme kaydetmeye devam etti. Robotik geliştiricileri Rodney Brooks ve Hans Moravec de dahil olmak üzere çok sayıda araştırmacı, yapay zekaya tamamen yeni bir yaklaşım savundu.

AI kış

" AI kışı " terimi , 1974'teki fon kesintilerinden kurtulan araştırmacılar tarafından, uzman sistemlere yönelik coşkunun kontrolden çıktığı ve bu hayal kırıklığının kesinlikle takip edeceği endişesiyle ortaya çıktı. Korkuları sağlam temellere dayanıyordu: 1980'lerin sonlarında ve 1990'ların başında yapay zeka bir dizi finansal gerileme yaşadı.

Hava durumundaki bir değişikliğin ilk göstergesi 1987'de özel yapay zeka donanımı pazarının ani çöküşüydü. Apple ve IBM'in masaüstü bilgisayarları sürekli olarak hız ve güç kazanıyordu ve 1987'de daha pahalı Lisp makinelerinden daha güçlü hale geldiler . Sembolik ve diğerleri. Artık onları satın almak için iyi bir sebep yoktu. Yarım milyar dolarlık bir endüstri bir gecede yıkıldı.

Sonunda, XCON gibi en eski başarılı uzman sistemlerin bakımının çok pahalı olduğu ortaya çıktı. Güncellemeleri zordu, öğrenemiyorlardı, " kırılganlardı " (yani, olağandışı girdiler verildiğinde grotesk hatalar yapabiliyorlardı) ve yıllar önce tespit edilen sorunlara ( yeterlilik sorunu gibi ) yenik düşüyorlardı. Uzman sistemlerin yararlı olduğu kanıtlandı, ancak yalnızca birkaç özel bağlamda.

1980'lerin sonlarında, Stratejik Bilgi İşlem Girişimi , yapay zekaya yönelik fonları "derinden ve vahşice" kesti. DARPA'daki yeni liderlik, yapay zekanın "bir sonraki dalga" olmadığına karar verdi ve fonları hemen sonuç verme olasılığı daha yüksek görünen projelere yönlendirdi.

1991 yılına gelindiğinde, 1981'de Japonya'nın Beşinci Nesil Projesi için kaleme alınan etkileyici hedefler listesi karşılanmamıştı. Gerçekten de, "sıradan bir sohbete devam et" gibi bazıları 2010 yılına kadar karşılanmamıştı. Diğer AI projelerinde olduğu gibi, beklentiler gerçekte mümkün olandan çok daha yüksekti.

300'den fazla AI şirketi kapandı, iflas etti veya 1993'ün sonunda satın alındı ​​ve ilk ticari AI dalgasını fiilen sona erdirdi.

Nouvelle AI ve somutlaşmış sebep

1980'lerin sonlarında, birkaç araştırmacı, robotik tabanlı yapay zekaya tamamen yeni bir yaklaşımı savundu. Gerçek zekayı göstermek için bir makinenin bir vücuda sahip olması gerektiğine inanıyorlardı - algılaması, hareket etmesi, hayatta kalması ve dünyayla başa çıkması gerekiyor. Bu duyusal-motor becerilerin sağduyulu akıl yürütme gibi daha üst düzey beceriler için gerekli olduğunu ve soyut akıl yürütmenin aslında en az ilginç veya önemli insan becerisi olduğunu savundular (bkz. Moravec'in paradoksu ). İstihbaratı "aşağıdan yukarıya" inşa etmeyi savundular.

Yaklaşım , altmışlardan beri popüler olmayan sibernetik ve kontrol teorisinden gelen fikirleri canlandırdı . Bir başka öncü, 1970'lerin sonlarında, teorik sinirbilimde başarılı bir arka plandan MIT'ye gelen ve vizyonu inceleyen gruba liderlik eden David Marr'dı . Tüm sembolik yaklaşımları ( hem McCarthy'nin mantığını hem de Minsky'nin çerçevelerini) reddetti ve herhangi bir sembolik işlem gerçekleşmeden önce AI'nın aşağıdan yukarıya doğru fiziksel görme makinesini anlaması gerektiğini savundu. (Marr'ın çalışması 1980'de lösemi yüzünden yarıda kalacaktı.)

Robotik araştırmacısı Rodney Brooks , 1990'da yayınlanan "Filler Satranç Oynamaz" başlıklı makalesinde, fiziksel sembol sistemi hipotezini doğrudan hedef aldı ve "dünya kendi en iyi modeli olduğundan, sembollerin her zaman gerekli olmadığını" savundu. Her zaman bilinmesi gereken her ayrıntıya sahiptir. İşin püf noktası, onu uygun şekilde ve yeterince sık hissetmektir." 1980'lerde ve 1990'larda, birçok bilişsel bilim adamı da zihnin sembol işleme modelini reddetti ve bedenin akıl yürütme için gerekli olduğunu savundu, bu teori bedenlenmiş zihin tezi olarak adlandırıldı .

AI 1993–2011

Artık yarım asırdan fazla bir geçmişe sahip olan AI alanı, sonunda en eski hedeflerinden bazılarına ulaştı. Biraz perde arkasında da olsa teknoloji endüstrisinde başarıyla kullanılmaya başlandı. Başarının bir kısmı artan bilgisayar gücünden kaynaklanıyordu ve bir kısmı da belirli izole problemlere odaklanarak ve onları en yüksek bilimsel sorumluluk standartlarıyla takip ederek elde edildi. Yine de, yapay zekanın itibarı, en azından iş dünyasında, bozulmamıştan daha azdı. Alanın içinde, AI'nın 1960'larda dünyanın hayal gücünü ele geçiren insan düzeyinde zeka hayalini gerçekleştirememesinin nedenleri konusunda çok az anlaşma vardı. Birlikte, tüm bu faktörler AI'nın belirli sorunlara veya yaklaşımlara odaklanan, bazen de kararmış "yapay zeka" soy ağacını gizleyen yeni isimler altında bile rekabet eden alt alanlara bölünmesine yardımcı oldu. AI, her zamankinden daha temkinli ve daha başarılıydı.

Kilometre taşları ve Moore yasası

11 Mayıs 1997'de Deep Blue , hüküm süren dünya satranç şampiyonu Garry Kasparov'u yenen ilk bilgisayar satranç oynama sistemi oldu . Süper bilgisayar, IBM tarafından üretilen bir çerçevenin özel bir versiyonuydu ve ilk maç sırasında (Deep Blue'nun kaybettiği) saniyede iki kat daha fazla hamle işleyebiliyordu, bildirildiğine göre saniyede 200.000.000 hamle. Etkinlik internet üzerinden canlı olarak yayınlandı ve 74 milyondan fazla tıklandı.

2005 yılında, bir Stanford robotu, prova edilmemiş bir çöl yolunda 131 mil boyunca otonom olarak sürerek DARPA Grand Challenge'ı kazandı . İki yıl sonra, CMU'dan bir ekip, trafik tehlikelerine ve tüm trafik yasalarına bağlı kalarak bir Kentsel ortamda 55 mil yol alarak DARPA Urban Challenge'ı kazandı . Şubat 2011'de, Tehlikede! yarışma programı gösteri maçında, IBM'in 'ın soru yanıtlama sistemi , Watson , iki büyük Riziko mağlup! şampiyonlar, Brad Rutter ve Ken Jennings , önemli bir farkla.

Bu başarılar devrim niteliğindeki yeni bir paradigmadan değil, çoğunlukla mühendislik becerisinin sıkıcı uygulanmasından ve 90'lı yıllarda bilgisayarın hız ve kapasitesindeki muazzam artıştan kaynaklanıyordu. Aslında, Derin Blue'nun bilgisayar 10 milyon kat daha hızlı daha oldu Ferranti Mark 1 olduğunu Christopher Strachey Bu dramatik artış ile ölçülür 1951 yılında satranç oynamak öğretti Moore yasasına , bilgisayarların hız ve bellek kapasitesi iki yılda bir ikiye katlandığını tahmin, metal-oksit-yarı iletken (MOS) transistör sayımlarının her iki yılda bir ikiye katlanmasının bir sonucu olarak . "Ham bilgisayar gücü"nün temel sorunu yavaş yavaş üstesinden geliniyordu.

Akıllı ajanlar

" Akıllı ajanlar " adı verilen yeni bir paradigma 1990'larda geniş çapta kabul gördü. Daha önceki araştırmacılar AI için modüler "böl ve yönet" yaklaşımları önermiş olsalar da, akıllı ajan , Judea Pearl , Allen Newell , Leslie P. Kaelbling ve diğerleri, karar teorisi ve ekonomiden kavramları AI çalışmasına getirene kadar modern formuna ulaşamadı. . Ne zaman ekonomist bir tanımı rasyonel ajan ile evliydi bilgisayar bilimi bir 's tanımı nesne veya modül , akıllı ajan paradigma tamamlandı.

Bir akıllı ajan çevresini algılar ve başarı şansını maksimize eylemleri götüren bir sistemdir. Bu tanımla, belirli sorunları çözen basit programlar, insanlar ve firmalar gibi insan örgütleri gibi "akıllı aracılardır" . Akıllı madde paradigma "akıllı maddelerin çalışma" AI araştırma tanımlar. Bu, daha önceki bazı AI tanımlarının bir genellemesidir: insan zekasını incelemenin ötesine geçer; her türlü zekayı inceler.

Paradigma, araştırmacılara münferit sorunları inceleme ve hem doğrulanabilir hem de faydalı çözümler bulma lisansı verdi. Sorunları tanımlamak ve çözümlerini birbirleriyle ve ekonomi ve kontrol teorisi gibi soyut ajan kavramlarını da kullanan diğer alanlarla paylaşmak için ortak bir dil sağladı . Eksiksiz bir etmen mimarisinin ( Newell'in SOAR'ı gibi ) bir gün araştırmacıların etkileşimli akıllı ajanlardan daha çok yönlü ve akıllı sistemler oluşturmasına izin vereceği umuluyordu .

"Tatlıların zaferi"

AI araştırmacıları, geçmişte olduğundan daha fazla karmaşık matematiksel araçlar geliştirmeye ve kullanmaya başladı. Yapay zekanın çözmesi gereken birçok problemin halihazırda matematik , elektrik mühendisliği , ekonomi veya yöneylem araştırması gibi alanlardaki araştırmacılar tarafından üzerinde çalışıldığına dair yaygın bir anlayış vardı . Paylaşılan matematiksel dil, hem daha yerleşik ve başarılı alanlarla daha yüksek düzeyde işbirliğine hem de ölçülebilir ve kanıtlanabilir sonuçlara ulaşılmasına izin verdi; AI daha titiz bir "bilimsel" disiplin haline gelmişti. Russell & Norvig (2003) bunu bir "devrim" ve " temizlerin zaferi" olarak tanımlıyor .

Judea Pearl'ün etkili 1988 kitabı, olasılık ve karar teorisini yapay zekaya getirdi . Kullanılan birçok yeni araç arasında Bayes ağları , gizli Markov modelleri , bilgi teorisi , stokastik modelleme ve klasik optimizasyon vardı . Sinir ağları ve evrimsel algoritmalar gibi " hesaplamalı zeka " paradigmaları için de kesin matematiksel tanımlamalar geliştirildi .

perde arkasında yapay zeka

Başlangıçta AI araştırmacıları tarafından geliştirilen algoritmalar, daha büyük sistemlerin parçaları olarak ortaya çıkmaya başladı. AI birçok zor sorunu çözmüştü ve çözümlerinin veri madenciliği , endüstriyel robotik , lojistik, konuşma tanıma , bankacılık yazılımı, tıbbi teşhis ve Google'ın arama motoru gibi teknoloji endüstrisinde faydalı olduğu kanıtlandı .

AI alanı, 1990'larda ve 2000'lerin başında bu başarılar için çok az kredi aldı veya hiç kredi almadı. AI'nın en büyük yeniliklerinin çoğu, bilgisayar biliminin alet çantasındaki başka bir öğenin statüsüne indirgenmiştir. Nick Bostrom , "Birçok son teknoloji AI, genel uygulamalara filtrelendi, genellikle AI olarak adlandırılmadan, çünkü bir şey yeterince yararlı ve yeterince yaygın hale geldiğinde artık AI olarak etiketlenmez."

1990'larda AI'daki birçok araştırmacı, çalışmalarını kasıtlı olarak bilişim , bilgi tabanlı sistemler , bilişsel sistemler veya hesaplamalı zeka gibi başka isimlerle adlandırdı . Bunun nedeni kısmen, kendi alanlarının temelde AI'dan farklı olduğunu düşünmeleri olabilir, ancak aynı zamanda yeni isimler fon sağlamaya yardımcı oluyor. En azından ticari dünyada, AI Winter'ın başarısız vaatleri , New York Times'ın 2005'te bildirdiği gibi, 2000'lerde AI araştırmalarına musallat olmaya devam etti: "Bilgisayar bilimcileri ve yazılım mühendisleri, vahşi olarak görülme korkusuyla yapay zeka teriminden kaçındılar. -gözlü hayalperestler."

Tahminler (veya "HAL 9000 nerede?")

1968'de Arthur C. Clarke ve Stanley Kubrick , 2001 yılına kadar , insanoğlunun kapasitesiyle eşleşen veya aşan bir zekaya sahip bir makinenin var olacağını hayal etmişlerdi . Yarattıkları karakter, HAL 9000 , önde gelen birçok yapay zeka araştırmacısının, 2001 yılında böyle bir makinenin var olacağı inancına dayanıyordu.

2001'de, AI'nın kurucusu Marvin Minsky , "Öyleyse soru şu ki, neden 2001'de HAL alamadık?" Minsky, cevabın sağduyulu akıl yürütme gibi temel sorunların ihmal edildiğine inanırken, çoğu araştırmacı sinir ağlarının ticari uygulamaları veya genetik algoritmalar gibi şeyleri takip etti . John McCarthy ise hala yeterlilik sorununu suçluyordu . For Ray Kurzweil , mesele kullanarak, bilgisayar gücü ve Moore Yasası'nı , o 2029 insan düzey istihbarat bu makineler görünecektir tahmin Jeff Hawkins o sinirsel ağ araştırma insan temel özelliklerini dikkate almaz iddia kortekste sahip basit modeller tercih basit problemleri çözmede başarılıydı. Başka birçok açıklama vardı ve her birine karşılık gelen bir araştırma programı yürütülüyordu.

Derin öğrenme, büyük veri ve yapay genel zeka: 2011-günümüz

21. yüzyılın ilk on yıllarında, büyük miktarda veriye erişim (" büyük veri " olarak bilinir ), daha ucuz ve daha hızlı bilgisayarlar ve gelişmiş makine öğrenimi teknikleri, ekonomideki birçok soruna başarıyla uygulandı. Aslında, McKinsey Global Institute, ünlü makalelerinde "Büyük veri: Yenilik, rekabet ve üretkenlik için bir sonraki sınır", "2009 itibariyle, ABD ekonomisindeki neredeyse tüm sektörlerin en az ortalama 200 terabayt depolanmış veriye sahip olduğunu" tahmin ediyordu. .

2016 yılına gelindiğinde, AI ile ilgili ürünler, donanım ve yazılım pazarı 8 milyar dolardan fazlaya ulaştı ve New York Times, AI'ya olan ilginin "çılgınlığa" ulaştığını bildirdi. Büyük veri uygulamaları, ekolojideki eğitim modelleri ve ekonomideki çeşitli uygulamalar gibi diğer alanlara da ulaşmaya başladı . Derin öğrenmedeki gelişmeler (özellikle derin evrişimli sinir ağları ve tekrarlayan sinir ağları ), görüntü ve video işleme, metin analizi ve hatta konuşma tanıma konularında ilerleme ve araştırmaları hızlandırdı.

Derin öğrenme

Derin öğrenme, birçok işleme katmanıyla derin bir grafik kullanarak verilerdeki üst düzey soyutlamaları modelleyen bir makine öğrenimi dalıdır. Göre Universal yaklaşım teoremi bir sinir ağı keyfi sürekli fonksiyonları tahmin edebilmek için, derin-lık gerekli değildir. Buna rağmen , derin ağların kaçınmaya yardımcı olduğu sığ ağlarda (örneğin fazla uydurma gibi ) ortak olan birçok sorun vardır . Bu nedenle, derin sinir ağları, sığ muadillerine kıyasla gerçekçi bir şekilde çok daha karmaşık modeller üretebilir.

Ancak, derin öğrenmenin kendi sorunları vardır. İçin yaygın bir sorun sinir ağları olduğunu kaybolan gradyan sorun tabakalar arasında geçirilen gradyanlar kademeli olarak küçülen ve sıfıra yuvarlanır olarak tam anlamıyla yok, nerede. Uzun kısa süreli bellek birimleri gibi bu soruna yaklaşmak için geliştirilmiş birçok yöntem vardır .

Son teknoloji ürünü derin sinir ağı mimarileri, bazen bilgisayar görüşü gibi alanlarda, özellikle MNIST veritabanı ve trafik işareti tanıma gibi alanlarda insan doğruluğuna rakip olabilir .

Akıllı arama motorları tarafından desteklenmektedir Dil işleme motorları kolayca (örneğin genel önemsiz soruları yanıtlayan de insanları yenebilir IBM Watson gibi şeyler,) ve insanlar ile rekabet içinde şaşırtıcı sonuçlar vermiştir derin öğrenmede son gelişmeleri Go ve Doom (ki, varlık bir birinci şahıs nişancı oyunu,) bazı tartışmalara yol açtı.

Büyük veri

Büyük veri, belirli bir zaman dilimi içinde geleneksel yazılım araçları tarafından yakalanamayan, yönetilemeyen ve işlenemeyen bir veri koleksiyonunu ifade eder. Yeni işleme modelleri gerektiren muazzam miktarda karar verme, içgörü ve süreç optimizasyon yetenekleridir. Victor Meyer Schonberg ve Kenneth Cooke tarafından yazılan Büyük Veri Çağında büyük veri, rastgele analiz (örnek anket) yerine tüm verilerin analiz için kullanılması anlamına gelmektedir. Büyük verilerin 5V özellikleri (IBM tarafından önerilen): Hacim , Hız , Çeşitlilik , Değer , Doğruluk . Büyük veri teknolojisinin stratejik önemi, büyük veri bilgisine hakim olmak değil, bu anlamlı verilerde uzmanlaşmaktır. Büyük veri bir endüstri benzetilen Başka bir deyişle, bu sektörde karlılığı gerçekleştiren anahtarının "artırmaktır Süreç yeteneği " veri "ve fark katma değer " aracılığıyla veri " İşleme ".

Yapay genel zeka

Genel zeka, belirli bir soruna çözüm bulmak yerine herhangi bir sorunu çözme yeteneğidir . Yapay genel zeka (veya "AGI"), zekayı çok çeşitli problemlere, insanlarla aynı şekilde uygulayabilen bir programdır.

Ben Goertzel ve diğerleri 2000'lerin başında, yapay zeka araştırmalarının, alanın asıl amacı olan yapay genel zeka yaratmaktan büyük ölçüde vazgeçtiğini savundular. AGI araştırması ayrı bir alt alan olarak kuruldu ve 2010 yılına kadar AGI araştırmalarına ayrılmış akademik konferanslar, laboratuvarlar ve üniversite kurslarının yanı sıra özel konsorsiyumlar ve yeni şirketler vardı.

Yapay genel zeka, " zayıf AI " veya "dar AI" yerine "güçlü AI", "tam AI" veya sentetik zeka olarak da adlandırılır. (Akademik kaynaklar, bilinci deneyimleyebilen makinelere atıfta bulunmak için "güçlü AI" ayırmaktadır.)

Ayrıca bakınız

Notlar

Referanslar