Süper Zeka: Yollar, Tehlikeler, Stratejiler -Superintelligence: Paths, Dangers, Strategies

Süper Zeka:
Yollar, Tehlikeler, Stratejiler
süper zeka.jpg
İlk baskı
Yazar Nick Bostrom
Ülke Birleşik Krallık
Dilim İngilizce
Ders Yapay zeka
Tür Felsefe , popüler bilim
Yayımcı Oxford Üniversitesi Yayınları
Yayın tarihi
3 Temmuz 2014 (Birleşik Krallık)
1 Eylül 2014 (ABD)
Ortam türü Baskı, e-kitap, sesli kitap
Sayfalar 352 s.
ISBN'si 978-0199678112
Öncesinde Küresel Felaket Riskleri 

Superintelligence: Yollar, Tehlikeleri, Stratejiler İsveç tarafından bir 2014 kitabı filozof Nick Bostrom dan Oxford Üniversitesi . Makine beyinleri genel zekada insan beyinlerini geçerse, bu yeni süper zekanınDünya'daki baskın yaşam formu olarak insanların yerini alabileceğinisavunuyor. Yeterince akıllı makineler, kendi yeteneklerini insan bilgisayar bilimcilerinden daha hızlı geliştirebilir ve sonuç, insanlar için varoluşsal bir felaket olabilir.

Bostrom'un kitabı birçok dile çevrildi.

özet

İnsan seviyesindeki yapay zekanın birkaç yıl içinde mi, bu yüzyılın sonlarında mı yoksa gelecek yüzyıllara kadar mı ulaşacağı bilinmiyor . İlk zaman ölçeğinden bağımsız olarak, insan düzeyinde makine zekası geliştirildiğinde, "hemen hemen tüm ilgi alanlarında insanların bilişsel performansını büyük ölçüde aşan" bir "süper akıllı" sistem, büyük olasılıkla şaşırtıcı bir şekilde hızlı bir şekilde takip edecektir. Böyle bir süper zekayı kontrol etmek veya dizginlemek çok zor olurdu.

Süperzekaların nihai hedefleri büyük ölçüde değişebilirken, işlevsel bir süperzeka, doğal alt hedefler olarak kendiliğinden, kendini koruma ve hedef-içerik bütünlüğü, bilişsel geliştirme ve kaynak edinme gibi " araçsal hedefler " üretecektir . Örneğin, tek nihai amacı Riemann hipotezini (ünlü bir çözülmemiş matematiksel varsayım ) çözmek olan bir ajan , tüm Dünya'yı bir tür computronium'a (hesaplama için optimize edilmiş varsayımsal malzeme) dönüştürmek için bir alt hedef yaratabilir ve buna göre hareket edebilir . hesaplama. Süperzeka, süperzekayı devre dışı bırakmaya veya başka bir şekilde alt hedefin tamamlanmasını engellemeye yönelik her türlü dış girişime proaktif olarak direnecektir. Böyle bir varoluşsal felaketi önlemek için, ilk süper zeka için “ AI kontrol problemini ” başarıyla çözmek gerekiyor . Çözüm, süperzekayı insanın hayatta kalması ve esenliği ile uyumlu hedeflerle aşılamayı içerebilir. Kontrol problemini çözmek şaşırtıcı derecede zordur çünkü çoğu hedef, makine tarafından uygulanabilen koda çevrildiğinde, öngörülemeyen ve istenmeyen sonuçlara yol açar.

Kitap kapağındaki baykuş, Bostrom'un "Bitmemiş Serçeler Masalı" dediği bir analojiye gönderme yapıyor. Bir grup serçe, bir baykuş civciv bulmaya ve onu hizmetçileri olarak yetiştirmeye karar verir. Yuvalarını inşa etmeye yardımcı olacak, serçeleri koruyacak ve onları boş bir yaşam için özgür bırakacak bir baykuşları olsaydı, "hayatın ne kadar kolay olacağını" hevesle hayal ederler. Serçeler, baykuş yumurtası için zorlu bir arayışa başlarlar; sadece "Scronkfinkle", "huysuz bir mizaca sahip tek gözlü bir serçe", baykuşu "aramıza" sokmadan önce nasıl evcilleştireceğimize dair karmaşık soruyu düşünmeyi önerir. Diğer serçeler itiraz eder; bir baykuş yumurtası aramak zaten başlı başına yeterince zor olacaktır: "Neden önce baykuşu alıp ince detayları daha sonra çözmeyesiniz?" Bostrom, "Hikayenin nasıl bittiği bilinmiyor" diye belirtiyor ancak kitabını Scronkfinkle'a ithaf ediyor.

Resepsiyon

Kitap, New York Times'ın Ağustos 2014'ün en çok satan bilim kitapları listesinde 17. sırada yer aldı . Aynı ay, iş adamı Elon Musk , yapay zekanın potansiyel olarak nükleer silahlardan daha tehlikeli olduğu kitabına katılarak manşetlere çıktı. Bostrom'un süper zeka üzerine çalışması, Bill Gates'in önümüzdeki yüzyılda insanlığın karşı karşıya olduğu varoluşsal risklere yönelik endişesini de etkiledi . Baidu'nun CEO'su Robin Li tarafından Mart 2015'te yapılan bir röportajda Gates, Süper Zeka'yı "şiddetle tavsiye edeceğini" söyledi . Göre New Yorker , filozoflar Peter Singer ve Derek Parfit "önemli bir eser olarak onu aldık" var.

Financial Times'ın bilim editörü, Bostrom'un yazısının "bazen bir felsefe profesörü olarak geçmişine ihanet eden opak bir dile saptığını", ancak süper zekadan kaynaklanan riskin, toplumun şimdi gelecekteki makine zekasını donatmanın yollarını düşünmeye başlaması için yeterince büyük olduğunu ikna edici bir şekilde gösterdiğini buldu. pozitif değerlerle. The Guardian'daki bir inceleme , "şimdiye kadar yaratılmış en karmaşık makinelerin bile yalnızca sınırlı bir anlamda zeki olduğuna" ve "AI'nin yakında insan zekasını geçeceğine dair beklentilerin ilk olarak 1960'larda boşa çıktığına" dikkat çekti, ancak Bostrom ile ortak bir zemin buldu. "Bu olasılığı tamamen reddetmek yanlış olur" tavsiyesinde bulunurken.

Bostrom'un meslektaşlarından bazıları, nükleer savaşın insanlığa süper zekadan daha büyük bir tehdit oluşturduğunu ileri sürüyorlar, tıpkı gelecekte nanoteknoloji ve biyoteknolojinin silahlandırılması ihtimali gibi . The Economist , "Bostrom, kitabın çoğunu makul varsayımlar üzerine kurulu spekülasyonları tartışmak için harcamak zorunda kalıyor... ama kitap yine de değerli. Dünya'ya ikinci bir zeki türün tanıtılmasının sonuçları, üzerinde derin bir düşünmeyi hak edecek kadar geniş kapsamlıdır, aslında bunu yapma ihtimali uzak görünse bile." Ronald Bailey özgürlükçü yazdığı Reason Bostrom AI kontrol problem çözme "çağımızın vazgeçilmez bir görev" olduğunu güçlü bir harf yapar. The Daily Telegraph'tan Tom Chivers'a göre , kitabı okumak zor ama yine de ödüllendirici. Journal of Experimental & Theoretical Yapay Zeka dergisindeki bir eleştirmen , kitabın "yazma stilinin açık olduğunu" belirterek diğerleriyle ayrıldı ve kitabı "aşırı teknik jargondan" kaçındığı için övdü. Felsefe dergisindeki bir eleştirmen, Süper Zekanın Ray Kurzweil'in The Singularity Is Near'ından "daha gerçekçi" olduğuna karar verdi .

Ayrıca bakınız

Referanslar