Yapay zeka etiği - Ethics of artificial intelligence

Yapay zeka etik dalıdır teknoloji etiğine için spesifik yapay akıllı sistemler. Bazen ahlaki davranışı ile bir endişe ayrılmıştır insanlarda onlar tasarlarken, markası, kullanım ve tedavi yapay akıllı sistemler ve davranışı ile bir endişe , makinelerde de makine etiği . Aynı zamanda süper akıllı AI nedeniyle olası bir tekillik konusunu da içerir .

Etik alanların yaklaşımları

robot etiği

"Robot etiği" (bazen "roboetik") terimi, insanların robotları nasıl tasarladığı, inşa ettiği, kullandığı ve tedavi ettiği konusundaki ahlaka atıfta bulunur. Robot etiği, AI etiği ile kesişir. Robotlar fiziksel makinelerdir, AI ise yalnızca yazılım olabilir. Tüm robotlar AI sistemleri aracılığıyla çalışmaz ve tüm AI sistemleri robot değildir. Robot etiği, makinelerin insanlara zarar vermek veya insanlara fayda sağlamak için nasıl kullanılabileceğini, bireysel özerklik üzerindeki etkilerini ve sosyal adalet üzerindeki etkilerini ele alır.

makine etiği

Makine etiği (veya makine ahlakı), ahlaki veya ahlaki davranan Yapay Ahlaki Ajanlar (AMA'lar), robotlar veya yapay olarak akıllı bilgisayarlar tasarlama ile ilgili araştırma alanıdır . Bu ajanların doğası hesaba için, standart karakterizasyon gibi belirli felsefi fikirlerini dikkate almak ileri sürülmüştür ajansı , rasyonel ajansı , ahlaki ajansı amas kavramı ile ilgilidir, ve yapay ajansı.

Isaac Asimov sorunu 1950'lerde I, Robot adlı kitabında ele aldı . Editörü John W. Campbell Jr.'ın ısrarı üzerine, yapay olarak akıllı sistemleri yönetmek için Üç Robotik Yasasını önerdi . Daha sonra çalışmalarının çoğu, nerede bozulacaklarını veya paradoksal veya beklenmedik davranışları nerede yaratacaklarını görmek için üç yasasının sınırlarını test etmeye harcandı. Çalışmaları, hiçbir sabit yasa dizisinin tüm olası koşulları yeterince öngöremeyeceğini öne sürüyor. Daha yakın zamanlarda, akademisyenler ve birçok hükümet, yapay zekanın kendisinin sorumlu tutulabileceği fikrine meydan okudu. 2010 yılında Birleşik Krallık tarafından toplanan bir panel , AI'nın ya üreticilerinin ya da sahibinin/operatörünün sorumluluğunda olduğunu açıklığa kavuşturmak için Asimov'un yasalarını revize etti.

2009 yılında Ecole Polytechnique Fédérale Akıllı Sistemlerin Laboratuvarı'nda bir deney sırasında Lozan içinde İsviçre sonunda her birine yalan öğrendi (yararlı bir kaynak dışarı arama ve zehirli bir tane kaçınarak olarak) birbirleriyle işbirliği yapmaya programlanmış robotlar diğer yararlı kaynağı istifleme girişiminde.

Bazı uzmanlar ve akademisyenler, özellikle bu tür robotlara bir dereceye kadar özerk işlevler verildiğinde, askeri savaş için robotların kullanımını sorguladılar. ABD Donanması, askeri robotlar daha karmaşık hale geldikçe, özerk kararlar verme yeteneklerinin etkilerine daha fazla dikkat edilmesi gerektiğini gösteren bir raporu finanse etti. Yapay Zekayı Geliştirme Derneği Başkanı , bu konuyu incelemek için bir çalışma görevlendirdi. İnsan etkileşimini taklit edebilen Dil Edinme Cihazı gibi programlara işaret ediyorlar .

Vernor Vinge , bazı bilgisayarların insanlardan daha akıllı olduğu bir anın gelebileceğini öne sürdü. Buna " Tekillik " diyor. İnsanlar için bir şekilde veya muhtemelen çok tehlikeli olabileceğini öne sürüyor. Bu, Singularitarianism adlı bir felsefe tarafından tartışılıyor . Makine İstihbarat Araştırma Enstitüsü "kurmak için bir ihtiyaç önerdi Dostu AI zaten AI ile gerçekleştiğini ilerlemeler de AI özünde samimi ve insancıl hale getirmek için bir çaba içermelidir, yani".

Bir yapay zekanın etik kararlar verip vermediğini görmek için testler oluşturma konusunda tartışmalar var . Alan Winfield, Turing testinin hatalı olduğu ve bir yapay zekanın testi geçmesi için gerekliliğin çok düşük olduğu sonucuna varıyor . Önerilen bir alternatif test, AI'nın kararının etik veya etik dışı olup olmadığına birden fazla yargıcın karar vermesini sağlayarak mevcut testi iyileştirecek olan Etik Turing Testi olarak adlandırılan bir testtir.

2009 yılında akademisyenler ve teknik uzmanlar , robotların ve bilgisayarların potansiyel etkisini ve kendi kendine yeterli hale gelmeleri ve kendi kararlarını verebilmeleri konusundaki varsayımsal olasılığın etkisini tartışmak üzere Yapay Zekayı Geliştirme Derneği tarafından düzenlenen bir konferansa katıldılar. . Bilgisayarların ve robotların herhangi bir düzeyde özerklik kazanma olasılığını ve kapsamını ve bu yetenekleri herhangi bir tehdit veya tehlike oluşturmak için ne dereceye kadar kullanabileceklerini tartıştılar. Bazı makinelerin, güç kaynaklarını kendi başlarına bulabilme ve silahlarla saldırmak için bağımsız olarak hedefler seçebilme dahil olmak üzere çeşitli yarı özerklik biçimleri edindiğini belirttiler. Ayrıca bazı bilgisayar virüslerinin eliminasyondan kaçabildiğini ve "hamamböceği zekası" elde ettiğini de kaydettiler. Bilimkurguda betimlenen öz-farkındalığın muhtemelen olası olmadığını, ancak başka potansiyel tehlikeler ve tuzaklar olduğunu belirttiler.

Ancak, özellikle ahlaki yetkinliğe sahip robotların olasılığını gerçeğe dönüştürebilecek bir teknoloji var. Robotlar tarafından ahlaki değerlerin edinimine bir yazıda, Nayef El Rodhan durumunda söz nöromorfik benzer lineer olmayan insanlarda, ve birbirine bağlı yapay nöronların milyonlarca işlem bilgilerine hedefliyoruz cips,. Nöromorfik teknolojiye gömülü robotlar, benzersiz bir şekilde insan benzeri bir şekilde bilgi öğrenip geliştirebilir. Bu, kaçınılmaz olarak, bu tür robotların dünyayı öğrenecekleri ve kimin ahlakını miras alacakları - ya da sonunda insan 'zayıflıklarını' da geliştirip geliştirmeyecekleri sorusunu gündeme getiriyor: bencillik, hayatta kalma yanlısı bir tutum, tereddüt vb.

In Ahlaki Makineleri: Yanlış dan Öğretim Robotlar Sağ Wendell Wallach ve Colin Allen öğretme robotlar için bu girişimi sonuçlandırmak doğruyu yanlışı gelen olasılıkla modern adres boşlukları insanları motive insan etik anlayış ilerletir normatif teori ve deneysel araştırma için bir platform sunarak. Bir örnek olarak, makinelerde hangi özel öğrenme algoritmalarının kullanılacağı tartışmalı konusuna normatif etikçiler getirmiştir . Nick Bostrom ve Eliezer Yudkowsky için savundular karar ağaçları (örneğin ID3 üzerinden) sinir ağları ve genetik algoritmalar , karar ağaçları şeffaflık ve öngörülebilirlik (örneğin modern sosyal normları itaat gerekçesiyle bakış decisis Chris Santos-Lang ters açıklamalar yaparken,) Herhangi bir yaştaki normların değişmesine izin verilmesi gerektiği ve bu belirli normları tam olarak karşılamadaki doğal başarısızlığın, insanları suçlu " hackerlara " karşı daha az savunmasız hale getirmek için gerekli olduğu gerekçesiyle doğrultma .

Oxford Üniversitesi Yapay Zeka Yönetimi Merkezi'nin 2019 raporuna göre, Amerikalıların %82'si robotların ve yapay zekanın dikkatli bir şekilde yönetilmesi gerektiğine inanıyor. Alıntılanan endişeler, yapay zekanın gözetimde ve çevrimiçi olarak sahte içeriğin (yapay zekanın yardımıyla oluşturulan video görüntüleri ve sesleri içerdiğinde derin sahte olarak bilinir) yayılmasında nasıl kullanıldığına, siber saldırılara, veri gizliliği ihlallerine, önyargılı işe alımlara, otonom araçlara ve insan kontrolörü gerektirmeyen dronlar.

Yapay zekanın etik ilkeleri

AI için 84 etik kılavuzun gözden geçirilmesinde 11 ilke kümesi bulundu: şeffaflık, adalet ve hakkaniyet, zarar vermeme, sorumluluk, mahremiyet, iyilik, özgürlük ve özerklik, güven, sürdürülebilirlik, haysiyet, dayanışma.

Luciano Floridi ve Josh cowls dört ilkelerine tarafından belirlenen AI ilkelerinin bir etik çerçeve oluşturdu biyoetik ( yararlılık , zarar vermemek , özerklik ve adalet explicability - prensibini sağlayan) ve ek bir AI.

Şeffaflık, hesap verebilirlik ve açık kaynak

Bill Hibbard , AI'nın insanlık üzerinde çok derin bir etkisi olacağından, AI geliştiricilerinin gelecekteki insanlığın temsilcileri olduğunu ve bu nedenle çabalarında şeffaf olmak için etik bir yükümlülüğe sahip olduklarını savunuyor. Ben Goertzel ve David Hart, OpenCog'u AI geliştirme için açık kaynaklı bir çerçeve olarak yarattı . OpenAI , insanlığa faydalı açık kaynaklı AI geliştirmek için Elon Musk , Sam Altman ve diğerleri tarafından oluşturulan kar amacı gütmeyen bir AI araştırma şirketidir . Çok sayıda başka açık kaynaklı AI geliştirmesi var.

Ne yazık ki, kodu açık kaynak yapmak onu anlaşılır kılmaz, bu da birçok tanımla AI kodunun şeffaf olmadığı anlamına gelir. IEEE bir sahiptir standardizasyon çaba AI şeffaflık. IEEE çalışması, farklı kullanıcılar için birden çok şeffaflık ölçeği tanımlar. Ayrıca, çağdaş yapay zekanın tam kapasitesini bazı kuruluşlara bırakmanın kamuya açık bir kötülük olabileceği, yani iyiden daha fazla zarar verebileceği endişesi var. Örneğin Microsoft, parasını ödeyebilenler için bile yüz tanıma yazılımına evrensel erişime izin verme konusundaki endişelerini dile getirdi. Microsoft, bu konuda olağanüstü bir blog yayınlayarak, yapılacak doğru şeyin belirlenmesine yardımcı olacak hükümet düzenlemelerini istedi.

Sadece şirketler değil, diğer birçok araştırmacı ve vatandaş savunucusu, şeffaflığı sağlamanın bir yolu olarak hükümet düzenlemelerini ve bu sayede insan hesap verebilirliğini tavsiye ediyor. Bazıları bunun yenilik hızını yavaşlatacağından endişe ettiğinden, bu stratejinin tartışmalı olduğu kanıtlandı. Diğerleri, düzenlemenin uzun vadede yeniliği destekleyebilecek sistemik istikrara yol açtığını iddia ediyor. OECD , BM , AB ve birçok ülke halen AI düzenleyen stratejileri üzerinde çalışan ve uygun yasal çerçeveleri buluyorlar.

26 Haziran 2019'da Avrupa Komisyonu Yapay Zeka Yüksek Düzeyli Uzman Grubu (AI HLEG) "Güvenilir Yapay Zeka için Politika ve yatırım önerilerini" yayınladı. Bu, "Güvenilir Yapay Zeka için Etik Kuralları"nın Nisan 2019'da yayınlanmasından sonra AI HLEG'in ikinci çıktısıdır. Haziran AI HLEG önerileri dört ana konuyu kapsar: genel olarak insanlar ve toplum, araştırma ve akademi, özel sektör ve kamu sektörü. Avrupa Komisyonu, "HLEG'in tavsiyelerinin, hem AI teknolojilerinin ekonomik büyümeyi, refahı ve yeniliği teşvik etme fırsatlarının yanı sıra ilgili potansiyel risklerin takdirini yansıttığını" iddia ediyor ve AB'nin AI'yı yöneten politikaların çerçevelenmesinde liderlik etmeyi hedeflediğini belirtiyor. uluslararası.

Etik zorluklar

AI sistemlerindeki önyargılar

ABD Senatörü Kamala Harris , 2020'de yapay zekada ırksal önyargı hakkında konuşuyor

AI, yüz ve ses tanıma sistemlerinde giderek daha fazla doğal hale geldi . Bu sistemlerden bazıları gerçek iş uygulamalarına sahiptir ve insanları doğrudan etkiler. Bu sistemler, insan yaratıcıları tarafından getirilen önyargılara ve hatalara karşı savunmasızdır. Ayrıca, bu AI sistemlerini eğitmek için kullanılan verilerde önyargılar olabilir. Örneğin, Microsoft, IBM ve Face++ tarafından yapılan yüz tanıma algoritmalarının hepsinin, insanların cinsiyetini tespit etme konusunda önyargıları vardı; Bu yapay zeka sistemleri, beyaz erkeklerin cinsiyetini koyu tenli erkeklerin cinsiyetinden daha doğru bir şekilde tespit edebildi. Ayrıca, 2020 yılında Amazon, Apple, Google, IBM ve Microsoft'un ses tanıma sistemlerini inceleyen bir araştırma, siyahların seslerini beyazlarınkinden daha yüksek hata oranlarına sahip olduklarını buldu. Ayrıca, algoritma kadın adaylara kıyasla erkek adayları tercih ettiği için Amazon , AI işe alma ve işe alım kullanımlarını sonlandırdı . Bunun nedeni, Amazon'un sisteminin, çoğunlukla erkek adaylardan gelen 10 yıllık bir süre boyunca toplanan verilerle eğitilmesiydi.

Önyargı, algoritmalara birçok şekilde sızabilir. Örneğin, Friedman ve Nissenbaum bilgisayar sistemlerinde üç önyargı kategorisi tanımlar: mevcut önyargı, teknik önyargı ve ortaya çıkan önyargı. Gelen doğal dil işleme , sorunlar ortaya çıkabilir metin corpus - algoritma kullanır farklı sözcükler arasında ilişkiler hakkında bilgi edinmek için kaynak materyal.

IBM, Google vb. gibi büyük şirketler bu önyargıları araştırmak ve ele almak için çaba sarf ettiler. Önyargıyı ele almak için bir çözüm, AI sistemlerini eğitmek için kullanılan veriler için belgeler oluşturmaktır.

Teknoloji tıp ve hukuk gibi kritik alanlara yayıldıkça ve derin bir teknik anlayışa sahip olmayan daha fazla insan onu kullanmakla görevlendirildikçe, makine öğrenimindeki yanlılık sorununun daha önemli hale gelmesi muhtemeldir. Bazı uzmanlar, algoritmik önyargının birçok endüstride zaten yaygın olduğu ve neredeyse hiç kimsenin bunu tespit etmek veya düzeltmek için çaba göstermediği konusunda uyarıyor. Önyargılı yapay zekaya daha fazla farkındalık getirmek isteyen sivil toplumların bazı açık kaynaklı araçları var.

robot hakları

"Robot hakları", insanların makinelerine karşı insan hakları veya hayvan haklarına benzer ahlaki yükümlülükleri olması gerektiği kavramıdır . Robot haklarının (var olma ve kendi görevini yerine getirme hakkı gibi), insan haklarını toplumdan önce insan görevleriyle ilişkilendirmeye benzer şekilde, insanlığa hizmet etme göreviyle ilişkilendirilebileceği öne sürülmüştür. Bunlar, yaşam ve özgürlük hakkı, düşünce ve ifade özgürlüğü ve kanun önünde eşitliği içerebilir. Konu, Gelecek Enstitüsü ve Birleşik Krallık Ticaret ve Sanayi Bakanlığı tarafından ele alındı .

Uzmanlar, konuyla ilgili spesifik ve ayrıntılı yasaların ne kadar kısa sürede gerekli olacağı konusunda hemfikir değiller. Glenn McGee, 2020 yılına kadar yeterince insansı robotların ortaya çıkabileceğini bildirirken, Ray Kurzweil tarihi 2029 olarak belirledi. 2007'de bir araya gelen bir başka bilim insanı grubu, yeterince gelişmiş bir sistemin var olabilmesi için en az 50 yılın geçmesi gerektiğini varsaydı.

2003 Loebner Ödülü yarışmasının kuralları , robotların kendi haklarına sahip olma olasılığını öngördü:

61. Herhangi bir yılda Surrey Üniversitesi veya Cambridge Merkezi tarafından girilen, halka açık bir açık kaynaklı Giriş, Gümüş Madalya veya Altın Madalya kazanırsa, Madalya ve Nakit Ödül, bundan sorumlu kuruluşa verilecektir. bu Girişin geliştirilmesi. Böyle bir kurum belirlenemezse veya iki veya daha fazla talep sahibi arasında bir anlaşmazlık varsa, Madalya ve Nakit Ödül, Girişin yasal olarak Amerika Birleşik Devletleri'nde veya Amerika Birleşik Devletleri'nde sahip olabileceği zamana kadar güven içinde tutulacaktır. yarışmanın yeri, Nakit Ödül ve Altın Madalya'nın kendisine aittir.

Ekim 2017'de, android Sophia'ya Suudi Arabistan'da "fahri" vatandaşlık verildi , ancak bazıları bunu anlamlı bir yasal tanınmadan çok bir tanıtım dublörü olarak gördü. Bazıları bu hareketi insan haklarını ve hukukun üstünlüğünü açıkça aşağılamak olarak gördü .

Sentientism felsefesi , başta insanlar ve çoğu insan olmayan hayvanlar olmak üzere tüm hissedebilir varlıklara ahlaki değerlendirme dereceleri verir. Yapay veya uzaylı zeka, duyarlı olduklarının kanıtını gösteriyorsa , bu felsefe onlara merhamet gösterilmesi ve haklar verilmesi gerektiğini savunur.

Joanna Bryson , haklar gerektiren AI yaratmanın hem önlenebilir olduğunu hem de hem AI ajanlarına hem de insan toplumuna bir yük olarak kendi içinde etik dışı olacağını savundu.

İnsan onuruna tehdit

Joseph Weizenbaum 1976'da AI teknolojisinin saygı ve özen gerektiren konumlardaki insanların yerini almak için kullanılmaması gerektiğini savundu, örneğin:

  • Bir müşteri hizmetleri temsilcisi (AI teknolojisi günümüzde telefon tabanlı etkileşimli sesli yanıt sistemleri için halihazırda kullanılmaktadır )
  • Yaşlılar için bir bakıcı ( Pamela McCorduck tarafından The Fifth Generation adlı kitabında bildirildiği gibi )
  • Bir asker
  • Hakim
  • Polis memuru
  • Bir terapist ( 70'lerde Kenneth Colby tarafından önerildiği gibi )

Weizenbaum, bu pozisyonlardaki insanlardan otantik empati duygularına ihtiyacımız olduğunu açıklıyor . Makineler onların yerini alırsa, yapay zekalı sistem empatiyi simüle edemediği için kendimizi yabancılaşmış, değer kaybetmiş ve hüsrana uğramış bulacağız. Yapay zeka, bu şekilde kullanılırsa insan onuruna yönelik bir tehdit oluşturur. Weizenbaum, bu pozisyonlarda makinelerin olasılığını eğlendiriyor olmamızın, "kendimizi bilgisayar olarak düşünmekten kaynaklanan insan ruhunun körelmesini" deneyimlediğimizi öne sürüyor.

Pamela McCorduck , kadınlar ve azınlıklar adına konuşurken "Tarafsız bir bilgisayarla şansımı denemeyi tercih ederim" diyerek, hiçbir kişisel gündemi olmayan otomatik yargıçlara ve polise sahip olmayı tercih edeceğimiz koşullar olduğuna işaret ediyor. Bununla birlikte Kaplan ve Haenlein, yapay zeka sistemlerinin, özünde süslü eğrilere uyan makinelerden başka bir şey olmadığı için yalnızca onları eğitmek için kullanılan veriler kadar akıllı olduğunu vurguluyor; Bir mahkeme kararını desteklemek için AI kullanmak, geçmiş kararlar belirli gruplara karşı önyargı gösteriyorsa, bu önyargılar resmileştirilip yerleştiğinden, bu da onları tespit etmeyi ve bunlarla mücadele etmeyi daha da zorlaştırdığı için oldukça sorunlu olabilir.

Weizenbaum, AI araştırmacılarının (ve bazı filozofların) insan zihnini bir bilgisayar programından başka bir şey olarak görmeye istekli olmalarından da rahatsız oldu (şimdi hesaplamacılık olarak bilinen bir konum ). Weizenbaum'a göre bu noktalar, yapay zeka araştırmalarının insan yaşamını değersizleştirdiğini gösteriyor.

AI'nın kurucusu John McCarthy , Weizenbaum'un eleştirisinin ahlaki üslubuna karşı çıkıyor. "Ahlakileştirme hem şiddetli hem de belirsiz olduğunda, otoriter suistimali davet ediyor" diye yazıyor. Bill Hibbard , "İnsanlık onuru, varlığın doğası hakkındaki cehaletimizi ortadan kaldırmaya çalışmamızı gerektirir ve bu çaba için yapay zeka gereklidir" diye yazıyor.

Kendi kendine giden arabaların sorumluluğu

Otonom araçların yaygın kullanımı giderek daha yakın hale geldiğinden, tamamen otonom araçların ortaya çıkardığı yeni zorluklar ele alınmalıdır. Son zamanlarda, bu arabaların kaza yapması durumunda sorumlu tarafın yasal sorumluluğu konusunda tartışmalar olmuştur. Sürücüsüz bir arabanın bir yayaya çarptığı bir raporda, sürücü arabanın içindeydi ama kontroller tamamen bilgisayarların elindeydi. Bu, kazada kimin kusurlu olduğu konusunda bir ikileme yol açtı.

19 Mart 2018'deki başka bir olayda, Arizona'da kendi kendini süren bir Uber , Elaine Herzberg'e çarptı ve öldü . Bu durumda, otomatikleştirilmiş araç, karayolunda otonom olarak gezinmek için arabaları ve belirli engelleri tespit edebiliyordu, ancak yolun ortasında bir yaya olduğunu tahmin edemiyordu. Bu, sürücünün, yayaların, araba şirketinin veya hükümetin ölümünden sorumlu tutulması gerekip gerekmediği sorusunu gündeme getirdi.

Şu anda, sürücüsüz otomobiller yarı otonom olarak kabul ediliyor ve sürücünün dikkat etmesini ve gerekirse kontrolü ele almaya hazır olmasını gerektiriyor. Bu nedenle, otonom özelliklere aşırı güvenen sürücüyü düzenlemek hükümetlere düşüyor. aynı zamanda onları, bunların uygun olmakla birlikte tam bir ikame olmayan teknolojiler olduğu konusunda eğitin. Otonom otomobiller yaygın olarak kullanılmadan önce, bu sorunların yeni politikalarla ele alınması gerekiyor.

Yapay zekanın silahlandırılması

Bazı uzmanlar ve akademisyenler, özellikle bu tür robotlara bir dereceye kadar özerklik verildiğinde, robotların askeri savaş için kullanımını sorguladılar. 31 Ekim 2019'da Amerika Birleşik Devletleri Savunma Bakanlığı'nın Savunma İnovasyon Kurulu, Savunma Bakanlığı tarafından yapay zekanın etik kullanımı için prensipler öneren ve bir insan operatörün her zaman ' kara kutu' ve öldürme zinciri sürecini anlayın. Ancak, önemli bir endişe, raporun nasıl uygulanacağıdır. ABD Donanması, askeri robotlar daha karmaşık hale geldikçe, özerk kararlar verme yeteneklerinin etkilerine daha fazla dikkat edilmesi gerektiğini gösteren bir raporu finanse etti . Bazı araştırmacılar, otonom robotların daha etkili kararlar alabilecekleri için daha insancıl olabileceğini belirtiyor.

Bu son on yılda, atanmış ahlaki sorumlulukları kullanmayı öğrenme yeteneği ile özerk güç konusunda yoğun araştırmalar yapılmıştır. "Sonuçlar, gelecekteki askeri robotları tasarlarken, robotlara sorumluluk atamak için istenmeyen eğilimleri kontrol etmek için kullanılabilir." Bir itibaren consequentialist görünümü, orada robotlar öldürmek için kimi kendi mantıksal kararlar yeteneğini geliştirecek bir şans olduğunu ve bir dizi olması gerektiğini bu yüzden ahlaki AI geçersiz olamayacağını çerçeve.

İnsanlığı bir robotun ele geçirmesi fikirlerini içeren yapay zeka silahlarının mühendisliği ile ilgili son zamanlarda bir isyan var. Yapay zeka silahları, insan kontrollü silahlardan farklı bir tür tehlike arz ediyor. Birçok hükümet, AI silahları geliştirmek için programları finanse etmeye başladı. Birleşik Devletler Donanması geçtiğimiz günlerde , sırasıyla Rusya ve Kore tarafından yapılan benzer duyurulara paralel olarak, otonom drone silahları geliştirme planlarını duyurdu. AI silahlarının insan tarafından çalıştırılan silahlardan daha tehlikeli hale gelme potansiyeli nedeniyle, Stephen Hawking ve Max Tegmark , AI silahlarını yasaklamak için bir "Yaşamın Geleceği" dilekçesi imzaladılar. Hawking ve Tegmark tarafından yayınlanan mesaj, AI silahlarının acil bir tehlike oluşturduğunu ve yakın gelecekte felaket felaketlerinden kaçınmak için harekete geçilmesi gerektiğini belirtiyor.

Skype işbirliğini de içeren dilekçede, "Herhangi bir büyük askeri güç, yapay zeka silahlarının geliştirilmesini ilerletirse, küresel bir silahlanma yarışı neredeyse kaçınılmazdır ve bu teknolojik yörüngenin son noktası açıktır: özerk silahlar yarının Kalaşnikofları olacak", diyor Skype ortaklarını içeren dilekçe. -kurucu Jaan Tallinn ve MIT dilbilim profesörü Noam Chomsky , AI silahlarına karşı ek destekçiler olarak.

Fizikçi ve Astronom Kraliyet Sir Martin Rees , "aptal robotların haydutlaşması veya kendi zihnini geliştiren bir ağ" gibi felaket örnekleri konusunda uyardı. Rees'in Cambridge'deki bir meslektaşı olan Huw Price , zeka "biyolojinin kısıtlamalarından kaçtığında" insanların hayatta kalamayacağı konusunda benzer bir uyarıda bulundu. Bu iki profesör , insan varlığına yönelik bu tehdidi önlemek umuduyla Cambridge Üniversitesi'nde Varoluşsal Risk Araştırmaları Merkezi'ni kurdu.

İnsandan daha akıllı sistemlerin askeri olarak kullanılma potansiyeli ile ilgili olarak , Açık Hayırseverlik Projesi , bu senaryoların "potansiyel olarak kontrol kaybıyla ilgili riskler kadar önemli göründüğünü", ancak AI'nın uzun vadeli sosyal etkisini araştıran araştırmaların nispeten zaman harcadığını yazıyor. Bu endişe üzerinde çok az zaman var: "Bu senaryo sınıfı, Makine Zekası Araştırma Enstitüsü (MIRI) ve İnsanlığın Geleceği Enstitüsü (FHI) gibi bu alanda en aktif olan kuruluşlar için ana odak noktası olmamıştır ve Onlarla ilgili daha az analiz ve tartışma var gibi görünüyor".

opak algoritmalar

Sinir ağları ile makine öğrenimi gibi yaklaşımlar , bilgisayarların kendilerinin ve onları programlayan insanların açıklayamayacağı kararlar almasına neden olabilir. İnsanların bu tür kararların adil ve güvenilir olup olmadığını belirlemesi zordur, bu da potansiyel olarak AI sistemlerinin algılanmamasına veya insanların bu tür sistemlerin kullanımını reddetmesine yol açar. Bu, açıklanabilir yapay zeka için savunuculuğa ve bazı yargı alanlarında yasal gerekliliklere yol açmıştır .

tekillik

Birçok araştırmacı, bir "zeka patlaması" yoluyla, kendi kendini geliştiren bir yapay zekanın, insanların hedeflerine ulaşmasını engelleyemeyecek kadar güçlü hale gelebileceğini savundu. Filozof Nick Bostrom , "Gelişmiş Yapay Zekada Etik Sorunlar" başlıklı makalesinde ve ardından gelen Süper Zeka : Yollar, Tehlikeler, Stratejiler kitabında , yapay zekanın insan neslinin tükenmesini sağlama yeteneğine sahip olduğunu savunuyor. Genel süper zekanın bağımsız inisiyatif alma ve kendi planlarını yapma yeteneğine sahip olacağını ve bu nedenle daha uygun bir şekilde özerk bir ajan olarak düşünülebileceğini iddia ediyor. Yapay zekaların insan motivasyonel eğilimlerimizi paylaşması gerekmediğinden, orijinal motivasyonlarını belirlemek süperzekanın tasarımcılarına bağlı olacaktır. Süper akıllı bir yapay zeka, neredeyse her türlü olası sonucu ortaya çıkarabileceği ve hedeflerinin uygulanmasını engellemeye yönelik her türlü girişimi engelleyebileceği için, birçok kontrolsüz istenmeyen sonuç ortaya çıkabilir. Diğer tüm ajanları öldürebilir, davranışlarını değiştirmeye ikna edebilir veya müdahale girişimlerini engelleyebilir.

Ancak Bostrom, insan ırkını ezmek ve yok olmamıza yol açmak yerine, süperzekanın hastalık, yoksulluk ve çevresel yıkım gibi birçok zor sorunu çözmemize yardımcı olabileceğini ve kendimizi “geliştirmemize” yardımcı olabileceğini de iddia etti.

İnsan değer sistemlerinin katıksız karmaşıklığı, AI'nın motivasyonlarını insan dostu hale getirmeyi çok zorlaştırıyor. Ahlak felsefesi bize kusursuz bir etik teori sağlamadıkça, bir AI'nın fayda işlevi, belirli bir etik çerçeveye uyan ancak "sağduyu" olmayan birçok potansiyel olarak zararlı senaryoya izin verebilir. Eliezer Yudkowsky'ye göre , yapay olarak tasarlanmış bir zihnin böyle bir adaptasyona sahip olacağını varsaymak için çok az neden var. Stuart J. Russell , Bill Hibbard , Roman Yampolskiy , Shannon Vallor , Steven Umbrello ve Luciano Floridi gibi yapay zeka araştırmacıları , faydalı makineler geliştirmek için tasarım stratejileri önerdiler.

AI etiğindeki aktörler

AI etiği ve politikası, kamu ve hükümet ile kurumsal ve toplumsal konularla ilgilenen birçok kuruluş vardır.

Amazon , Google , Facebook , IBM ve Microsoft , yapay zeka teknolojileri konusunda en iyi uygulamaları formüle etmek, halkın anlayışını geliştirmek ve yapay zeka hakkında bir platform olarak hizmet etmek için kar amacı gütmeyen, İnsanlara ve Topluma Yarar Sağlamak için Yapay Zeka Ortaklığı kurdu. . Apple, Ocak 2017'de katıldı. Kurumsal üyeler, akademisyenleri yönetim kuruluna getirmek için bilim topluluğuyla etkileşime girerken, gruba finansal ve araştırma katkıları yapacak.

IEEE Özerk ve oluşturma ve kamu girişi yardımıyla kurallarına revize edilmiş Akıllı Sistemlerin Etik Küresel Girişimi araya getirmek ve üyeler olarak içinde ve örgüt olmadan birçok uzmanları kabul eder.

Geleneksel olarak hükümet , toplumlar tarafından mevzuat ve polislik yoluyla etiğin gözetilmesini sağlamak için kullanılmıştır. Yapay zekanın etik olarak uygulanmasını sağlamak için ulusal hükümetlerin yanı sıra ulusötesi hükümet ve hükümet dışı kuruluşlar tarafından birçok çaba var .

Hükümetlerarası girişimler:

  • Avrupa Komisyonu Yapay Zeka üzerine Yüksek Düzey Uzman Grubu vardır. 8 Nisan 2019'da bu, 'Güvenilir Yapay Zeka için Etik Kuralları'nı yayınladı. Avrupa Komisyonu'nun ayrıca, 19 Şubat 2020'de yapay zeka inovasyonunda mükemmellik ve güven üzerine bir beyaz kitap yayınlayan bir Robotik ve Yapay Zeka İnovasyonu ve Mükemmelliği birimi vardır.
  • OECD bir OECD AI Politikası Rasathanesi kurdu.

Hükümet girişimleri:

  • In ABD'de Obama yönetiminin AI Politikası için bir yol haritası araya koydu. Obama Yönetimi , AI'nın geleceği ve etkisi hakkında iki önemli beyaz kitap yayınladı. 2019'da Beyaz Saray, "Amerikan AI Girişimi" olarak bilinen bir yönetici notu aracılığıyla NIST'e (Ulusal Standartlar ve Teknoloji Enstitüsü) AI Standartlarının Federal Etkileşimi (Şubat 2019) üzerinde çalışmaya başlaması talimatını verdi.
  • Ocak 2020'de, Amerika Birleşik Devletleri'nde, Trump İdaresi , Yönetim ve Bütçe Ofisi (OMB) tarafından “Yapay Zeka Uygulamalarının Düzenlenmesi Rehberi” (“OMB AI Memorandumu”) hakkında bir taslak yürütme emri yayınladı. Yapay zeka uygulamalarına yatırım yapma, halkın yapay zekaya olan güvenini artırma, yapay zeka kullanımının önündeki engelleri azaltma ve Amerikan yapay zeka teknolojisini küresel bir pazarda rekabetçi tutma ihtiyacı.Gizlilik endişelerine duyulan ihtiyaç bir onay var, ancak uygulama hakkında daha fazla ayrıntı yok. Amerikan AI teknolojisindeki ilerlemeler odak noktası ve öncelik gibi görünüyor.Ayrıca, federal kuruluşlar, bir piyasanın yerine getirmek için çok zahmetli olarak görebileceği herhangi bir eyalet yasasını ve düzenlemesini dolaşmak için emri kullanmaya bile teşvik ediliyor.
  • Bilgisayar Topluluğu Konsorsiyumu (CCC) 100 artı sayfa taslak raporu ile ağırlığını koydu - ABD'de Yapay Zeka Araştırma A 20 Yıllık Topluluk Yol Haritası
  • Güvenlik ve Yükselen Teknolojiler Merkezi böyle AI olarak gelişen teknolojilerin güvenlik etkileri üzerinde ABD politika önerir.
  • İnsan Olmayan Parti içinde aday olacak New South Wales genellikle robotlar, hayvan ve haklar verirken etrafında politikaları ile, kimin istihbarat olmuştur insan dışı varlıklar gözardı.

Akademik girişimler:

Yapay Zeka Etiğinde Kurmanın Rolü ve Etkisi

Yapay zeka etiği açısından kurgunun rolü karmaşık olmuştur. Kurgunun yapay zeka ve robotiğin gelişimini etkilediği üç seviye ayırt edilebilir: Tarihsel olarak kurgu, yalnızca AI için hedefleri ve vizyonları etkilemekle kalmayıp aynı zamanda etik soruları ve onunla ilişkili ortak korkuları ana hatlarıyla belirleyen ortak mecazları önceden şekillendirmiştir. Yirminci yüzyılın ikinci yarısında ve yirmi birinci yüzyılın ilk on yılında, popüler kültür, özellikle filmler, TV dizileri ve video oyunları, yapay zeka ve robotik ile ilgili etik sorular etrafında sık sık meşguliyetleri ve distopik projeksiyonları tekrarladı. Son zamanlarda, bu temalar edebiyatta bilim kurgu alanının ötesinde giderek daha fazla işleniyor. Katalonya Teknik Üniversitesi'ndeki Institut de Robòtica i Informàtica Industrial'da (Robotik ve endüstriyel bilgi işlem enstitüsü) araştırma profesörü olan Carme Torras'ın belirttiği gibi, yüksek öğrenimde bilimkurgu, teknoloji ile ilgili etik konuları öğretmek için giderek daha fazla kullanılmaktadır. teknolojik dereceler.

Tarih

Tarihsel olarak konuşursak, "düşünen makineler"in ahlaki ve etik içerimlerinin araştırılması en azından Aydınlanma'ya kadar gider: Leibniz , duyusal bir varlıkmış gibi davranan bir mekanizmaya zekayı atfedebilir miyiz sorusunu zaten soruyor ve Descartes da öyle. Turing Testi'nin erken bir versiyonu olarak kabul edilebilecek olanı tanımlayan.

Romantik dönem birkaç kez en ünlü, kötü sonuçlara yol açıyor onların yaratıcısının kontrolünü kaçmak yapay yaratıkları öngörülen vardır Mary Shelley ‘in Frankenstein . Bununla birlikte, 19. ve 20. yüzyılın başlarında sanayileşme ve makineleşmeyle ilgili yaygın meşguliyet, akıl almaz teknik gelişmelerin etik sonuçlarını kurgunun ön saflarına taşıdı : RUR – Rossum'un Evrensel Robotları , Karel Čapek'in köle emeği olarak kullanılan duygularla donanmış duyarlı robotlar oyunu. sadece 'robot' teriminin (Çekçe zorla çalıştırma anlamına gelen robota kelimesinden türetilmiştir ) icadıyla değil, aynı zamanda 1921'de prömiyeri yapıldıktan sonra uluslararası bir başarı elde etti. George Bernard Shaw'ın 1921'de yayınlanan Back to Metuselah adlı oyunu , insan gibi davranan düşünen makinelerin geçerliliği bir nokta; Fritz Lang'ın 1927 tarihli Metropolis filmi , sömürülen kitlelerin teknokratik bir toplumun baskıcı rejimine karşı ayaklanmasına önderlik eden bir androidi gösteriyor.

Kurmacanın Teknolojik Gelişim Üzerindeki Etkisi

Potansiyel olarak boyun eğmez teknolojinin egemen olduğu bir gelecek beklentisi, yazarların ve film yapımcılarının hayal gücünü uzun süredir beslerken, bir soru daha az analiz edildi, yani kurgunun teknolojik gelişme için ilham vermede ne ölçüde bir rol oynadığı. Örneğin, genç Alan Turing'in GB Shaw'ın Back to Metuselah oyununu 1933'te (dijital bilgisayarın temelini oluşturan ilk çığır açıcı makalesinin yayınlanmasından sadece 3 yıl önce) gördüğü ve takdir ettiği belgelenmiştir . en azından uluslararası bir başarı olan ve birçok dile çevrilen RUR gibi oyunların farkındaydılar .

Bilimkurgunun yapay zeka gelişiminin ilkelerini ve etik çıkarımlarını oluşturmada hangi rolü oynadığı sorusu da sorulabilir: Isaac Asimov, Robotik'in Üç Yasasını 1942 kısa öykü koleksiyonu I, Robot'un bir parçası olan “ Runaround ”ta kavramsallaştırdı ; Stanley Kubrick'in 2001: A Space Odyssey adlı filminin dayandığı Arthur C. Clarke'ın kısa filmi “ Sentinel ” 1948'de yazılmış ve 1952'de yayınlanmıştır. Diğer bir örnek (diğerleri arasında) Philip K. Dicks'in çok sayıda kısa öyküsü ve romanı olacaktır. – özellikle Androidler Elektrikli Koyun Düşler mi? 1968'de yayınlanan ve Android'lerin insanlardan ayırt edilemeyen duygusal tepkilerini ölçmek için bir Turing Testi olan Voight-Kampff Testinin kendi versiyonunu içeriyor . Roman daha sonra Ridley Scott'ın 1982 yapımı etkili filmi Blade Runner'ın temeli oldu .

Bilim Kurgu, on yıllardır AI gelişmelerinin etik sonuçlarıyla boğuşuyor ve böylece genel yapay zekaya benzer bir şey elde edildiğinde ortaya çıkabilecek etik sorunlar için bir plan sağladı: Spike Jonze'nin 2013 filmi Her , bir kullanıcı düştüğünde neler olabileceğini gösteriyor. akıllı telefon işletim sisteminin baştan çıkarıcı sesine aşık; Ex Machina ise daha zor bir soru soruyor: Sadece bir yüz ve empatik ve şehvetli bir sesle insan yapılan, açıkça tanınabilir bir makine ile karşı karşıya kalsak, yine de duygusal bir bağlantı kurabilir miyiz, yine de bizi baştan çıkarabilir miydik? o ? (Film, iki yüzyıl önce ETA Hoffmann'ın 1817 tarihli “ The Sandmannadlı kısa öyküsünde zaten mevcut olan bir temayı tekrarlar . )

Yapay akıllı varlıklar ile birlikte yaşama teması da iki yeni roman teması: Machines benim gibi tarafından Ian McEwan 2019 yılında yayınlanan, (birçok diğer şeyler arasında) suni bir kişiyi yanı sıra insan çifti içeren bir aşk-üçgen içerir. Klara ve Güneş tarafından Nobel ödüllü Kazuo Ishiguro 2021 yılında yayınlanan, onunla yaşayan bir kıza yardım, onu kendi yöntemiyle, çalışıyor Klara, bir 'AF' (yapay arkadaşı), birinci şahıs hesabı 'kaldırıldıktan' (yani genetik geliştirmelere maruz kaldıktan sonra) garip bir hastalıktan muzdarip olan.

Televizyon dizisi

Yapay zeka ile bağlantılı etik sorular, bilim kurgu literatüründe ve uzun metrajlı filmlerde onlarca yıldır yer alırken , TV dizilerinin daha uzun ve daha karmaşık hikaye hatlarına ve karakter gelişimine izin veren bir tür olarak ortaya çıkması, etik çıkarımlarla ilgilenen bazı önemli katkılara yol açmıştır. teknoloji. İsveç dizisi Real Humans (2012–2013), yapay duyarlı varlıkların topluma entegrasyonuyla bağlantılı karmaşık etik ve sosyal sonuçları ele aldı. İngiliz distopik bilim kurgu antolojisi dizisi Black Mirror (2013-2019), çok çeşitli yeniden teknoloji geliştirmeleriyle bağlantılı distopik kurgusal gelişmelerle denemeler yapmak için özellikle dikkate değerdi. Hem Fransız dizisi Osmosis (2020) hem de İngiliz dizisi The One , teknoloji bir kişi için ideal partneri bulmaya çalışırsa ne olabileceği sorusuyla ilgileniyor.

Kurgu ve Oyunlarda Gelecek Vizyonları

The Thirteenth Floor filmi , bilinçli sakinlerle simüle edilmiş dünyaların eğlence amacıyla bilgisayar oyun konsolları tarafından yaratıldığı bir gelecek önermektedir . The Matrix filmi , Dünya gezegenindeki baskın türlerin duyarlı makineler olduğu ve insanlığın en üst düzeyde Türcülükle muamele gördüğü bir gelecek önermektedir . " Planck Dive " adlı kısa öykü , insanlığın kendisini kopyalanabilen ve optimize edilebilen bir yazılıma dönüştürdüğü ve yazılım türleri arasındaki ilgili ayrımın duyarlı ve duygusuz olduğu bir geleceği önermektedir. Aynı düşünce bulunabilir Acil Tıp Hologram ait gemisi Voyager yaratıcısı, bilinç azaltılmış bir alt grubuna yönelik görünüşte duygulu kopyasıdır, Dr Zimmerman iyi motifler için, tıbbi vermek için sistem yarattı, acil durumlarda yardım. Bicentennial Man ve AI filmleri , sevebilecek duyarlı robotların olasılığını ele alıyor. Ben, Robot , Asimov'un üç yasasının bazı yönlerini araştırdım. Tüm bu senaryolar, duyarlı bilgisayarların yaratılmasının olası etik olmayan sonuçlarını öngörmeye çalışır.

Yapay zeka etiği, BioWare'in Mass Effect oyun serisindeki birkaç ana temadan biridir . Küresel ölçekli bir sinir ağı aracılığıyla hesaplama gücünde hızlı bir artış yoluyla yanlışlıkla yapay zeka yaratan bir uygarlığın senaryosunu araştırıyor . Bu olay, yeni bilinçli Geth'e organik haklar bahşetmenin uygun olduğunu düşünenler ile onları kullanılıp atılabilir makineler olarak görmeye devam edenler ve onları yok etmek için savaşanlar arasında etik bir bölünmeye neden oldu. İlk çatışmanın ötesinde, makineler ve yaratıcıları arasındaki ilişkinin karmaşıklığı, hikaye boyunca devam eden bir başka temadır.

Hugo de Garis ve Kevin Warwick tarafından başlatılan "Kozmist" ve "Terran" tartışmalarında vurgulandığı gibi , zamanla tartışmalar olasılıklara daha az ve daha çok arzu edilebilirliğe odaklanma eğiliminde oldu . Hugo de Garis'e göre bir Kozmist, aslında insan türüne daha zeki halefler inşa etmeye çalışıyor.

Cambridge Üniversitesi'ndeki uzmanlar, yapay zekanın kurgu ve kurgu dışı eserlerde ezici bir çoğunlukla ırksal olarak Beyaz olarak tasvir edildiğini, risk ve faydalarına ilişkin algıları çarpıtacak şekilde tasvir edildiğini savundu.

Ayrıca bakınız

Notlar

Dış bağlantılar