Yapay Zekâlar Hayvanlarla Aynı Etik Korumaya Sahip Olmalıdır – John Basl & Eric Schwitzgebel

Yapay Zekâlar Hayvanlarla Aynı Etik Korumaya Sahip Olmalıdır – John Basl & Eric Schwitzgebel

Mart 6, 2023 0 Yazar: felsefelog

Dünya çapındaki üniversiteler, Allen Enstitüsü gibi kuruluşlar, Google ve Facebook’un dahil olduğu teknoloji şirketleri yapay zekâ üzerine büyük araştırmalar yürütüyorlar. Muhtemelen bu araştırmaların nihayetinde, fareler veya köpekler gibi bilişsel olarak karmaşık bir yapay zekâya yakında sahip olacağız. Şimdi, bu yapay zekâların, genellikle hayvanlara verdiğimiz etik korumaları, hangi şartlar altında vereceğimiz ve vereceğimiz bu korumayı hak edip edemeyeceklerini düşünmeye başlamanın zamanıdır.


“Yapay zekâ hakları” veya “robot hakları” tartışmalarına, insanî veya üstün-zekâ yapay zekâlara -Star Trek’ten android Data veya Westworld’den Dolores gibi- ne tür etik yükümlülükler uygulamamız gerektiğine dair sorular hâkimdir. Ancak bu şekilde düşünmek yanlış yerden başlamaktır ve bunun ciddi ahlaki sonuçları olabilir. İnsan benzeri ahlaki düşünceyi hak eden insanî zarafete sahip bir yapay zekâ oluşturmadan önce, insandan biraz daha az ahlakî olan, insandan daha az etik olanı hak eden bir yapay zekâ yaratacağız.


Bazı insan olmayan canlıları kullanarak yapılan araştırmaları nasıl yaptığımız hususunda çok temkinliyiz. Hayvan bakımı ve kullanımı komisyonları omurgalı hayvanların gereksiz yere öldürülmemesi veya haksız yere acı çekmemesini garantilemek için araştırma önerilerini değerlendirmektedir. İnsan kök hücreleri veya özellikle de insan beyin hücreleri söz konusuysa, gözetim standartları daha da titizdir. Biyomedikal araştırma dikkatlice incelenmektedir, ancak aynı etik risklerin bir kısmını içerebilecek olan yapay zekâ araştırmaları şu anda henüz incelenmemektedir. Belki de incelenmelidir.


Yapay zekâların bilinçli olmadıkça bu tür bir etik korumayı hak etmediğini düşünebilirsiniz -yani, gerçek bir deneyim akışına sahip olmadıkça, gerçekten neşelenmedikçe ve acı çekmedikçe. Katılıyoruz. Fakat şimdi zor bir felsefî soru ile karşı karşıyayız; neşe ve acı çekebilecek bir şey yarattığımızı nasıl anlayacağız? Yapay zekâ Data veya Dolores’e benziyorsa, haklarına dair bir tartışma başlatarak şikâyet edebilir ve kendisini savunabilir. Fakat eğer yapay zekâ konuşamaz ise veya başka bir nedenden ötürü içsel yaşamını bize iletemezse, acı çektiğini bildirmenin bir yolu olmayabilir.


Burada bir bulmaca ve zorluk ortaya çıkıyor, çünkü bilincin bilimsel çalışması, bilincin ne olduğunu ve var olup olmadığını nasıl söyleyebileceğimiz hakkında bir uzlaşıya sahip değildir. Bilincin varlığına ilişkin bazı görüşlerde -‘liberal’ görüşlerde-, bilincin var olması için, çevredeki nesnelerle ilgili esnek bir bilgilendirme modeli ve rehberli dikkat kapasiteleri ile uzun vadeli eylem planlaması gibi belirli bir tür iyi organize edilmiş bilgi işleme türünden başka bir şey gerekmemektedir. Şimdiden bu sistemleri yaratmanın eşiğinde olabiliriz. Diğer görüşlerde – ‘muhafazakar’ görüş – bilinç, düşük düzeydeki yapısal detaylarında, bir memeli beynine çok benzeyen bir beyin gibi çok özel biyolojik özellikler gerektirebilir: bu durumda yapay bilinç yaratmaya yakın değiliz.


Hangi tür görüşün doğru olduğu veya sonuçta başka bir görüşün geçerli olup olmayacağı açık değildir. Bununla birlikte, eğer liberal bir görüş doğruysa, yakında etik korumayı hak edecek birçok insanca olmayan yapay zekâ yaratıyor olabiliriz -bunda ahlaki bir risk bulunur.


‘Yapay zekâ riski’ tartışmaları normal olarak, insanlar olarak bize getirebileceği; yeni yapay zekâ teknolojilerinin dünyayı ele geçirmek, bizi yok etmek ya da en azından bankacılık sistemimizi bozmak gibi, risklere odaklanmaktadır.


Bu, bilim kurgu gibi görünebilir, ancak yapay zekâ topluluğundaki araştırmacılar bilinçli yapay zekâ veya
bilinçli olarak nihayete erecek dayanıklı yapay zekâ sistemleri geliştirmeyi amaçladığı sürece, konuyu
ciddiye almamız gerekir. Bu tür araştırmalar, hayvan araştırmalarına verdiğimiz incelemelere benzer etik incelemeleri ve insan sinir dokusu örnekleri üzerinde araştırma yapılmasını gerektiriyor.


Hayvanlar üzerinde ve hatta insan deneklerinde araştırma yapılması durumunda, yalnızca ciddi etik dönüşümlerin ortaya çıkmasından sonra uygun korumalar sağlandı (örneğin; gereksiz viviseksiyon, Nazi tıbbi savaş suçları ve Tuskegee Frengi Deneyi). Yapay zekâ için daha iyisini yapma şansımız var. Zihnimizdeki bu soruları dikkate alarak en gelişmiş yapay zekâ araştırmalarını değerlendiren gözetim komitelerinin kurulmasını öneriyoruz. Hayvan bakım komiteleri ve kök hücre gözetim komiteleri gibi, bu tür komiteler, bilim adamları ve bilim adamları olmayan bir karışımdan oluşmalıdır -yapay zeka tasarımcıları, bilinç bilimcileri, etik uzmanları ve ilgili topluluk üyeleri. Bu komiteler, araştırmanın yararlarına karşı ağırlıklı risklerin, karmaşık etik ve bilimsel konuların anlaşılmasıyla donatılmış, yapay zekâ tasarımlarının yeni formlarının etik risklerini değerlendirilmesi ve tanımlanmasıyla görevlendirilecektir.


Bu tür komitelerin izin verilen mevcut yapay zekâ araştırmalarını yargılaması muhtemeldir. Çoğu hâkim bilinç teorisine göre, ahlaki düşünceyi hak eden bilinçli deneyimlerle yapay zekâ yaratmıyoruz. Fakat -belki de yakında- bu önemli etik çizgiyi aşabiliriz. Bunun için hazırlanmalıyız.


Çevirmen: Melinda G. Esen


Kaynak: John Basl & Eric Schwitzgebel, Yapay Zekâlar Hayvanlarla Aynı Etik Korumaya Sahip Olmalıdır , (Çev. Melinda G. Esen) , https://www.academia.edu/41095540/%C3%87eviri_Yapay_Zek%C3%A2lar_Hayvanlarla_Ayn%C4%B1_Etik_Korumaya_Sahip_Olmal%C4%B1d%C4%B1r , Erişim Tarihi: 06.03.2023