Peki üst düzey bir yapay zeka kontrol etmek mümkün mü? Aslında bakarsanız 2021 yılındaki bir çalışmada bir grup bilim insanı bu konuda hesaplamaya dayalı bir analiz yürüttü. Sonuç, üst düzey bir yapay zekayı kontrol etmenin kesinlikle mümkün olmadığını gösterdi.
Çok gelişmiş bir yapay zekayı kontrol etmek neden imkansız?
İnsan kavrayışının çok ötesindeki bir süper zekayı kontrol edebilmek için, o süper zekanın analiz edilebilecek bir simülasyonu olması gerekiyor. Ama eğer insan zekası bunu kavrayamıyorsa, böyle bir simülasyon oluşturmak da imkansızlaşır.
Yapılan çalışmanın yazarları, bir yapay zekanın ne tür senaryolar üreteceğini anlayamadığımız bir durumda, “insanlara zarar verme” gibi kuralların belirlenemeyeceğini görüşünde. Bir bilgisayar sistemi programcılarımızın kapsamının üzerinde bir seviyede çalışmaya başladığında, artık ona sınır koyamayız.
Araştırmacılar 2021'de yayınlanan çalışmalarında "Bir süper zeka, tipik olarak 'robot etiği' başlığı altında incelenenlerden temelde farklı bir sorun teşkil eder. Bunun nedeni, bir süper zekânın çok yönlü olması ve dolayısıyla kontrol edilebilir olması bir tarafa, insanların anlayamayacağı hedeflere ulaşmak için çeşitli kaynakları harekete geçirme potansiyeline sahip olması” ifadelerine yer vermişti.

Ekip bu çalışmayı nasıl yaptı?
Ekibin çalışması kısmen, 1936'da Alan Turing tarafından ortaya atılan durdurma probleminden geliyor. Söz konusu problem, bir bilgisayar programının bir sonuca ve cevaba ulaşıp ulaşmayacağını (yani durup durmayacağını) ya da bir cevap bulmak için sonsuza kadar dönüp durup durmayacağını bilmeye odaklanıyor. Turing'in zekice bir matematikle kanıtladığı gibi, bazı belirli programlar için bunu bilmem mümkün olsa da yazılabilecek her potansiyel program için bunu bilmemizi sağlayacak bir yol bulmak, mantıksal olarak imkansız.
Bu da bizi süper zeki olması durumunda, olası tüm bilgisayar programlarını aynı anda hafızasında tutabilecek olan yapay zeka ile karşı karşıya bırakıyor.
Örneğin, yapay zekanın insanlara zarar vermesini ve dünyayı yok etmesini durdurmak için yazılan herhangi bir program bir sonuca ulaşabilir (ve durabilir) ya da ulaşmayabilir. Her iki şekilde de kesinlikle emin olmamız matematiksel olarak imkansızdır. Bu da onun kontrol altına alınamayacağı anlamına gelir.
Almanya'daki Max-Planck İnsani Gelişim Enstitüsü'nden bilgisayar bilimci Iyad Rahwan, "Aslında bu durum, sınırlama algoritmasını kullanılamaz hale getiriyor" diye konuştu.
Araştırmadan elde edilen sonuçlar 2021 yılında Journal of Artificial Intelligence Research dergisinde yayınlandı.
Yorum yazarak Gıda Hattı Topluluk Kuralları’nı kabul etmiş bulunuyor ve yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan yorumlardan Gıda Hattı hiçbir şekilde sorumlu tutulamaz.
Haber ajansları tarafından servis edilen tüm haberler Gıda Hattı editörlerinin hiçbir editöryel müdahalesi olmadan, ajans kanallarından geldiği şekliyle yayınlanmaktadır. Sitemize ajanslar üzerinden aktarılan haberlerin hukuki muhatabı Gıda Hattı değil haberi geçen ajanstır.
Şimdi oturum açın, her yorumda isim ve e.posta yazma zahmetinden kurtulun. Oturum açmak için bir hesabınız yoksa, oluşturmak için buraya tıklayın.
Yorum yazarak Gıda Hattı Topluluk Kuralları’nı kabul etmiş bulunuyor ve yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan yorumlardan Gıda Hattı hiçbir şekilde sorumlu tutulamaz.
Haber ajansları tarafından servis edilen tüm haberler Gıda Hattı editörlerinin hiçbir editöryel müdahalesi olmadan, ajans kanallarından geldiği şekliyle yayınlanmaktadır. Sitemize ajanslar üzerinden aktarılan haberlerin hukuki muhatabı Gıda Hattı değil haberi geçen ajanstır.