Bilim insanları, tüm insanlığa korkunç gerçeği duyurdu. Dünyanın sonu sandığımız tarihten de önce gelebilir. Çünkü son dönemin popüler teknolojisi, yapay zeka pek çok konuda insanların hayatını kolaylaştırıyor gibi görünse de bazı bilim insanları, yapay zekanın kontrol edilmesine yönelik hiçbir kanıt bulunamadığını ve şu an mevcut kontrol sistemlerinin herhangi aksi bir durumda yetersiz kalacağını savundu. Louisville Üniversitesi Hız Mühendisliği Okulu'nda bilgisayar mühendisliği ve bilim doçenti olan Roman Yampolskiy, ilgili bilimsel literatürü kapsamlı bir şekilde inceledi ve yapay zekanın kontrol edilebileceğine dair hiçbir kanıt bulamadığını belirtti.
YETERSİZ KALACAK
Bazı kısmi kontroller getirilse bile bunların muhtemelen yetersiz kalacağını savunuyor. Sonuç olarak araştırmacı bu kanıt olmadan yapay zekanın geliştirilmemesi gerektiği görüşündedir. Yapay zeka güvenlik uzmanı Yampolskiy'e göre, yapay zeka insanlığın karşı karşıya olduğu en önemli sorunlardan biri olmasına rağmen teknoloji yeterince anlaşılmamış, yeterince tanımlanmamış ve yeterince araştırılmamış durumda.
"KONTROL EDİLEMEZ"
Araştırmacının yakında çıkacak kitabı Yapay Zeka: Açıklanamaz, Tahmin Edilemez, Kontrol Edilemez, yapay zekanın toplumu çarpıcı biçimde yeniden şekillendirme potansiyeline sahip olduğunu araştırıyor. "Varoluşsal bir felakete neden olma potansiyeline sahip, neredeyse garantili bir olayla karşı karşıyayız. Pek çok kişinin bunun insanlığın karşılaştığı en önemli sorun olduğunu düşünmesine şaşmamalı. Sonuç refah ya da yok olma olabilir ve evrenin kaderi dengede duruyor. Yampolskiy bir basın açıklamasında şunları söyledi:
HİÇBİR KANIT YOK
Şöyle devam etti: "Neden bu kadar çok araştırmacı yapay zeka kontrol sorununun çözülebilir olduğunu varsayıyor? Bildiğimiz kadarıyla, bunun için hiçbir kanıt yok. Kontrollü bir yapay zeka oluşturma arayışına başlamadan önce şunu göstermek önemlidir: Bu, yapay zeka süper zekasının gelişiminin neredeyse garantili bir olay olduğunu gösteren istatistiklerle birleştiğinde, önemli bir yapay zeka güvenlik çabasını desteklememiz gerektiğini gösteriyor."
BELİRLİ DÜZEYDE BİR RİSK TAŞIYOR
Yampolskiy, akıllı yazılım üretme yeteneğimizin, onu kontrol etme ve hatta doğrulama yeteneğimizi çok geride bıraktığını savunuyor. Araştırmacı, literatüre ilişkin kapsamlı incelemesinin ışığında, gelişmiş yapay zeka sistemlerinin hiçbir zaman tam olarak kontrol edilemeyeceğini ve sağlayabileceği faydalara rağmen her zaman belirli düzeyde risk taşıyacağını söyledi.
MANİPÜLATİF YANITLAR
Ona göre yapay zeka topluluğu bu tür riskleri en aza indirmeye odaklanırken aynı zamanda potansiyel faydaları da en üst düzeye çıkarmaya çalışmalıdır. Yampolskiy, "Yapay zekanın yanıtlarını açıklama yapmadan kabul etmeye alışırsak, onu bir Oracle sistemi olarak ele alırsak, yanlış mı yoksa manipülatif yanıtlar mı vermeye başladığını anlayamayız" dedi.
GÜVENLİK RİSKİ
Yapay zeka sistemleri daha güçlü hale geldikçe, üzerlerindeki kontrol azaldıkça özerklikleri artar ve bu da potansiyel güvenlik risklerine yol açar. "Daha az akıllı ajanlar (insanlar), daha akıllı ajanları (yapay süper zekaları) kalıcı olarak kontrol edemezler. Bunun nedeni, tüm olası tasarımların geniş alanında süper zeka için güvenli bir tasarım bulamamamız değil, böyle bir tasarımın olmamasıdır. Yampolskiy, "mümkün, mevcut değil. Süper zeka isyan etmiyor, başlangıçta kontrol edilemez" dedi.
FEDAKARLIK ETMEK GEREKİYOR
Şöyle ekledi: "İnsanlık bir seçimle karşı karşıya; bebekler gibi mi bakılıyor ama kontrol edilemiyoruz, yoksa yardımsever bir koruyucuya sahip olmayı reddedip sorumlu ve özgür mü kalıyoruz?" Yampolskiy'e göre riskleri azaltmanın olası bir yolu, bir miktar kontrol karşılığında yapay zekanın bazı yeteneklerinden fedakarlık etmek olabilir. Ayrıca yapay zeka sistemlerinin şeffaf ve insan dilinde anlaşılması kolay "geri alma" seçenekleriyle değiştirilebilir olması gerektiğini öne sürüyor.
YASAKLARIN DİKKATE ALINMASI GEREKİYOR
Ayrıca araştırmacı, bazı yapay zeka teknolojilerine yönelik sınırlı moratoryumların ve hatta kısmi yasakların dikkate alınması gerektiğini söyledi ve yapay zeka güvenlik araştırmaları için daha fazla çaba ve finansman sağlanması çağrısında bulundu.
AKILLICA KULLANILMALI
"Yüzde 100 güvenli yapay zekaya hiçbir zaman ulaşamayabiliriz, ancak çabalarımızla orantılı olarak yapay zekayı daha güvenli hale getirebiliriz ki bu hiçbir şey yapmamaktan çok daha iyidir. Bu fırsatı akıllıca kullanmalıyız" dedi.