Politika

Robottan değil zekadan korkun: Bizden akıllısı çıkarsa kontrol elden gidebilir


Akıllı ev sistemleri, sürücüsüz arabalar, Siri… Yapay zeka (YZ) hızla gelişiyor. Genelde bilim kurgular YZ’yi insan benzeri özelliklere sahip robotlar olarak tasvir ediyor. Ancak YZ, Google’ın arama algoritmalarından IBM’in süper-bilgisayarı Watson’a ve otonom silahlara kadar her şeyi kapsayabiliyor.

Bugün bilinen YZ, yüz tanıma, internet araması gibi sınırlı görevleri yürüten zayıf yapay zeka. Araştırmacılar uzun vadede yapay genel zekayı (YGZ), yani güçlü YZ’yi hedefliyor. Başarırlarsa belirli görevlerde insanlardan daha iyi performans gösteren bugünkü zayıf YZ’nin yerini, insanları her türlü bilişsel görevde sollayacak güçlü YZ alacak.   


YZ güvenliği neden araştırılmalı?

Ekonomi, hukuk ve teknik konular (doğrulama, güvenlik ve kontrol) dahil birçok alandaki çalışmalar kısa vadede YZ’nin topluma yararını sürdürmeyi hedefliyor. 

Bilgisayarınızın ‘hack’lenmesi bile sinir bozucuyken, arabanızı, bindiğiniz uçağı, kalp pilinizi, elektrik şebekenizi, hatta otomatik ticaret sistemini bile kontrol eden YZ’nin istediklerinizi harfiyen uygulaması hem zor hem de güvenlik için çok mühim. Bir başka zorluk da ölümcül otonom silahlar üretme yarışını önlemek.  

Uzun vadeli endişelerse şu sorudan çıkıyor: ‘‘Güçlü YZ’yle beraber YZ sistemleri tüm bilişsel faaliyetlerde insanları geçerse ne olacak?’’ İngiliz matematikçi I. J. Good, 1965’te, ‘‘Daha zeki YZ sistemleri tasarlamak da bilişsel bir görevdir’’ demişti. Peki ya YZ kendini sürekli kişisel gelişim sürecine sokarak insan zekasını epey geride bırakacak bir zeka patlamasını tetiklerse? 

Tarihimizin ‘son olayı’ mı?

Tabii böyle bir YZ ‘devrim niteliğinde’ teknolojiler de icat ederek savaşı, hastalığı ve yoksulluğu ortadan kaldırmamıza yarayabilir. Dolayısıyla, YZ’nin icadı insanlık tarihinin en önemli olayı olur. Ancak bazı uzmanlar, YZ ‘süper-zeki’ olmadan, onun hedeflerini kendi hedeflerimizle tam uyumlu yapmayı öğrenmezsek bunun tarihimizin ‘son olayı’ olabileceğinden endişeli. 

Kimisi güçlü YZ’nin bir gün başarılıp başarılamayacağını sorgularken kimisi de ‘süper zeki’ YZ’nin insanlığa kesinlikle yararlı olacağından şimdiden emin. 

Future of Life Institute (FLI) iki ihtimalin de ayırdında, ama yapay zekanın kasıtlı veya kasıtsız büyük zarara yol açabilme potansiyelini de farkında. Yine de sıkı araştırmalar sayesinde gelecekteki olası kötü sonuçları önleyebilir ve zorluklara karşı hazır olabiliriz. Böylece tehlikelerden uzakta YZ’nin meyvelerini yeriz. 

YZ’nin tehlikeleri neler?

Çoğu araştırmacı ‘süper zeki’ YZ’nin sevgi ya da nefret gibi insani duygular sergileyemeyeceğini söylüyor. Yani YZ’nin kasıtlı iyi ya da kötü niyetli olması için sebep yok. Bu yüzden araştırmacıların aklında YZ nin risklerine ilişkin olası iki senaryo var:

1- YZ epey yıkıcı bir görev için programlanabilir: Mesela öldürmek amacıyla üretilen otonom silahlar. Bu silahlar yanlış kişilerin elinde kolaylıkla kitlesel ölümlere yol açabilir. Dahası ‘YZ silahlanma yarışı’ esnasında kendimizi bir anda büyük yıkımlara yol açabilecek bir ‘yapay zekalar savaşı’nda bulabiliriz. Çünkü bu silahların tasarımı kolayca ‘aç/kapa’ yapmayı hayli zorlaştırıyor. Ancak düşmana kurulan bu tuzak, insanlığın kontrolü kaybetmesiyle de sonuçlanabilir. Bugünkü ‘zayıf YZ’ de bu riski taşıyor ama YZ’nin zekası ve özerkliği arttıkça tehlike de artacak.   

2- YZ faydalı görevler için programlansa bile amacına ulaşmak için yıkıcı yöntemler geliştirebilir: Bu senaryo ise kendi hedeflerimizle YZ’ninkilerin tam olarak uyuşmadığı her an yaşanabilir. İşin kötüsü, iki hedefi her an tamamen aynı tutmak çok zor. Diyelim akıllı arabanıza sizi en hızlı şekilde havalimanına götürmesini söylediniz. YZ komutu aldı ve gerçekten kısa sürede havalimanına vardınız. Ancak peşinizde polislerin, üstünüzdeyse kusmuk lekelerinin olmayacağının garantisi yok. Sonuçta nasıl yapması gerektiğini değil, ne yapması gerektiğini söylediniz. 

Ya da diyelim YZ’yi iddialı bir jeomühendislik projesiyle görevlendirdiniz ve yan etkisi ekosisteme zarar vermek oldu. Üstelik insanların onu durdurmaya yönelik girişimlerini karşı koyulması gereken bir tehdit olarak algıladı. Ne olacak?    

Örneklerden de anlaşılacağı gibi asıl kaygılandıran gelişmiş YZ’nin kötü niyetli olup olmayacağı değil, yeterliği. ‘Süper zeki’ YZ’nin ne olursa olsun hedeflerini başarıyla tamamlayacağından eminiz. Fakat bizim hedeflerimizden biraz bile şaşması başımıza bela açar.

Bir de şöyle bakalım: Muhtemelen bile isteye karıncaları ezen bir karınca düşmanı değilsiniz. Peki ya bir yeşil enerji projesinde hidroelektrik santralini kurmaktan sorumluysanız ve sular altında kalacak bölge karınca yuvalarıyla doluysa? Evet, karıncalara yazık olacak…  

YZ’ye ilişkin güvenlik araştırmalarının ana hedefi; insanlığı o karıncaların kaderinden uzak tutmak. 

YZ güvenliğine ilginin kaynağı ne?

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates gibi teknoloji ve bilim alanındaki diğer birçok büyük isim son zamanlarda medya ve açık mektuplar yoluyla YZ’ye ilişkin endişelerini dile getirdi. Tartışmalara seçkin YZ araştırmacıları da katıldı ve konu bir anda manşetlere taşındı.

Güçlü YZ’nin tasarlanabileceği fikri uzun süredir bilim kurgudan ibaretti ve gerçekleşmesinin yüz yıllar alacağı düşünülüyordu. Ancak son atılımlar birkaç sene önceye kadar güçlü YZ icadının on yıllar alacağını söyleyen uzmanları da şaşırttı. 

Artık herkes ‘süper zeka’nın gelme ihtimalini ciddi ciddi düşünüyor. Bazı uzmanlar hala insan düzeyinde bir YZ’nin yüzyıllar alacağını tahmin ediyor. Ancak 2015’teki Puerto Rico Konferansı’ndaki birçok YZ araştırmacısı 2060’ı işaret etti. Yine de gerekli güvenlik araştırmalarını tamamlamak on yıllar alabileceği için en mantıklısı buna bir an önce başlamak. 

Evet… YZ’nin herhangi bir insandan çok daha zeki olma potansiyeli var. Bu yüzden onun nasıl davranacağını öngörmenin kesin yolu yok. Bu konuda geçmiş teknolojik gelişmeleri de temel alamayız çünkü daha önce, isteyerek ya da yanlışlıkla, zekası insanı aşan bir şey yaratmadık. 

En iyi cevap insan evriminde saklı

‘Neyle karşılaşacağız?‘ sorusunun en iyi cevabı insan evriminde saklı. Bugün gezegeni kontrol ediyorsak bunu güçlü, hızlı ya da büyük olmamıza değil en akıllı oluşumuza borçluyuz. İşte asıl soru: Bizden akıllısı çıkarsa kontrolün bizde kalacağından emin miyiz?

FLI’ye göre teknolojinin durmaksızın gelişen gücüyle onu yönetebilme bilgeliğimiz yarışıyor. Ve yarışı kazandığımız sürece uygarlığımız gelişmeyi sürdürecek. YZ teknolojisine karşı yarışı kazanmanın en iyi yolu ise gelişim hızını düşürmek yerine bilgeliğimizi artırmak. Bu da YZ güvenlik araştırmalarını desteklemekten geçiyor.  

Gelişmiş YZ hakkında doğru bilinen yanlışlar

YZ’nin geleceği ve insanlığa olası etkilerine ilişkin çekici komplo teorileri ve söylentiler var. Birçoğu şehir efsanesinden ibaret.

Uzmanların aynı fikirde olmadığı ilgi çekici birçok tartışma da var: YZ’nin iş dünyasına etkisi ne olacak? İnsan düzeyinde bir YZ ne zaman tasarlanacak? Korkmalı mı, korkmamalı mı?

İşte bazı doğru bilinen yanlışlar.

Şehir efsaneleri

Akla gelen ilk yanılgı dolu soru şu: ‘‘Makinelerin insan zekasının yerini alması ne kadar sürecek?’’ Sanki yanıtı bal gibi biliyoruz da…

Bir efsaneye göre bu yüzyıl içinde insanüstü yapay zekaya ulaşacağız. Fakat tarih teknolojik fantezilerle dolu: Hani füzyon enerji santralleri, nerede söz verilen uçan arabalar! Geçmişte YZ, kurucuları tarafından bile defalarca abartıldı. 

Örneğin Marvin Minsky, Nathaniel Rochester, Claude Shannon ve ‘yapay zeka’ ismini bulan John McCarthy, ilk bilgisayarlarla iki ayda yapılabileceklere ilişkin epey iyimserdi. Nitekim şu mektubu kaleme almışlardı: ‘‘1956 yazında Darthmouth College’da yapay zeka üzerine 10 kişiyle iki aylık bir çalışma yürütülmesini öneriyoruz. Makinelerin dil kullanmayı, soyutlamalar ve kavramlar oluşturmayı,‘insani sorunlar’ı çözmeyi ve kendi kendisini geliştirmeyi nasıl öğrenebileceği üzerine çalışılsın. Eğer özenle seçilmiş bilim insanları yaz boyu birlikte çalışırsa, bu meselelerin en az birinde önemli ilerlemeler olur.’’ 

Tekno-şüpheci tahminlerin geçmişi

Popüler bir karşı-efsane de bu yüzyıl içinde süper insan YZ’yi tasarlayamayacağımız. Araştırmacıların süper insan YZ’ye uzaklığımıza ilişkin geniş bir tahmin aralığı var. Ancak bu tür tekno-şüpheci tahminlerin geçmişi de düşünüldüğünde, bu yüzyıl için olasılığın sıfır olduğunu söylemek yanlış olur. 

Mesela zamanının en başarılı nükleer fizikçisi Ernest Rutherford, 1933’te nükleer enerji tartışmaları için ‘aptalca’ demişti. Ve henüz 24 saat bile geçmeden Leo Szilard nükleer zincir reaksiyonunu icat etmişti. 1956’da kraliyet astronomu Richard Woolley de gezegenler arası yolculuk için ‘zırva’ diyordu. 

Bu tür efsanelerin en ucuysa süperinsan YZ’nin fiziksel olarak imkansız olduğu için hiçbir zaman tasarlanamayacağı. Ancak fizikçiler, beynin güçlü bir bilgisayar gibi çalışmak üzere düzenlenmiş kuarklardan ve elektronlardan oluştuğunu ve bizi daha akıllı bir şey oluşturmaktan alıkoyan hiçbir fizik yasasının bulunmadığını biliyor.  

YZ araştırmacılarına anketlerle kaç yıl sonra en az yüzde 50 olasılıkla insan düzeyinde bir YZ’ye sahip olabileceğimiz defalarca soruldu. Tüm bu anketler aynı sonuca ulaştı: ‘‘Uzmanlar aynı fikirde olmadığı için cevabı bilemiyoruz.’’ Benzer bir anket 2015’te Puerto Rico Konferansı’nda yapıldı ve ortalama cevap 2045 çıktı. Ama yüzlerce yıl sonrasını işaret eden araştırmacılar da vardı.

Bir başka efsane: “Birkaç yıla kalmaz gelir” diyenler YZ’den endişelenen insanlar. Gerçekte YZ’den endişelenenlerin çoğu, daha en az onlarca yıl olduğunu düşünüyor. Yine de tedbiri elden bırakmıyorlar ve ‘‘Bu yüzyılda gerçekleşmeyeceğinden yüzde yüz emin olamadığımıza göre güvenlik araştırmalarına başlamak akıllıca’’ diyorlar. Çünkü insan düzeyindeki YZ’ye ilişkin güvenlik sorunları hayli karmaşık ve çözülmesi onlarca yıl alabilir.

Bir diğer yanılgı: YZ’den endişelenenler ve güvenlik araştırmalarını savunanlar konu hakkında pek bilgisi bulunmayan birtakım ‘çılgın’lar. Aslında insanların bu araştırmalara küçük de olsa bir destek vermek için risklerin ciddiyetine ikna olmasına gerek yok. Sadece risklerin göz ardı edilemez olduğuna ikna edilseler yeter. Yangın ihtimalini görmezden gelmeyip konut sigortası yaptırmak gibi…

Medyanın etkisi

YZ güvenlik tartışmalarının bu denli karmaşıklaşmasında medyanın da parmağı olabilir. ‘Yaklaşan kıyamet’i duyurmak amacıyla alakasız alıntıların kullanıldığı haberler, daha detaylı ve ılımlı yazılardan fazla tıklanma alıyor. Sonuçta korku satıyor

Böylece birbirinin fikrini yalnızca medyadaki alıntılardan öğrenen iki kişi, gerçektekinden daha çok ayrıştıklarını düşünüyor. Örneğin, Bill Gates’in fikrini yalnızca bir İngiliz gazetesindeki alıntılardan öğrenen bir tekno-şüpheci, yanılgıyla Gates’in süper zekanın yakın olduğuna inandığını düşünebiliyor.

Süper insan YZ’nin riskleri hakkında efsaneler

Çoğu YZ araştırmacısı defalarca gördüğü şu manşete göz devirir: ‘Stephen Hawking uyarıyor: Robotların yükselişi insanlık için felaket olabilir.’ Bu tür yazılar bir de öfke dolu bakışlarla silahını doğrultmuş robot fotoğrafıyla süslenir. Mesaj bellidir: Bilinç kazanan veya şeytanileşen robotların ayaklanıp bizi öldürmesinden korkmalıyız. Tekrar, ‘korku satar.’ Tabii, bu yazılar YZ araştırmacılarını endişelendirmeyen bir senaryoyu kısa ve öz şekilde özetlediği için bir bakıma işlevsel de. 

Bu tip senaryolar üç ayrı yanılgıyı harmanlıyor: Bilinç, kötülük ve robotlarla ilgili endişeler. 

Arabayla yola çıktığınızı düşünün. Renkleri, sesleri, şekilleri ve birçok şeyi kendi perspektifinizden, subjektif olarak deneyimleyeceksiniz. Peki sürücüsüz bir araç subjektif deneyime sahip mi? Bilincin gizemi başlı başına ilginç ama YZ riskiyle alakası yok. Nitekim bizi ‘süper zeki’ YZ’nin ne yaptığı etkileyecek, subjektif olarak ne hissettiği değil.

Makinelerin şeytanileşeceği ve ‘kötülük makineleri’ne dönüşeceği korkusu da bir başka yanılgıdan ibaret. Mevzubahis kötü niyet değil, yeterlik. ‘Süper zeki’ YZ ne olursa olsun hedefe ulaşmada çok başarılı olduğundan asıl dert, bu hedeflerin bizimkilerle uyumlu olup olmadığı. 

Ayrıca bilinç yanılgısı makinelerin hedefleri bulunmayacağı efsanesinden çıkıyor. Evet, makinelerin hedefleri var ama bunlar hedef odaklı davranışlardan ibaret. Mesela ısı güdümlü füze en kısa yoldan hedefi vurur ve bütün hedefi bununla sınırlıdır. 

Eğer hedefleri sizinkiyle uyuşmayan bir makineden tırsıyorsanız, sizi korkutan tam da onun bu sınırlı hedefidir, makinenin bilinci veya duygusal bir amacı olup olmadığı değil. Isı güdümlü füze size yönelmiş olsaydı, ‘‘Korkmuyorum çünkü makinelerin hedefi olamaz’’ diye bağıramazdınız herhalde.

Gezegende bizden akıllısı çıkarsa kontrolü kaybedebiliriz

Medya işi karikatürleştirerek gözleri kan çanağına dönmüş ürkütücü metal canavarlar yaratsa da asıl endişe robotlardan değil, zekanın kendisinden kaynaklanıyor. Özellikle de hedefleri bizimkilerle uyumsuz zekadan. Çünkü bu tür uyumsuz süper zekanın bize dert açması için robotik bir bedene ihtiyacı yok. Kendi yeteneklerini geliştirip yalnızca bir internet bağlantısıyla finansal piyasaları çökertebilir, insan araştırmacıları geride bırakabilir ve anlayamayacağımız silahlar geliştirebilir. Hatta robot yaratmak fiziksel olarak imkansız bile olsa süper zeki ve süper zengin YZ, para veya manipülasyon yoluyla birçok insana istediğini yaptırabilir.  

Bu robot yanılgısı da makinelerin insanları kontrol edemeyeceği efsanesinden çıkıyor. Ancak kontrolü zeka sağlar: Kaplanları daha güçlü değil daha zeki olduğumuz için kontrol edebiliyoruz.

Kısa ve öz: Gezegende bizden akıllısı çıkarsa kontrolü kaybedebiliriz. 

Future of Life’tan Emre Zor tarafından Türkçeleştirilmiştir. (@zor_emre01). Özgün yazıya bu bağlantıdan ulaşabilirsiniz.




Apsny News

İlgili Makaleler

Bir yanıt yazın

Başa dön tuşu