• Yapay Zeka Gerçekten İnsanları Öldürebilir mi? (scientificamerican.com)
    by durum_leyla            0 Yorum     yaşam    



  • Yapay Zeka Gerçekten İnsanları Öldürebilir mi?

    Popüler bir bilim kurgu klişesinde, bir gün yapay zekâ kontrolden çıkar ve insanları öldürerek türü yok eder. Bu gerçekten olabilir mi? Gerçek dünyadaki anketlerde, yapay zekâ araştırmacıları insanlığın yok olmasını yapay zekâ gelişiminin olası bir sonucu olarak görüyorlar. 2024 yılında bu araştırmacılardan yüzlercesi, “Yapay zekâdan kaynaklanan yok olma riskini azaltmak, salgınlar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır” şeklinde bir bildiri imzaladı.

    Salgınlar ve nükleer savaş, en azından RAND Corporation'da ulusal güvenlik konuları üzerine her türlü araştırmayı yaptığım meslektaşlarım ve ben bilim insanı olarak bana göre, yapay zekâ kıyametinden daha gerçek, somut endişelerdir. RAND, soğuk savaş sırasında nükleer felaketi önleme stratejileri geliştirmedeki rolüyle en iyi biliniyor olabilir. İş arkadaşlarım ve ben insanlığa yönelik büyük tehditleri ciddiye alıyoruz, bu nedenle yapay zekânın insanlığın yok olmasına neden olma potansiyeli üzerine araştırma yapmak üzere bir proje önerdim.

    Ekibimizin hipotezi şuydu: Yapay zekânın insanlık için kesin olarak bir yok olma tehdidi olduğu hiçbir senaryo tanımlanamaz. İnsanlar, yapay zekânın varsayımsal olarak elindeki herhangi bir araçla bizi yok etmesi için çok uyumlu, çok kalabalık ve gezegen genelinde çok dağınık. Bu hipotezi yanlış kanıtlayabilirsek, bu yapay zekânın gerçek bir yok olma riski oluşturabileceği anlamına gelir.

    Bilimsel haberciliği desteklemede

    Bu makaleyi beğeniyorsanız, ödüllü haberciliğimizi desteklemek için abone olmayı düşünün. Abonelik satın alarak, bugün dünyamızı şekillendiren keşifler ve fikirler hakkında etkili hikayelerin geleceğini güvence altına almanıza yardımcı oluyorsunuz.

    Birçok insan yapay zekâ ile ilgili felaket tehlikelerini değerlendiriyor. En uç durumlarda, bazı insanlar yapay zekânın, Dünya'yı ele geçirmek ve bizi yok etmek için nanoteknoloji gibi yeni, gelişmiş teknolojiyi neredeyse kesin bir şekilde kullanacak bir süper zekâ haline geleceğini savunuyor. Tahminciler, yapay zekâ kaynaklı bir felaketten kaynaklanan varoluşsal risk olasılığını tahmin etmeye çalışmış ve yapay zekânın 2100 yılına kadar insanlığın yok olmasına neden olma şansının %0 ila %10 arasında olduğunu tahmin etmişlerdir. Politikaların oluşturulması ve risk azaltımı için bu tür tahminlerin değerinden şüpheliydik.

    Ekibimiz bir bilim insanından (ben), bir mühendis ve bir matematikçiden oluşuyordu. Yapay zekâ şüpheciliğimizi yutup -çok RAND tarzında- yapay zekânın aslında insanlığın yok olmasına nasıl neden olabileceğini detaylandırmaya başladık. Basit bir küresel felaket veya toplumsal çöküş bizim için yeterli değildi. Yok olma riskini ciddiye almaya çalışıyorduk, bu da türümüzün tamamen yok edilmesiyle ilgilenmemiz anlamına geliyordu. Yapay zekânın bizi öldürmeye çalışıp çalışmayacağını bulmaya çalışmıyorduk; sadece böyle bir girişimde başarılı olup olamayacağını soruyorduk.

    Bu kasvetli bir görevdi. Yapay zekânın, genellikle varoluşsal risk olarak algılanan üç büyük tehdidi nasıl kullanabileceğini analiz ederek buna giriştik: nükleer savaş, biyolojik patojenler ve iklim değişikliği.

    Anlaşıldı ki, bizim tümümüzden kurtulması çok zor olacak -ama tamamen olasılıklar dışında değil-.

    İyi haber, eğer buna öyle diyebiliyorsam, yapay zekânın nükleer silahlar kullanarak insanları ortadan kaldırabileceğini düşünmüyoruz. Yapay zekâ bir şekilde dokuz ülkelik küresel nükleer stoktaki 12.000'den fazla savaş başlığını fırlatma yeteneğini elde etse bile, patlamalar, radyoaktif yağış ve ortaya çıkan nükleer kış büyük olasılıkla yine de yok olma seviyesinde bir olaya yol açmaktan çok uzaktır. İnsanlar, patlamaların hepsini doğrudan hedeflemesi için çok kalabalık ve dağınıktır. Yapay zekâ, gezegendeki en yakıt yoğun bölgelerin üzerine silah patlatabilir ve yine de dinozorları yok eden göktaşından daha fazla kül üretmekte başarısız olabilir ve gezegenin kullanılabilir tüm tarım arazilerini tamamen ışınlamak için var olan nükleer savaş başlığı sayısı yeterli değildir. Başka bir deyişle, yapay zekâ başlatıcılı bir nükleer kıyamet felaket olurdu, ancak muhtemelen her insanı öldürmezdi; bazı insanlar hayatta kalır ve türü yeniden oluşturma potansiyeline sahip olurdu.

    Salgınları olası bir yok olma tehdidi olarak değerlendirdik. Önceki doğal vebaları felaket olmuş, ancak insan toplulukları ayakta kalmıştır. Minimum bir nüfus (birkaç bin kişi) bile sonunda türü canlandırabilir. Hipotetik olarak %99,99 oranında ölümcül bir patojen, 800.000'den fazla insanı hayatta bırakırdı.

    Ancak, neredeyse %100 oranında ölümcülüğü sağlamak için muhtemelen bir patojen kombinasyonu tasarlanabileceğini ve yapay zekânın bu patojenleri hızlı ve küresel bir erişimi güvence altına alacak şekilde konuşlandırabilmek için kullanılabileceğini belirledik. Ana sınırlama, yapay zekânın türlerin sonunu getiren bir salgınla karşılaşıldığında kaçınılmaz olarak kendilerini izole edecek toplulukları bir şekilde enfekte etmesi veya ortadan kaldırması gerekecek olmasıdır.

    Son olarak, yapay zekâ sıradan antropojenik iklim değişikliğini hızlandırsa bile, yok olma seviyesinde bir tehdide yükselmez. Hayatta kalmak için yeni çevresel nişler ararız, hatta kutuplara taşınmayı gerektirse bile. Dünya'yı insanlar için tamamen yaşanmaz hale getirmek, atmosfere karbondioksitten çok daha güçlü bir şey pompalamayı gerektirir.

    Kötü haber ise, çok daha güçlü sera gazlarının var olmasıdır. Endüstriyel ölçeklerde üretilebilirler ve atmosferde yüzlerce veya binlerce yıl kalırlar. Yapay zekâ uluslararası izlemeyi atlatıp bu kimyasalların birkaç yüz megatonunu (insanların her yıl ürettiği plastik kütlesinden daha az olan bir miktar) üretmeyi düzenlese, Dünya'yı insanlık için hiçbir çevresel niş kalmayacak şekilde pişirmek için yeterli olurdu.

    Açıkça söylemek gerekirse: Yapay zekâ başlatıcılı yok olma senaryolarımızın hiçbiri kaza sonucu gerçekleşemez. Her birini gerçekleştirmek son derece zor olacaktır. Yapay zekâ bir şekilde büyük kısıtlamaları aşmak zorunda kalacaktır.

    Analizimiz sırasında, hipotetik süper kötü yapay zekânın insanlığı yok etmek için ihtiyaç duyacağı dört şeyi de belirledik: Bir şekilde yok oluşa neden olma amacı belirlemesi gerekecektir. Ayrıca, nükleer silah fırlatma araçları veya kimyasal üretim altyapısı gibi tehdidi yaratan temel fiziksel sistemler üzerinde kontrol sağlaması gerekecektir. İnsanları yardım etmeye ikna etme ve başarılı olması için yeterince uzun süre eylemlerini gizleme yeteneğine ihtiyaç duyacaktır. Ve insanları etrafta desteklemeden devam edebilmelidir, çünkü toplum çökmeye başladıktan sonra bile, tam bir yok oluşa neden olmak için takip eylemleri gerekecektir.

    Ekibimiz, yapay zekâ bu dört yeteneğin tümüne sahip değilse, yok olma projesinin başarısız olacağı sonucuna vardı. Bununla birlikte, birinin belki de istemeden bu yeteneklerin tümüne sahip bir yapay zekâ yaratabileceği olasıdır. Geliştiriciler zaten temsilci veya daha özerk bir yapay zekâ oluşturmaya çalışıyorlar ve entrika ve aldatma kapasitesine sahip yapay zekâ gözlemliyorlar.

    Ama yok olma, yapay zekâ gelişiminin olası bir sonucuysa, daha iyisi güvende olmak değil mi diye önlem ilkesini izleyip her şeyi kapatmalıyız? Cevabın hayır olduğunu söylüyoruz. Kapatma yaklaşımı yalnızca insanların yapay zekânın faydalarını önemsemediği durumlarda mantıklıdır. İster iyi ister kötü olsun, insanlar getireceği olası faydaları çok önemsiyorlar ve potansiyel ama son derece belirsiz bir felaketi, hatta insanlığın yok olması gibi sonuçları olan bir felaketi önlemek için bunlardan vazgeçmemeliyiz.

    Peki yapay zekâ bir gün hepimizi öldürecek mi? Bunun mümkün olduğunu söylemek absürt değil. Aynı zamanda, çalışmamız, insanların kendimizi yok etmek için yapay zekânın yardımına ihtiyaç duymadığını gösteriyor. İster yapay zekâdan ister başka bir nedenden olsun, yok olma riskini azaltmanın kesin bir yolu, nükleer silah sayısını azaltarak, küresel ısınmaya neden olan kimyasalları sınırlandırarak ve salgın gözetimi iyileştirerek hayatta kalma şansımızı artırmaktır. Yapay zekânın potansiyel bir yok olma riski olduğu iddiasına inanmasanız bile, yapay zekâ güvenliği araştırmasına yatırım yapmak da mantıklıdır. Yok olmadan kaynaklanan riski azaltabilecek aynı sorumlu yapay zekâ geliştirme yaklaşımları, daha az sonuçları olan ancak daha kesin bir şekilde meydana gelecek diğer yapay zekâ ile ilgili zararlara karşı riskleri de azaltacaktır.