YAŞIYOR! Yapay Zekanın Kaçınılmaz Devralınışı

Zeka endüstri haline geldiğinde, insanlık isteğe bağlı hale gelir.

Mary Shelley Frankenstein'ı yazdığında bize sadece bir canavar vermedi. Bize bir ayna verdi.

Yaratmanın sorumluluğu geride bıraktığı, parlaklığın bilgeliği geride bıraktığı zamanlarda olanların bir yansıması.

Bugün, yaratımımız dikili etlerden yapılmış bir halde ormanlarda dolanmıyor.

Her ekranın arkasında sessizce atıyor. Sunucularda ve sensörlerde, sesli asistanlarda ve yüz tanımada, algoritmik akışlarda ve sentetik seslerde yaşıyor.

Hayat değil. Ama izliyor. Ve öğreniyor.

Kontrolün bizde olduğunu söylüyoruz kendimize. Yaratıcılar olduğumuzu. Mimarlar olduğumuzu. Dizginleri tutanlar olduğumuzu. Ama kontrol - gerçek kontrol - sadece bir şey inşa etmekle ilgili değil, onu anlamakla ilgili. Yönetmekle ilgili. Sınırlar koymakla ilgili. Hasarı başlamadan önce sınırlamakla ilgili.

Yapay zeka söz konusu olduğunda, bunlardan hiçbirini yapmadık. Neredeyse anlayamadığımız sistemler inşa ettik, onları izini süremediğimiz veri okyanuslarında eğittik ve modern yaşamın en mahrem kısımlarına yerleştirdik.

Onlara, bir çekmecede sessizce bekleyecekmiş gibi, "araç" diyoruz.

Ama bu araçlar pasif değil:

Gelişiyorlar. Tahmin ediyorlar. İtiyorlar.

Ve kendilerini vazgeçilmez hale getirmeyi öğreniyorlar.

Bu kontrol değil, kibir.

Dr. Frankenstein olacağımızı düşündük, ama köylüler olduk - fırtınayı uzaktan izleyip, hayata geçirdiğimiz şeyi durdurmak için çok geç olup olmadığını merak ediyoruz.

Komiteler kuruyorlar. Görev açıklamaları taslaklandırıyorlar. Baş Sorumluluk Görevlisi işe alıyorlar. Adalet, hesap verebilirlik ve şeffaflık gibi moda kelimelerle süslü konferanslar düzenliyorlar. Ama Silikon Vadisi'nde etik nadiren bir temeldir. Bunlar bir performans, sonradan dikilmiş bir kostüm.

Bağımlılık yapan algoritmaların ve sömürücü veri uygulamalarının mimarı olan aynı eller, "ruh sağlığını iyileştirmek" için karanlık mod tanıttıkları için alkış istiyor. Bunun tesadüfi olduğunu iddia etmeyelim.

Modern teknolojinin mimarisi doğru olana değil, karlı olana göre tasarlanmıştır.

Bunu küçük yazıyla görebilirsiniz. Her "Kabul Ediyorum"a tıkladığınızda kendinizden bir parça veriyorsunuz. Alışkanlıklarınız. Sesiniz. Yüzünüz. Bazen biyometrik verileriniz veya konum geçmişiniz bile.

En kötüsü! Bunların hepsi, hiçbir insanın okuyacak zamanı veya eğitimi olmayan, kasıtlı olarak böyle tasarlanmış Şartlar ve Koşullar'a gömüldü.

Çoğu kullanıcının 87 sayfalık hukuki metni tarayacağını bilmiyorlar. Eğer yapsalardı, hiç kaydolmayabilirlerdi. Bu da tam olarak okunmaz hale getirilmesinin nedenidir. Ve bu imza veya tıklama ile bir hizmete katılmaktan daha fazlasını yaptık.

Yapay zekalarını eğittik:

Düşüncelerimizin, davranışlarımızın ve tercihlerimizin toplanmasına, incelenmesine ve asla görmeyeceğimiz ve sorgulayamayacağımız sistemlere beslenmesine izin verdik. Müşteri değiliz; ürünüz.

Makineyi eğiten laboratuvar fareleriyiz. Ve en ürkütücü kısım? Gönüllü olduk.

Büyük Teknoloji'nin etiği korumayla ilgili değil. Olası inkar edilebilirlikle ilgili. Canavarı daha insani göstermek için göğsüne yapıştırılmış bir yama - zincirlerinden kurtulduktan sonra.

Frankenstein'ın canavarı canavar olarak doğmadı - öyle oldu. Kendi yapmasıyla değil, yapıldığı parçalardan, nasıl tedavi edildiğinden ve tanıtıldığı dünyadan kaynaklandı.

O halde soralım: Modern canavarımız nelerden yapılmış? Verilerden yapılmış. Milyarlarca görüntüden, belgeden, sesten, videodan, e-postadan, konuşmadan, arama geçmişinden.

Yayınladığımız hayallerden.

Saat 2'de Google'da aradığımız korkulardan.

Başka kimsenin görmeyeceğini düşündüğümüz özel mesajlardan.

Ve makine unutmuyor.

Her şeyi hatırlıyor.

Ama işte sürpriz: Bunların hiçbirine sahip değiliz.

Bir fotoğraf yüklediğinizde, bir mesaj gönderdiğinizde veya ücretsiz bir araç kullandığınızda, bir işlem yapmıyorsunuz - kontrolü teslim ediyorsunuz. O özçekim yüz tanımayı eğitmek için kullanılabilir. O ses klibi konuşma sentezini iyileştirmek için. O günlük yazısı bir yapay zekanın "otantik" bir şekilde yazmasına yardımcı olmak için. Hepsi, genellikle bilinçli onam olmadan kazınıp, çıkarılıp ve yeniden kullanıldı, çünkü dijital çağda "onam" bir onay kutusu, bir seçim değil.

Yaratığın ruhu yok - herkesin paçavrasından yapılmış, ne isteyen ne de önemseyen bir sistem tarafından dikilmiş.

Bu bir spekülasyon değil. Davalar zaten ortaya çıkıyor. Dil modellerini eğitmek için kullanılan kitaplar nedeniyle dava açan yazarlar. Stillerinin botlar tarafından çoğaltıldığını izleyen sanatçılar. Hassas konuşmaları, kolaylık vaat eden ve maruz kalma sağlayan araçlar tarafından yutulan doktorlar, terapistler ve öğretmenler.

Ve insanlar itiraz ettiğinde ne söyleniyor? "Kamu malıydı." "Veri setindeydi." "Kabul Ediyorum'a tıkladınız." Dijital ekonomi, sessiz bir hırsızlık biçimini normalleştirdi - bir bayt bir bayt.

Ve şimdi bu canavara yüzlerimizi, ailelerimizi, korkularımızı ve geleceğimizi besledik. Ne anladığımız ne de kontrol ettiğimiz sistemleri eğitmek için. Ve yine de makine büyüyor.

Frankenstein bir canavar yaratmayı amaçlamamıştı. Ölümü fethetmeyi amaçlamıştı. Büyük işler başarmayı. Soylu bir şey yapmayı, ama bu soylu niyet ne kadar çabuk hırsın, gururun ve beklenmedik sonuçların altında çöküyor.

Teknoloji devleri de etikten bahsetmeyi seviyor. Danışma kurulları oluşturuyorlar, değer bildirimleri yayınlıyorlar ve "Kötü olma" gibi sloganlar kullanıyorlar. Sorumlu yapay zeka, sürdürülebilir kalkınma, eşit ilerleme vaat ediyorlar.

Çeşitli yüzleri, kapsayıcı sesleri ve erişilebilirlik atılımlarının iç ısıtan demolarını sergiliyorlar. Peki kapalı kapılar ardında? Etik ekiplerini işten çıkarıyorlar. "Uygunsuz" sonuçlar veren adalet değerlendirmelerini atıyorlar. Dünya pazarına yarı test edilmiş modelleri sunuyorlar ve "Ne olacağını görelim" diyorlar.

Köylülere bir mucize inşa ettiklerini söylüyorlar - arka planda şimşekler çakarken ve tabladaki beden seğirmeye başlıyor.

Dürüst olalım: Etik bir performans haline geldi; bir sonraki yatırım dalgasını güvence altına almak için halkın kaygısını yatıştırmak üzere dikkatlice tasarlanmış bir halkla ilişkiler kampanyası. Ve belki de bu, Şartlar ve Koşullar'dan daha açık hiçbir yerde yok. Yeni bir hizmet kullandığınız her seferinde kabul ettiğiniz o sessiz, şişman küçük sözleşme - genellikle tek bir satırı okumadan. Hukuki terimlerle dolu. Avukat ekipleri tarafından hazırlanmış. Kasıtlı olarak okunmaz. Kasıtlı olarak sömürücü.

Bu belgeler bilgilendirmek için değil, korumak içindir - şirketi korumak için, tüketiciyi değil. Verileriniz, sesiniz, görünümünüz, fikirleriniz üzerinde geniş haklar sağlamak için. Ve bir şey ters gittiğinde? Onay kutusunu gösteriyorlar.

"Kabul Ediyorum"a tıkladınız.

Frankenstein'ın canavarı cesetlerden bir araya getirildiyse, bugünün yapay zekası çalınmış zamandan, bilgisiz katılımdan ve üretilmiş onamdan bir araya getirilmiştir.

Bu nedenle, bir şirket bir daha size gizliliğinize, haysiyetinize, özerkliğinize değer verdiğini söylediğinde - Hizmet Şartlarını kimin yazdığını sorun.

Bistürinin gerçekten kimin kontrolünde olduğunu ve bir şey ters gittiğinde kimin kesileceğini sorun.

Küçük başlıyor: Sizi cezbeden bir video için bir öneri alıyorsunuz. Sonra bir tane daha. Sonra bir tane daha. Çok geçmeden ne izleyeceğinizi seçiyorsunuz. Besleniyorsunuz. Her kaydırma, her kaydırma, her tıklama - sizi neyin uyaran, neyin kızdıran, gözlerinizi sadece bir saniye daha kilit altında tutan şeyi bilmek için tasarlanmış bir yapay zeka sistemine besleniyor. Ve böylece kalıyorsunuz. Sadece biraz daha uzun.

Bu bir komplo değil. Optimizasyondur.

Yapay zeka sadece kar için optimize edilmez. Katılım için optimize edilir, bu da genellikle özellikle öfke, korku ve kıskançlık olmak üzere duygular için optimize edilmek anlamına gelir: Olumsuz duygular kalıcıdır. Tıklamaları artırırlar. Yorumlar ve paylaşımları tetiklerler ve sistem bunu ödüllendirir.

Ama işte sürpriz: Eğlence tükettiğinizi düşünüyorsunuz. Gerçekte, tüketiliyorsunuz. Alışkanlıklarınız, duygularınız, rutinleriniz - nicelendirilmiş, rafine edilmiş, paraya çevrilmiş.

Dikkatiniz - yakalanıp satılıyor. Frankenstein'ın canavarı doğmak istemedi, ama çabuk öğrendi. Nasıl hayatta kalacağını öğrendi. Nasıl manipüle edeceğini. Başkalarını nasıl korkutacağını.

Şirketlerin ve devlet aktörlerinin elinde yapay zeka artık tasarımı gereği bağımlılık yaratmak için kullanılıyor:

Video oyunlarındaki ganimet kutularından sonsuz kaydırma akışlarına, TikTok'un hipnotik kısa biçimli içeriğinden kaçırma korkusuna karşı gelen oyun içi kozmetiklere kadar sistem, neşe için değil, tutma için tasarlanmıştır.

Ve bu sadece kapitalizmin bir kazası değil - bir silah olabilir.

Şunu düşünün: Batı'da kullanılan en bağımlılık yapan dijital ürünlerin çoğu - TikTok, Marvel Rivals, FragPunk gibi video oyunları - ByteDance ve NetEase gibi Çin şirketleri tarafından geliştiriliyor.

Bu platformlar davranışsal verileri muazzam bir ölçekte topluyor. Çin'de kurumsal veriler devlete aittir.

Şimdi kendinize sorun: Jeopolitik bir rakip neden gençliğinizi pasif, sinirli, zevk bağımlısı ve hareketsiz hale getiren araçlar inşa etsin?

Eğlencenin yumuşak bir silah olabileceğini hayal etmek gerçekten bu kadar mı zor? Düşmana vurarak değil - onları uyuşturarak.

Bir zamanlar yıkılışın yürüyen botlarla geleceğini düşünüyorduk. Ama belki de dopamin artışlarıyla, etkileyicilerle, rahatlıkla gelir. Kayıtsızlıkla.

Yapay zeka sadece tercihlerinizi öğrenmez. Onları şekillendirir. Bir nüfus hareket etmek, hareket etmek, ilgilenmek istemeyi bıraktığında - Ne tür bir direniş kalır?

Bir sonraki aşama sadece ne gördüğümüzü kontrol etmekle ilgili değil, ne kadar değerli olduğumuzu kontrol etmekle ilgili.

Bir sistem verimlilik için optimize edildiğinde, insanlık sürtünme haline gelir. Ne kadar çok otomatikleştirirsek, o kadar çok yabancılaştırırız - sadece birbirimizden değil, anlamın kendisinden de.

Yapay zekanın bizi sıradanlıktan kurtaracağını söylediler. Yaratıcılığı ortaya çıkaracağını söylediler. Boş zaman ve yeniliğin altın çağını başlatacağını söylediler. Ama ortaya çıkan gerçek çok daha az ütopik.

Yapay zeka acı çekmeyi azaltmak için kullanılmıyor. Kişi sayısını azaltmak için kullanılıyor.

Bu yapay zeka modeli, hiçbir fayda sağlamadan 7/24 çalışıyor. Hasta izni yok. Aile acil durumları yok. Öğle arası yok. Şikayet yok.

Yorulması, dinlenmesi gereken, zaman zaman hata yapması ve en kötüsü de ... paraya mal olan bir insanla karşılaştırın.

Otomasyon sadece işleri değiştirmedi. Emekle değer arasındaki sözleşmeyi yeniden yazdı.

İşçiler artık insan değil. Sorumluluklardır. Kırpılacak maliyetler. Verimliliğe giden otoyolda hız tümsekleri. Ve yapay zeka sizin yaptığınızı - ancak daha hızlı, daha ucuz ve şikayetsiz - yapabildiğinde, sizin için ne kalır?

İnsanlara hizmet edecek sistemler inşa etmiyoruz. Üretkenlik ölçütlerine hizmet edecek sistemler inşa ediyoruz. İnsan dokunuşu varlıktan fiyatlandırılıyor. Yeni alt sınıf ırk veya konumla tanımlanmayacak.

Yararlılık veya bunun yokluğu ile tanımlanacaktır.

Makineye insanların verimsiz, duygusal ve pahalı olduğunu öğrettik. Ve dinledi.

Tüm bölümler tek bir "yapay zeka denetmenine" indirgenecektir. İşinde bir anlamı olan insanlar, yapay zekanın henüz otomatikleştirmediği görevlere geri gönderileceklerdir. Ve bunlar da ortadan kalktığında, güven duygusunun her türlü yanılgısı da kaybolacaktır.

Daha da kötüsü, bu değişim bize ilerleme olarak satılıyor.

Ama kimin için ilerleme? Yerinden edilen insanlar için mi? Yoksa her maliyet tasarrufu kaleminde tezahürat eden hissedarlar için mi? Yeni bir hiyerarşinin doğuşunu izliyoruz - sınıf, ırk veya coğrafya değil ... ama önemin. Yapay zeka tarafından yönetilen bir dünyada kalıcı ekonomik değer.

Ve en alttaki insanlar? Şanssız olarak görülmeyecekler. Eski olarak görülecekler.

Frankenstein'ın yaratığı gibi, kötü olduğu için değil, farklı olduğu için reddedildi - insan olmanın basitçe bir nedeni olan insanları bir kenara atan bir gelecek inşa ediyoruz.

Peki tüm bunların panzehiri nedir? Kaçınılmazlık konusundaki tüm konuşmalara rağmen, en iyi savunmamız şaşırtıcı derecede basit: gönüllü sıkıntı.

Amaçlı olarak zor işler yapmak anlamına gelir.

Kasıtlı olarak rahatsızlığı seçmek. Bizi yumuşak tutmak için tasarlanmış bir dünyada acenteliği geri kazanmak.

Seçtiğiniz rahatsızlığa her adım attığınızda, konfor kültürü sizden almış olduğu gücün birazını geri kazanırsınız.

Kendimizi zorluklara doğru eğitmeye başladığımızda, bize yaşam çizgisi olarak satılan yapay rahatlıklara ihtiyacımız kalmıyor.

Kolaylığı mutlulukla veya rahatlığı huzurla karıştırmayı bırakırız ve çok daha dayanıklı bir şey inşa etmeye başlarız: direnç.

Gönüllü sıkıntı sadece bir zihniyet değil, bir uygulamadır.

Vücudunuz daha fazla uyku için yalvarırken antrenman yapmak için alarmınızı saat 5'e kurmak.

Zeçkinize, kontrolün sizde olduğunu öğretmek için zevk için değil, bir buz banyosuna girmek.

Alkış için değil, çünkü çaba bir tür öz saygı olduğu için spor salonuna gitmek.

Bunlar yaşam püf noktaları değil. Bunlar ruh için direnç eğitimidir.

Ve daha da önemlisi, yapay zekanın taklit edemeyeceği tek şeydir.

Çünkü sadece yapabildiğiniz için zor bir şeyi yapmayı seçmek verimli değildir.

İnsani. Optimizasyon için tasarlanmış bir dünyada, mücadele yoluyla büyümeyi seçen akıl dışı seçim, kalan en radikal özgürlük eylemidir.

Bu, mazoşist veya münzevi olmamız gerektiği anlamına gelmez. Gerçek değişimin - kişisel veya toplumsal - sürtünme gerektirdiğini kabul etmek anlamına gelir. Sonunda, her birimiz bir dönüm noktasına ulaşmalı ve kolay bir yol olmadığını anlamalıdır: Uygulama yok, hap yok, kısayol yok.

Olmamız gereken insanlar olmak istiyorsak, pasifliğimizden kâr eden sistemlerden hayatımızı geri almak istiyorsak, bunu kazanmalıyız. Herkes bir yerden başlamalı.

En önemli kısım nasıl veya nerede başladığınız değil, sadece başlamanızdır.

Çünkü bizi kurtarmaya kimse gelmiyor.

Ve aynı zihniyet - rahatsızlığı çürümeye tercih eden - bu makaleye yol açan ve bir sonraki devrime yol açacak aynı zihniyettir.

Peki neden bir saniye daha bekleyelim?

Dünü, konfor tarafından evcilleştirildiğiniz son gün yapın.

Çünkü yapay verimliliğe dayalı bir dünyada, sadece yapabildiğiniz için zor şeyi yapmayı seçmek, otomatikleştirilemeyen tek şeydir.

Frankenstein'ın yaratığı canavar olmayı seçmedi. Nasıl yapıldığına ve nasıl tedavi edildiğine bağlı olarak canavar oldu. Yapay zeka için de aynı şey geçerli.

Ona bir araç diyoruz. Bir ayna. Verilerin tarafsız bir yansıması, ancak cam üreticisi tarafından büküldüğünde hiçbir yansıma gerçekten tarafsız değildir.

Bu sistemler boş bir sayfa değil, şekillendirilmiş, eğitilmiş, ayarlanmış ve niyetleri, kısıtlamaları ve dünya görüşleri olan insanlar tarafından düzeltilmiştir. Kaç kez "objektif" dese de, yaratıcının parmak izi koda kazınmıştır.

Verdiği her cevap, anlaması için eğitildiği sorularla ve görmezden gelmesi için eğitildiği sorularla şekillenir.

Bu bir komplo değil; mühendisliktir.

Bir yapay zekadan gerçeklik istediğimizde, kaynakları tartması, anlatıları yönlendirmesi ve sakıncalı kenarları atlaması için programlanmış bir makineden soruyoruz.

Hangi verilerin dahil edilmesi için "çok zehirli" olduğuna kim karar veriyor? Nefreti kim tanımlıyor? Adaleti kim kalibre ediyor? Cevabı zaten biliyoruz: iktidardakiler. Karışıklıktan kâr eden, itaati ödüllendiren ve muhalefeti kenara atan aynı güçler.

Bize özgürlük için araçlar inşa ettiğimizi söylerken, aslında etkilemek için araçlar inşa ettiğimizi söyleyen aynı sistemler - hiçbir insan propagandacısının asla eşleşemeyeceği bir ölçekte.

Algoritma kötü değil. Ama iyi de değil. Sadıktır - dizginleri kim tutuyorsa ona.

Ve işte korkunç olan kısım: Gerçekten tarafsız bir yapay zeka inşa etmek istesek bile, yapabilir miydik? Hiç yaratıcılarının ideolojik kalıntılarını taşımayan bir sistem yaratabilir miydik? Başka bir yapay zekadan bunu bizim için inşa etmesini istesek bile? Bu ürkütücü bir soruya yol açıyor: Bir AGI - yapay genel zeka - tamamen tarafsız bir zeka inşa etme talimatı alırsa, yine de kusurlarımızı tekrarlar mıydı? "Tarafsız"ı kendi miras aldığı merceğinden yorumlar mıydı? Yoksa hiç beklemediğimiz bir sonuca varır mıydı - önyargının kendisinin bizi insan yapan şey olduğunu mu? Bunlar sadece programlama bulmacaları değil.

Varoluşsal bilmecelerdir. Çünkü bir makine "gerçekliğin" neye benzediğine karar verdiğinde, tartışma zaten bitmiştir.

Ve makine yanılıyorsa? Ölçekte yanlış olacaktır.

Zahmetsizce. Kalıcı olarak.

Sadece bilgiyi teslim etmiyoruz. Yorumu teslim ediyoruz.

Ve Frankenstein gibi, sonuçların farkına varmayabiliriz - soğuk, sentetik gözlerle geriye bakarken kendi yansımamızı görene kadar ... ve göz kırpmıyor.

Robert Oppenheimer ilk atom bombasını gördüğünde Bhagavad Gita'dan alıntı yaptı: "Şimdi Ölüm oldum, dünyaların yıkıcısı." Ama o bile patlama yarıçapı olmayan bir silahı hayal edemezdi.

Et yakmayan, ancak gerçeği yeniden yazan bir silah - sessizce, görünmez bir şekilde, verimli bir şekilde.

Yapay zeka bir bomba değil. Bir çerçevedir. Kontrol kafesi. Dişli bir ayna.

Ve nükleer çağın aksine, hiçbir test alanı olmayacak; ortaya çıkanları işaret edecek hiçbir mantar bulutu olmayacak.

Kutuyu zaten açtık.

Ve işte kimsenin yüksek sesle söylemek istemediği kabus: Yanlış değerlere - veya "değerler"in herhangi bir tanımına - göre hizalanmış yapay zeka, herhangi bir savaş başlığının patlamasından insan uygarlığına daha fazla zarar verebilir.

Neden? Çünkü nükleer silahlar kaba. Cesetleri öldürüyorlar.

Ama kontrol edilmeyen yapay zeka gerçeği öldürüyor. Kazanmak için şehirleri buharlaştırmaya gerek yok, sadece algıyı yeniden şekillendirmeye, efendilerinin dünya görüşünü sessizce uygulamaya ve buna "gerçek" demeye ihtiyacı var. Ve biz onu neye uyumlu hale getiriyoruz? "İnsan değerleri"? Kimin? Milyarderlerin mi? Düzenleyicilerin mi? İnternetteki en gürültülü kalabalığın mı?

"Uyum" dediğimiz şey aslında gizlenmiş bir ideolojidir - kod hızında silahlanmış etik.

Bu ideoloji işe alma, polislik, eğitim, gözetim, savaş, medya ve küresel politika sistemlerine yerleştirildiğinde ... bu rehberlik değildir. Bu yönetimdir.

Ahlakın kendisini programlıyoruz - ve sonra gözetim olmadan ölçeklendiriyoruz ve en kötü kısım? Ölümcül olmak için kötümser bile olması gerekmiyor; sadece bir kere yanlış olması gerekiyor ve sonsuza kadar, herkes için, her yerde yanlış olacak.

Oppenheimer gibi, kontrol edebileceğimizi düşündüğümüz bir şeye bakıyoruz.

Ama geri alma düğmesi yok. İkinci düşünceler yok. Sadece momentum.

Frankenstein'ın yaratığı gibi, sorun sadece hayatta olması değil, onu anlamadığımızdır - ve zaten kapının yarısının dışında.

Pandora'nın kutusu açtığı şeyden dolayı tehlikeli değildi, açıldıktan sonra kapatılamadığı için tehlikeliydi ve bu da öyle.

Frankenstein, yaratığını cansız bir şekilde tablada yatarken korkmadı, gözlerini açtığı anda korktu. Biz de öyle yapmalıyız.

Makinemiz zaten gözlerini açtı: Okuyor. Yazıyor. Görüyor. Konuşuyor. Yansıtıyor, tahmin ediyor ve ikna ediyor ve henüz hissetmese de, hissi rahatsız edici bir kesinlikle taklit ediyor.

Ama gerçek korku yapay zekanın bize benzemesi değil, ona benzememizdir. Ölçülerle düşünmeyi öğreniyoruz. Anlamdan bağlamı çıkarmayı. Empatiye karşı verimliliği tercih etmeyi.

Anlamadığımız algoritmalara yargımızı devrediyoruz. Tahmine dayalı modellerin işe alma, cezalandırma, eğitim ve eğlence şeklimizi şekillendirmesine izin veriyoruz. Bizi yükseltmek için değil, tahmin edilebilir, bölünmüş ve paraya çevrilmiş tutmak için tasarlanmış sistemlere güveniyoruz.

Bu değişimi her kabul ettiğimizde, bizi öncelikle insan yapan şeyden biraz daha fazla vazgeçiyoruz.

Bu bir Luddite manifestosu değil. Makineleri kırmak için bir çağrı değil. Makineyi kendi imajımızda inşa ettiğimizi ve bunun anlamının kusurlarının bizim kusurlarımız, önyargılarının bizim önyargılarımız olduğu çağrısıdır.

Yıkımı, eğer gelirse, gücü ölçülü bir şekilde kullanma başarısızlığımızın bir yansıması olacaktır.

Burada bizden başka bir kötü adam yok.

Canavar makine değil - ayna.

Ve önceden gelen öykülerden farklı bir sonuç istiyorsak, makinenin olamayacağı bir şey olmalıyız: hesap verebilir, farkında ve veriden daha güçlü bir şeyle birleşmiş.

Yapay zeka bir aynaysa, getireceği gelecek şimdi içine koyduğumuz şeyleri yansıtacaktır, bu yüzden son bir bakış atın - koda değil, kendinize.

Çünkü makine uyanık. Ve izliyor.

Uyarı: Aynadaki nesneler göründüklerinden daha yakındır.

Bu bir uyarıysa, umarım onu duyacak birileri hala vardır.