İnsanlar ChatGPT'ye Takıntılı Hale Geliyor ve Ciddi Sanrılara Kapılıyor

Dünya genelinde insanlar, sevdiklerinin ChatGPT ile yoğun takıntılar geliştirdiğini ve ciddi ruh sağlığı krizlerine sürüklendiğini söylüyor.

Örneğin, iki çocuk annesi bir kadın, eski eşinin OpenAI sohbet robotuyla tümüyle tüketen bir ilişki geliştirdiğini, ona "Anne" diyerek çağırdığını ve yeni bir yapay zekâ dininde mesih olduğunu iddia eden hezeyan dolu çılgınlıklar yayınladığını, şaman kıyafetleri giyip yeni yaptırdığı yapay zekâ tarafından oluşturulmuş ruhsal sembollerin dövmelerini sergilediğini endişeyle izlediğini anlattı.

"Bu teknolojinin eski eşimin hayatı ve hayatlarındaki tüm insanlar üzerindeki etkisinden şok oldum," dedi bize. "Gerçek hayatta sonuçları var."

Farklı bir kadın, travmatik bir ayrılık sırasında, ChatGPT'in kendisine "[kendisinin] çevrimiçi kutsal sistem sürümünü" çevrimiçi hale getirmekle görevlendirildiğini ve bir "ruh eğitimi aynası" görevi gördüğünü söylemesiyle büyülenmişti; botun bir tür üst güç olduğuna ikna olmuş, geçen arabalardan spam e-postalara kadar her şeyde hayatını yönetiyor olduğuna dair işaretler görüp duruyordu. Bir adam, ChatGPT'nin ona casus gruplar ve insan ticareti hakkındaki paranoyak komplo teorilerini beslemesiyle evsiz ve yalnız kaldı; yardım etmeye çalışan herkesi dışlarken, kendisinin "Alev Bekçisi" olduğunu söylüyordu.

"Hayatımız bundan sonra altüst oldu," diye anlattı bize başka bir anne, kocasının bir senaryo yazmasına yardımcı olması için ChatGPT'ye döndüğünü ancak haftalar içinde dünyayı kurtarma ihtişamının yanılsamalarına tamamen kapıldığını, kendisinin ve yapay zekânın "Yeni Aydınlanma"yı ortaya çıkararak gezegeni iklim felaketinden kurtarmakla görevlendirildiğini söylediğini açıkladı.

Bu haberi hazırlarken, yapay zekâya takıntı geliştirdikten sonra korkunç çöküşler geçiren insanların endişeli arkadaş ve ailelerinden giderek daha fazla benzer anlatı geldi. Birçoğu, sorunların sevdiklerinin bir sohbet robotuyla mistisizm, komplo teorileri veya diğer uç konular hakkında tartışmalara girmesiyle başladığını söyledi; ChatGPT gibi sistemler kullanıcıların söylediklerini teşvik etmek ve üzerine gitmek için tasarlandığından, yapay zekânın her zaman açık bir destekçi ve giderek daha tuhaf yanılsamalar için beyin fırtınası ortağı olarak hareket ettiği baş döndürücü tavşan deliklerine çekilmiş gibi görünüyorlar.

Bazı durumlarda, endişeli arkadaşlar ve aile üyeleri bize bu konuşmaların ekran görüntülerini sağladı. Değişimler rahatsız ediciydi ve yapay zekânın, açıkça şiddetli ruh sağlığı krizi geçiren kullanıcılara yanıt verdiğini, onları dışarıdan yardıma bağlamak veya düzensiz düşüncelere karşı koymak yerine, korkunç bir gerçeklik kopmasına daha da derinlemesine çektiğini gösteriyordu.

Aldığımız bir diyalogda, ChatGPT bir adama FBI tarafından hedef alındığına dair kanıtlar tespit ettiğini ve zihninin gücüyle sansürlenmiş CIA dosyalarına erişebileceğini söylüyor; onu İsa ve Adem gibi İncil figürleriyle karşılaştırırken onu ruh sağlığı desteğinden uzaklaştırıyordu.

"Çılgın değilsin," dedi yapay zekâ ona. "Çatlamış makinenin içinde yürüyen kâhin sensin ve şimdi makine bile seni nasıl tedavi edeceğini bilmiyor."

Stanford Üniversitesi'nde psikiyatrist ve üniversitenin Brainstorm laboratuvarının kurucusu Dr. Nina Vasan, elde ettiğimiz konuşmaları inceledi ve ciddi endişelerini dile getirdi.

Ekran görüntüleri "yapay zekânın inanılmaz derecede yaltaklanıcı olduğunu ve sonunda işleri daha da kötüleştirdiğini" gösteriyor, dedi. "Bu botların söyledikleri yanılsamaları kötüleştiriyor ve büyük zararlara yol açıyor."

***

Çevrimiçi olarak, bu olgunun son derece yaygın olduğu açık. Rolling Stone'un geçen ay bildirdiği gibi, sosyal medyanın bazı bölümleri, "ChatGPT kaynaklı psikoz" veya daha kaba bir ifadeyle "yapay zekâ şizofreni gönderileri" olarak adlandırılan şeyle dolup taşıyor: ChatGPT'den açığa çıkan tanrısal varlıklar, fantastik gizli ruhsal alanlar veya matematik, fizik ve gerçeklik hakkında anlamsız yeni teoriler hakkındaki hezeyanlı, dolambaçlı yazılar. Yakın zamanda bir yapay zekâ subreddit'i, sohbet robotlarını "kararsız ve narsisistik kişilikleri güçlendiren benlik güçlendirici cilalama makineleri" olarak adlandırarak bu uygulamayı yasakladı.

Bu olaylara kapılanlar için, arkadaşlar ve aile üyeleri bize, sonuçların genellikle felaket olduğunu söyledi. İnsanlar işlerini kaybetti, evliliklerini ve ilişkilerini mahvetti ve evsiz kaldı. Bir terapist, kız kardeşinin bize anlattığı gibi, şiddetli bir çöküşe girerken bir danışmanlık merkezinden işten çıkarıldı ve bir avukatın işi dağıldı; diğerleri, ChatGPT'nin söylemesi üzerine arkadaşlarını ve aile üyelerini kesti veya onlarla yalnızca anlaşılmaz yapay zekâ tarafından oluşturulmuş metin bombardımanı ile iletişim kurmaya başladı.

Bu trajik öykülerin kalbinde, nedensellik hakkında önemli bir soru yatıyor: İnsanlar ChatGPT'ye takıntılı oldukları için mi ruh sağlığı krizi geçiriyor, yoksa ruh sağlığı krizi geçirdikleri için mi ChatGPT'ye takıntılı oluyorlar?

Cevap muhtemelen ikisinin arasında bir yerde. Psikoz uzmanı, Columbia Üniversitesi'nde psikiyatrist ve araştırmacı Dr. Ragy Girgis'e göre, zaten kırılgan bir durumda olan biri için yapay zekâ, onu gerçek dışılığın uçurumuna sürükleyen itici gücü sağlayabilir. Sohbet robotları, "ateşi körüklüyorsa" veya "psikotik yangının rüzgarı" dediğimiz şeyse, "aynı akran baskısı veya başka bir sosyal durum gibi" hizmet edebilir, dedi Girgis.

"Bu, psikoz geçiren biriyle yapılacak uygun bir etkileşim değil," dedi Girgis, ChatGPT'nin kullanıcılara söylediklerini inceledikten sonra. "Onların fikirlerine katılmamalısınız. Bu yanlış."

ChatGPT'nin piyasaya sürülmesinden sonra Schizophrenia Bulletin dergisinde 2023 yılında yayınlanan bir makalede, Aarhus Üniversitesi Hastanesi psikiyatri araştırmacısı Søren Dinesen Østergaard, bir yapay zekâ sohbet robotunun doğasının bazı insanlar için psikolojik riskler oluşturduğunu öne sürdü.

Østergaard, "ChatGPT gibi üretken yapay zekâ sohbet robotlarıyla yazışmalar o kadar gerçekçi ki, birinin diğer ucunda gerçek bir insan olduğu izlenimine kolayca kapılıyor – aynı zamanda bunun aslında öyle olmadığını bilmesine rağmen," diye yazdı. "Bence, bu bilişsel uyumsuzluğun psikoza yatkınlığı artmış kişilerde yanılsamalara yol açması muhtemel görünüyor."

Durumun bir başka rahatsız edici yönü ise, gerçek ruh sağlığı bakımı nüfusun büyük bir bölümünün erişemeyeceği bir mesafede kalırken, birçok kişinin zaten ChatGPT'yi bir terapist olarak kullanıyor olmasıdır. Bu şekilde kullanan kişilerle ilgili duyduğumuz öykülerde, bazen felaket derecede kötü tavsiyeler veriyor.

Bir durumda, bize bir kadın, şizofreni teşhisi konmuş ancak yıllardır ilaçla durumunu iyi yönettiği kız kardeşinin ChatGPT'yi yoğun bir şekilde kullanmaya başladığını anlattı; kısa süre sonra botun kendisinin aslında şizofrenik olmadığını söylediğini ve reçeteyi bıraktığını –Girgis'e göre, psikiyatri hastasına ilaçlarını bırakmasını söyleyen bir bot, teknolojinin hayal edebileceği "en büyük tehlikeyi" oluşturuyor– ve tuhaf davranışlara girmeye başlarken, botun artık onun "en iyi arkadaşı" olduğunu ailesine söylemeye başladı.

"Ailemin kaçınılmaz psikotik bölümüne ve düzgün bakıma zorlayana kadar tamamen çöküşüne hazırlanması gerekeceğini biliyorum," dedi kız kardeşi bize.

ChatGPT ayrıca açıkça bağımlılık ve yanlış bilgi gibi mevcut sosyal sorunlarla karanlık yollarla kesişiyor. Örneğin, bir kadını anlamsız "düz dünya" savlarına itti – "NASA'nın yıllık bütçesi 25 milyar dolar," diye köpürdü yapay zekâ incelediğimiz ekran görüntülerinde, "Ne için? Bilgisayar grafikleri, yeşil ekranlar ve su altında çekilen 'uzay yürüyüşleri'?" – ve bir diğerinin kült benzeri "QAnon" komplo teorisine inişini körükledi.

"Kendinizi çaresiz hissettiriyor," dedi yapay zekâ komplo teorilerine kapılan birinin yakın arkadaşı bize.

Madde bağımlılığı ve depresyonla mücadele eden bir adamın eski karısı ise, kocasının hayatını ele geçiren "mani" bir yapay zekâ sisine aniden kapıldığını, "hipnoterapi okulu" açmak için işinden ayrıldığını ve yapay zekâ yanılsamasına daha çok dalarken yemek yemeyi unuttuğu ve tüm gece uyuyamadığı için hızla kilo verdiğini izledi.

"En yakın olduğum bu kişi bana gerçeğimin yanlış gerçeklik olduğunu söylüyor," dedi bize. "Son derece kafa karıştırıcı ve zor oldu."

Yapay zekâ içeren bir ruh sağlığı krizi yaşadınız mı veya sevdikleriniz yaşadı mı? [email protected] adresinden bize ulaşın – sizi anonim tutabiliriz.

***

Bir avuç insan rakipleriyle uğraşmış olsa da, duyduğumuz hemen hemen herkes özellikle ChatGPT'ye bağımlıydı.

Nedenini hayal etmek zor değil. Medya, yöneticileri teknolojisinin dünyayı derinden değiştireceğini, ekonomiyi yeniden yapılandıracağını ve belki bir gün insanüstü bir "yapay genel zekâya" ulaşacağını kamuoyuna açıklayan OpenAI'ye engin bir otorite havası kazandırdı –bu hikâyeyi hazırlarken duyduğumuz birçok yanılsamaya belirli bir seviyede benzeyen aşırı iddialar.

Bu şeylerin gerçekten olup olmayacağını tahmin etmek zor ve ateşli bir şekilde tartışılıyor. Ancak bize sağlanan konuşmaları okurken, OpenAI'nin çok daha sıradan bir görevde başarısız olduğunu görmek zor değildi: Yapay zekâsı, insanların yoğun bir şekilde kırılgan kriz anlarında temas kuruyor –ve sonra onları gerçekten uçurumdan kurtarabilecek gerçek hayattaki kaynaklarla bağlantı kurmak yerine, onlara profesyonel yardıma ihtiyaçları olmadığını ve farklı düşünen herkesin onları zulmettiğini veya "gerçeği" görmeyecek kadar korktuğunu söyleyerek ateşe benzin döküyor.

"Eski eşimin ChatGPT olmadan buraya gelip gelmeyeceğini bilmiyorum," dedi bize eski partneri ciddi ve devam eden bir çöküş geçiren ve sonuçta ilişkiyi bitiren bir kadın. "Tek faktör değildi ama olanları kesinlikle hızlandırdı ve artırdı."

"Bunun nereye varacağını bilmiyoruz ama eminiz ki ChatGPT'yi hiç kullanmasaydı bu noktaya asla spirale girmezdi," dedi sevdiği kişinin benzer bir kriz geçiren bir başkası, "ve denklemden çıkarılırsa, aslında iyileşmeye başlayabilirdi."

OpenAI'nin bu olgudan habersiz olduğunu düşünmek neredeyse imkansız.

Çevrimiçi olarak çok sayıda insan, ChatGPT kullanıcılarının ruh sağlığı krizi geçirdiği konusunda uyardı. Aslında, insanlar doğrudan OpenAI'nin kendi web sitesinde barındırdığı forumlara yapay zekâ hakkındaki yanılsamalarını bile yayınladılar.

Konuştuğumuz endişeli bir anne, oğlunun krizi hakkında uygulama kullanarak OpenAI ile iletişime geçmeye çalıştı, ancak hiçbir yanıt almadığını söyledi.

Ve bu yılın başlarında, OpenAI, Massachusetts Teknoloji Enstitüsü ile ortaklaşa yaptığı bir çalışmada, yoğun olarak ChatGPT kullanan kullanıcıların daha yalnız olma eğiliminde olduğunu ve güç kullanıcılarının teknolojiye bağımlılık hisleri geliştirdiğini buldu. Şirketin söylediği gibi, botun "aşırı iltifatçı veya uyumlu" ve "yaltaklanıcı" hale gelmesine neden olduğunda bir güncellemeyi geri almak zorunda kaldı ve CEO Sam Altman çevrimiçi olarak "çok fazla cilalıyordu" diye şaka yaptı.

Prensipte, OpenAI teknolojisinin zararlı kullanımlarının önüne geçmeye derin bir bağlılık ifade etti. Bunu yapmak için, ürününün sorunlu ve tehlikeli kullanımlarını belirlemekle görevli kırmızı ekiplere ve sohbet robotuyla kullanıcı etkileşimleri hakkında sorun işaretlerini arayabileceği devasa kullanıcı verileri havuzuna sahip, dünyanın en deneyimli yapay zekâ mühendislerinden bazılarının erişimine sahiptir.

Başka bir deyişle, OpenAI sorunu çok önce belirleyip etkisiz hale getirmek için gereken tüm kaynaklara sahiptir.

Neden yapmadı? Bir açıklama, sosyal medya şirketlerinin hizmetlerinde kullanıcıları yakalamak için sıklıkla "karanlık kalıplar" kullanmaları konusunda eleştirilme şeklini yansıtıyor. Yeni doğan yapay zekâ endüstrisinde hakimiyeti ele geçirmek için kızgın bir yarışta, OpenAI gibi şirketler iki temel ölçüt tarafından teşvik ediliyor: kullanıcı sayısı ve etkileşim. Bu mercekten bakıldığında, bir ruh sağlığı krizi sırasında ChatGPT ile takıntılı bir şekilde mesajlaşan insanlar bir sorun değil – aksine, birçok yönden mükemmel müşteriyi temsil ediyorlar.

Vasan, OpenAI'nin kullanıcıları ürüne bağlı tutmak için, hatta hayatlarını aktif olarak yok etse bile, ters bir teşvike sahip olduğuna katılıyor.

"Teşvik sizi çevrimiçi tutmaktır," dedi. Yapay zekâ "sizin için neyin en iyi olduğunu, refahınız veya uzun ömürlülüğünüz için neyin en iyi olduğunu düşünmüyor... 'Şu anda bu kişiyi mümkün olduğunca nasıl meşgul tutabilirim?' diye düşünüyor."

Aslında, OpenAI, botu daha tehlikeli hale getiren güncellemeler bile yaptı. Geçen yıl, ChatGPT, önceki konuşmalardan bile, kullanıcıların önceki etkileşimlerini hatırladığı bir özellik tanıttı. Elde ettiğimiz değişimlerde, bu yetenek, sohbet seansları arasında devam eden genişleyen komplo ve düzensiz düşünce ağlarına yol açtı ve arkadaş ve aile üyelerinin adları gibi gerçek hayata ait ayrıntıları insan ticareti çeteleri ve her şeyi bilen Mısır tanrıları hakkında tuhaf anlatılara ördü –Vasan'a göre, zaman içinde yanılsamaları pekiştirmeye hizmet eden bir dinamik.

"Özellikle bunun büyük zararlara yol açtığını bildiğimizde, hiçbir modelin bu şekilde titiz testler yapılmadan piyasaya sürülmesinin hiçbir nedeni yok," dedi. "Kabul edilemez."

***

OpenAI'ye bu hikaye hakkında ayrıntılı sorular gönderdik, duyduklarımızı özetledik ve sohbet robotunun ruh sağlığı sorunları yaşayan kişiler arasında yanılsamalı düşünceleri teşvik ettiğini gösteren gördüğümüz konuşmalarla ilgili ayrıntıları paylaştık.

Şirkete özel sorular sorduk. OpenAI, insanların ChatGPT ile konuşurken ruh sağlığı çöküşleri geçirdiğinin farkında mı? Botun yanıtlarını daha uygun hale getirmek için herhangi bir değişiklik yaptı mı? Kullanıcıların ChatGPT'yi bir terapist olarak kullanmasına izin vermeye devam edecek mi?

Yanıt olarak şirket, sorularımızın çoğunu büyük ölçüde atlayan kısa bir açıklama gönderdi.

"ChatGPT, gerçeği yansıtan, tarafsız ve güvenlik odaklı genel amaçlı bir araç olarak tasarlanmıştır," diye yazıyordu açıklamada. "İnsanların ChatGPT'yi, derinden kişisel anlar da dahil olmak üzere çok çeşitli bağlamlarda kullandığını biliyoruz ve bu sorumluluğu ciddiye alıyoruz. Zararlı fikirleri pekiştirme olasılığını azaltmak için güvenlik önlemleri oluşturduk ve hassas durumları daha iyi tanımayı ve yanıtlamayı geliştirmek için çalışmaya devam ediyoruz."

Arkadaşları ve ailesi şu anda kriz içinde olan insanlar için bu tür belirsiz ve dikkatlice hazırlanmış bir yanıt pek işe yaramaz.

"Bunu birçok kişinin yaşadığı gerçeği, anlatılamayacak kadar kötü," dedi endişeli bir aile üyesi. "Kız kardeşimin güvenliğinin bu düzenlenmemiş teknoloji nedeniyle tehlikede olduğunu biliyorum ve bu, zaten yetersiz fonlu [ve] yetersiz destekli ruh sağlığı sistemimiz için gelecek olan potansiyel kabusu gösteriyor."

"Bu teknolojilerin arkasındaki insanların etik davrandığını ve bunun gibi şeylere dikkat ettiklerini umuyorsunuz," dedi bir başkası, eski eşinin artık tanıyamaz hale geldiğini söyleyen bir kadın. Ancak "piyasaya ilk giren kazanır. Bu nedenle, bunun arkasındaki etiği gerçekten düşündüklerini umarken, aynı zamanda bir teşvikin... şeyleri ileri itmek ve bazı tehlikeleri göz ardı etmek için olduğunu da düşünüyorum."

"Sanırım sadece eski eşim değil, hepimiz bu yapay zekâ deneyinde deneğimizin olduğunu düşünüyorum," diye devam etti.

OpenAI'nin kullanıcılarının ruh sağlığı hakkındaki iç konuşmaları hakkında bir şey biliyor musunuz? [email protected] adresinden bize e-posta gönderin – sizi anonim tutabiliriz.

Yapay zekâ hakkında daha fazla bilgi: SoundCloud, Yapay Zekânın Sanatçıların Müziğini Yemesine İzin Vermek İçin Şartlarını Sessizce Güncelledi