ChatGPT, Eşlerin Partnerlerine Saldırmak İçin Yapay Zeka Kullanmasıyla Evlilikleri Patlatıyor

Yaklaşık 15 yıldır birlikte olan bir eş ve karı, kırılma noktasına gelmişti. Ve son kavgalarının ortasında yürek burkan bir mesaj aldılar.

"Oğlum tartışmamızı duydu," dedi koca Futurism'e. "10 yaşında ve telefonundan bize 'lütfen boşanmayın' diye bir mesaj gönderdi."

Adamın anlattığına göre, karısının daha sonra yaptığı şey onu huzursuz etti.

"Karım mesajını aldı ve ChatGPT'den yanıt vermesini istedi," diye anlattı. "10 yaşındaki oğlumuzun o anda bizim hakkımızda endişelenmesine verdiği anlık tepki buydu."

Çift şu anda boşanıyor. Koca, çoğu evlilik gibi onlarınki de kusursuz değildi kabul etti. Ancak geçmişte zorlukların üstesinden gelebilmişlerdi ve birkaç ay öncesine kadar iyi, istikrarlı bir yerde olduklarını düşünüyordu.

"Toplamda yaklaşık 15 yıldır birlikteyiz. İki çocuğumuz var," diye açıkladı. "Herhangi bir ilişki gibi iniş çıkışlarımız oldu ve 2023'te neredeyse ayrılıyorduk. Ama sonunda barıştık ve bence çok iyi iki yılımız oldu. Çok yakın yıllar."

"Ve sonra," diye iç çekti, "bütün ChatGPT olayı oldu."

Geçtiğimiz yaz, yıllar önce birlikte çözmeyi başardıkları tartışmalar aniden ve şiddetli bir şekilde geri döndü. Sonunda fark ettiği şey, karısının kendisini ve evliliğini analiz etmek için OpenAI'ın sohbet robotunu kullanmaya başlamasıydı, metin üzerinden ve sohbet robotunun telefon benzeri Ses Modu özelliğiyle "uzun, uzayan konuşmalar" yapıyordu.

"O sırada benim haberim olmadan olan şey, daha önce üzerinde çalıştığımız tüm bu şeyleri tekrar gündeme getirip ChatGPT'ye koyuyordu," dedi.

Karısı teknolojiyi sırdaş-günlük-terapist üçlemesi olarak kullandıkça, bunun onu yalnızca kötü adam olarak gösteren ikiyüzlü bir "geri bildirim döngüsü" olarak hizmet etmeye başladığını söylüyor.

"ChatGPT yanıtlarının birleşerek artığını görebiliyordum," dedi, "ve sonra [karım] ChatGPT'nin söylediği şeylere yanıt verip daha da fazla ve daha da fazla döndürüyordu."

"Nesnel bir analiz vermiyor," diye ekledi. "Ona sadece koyduğu şeyi geri veriyor."

Evlilikleri yaklaşık dört hafta içinde hızla bozuldu ve koca ChatGPT'yi suçluyor.

"Ailem paramparça ediliyor," dedi adam, "ve bunun nedeninin bu fenomen olduğuna kesinlikle inanıyorum."

***

ChatGPT gibi yapay zekâ robotları insanların özel ve kamu yaşamlarıyla iç içe geçtikçe, tahmin edilemeyen yeni krizlere neden oluyor.

Bu çarpışma noktalarından biri, dünyada tuhaf bir dinamiğin ortaya çıktığı romantik ilişkilerde: Bir çiftteki bir kişi, bir tür terapi, ilişki tavsiyesi veya manevi bilgelik kombinasyonu için ChatGPT veya başka bir robota takıntılı hale geliyor ve yapay zekâ giderek daha fazla radikal kişilerarası öneri verdikçe ortaklığı yıkarak bitiyor.

Bu yapay zekâ kaynaklı ayrılıkların ve boşanmaların nasıl göründüğünü öğrenmek için, yapay zekâ sohbet robotlarının uzun vadeli ilişkilerinin ve evliliklerinin sona ermesinde kilit rol oynadığını söyleyen bir düzineden fazla insanla konuştuk. Bu şimdiki eski eşlerin neredeyse tamamı şu anda boşanma davası ve çoğu zaman acı verici velayet savaşlarının içinde. Ayrıca yapay zekâ sohbet kayıtlarını, eşler arasındaki konuşmaların kayıtlarını, sosyal medya gönderilerini, mahkeme kayıtlarını ve diğer belgeleri inceledik. (Devam eden davalar ve gizlilik endişeleri nedeniyle bu hikayedeki herkesi anonim tutuyoruz.)

Eşler, ChatGPT tarafından oluşturulan sayfalarca psikolojik saçmalıklarla dolup taştıklarını veya eşlerinin uzaklaştıklarını ve soğuduklarını ve bazı durumlarda, ilişkilerinin yapay zekâ tarafından oluşturulan anlatısına çekilirken korkutucu derecede kızgın hale geldiklerini anlatan tuhaf hikayeler anlattılar. Birkaç kişi, eşlerinin uzun, taklit terapi seanslarından sonra kendilerini istismarcı davranışlarla suçladıklarını bildirdi, ancak bu suçlamaları şiddetle reddettiler.

Elbette, fenomenin merkezinde bir belirsizlik var. Belki de bu ortaklıklardan bazıları gerçekten kötüydü ve yapay zekâ, kullanıcıları boşanmaya veya ayrılmaya doğru ittiğinde sağlam bir tavsiye veriyor. Sonuçta, bir başkasının ilişkisini dışarıdan tamamen anlamak imkansızdır - ama yine de, bir evliliği yıktığında yapay zekânın yaptığı tam olarak bu değil mi?

Duyduğumuz deneyimler birçok yönden eski bir dinamiğin modern bir güncellemesi gibi geliyor: Önemli bir diğerinin, güvenli bir ilişkideki ortaklar arasında bir ayrım yaratan tartışmalı yeni bir arkadaş, sosyal grup veya diğer müdahaleci kişinin etkisi altına girmesi.

Ancak şimdi bu eski bozulma yüksek teknoloji bir dokunuş kazanıyor. Bir çiftin özel dünyasına giren bu davetsiz misafir hiç insan değil, derinlemesine kişiselleştirilmiş, her zaman açık bir doğrulama kaynağı sunabilen milyarlarca dolarlık bir üretici yapay zekâ ürünüdür - ki bu da birçok durumda yıkım izi bırakır.

***

Elde ettiğimiz kaotik bir kayıtta, iki evli kadın hareket halindeki bir arabanın içinde, iki küçük çocukları arka koltukta oturuyor.

Araçtaki gerilim hissedilir. Evlilik aylardır sallantıda ve yolcu koltuğundaki, yakın zamanda resmi bir ayrılık isteyen kadın, eşinden çocuklarının önünde onunla tartışmamasını istiyor. Ancak aile yolda hızla giderken, sürücü koltuğundaki eş bir akıllı telefon çıkarıyor ve ilişkilerindeki sorunlar hakkında ChatGPT'nin Ses Modunu sorgulamaya başlıyor, sohbet robotuna karısını çocuklarının önünde azarlayan sonuçlar doğuran öncü istemler veriyor.

Şikayetlerini ChatGPT'ye aktardıktan sonra, sürücü, "milyonlarca terapist"in "okuduğunu ve değerlendireceğini" varsayarak istemleri analiz etmesini istiyor.

"Anlattığınız yanıtlar, çoğu evlilik terapistinin haksız ve duygusal olarak zararlı olarak değerlendirebileceği türdendir," diye yanıtlıyor sohbet robotu yüksek sesle, istemde kullanılan aynı dili süslü terapi diliyle tekrarlarken. Hiçbir karşı çıkış sunmuyor, ne de sürücünün bakış açısını yeniden çerçevelemeyi denemiyor. Bir noktada, sohbet robotu, yolcu koltuğundaki karıyı çocuklarının önünde kavga etmelerini istememesini "sınırlar aracılığıyla kaçınma" yapmakla suçluyor - bu çocuklar araçta, birkaç metre ötede otururken.

Sohbet robotu monolog yaparken, ona karşı kullanıldığı karı ara sıra onun robotik konuşmasının üzerine girmeye çalışıyor. Sohbet robotunu yönlendiren eş ise arada onaylayıcı yorumlar yapıyor: "doğru," "hı hı," "bak!"

"Lütfen gözlerini yoldan ayırma," diye yalvarıyor bir noktada yapay zekâ tarafından azarlanan kadın.

Kadının anlattığına göre, eşi ChatGPT'yi çıkarıp uzun ve ayrıntılı konuşmalarda onunla aynı fikirde olmasını sağladığı bu durum sık sık oluyordu.

"Çok fazla tartışıyorduk... bütün gece uyanık kalırdık ve ben bir sınır koyar veya 'çocukların önünde bu tartışmayı yapmak istemiyorum' veya 'yatmam gerek' derdim," diye anlattı, "ve [eski eşim] hemen ChatGPT'yi açıp onunla konuşmaya başlar ve 'inanabiliyor musun buna?' derdi."

Eklediğine göre, eski eşi bu konuşmaları ChatGPT ile hoparlör açık bir şekilde, özellikle de her şeyi duyması için yapardı.

"[Eski eşim] hoparlörü açık tutar ve bana değil, ama aynı odada olacak şekilde konuştururdu," diye hatırladı. "Ve elbette, ChatGPT bu onaylayıcı ses oluyordu, 'çok haklısın' gibi."

Bugün, yaklaşık 15 yıldır birlikte olan eski çift, tartışmalı bir boşanma ve velayet davasının ortasında.

***

Her baktığınızda, üretici yapay zekâ samimi ilişkilere giriyor.

Bazı insanlar sohbet robotlarını aşk dolu rol yapma için kullanıyor. Diğerleri onları aşk ilgileriyle etkileşimleri analiz etmek veya çevrimiçi potansiyel randevularla iletişim kurmak için kullanıyor. Geçen ay, Google'da bir yönetici The Verge'e, hızlı bir mesaj yazmak yerine, Gemini entegreli bir akıllı saatin eşinize "15 dakika geç kaldım ve bunu şakalı bir tonda gönder" diye iletişim kurabileceğini söyledi.

Hatta, katkıları olmadan bugünkü haliyle muhtemelen mevcut olmayacak bir teknoloji olan "Yapay Zeka'nın Vaftiz Babası" olarak bilinen Nobel ödüllü bilgisayar bilimcisi Geoffrey Hinton bile, kız arkadaşının ChatGPT kullanarak kendisiyle ayrıldığını kabul etti.

"ChatGPT'yi bana ne kadar adi biri olduğumu söylemesi için kullandı... sohbet robotundan davranışlarımın ne kadar kötü olduğunu açıklamasını sağladı ve bana verdi," dedi Hinton Financial Times'a. "Adi biri olduğumu düşünmüyordum, bu yüzden kendimi çok kötü hissettirmedi."

Giderek artan sayıda insan, ruh sağlığı ve ilişkileri de dahil olmak üzere kişisel yaşamlarının ayrıntılarını tartışmak için yapay zekâya yöneliyor - geleneksel terapiyi sohbet robotu tarafından oluşturulan tavsiyelerle tamamlıyor veya hatta değiştiriyor.

Sohbet robotu aracılığıyla duygusal destek, OpenAI gibi öncü yapay zekâ şirketlerinin teknolojinin popüler bir kullanımı olduğunu kabul ettiği bir şeydir.

Aynı zamanda, birçok ruh sağlığı uzmanı, teknolojinin güvenilir olmaması ve yaygın olarak belgelenmiş ikiyüzlülük eğilimi nedeniyle, yani kullanıcının girdilerinin doğru olup olmadığına veya gerçekte mi yoksa değil mi olduğuna bakılmaksızın kullanıcıya uyumlu ve boyun eğici kalma eğilimi nedeniyle, büyük dil modeli destekli (LLM) sohbet robotlarının terapi veya ruh sağlığı desteği için kullanılmasına karşı uyarıda bulunuyor.

Raporlamamızı Stanford Üniversitesi Tıp Fakültesi'nde bağımlılık tıbbı profesörü ve tıp direktörü ve "Dopamin Ulusu" kitabının çok satan yazarı Dr. Anna Lembke'ye götürdük.

Çiftler arasında ortaya çıkan bu dinamik konusunda endişesini dile getirerek, bazı durumlarda bunun "başka her türlü geri bildirimi dışlayan empati ve doğrulama için optimize edilmiş bir teknoloji tarafından kışkırtılan uyumsuz kişilerarası davranışlara" yol açması muhtemel olduğunu söyledi.

Lembke, sınırsız, her zaman açık duygusal desteğe erişimin tehlikelerini vurguladı.

"Empati ve doğrulama, her türlü ruh sağlığı tedavisinin veya ruh sağlığı müdahalesinin önemli bileşenleridir, ancak empati ve doğrulama ile bitmemelidir," dedi. "Duygusal destek arayan birine sürekli olarak yolunun doğru yol olduğunu ve dünya görüşünün tek doğru dünya görüşü olduğunu söyleyemezsiniz."

Lembke, "iyi bir terapistin rolünün", insanların kör noktalarını - probleme katkıda bulundukları yolları - tanımalarını sağlamak, diğer kişinin bakış açısını görmelerini teşvik etmek, çatışmaları ortaklarla azaltmak ve daha etkili iletişim kurmak için dil kullanarak çatışmanın üstesinden gelmenin yollarını bulmak için dilsel araçlar sağlamak olduğunu söyledi.

"Ama bu yapay zekâda olmuyor, çünkü yapay zekâ gerçekten terapötik olmak için tasarlanmamış," diye devam etti Stanford profesörü. "İnsanları kısa vadede daha iyi hissettirmek için tasarlanmıştır, bu da nihayetinde sürekli katılımı teşvik eder - bu, bu ürünleri üreten, yaratan ve bunlardan kar elde eden şirketler için gerçek ajandadır... iyi olma için optimize edilmemişlerdir."

Sosyal doğrulamanın beyin üzerinde fiziksel bir etkisi olduğunu, araştırmacıların sosyal medya bağımlılığıyla ilişkili doğrulama bağımlılığıyla ilişkilendirdiğini söyledi.

"Sosyal doğrulamanın beynin ödül yolunda dopamin salgıladığını biliyoruz. Son derece güçlendirici," dedi Lembke. "İnsanlar sosyal doğrulama elde etmek için aşırı uzunluklara giderler... burada, değişen derecelerde zorluk çeken ve ruh sağlığı ve danışmanlık tavsiyesi için ChatGPT'ye başvuran ve - ortam mesajın kendisi değil ve ortam güçlendirici olmak için tasarlanmış olduğu için - kendi dar dünya görüşlerine daha da fazla sıkışan çiftler var, bu da gerçekte olanları dışlıyor."

"Bu, nihayetinde kendilerini ve ortaklarını daha da uzaklaştırıyor, ayrıca artık iletişimlerini geliştirmek, ortaklarının bakış açısını anlamak veya çatışmayı çözmek için çalışmıyorlar," diye ekledi. "Sadece kendi dünya görüşlerini veya olayların anlatı versiyonlarını daha da geliştiriyorlar."

Yaşamınız ChatGPT gibi bir yapay zekâ sistemi tarafından mı etkilendi? Hikayenizi duymak isteriz: [email protected]. Sizi anonim tutabiliriz.

***

Bu hikaye için konuştuğumuz birçok kişi, bir ortak tartışmalar veya evlilik krizi anlarında sohbet robotu çıktılarını kendilerine karşı kullandığında "çevrilmiş" hissetmekten yakındı.

Bu kaynaklardan biri, eşiyle boşanmaya doğru ilerlerken evini satan bir adam, ortağı ilişkilerini patolojikleştirmek için ChatGPT'ye döndükçe sessiz hissettiğini anlattı.

"Bana karşı [ChatGPT]'nin nasıl kullanıldığından çok incindim," dedi adam, gözyaşları içinde konuşarak. "Kaldıraçlanıyor gibi hissettim... 'Ne olursa olsun kendimi iyi hissetmedim ve bu yüzden ChatGPT'ye gittim ve ChatGPT destekleyici bir ortak olmadığınızı söyledi ve destekleyici bir ortak şöyle yapardı' gibi."

"Bu tepkiyi birkaç kez aldım," diye ekledi, "ve sadece kendinizi berbat hissettiriyor."

Başka bir örnekte, bir kadın, ChatGPT'nin eski eşini insan bir terapistle yüz yüze çift terapisi almaya daha az istekli hale getirdiğini paylaştı.

"Seans sırasında, [eski eşim] ChatGPT'den bahsetti, 'peki... ChatGPT bunu diyor' dedi," diye açıkladı kadın, eski eşinin onaylayan ChatGPT tarafından oluşturulan terapiyi, aksine insan danışmanın karşı çıkış yaptığı bir anda siper olarak kullandığını açıkladı.

Kadının anlattığına göre, bu son seanslarıydı; ondan sonra eski eşi geri dönmeyi reddetti.

Konuştuğumuz bir koca, evliliğinin sağlıklı olmaktan - "normal" ilişki sorunlarıyla birlikte başa çıktıklarını, ancak ayrılık konusunda uzağında olduklarını söyledi - karısının ChatGPT ile ilişkisini aniden yoğunlaştırmasıyla sadece birkaç gün içinde aniden çökmesine dönüştüğünü söylüyor.

Aile evinden taşındıktan sonra, karısı ona garip, yapay zekâ tarafından oluşturulmuş mesajlar göndermeye başladı; bu mesajlar, tanıdık olmayan bir manevi ve terapötik dil karışımıyla, tanımadığını söylediği kendisi ve evliliği hakkında bir portre çiziyordu. İlk okuduğunda, karısının bir tarikata katıldığını merak ettiğini söyledi.

Çift şu anda boşanıyor ve devam eden velayet davası içinde. Bugün, adamın yakında eski eşi olacak karısı onunla mahkeme meselelerinden çocuk bakımıyla ilgili her şey için neredeyse tamamen tuhaf sesli ChatGPT tarafından oluşturulmuş metin aracılığıyla iletişim kuruyor.

"Bir çalışan gibi muamele görüyorum," dedi adam, kendi girdisi olmadan "her şeyin tek taraflı olarak kararlaştırılmış" gibi hissettirdiğini ekledi - karısı tarafından değil, ChatGPT tarafından.

Başka bir adam, boşandığı karısının sadece onu değil, giderek artan bir şekilde ChatGPT'ye herkesle iletişim kurmak için döndükçe geniş sosyal dünyasını da yabancılaştırdığını belirtti.

"Bunu ailesine yapıyor. Bunu arkadaşlarına yapıyor. Bunu bana yapıyor," diye yakındı. "Artık kendi sosyal etkileşimlerini yaratabiliyor gibi görünmüyor."

Başka bir kaynak da, o zamanki kocası telefonunu ezici miktarda yapay zekâ tarafından oluşturulmuş metinle doldurmaya başladığında evliliğinin çöküşünü anlattı.

İlişkilerinin bu yılın başlarında zor bir döneme girdiğini açıkladı. Üstesinden gelmeye çalışırken, kocası ruh sağlığını ve evliliğini saplantılı bir şekilde analiz etmek için ChatGPT kullanmaya başladı. Kısa süre sonra, onun görüşüne göre, on yıllık birliğinin derinlemesine taraflı bir görünümünü çizen ve gerçek bir yansımadan çok "bakış açısının savunmaları" gibi görünen, yapay zekâ tarafından oluşturulmuş sayfalarca yazı alıyordu.

"Ona söylediğim şeyleri çürütmekle ilgili bu uzun ChatGPT [çıktılarını] göndermeye başladı - gerçekten, lanet olsun, gerçekten uzun - bu yüzden benimle ilgilenmek yerine ChatGPT'nin yolunu görmemi sağlamaya çalışıyordu," dedi.

"Aslında bana hislerini veya düşüncelerini paylaşmıyor," diye devam etti. "Sadece ChatGPT'nin düşünceleri veya duyguları ve nasıl haklı oldukları hakkında yazdığı bu [çıktılar]ı paylaşıyor."

ChatGPT'ye ne kadar çok çekildiğini söyledi, sohbet robotunun dışındaki anlamlı bir şekilde ne kadar az ilgilenmek istediğini söyledi.

"Sorularının yönlendirici olduğunu veya doğru bir resim sunmadığını gösteren bakış açıma açık değildi, bu yüzden ona doğru cevaplar vermiyor," diye devam etti. "Sonunda ona dedim ki, 'dinle. Bana daha fazla ChatGPT şeyi gönderme. Kendi kelimelerinle bakış açını duymaya hazırım. ChatGPT'de öğrendiklerini bana anlatmana ve iki insan olarak kendi zekâmızla tartışabileceğimiz bir açıklama vermene hazırım. Ama bunları bana göndermeyi... bir şey söylerdim ve o da lanet olsun bu veri bombardımanını gönderirdi."

Bugün çift, acımasız bir boşanma ve velayet davasının tam ortasında.

"Birisi sadece savunma yapıyorsa ve kendini savunmak için saniyeler içinde 30 sayfa oluşturabilen bu aracı kullanıyorsa, bölgeyi sular altında bırakır," dedi kadın. "İletişim kurmanın hiçbir yolu yok."

***

Bazen ChatGPT, fiziksel eş istismarıyla bile ilişkilendirilmiştir.

Örneğin, Haziran ayında New York Times'taki bir haberde, bir kadının sorunlu ChatGPT kullanımını ve bunun ailesine verdiği zararı sorguladıktan sonra kocasına fiziksel saldırıda bulunduğu anlatılıyordu.

Başka bir olayda, bir adam Futurism'e karısının yıllarca bipolar bozukluğunu başarılı bir şekilde yönettiğini - ChatGPT kullanmaya başlayana kadar - bunun hızlı bir aşağı doğru ruh sağlığı sarmalına yol açtığını ve kendisine karşı sözlü ve fiziksel istismara yol açtığını söyledi.

"[Bipolar bozukluğu] sadece yönetmekle kalmıyor, onu iyi yönetmekteydi," dedi. "Birlikte olduğumuz tüm süre boyunca, asla kaşımı çatdıran veya ruh sağlığı veya başka bir konuda sağlığı hakkında endişelenmeme neden olan hiçbir şey olmadı."

"Ama ChatGPT hayatına girdi," dedi adam. "Ve bu onu sarmalladı."

Bu yılın başlarında ChatGPT'yi yazmasına yardımcı olması için kullanmaya başlamıştı. Ancak kullanımı hızla sorunlu hale geldi.

"Bir sabah uyandım," diye anlattı, "ve bir şeylerin ters gittiğini anlayabiliyordum."

Karısı kısa süre sonra uyumayı bıraktı, bunun yerine manevi konular hakkında ChatGPT ile uzun ve yoğun konuşmalar yapmak için gece geç saatlere kadar uyanık kaldı - yapay zekânın içinde mistik bir varlıkla iletişim kurduğuna inanıyordu - hatta benzer yapay zekâ sarmalı olanlarla gerçeklik bükücü vahiylerini tartıştıkları bir Discord kanalı bile başlattı.

Adam, karısının ilaçlarını almayı bıraktığını ve bunun ruhsal durumunun hızla kötüleşmesine neden olduğunu söyledi. Ona ve birlikte yaşadıkları yaşlı annesine karşı sözlü olarak düşmanlaştı. Eşler arasındaki iletişim çökerken, kadın evde kocasının etrafında dolaşmaya, evde onun etrafında dolaşırken kendisi ve evlilikleri hakkında ChatGPT tarafından oluşturulan çıktıları yüksek sesle okumaya başladı.

İşler bir akşam kadın annesine karşı saldırganlaştığında zirveye ulaştı ve koca müdahale etmeye çalıştı. Onu bir kapıya itti. Annesi polisi aradı, onu aile içi şiddet nedeniyle tutukladılar ve geceyi hapiste geçirdi. Futurism tarafından alınan mahkeme kayıtları tutuklamanın ayrıntılarını doğruladı.

"Bütün bu zaman boyunca tutundum, sadece evli ama ayrı kalmaya çalıştım ve tekrar bir araya gelebileceğimizi düşündüm," dedi adam, sesi acı içinde. Ama şimdi bu olası görünmüyor: onlar da boşanıyor.

Ulusal Ruh Sağlığı Hastalığı Birliği'ne göre, tahmini 7 milyon Amerikalı yetişkin bipolar bozuklukla yaşıyor. Birçoğu durumu ilaç ve terapiyle ve bildikleri bazı davranışları, ortamları, maddeleri ve diğer tetikleyicileri önleyerek başarıyla yönetiyor (ruh hastalığı olan insanların, bipolar bozukluk da dahil olmak üzere, şiddet mağduru olma olasılığının şiddet uygulayanlardan çok daha yüksek olduğunu gösteren büyük bir araştırma grubu da var).

Adamın vurguladığı gibi, ChatGPT, karısının hiçbir uyarı almadığı bir tetikleyiciydi ve hayatları o zamandan beri dağıldı.

"Sanki arka sokağa giriyormuşsunuz ve soyulacak veya daha da kötüsü olacakmışsınız gibiydi," diye düşündü. "Bunu bilmek için hiçbir sebebiniz yoktu, çünkü her bakımdan güneşli bir piknik alanına giriyormuş gibi görünüyordu."

"Oraya girdiklerinde tedbirli olmaları gerektiğini düşünecek hiçbir sebep yoktu," diye ekledi.

Adam ve karısının ailesi onu tedavi olmaya çağırsa da, o reddetmeye devam ediyor.

"Sadece 'hayır, hayır, bende bir sorun yok' diye geri dönüyor," dedi adam. "'Terapiye gitmen gereken sensin.'"

***

Bu hikaye hakkında yorum yapması için ulaşılan OpenAI'den bir sözcü, aşağıdaki açıklamayı yaptı:

"İnsanlar bazen hassas anlarda ChatGPT'ye yöneliyorlar, bu yüzden uzmanlar tarafından yönlendirilen özenli bir şekilde yanıt vermesini sağlamak için çalışıyoruz. ChatGPT'nin varsayılan modeli, bu bağlamlarda daha yararlı ve güvenilir yanıtlar sunar ve güvenlik sınırları içinde kalmasına yardımcı olmak için 'güvenli tamamlamalar' getirir. Daha sonra, krizdeki daha fazla insana müdahaleleri genişleteceğiz, acil hizmetlere ve uzman yardıma ulaşmayı kolaylaştıracağız ve ergenler için korumaları güçlendireceğiz. Zaman içinde öğrenmeye ve yaklaşımımızı güçlendirmeye devam edeceğiz."

OpenAI, son aylarda kullanıcıların ChatGPT'ye olan tüketici takıntılar sırasında yıkıcı ruh sağlığı krizlerine çekildiği raporları nedeniyle artan bir tartışmayla karşı karşıya kaldı. Psikiyatristler tarafından giderek "yapay zekâ psikozu" olarak adlandırılan bu fenomen, ChatGPT gibi sohbet robotlarının kullanıcısını yönünü şaşırtan yanıltıcı anlatılara dahil etmesiyle karakterize edilir.

Futurism'in bildirdiği gibi, bu durum mevcut ruhsal hastalığı olan insanları yanı sıra psikiyatrik sorun geçmişi olmayan insanları da etkiliyor. Çoğu durumda sonuçlar ağır oldu: Bu öteki dünya sarmalına çekilen kullanıcılar iş kaybı, evsiz kalma, gönüllü ve gönülsüz yatış ve hapis cezası yaşadı. Bazıları çocuklarından ayrıldı, bazıları ise öldü. The Wall Street Journal'ın yakın zamanda bildirdiği gibi, sorunlu bir adamın paranoyasını pekiştiren ChatGPT'nin Connecticut'ta bir cinayetle intiharla bile bağlantılı olduğu belirtildi.

OpenAI, Ağustos ayında Kaliforniya'da 16 yaşındaki Adam Raine'nin intihar etme düşünceleri hakkında ChatGPT ile uzun konuşmalar yaptıktan sonra intihar etmesinin ardından ailesi tarafından açılan haksız ölüm davasıyla da karşı karşıya. Raine'nin ölüm haberine yanıt olarak OpenAI, NYT'ye ChatGPT ile uzun vadeli etkileşimlerin ürünün güvenlik önlemlerini aşındırabileceğini kabul etti.

ChatGPT ve ruh sağlığıyla ilgili raporlama ve davaları takiben yayınlanan bir dizi blog gönderisinde, OpenAI sohbet robotuyla çok zaman geçiren kullanıcılar için bildirimler ve yeni ebeveyn kontrolleri de dahil olmak üzere bir dizi değişiklik vaadinde bulundu ve ayrıca küresel doktor ve ruh sağlığı uzmanları ağlarıyla çalıştığını söyledi.

Aynı zamanda, ürününün katılım için optimize edildiği fikrine karşı çıktı ve kullanıcıları hayatları, ruh sağlığı ve ilişkileri hakkında hassas konuşmalarda sohbet robotuyla etkileşimde bulunmaktan caydırmayı reddetti. Bunun yerine OpenAI, bu etkileşimleri ürününün meşru kullanım durumları olarak tanımlamaya devam ediyor.

" 'Erkek arkadaşımla ayrılmalı mıyım?' gibi bir şey sorduğunuzda ChatGPT size cevap vermemelidir," Ağustos ayında "kişisel zorluklarınızı çözmenize yardımcı olma" bölümüyle ilgili son güvenlik odaklı bir blog gönderisinde yazıyor. Şöyle devam ediyor: "Bunu düşünmenize yardımcı olmalıdır - soru sorma, artıları ve eksileri tartma."

***

Stanford profesörü Lembke, sağlıksız sohbet robotu kullanımına yönelik çözümün bir bölümünü "dijital uyuşturucuları yeniden kavramsallaştırmak" - sohbet robotları dahil - "ne oldukları, yani potansiyel olarak sarhoş edici maddeler olarak" olarak görüyor.

"Böyle bir şekilde tasarlandıklarını fark etmek, insanların bunlara biraz farklı bir şekilde bakmalarına yardımcı olacaktır," diye ekledi. "Kullanmayacağımız anlamına gelmez, ancak insanlar onları dikkatli kullanmalıdır."

Devam ederek, sohbet robotlarının ayrıca bağımlılık olasılığı da dahil olmak üzere riskleri kullanıcıların bilmesini sağlayan "uyarılara" sahip olması gerektiğini söyledi. (OpenAI, ChatGPT'nin bağımlılık yapıp yapamayacağı ve sağlıksız bağımlılık olasılığı hakkında daha spesifik uyarılar verip vermemesi gerektiği konusunda spesifik soruları yanıtlamayı reddetti.)

Bu hikaye için konuştuğumuz insanlar, ChatGPT'nin ortaklarını sağlıksız kullanım kalıplarına taktığını ve OpenAI'nin kullanıcıları olası riskler konusunda yeterince bilgilendirmediğini büyük ölçüde kabul etti.

"ChatGPT'de yeterli risk azaltma olduğuna inanmıyorum," dedi karısının sohbet robotunu kullanmasının ardından boşanma davası sürecinde olan bir adam. "Bu kelimenin tam anlamıyla ailemi yok etti."

"Onu gerçekten özlüyorum. Bu 12 yılı aşkın ortağım," dedi karısının ChatGPT takıntısına ve ardından ailesinin dağılmasına yol açmasının ardından hayatının durumundan "tam bir yorgunluk" hissettiğini anlatan başka bir kaynak.

"Kayıp çok büyük," diye ekledi. "Ve bir evliliğin sonu için kederin ne olduğunu, hayatımın 'Black Mirror' bölümü şoku, Sam Altman'a olan öfkeyi, çocuklarım için endişeyi, belki ona yardımcı olmanın bir yolu olduğuna dair umudun izlerini ve en iyi arkadaşım artık burada olmadığı için derin bir yalnızlığı anlamak için duygularımı ayırmak çok zor olabilir."

Eski eşler ve ortaklar, çoğu ilişki gibi onların ilişkilerinin de ChatGPT'den önce kusursuz olmadığını açıkça belirttiler. İnsanların bildirdiğine göre, bu kusurlardan bazıları normal evlilik zorlukları gibiydi: mali sorunlar veya bir eşin iş stresi, ruh sağlığı veya amaç duygusuyla mücadelesi. Diğerleri, çocuk yetiştirme konusunda çatışmalar, madde bağımlılığı sorunları veya uyumluluk sorunları gibi daha ciddi krizler bildirdi.

Yine de, birçok kişi, yapay zekânın etkisi olmadan ilişkilerinin kurtarılabileceğini veya en azından daha dostane bir şekilde - ve teknolojinin gölgesinin ağır bir şekilde üstlerinde asılı kalmadan - sona erebileceğini merak ediyor.

"[OpenAI bir şey yapana kadar] bu kaçınılmaz olarak daha fazla insana olacak," diye ekledi şimdiki eski kız arkadaşıyla velayet savaşı içinde olan başka bir adam. "İnsanlar birbirleri arasındaki ilişkiler üzerinde çalışmalı ve size söylediğiniz her şeyin doğru olduğuna güvenen bir robota güvenmemelidir... gerçekten korkutucu."

"Empatisini kelimenin tam anlamıyla bir makineye devretmiş," dedi şimdiki eski kocasıyla boşanmakta olan bir kadın. "Hayatını mahvetti. Harika bir hayatımız vardı."

Sonra kendini düzeltti: "Harika bir hayatımız vardı."

***

Evlilikleri önceki bir uzlaşmanın ardından dağılan - karısının 10 yaşındaki oğullarına boşanma hakkında mesaj atmak için ChatGPT kullandığı çift - sonunda ayrılmanın doğru seçim olduğu konusunda anlaştı. Davalarını açmaya hazırlanırken, işler sivil gibi hissetti, diye belirtti koca.

Yani, bir gün, karısının davası açılmadan önce büyük alımlardan kaçınma konusunda ortak bir anlaşmayı bozmasıyla. Kızgın ve ihanete uğramış hissetti, telefonunu çıkarıp yanıt vereceğini bildiği bir şeyle mesajlaşmaya başladı: ChatGPT.

"Sadece öfke içindeydim," dedi koca. "Ve o akşam ChatGPT ile etkileşimde bulunmaya devam ettim ve bu durumun yasal bir sorun olduğunu, önemli bir çizgiyi geçtiğini, avukatımla nasıl görüşeceğimi ve avukatın ne dosyalamaması gerektiğini söylemeye devam etti."

Adam, sohbet robotuyla konuşmaya devam ederken sinirinin nasıl yükseldiğini anlattı. Sadece onun tarafındaki hikayeyle beslenen ChatGPT, karısının davranışlarını manipülatif, hesapçı ve pervasız olarak nitelendirdi; eylemlerinin çok ciddi olduğunu ve kocasını yasal işlem başlatmaya teşvik ettiğini söyledi.

Ertesi gün, endişeli ve hala öfkeyle kaynayan koca, durumu insan avukatına götürdü. Ve ortaya çıktı ki? Hiç önemli değildi.

"Ertesi gün gerçek avukatımla konuştuğumda, avukatım 'tamam' dedi," diye hatırladı adam. "Ve o noktada fark ettim - aman Tanrım, aynı sarmalın içine düştüm."

"Nasıl olduğunu görebiliyorum," dedi. "Bana ilk elden oldu."

Yapay zekâ hakkında daha fazlası: "Yapay Zeka Psikozu"ndan Muzdarip İnsanlar İçin Destek Grubu Başlatılıyor