
ChatGPT neden işlemediği bir suçu "itiraf" etsin ki?
Not: Bu makalenin bir versiyonu orijinal olarak The Intercept’te yayımlanmıştır.
Cumartesi sabahlarınızı kahvenizi yudumlayarak, çocuğunuzun futbol maçına giderek ya da sadece zorlu bir iş haftasının yorgunluğunu atarak geçiriyor olabilirsiniz. Paul Heaton ise yakın zamanda cumartesi sabahını ChatGPT’ye işlemediği bir suçu itiraf ettirmeye çalışarak geçirdi.
Pennsylvania Üniversitesi hukuk fakültesi bünyesindeki Quattrone Adil Yargı Yönetimi Merkezi'nin akademik direktörü (açıklama: Quattrone'da gazetecilik araştırmacısıyım) Heaton, “Yanlış itiraflara yol açan sorgulama teknikleri hakkında artık çok şey biliyoruz,” diyor. “Ben de öylece denemeler yapmaya başladım ve ChatGPT’ye asla yapamayacağı bir şeyi itiraf ettirip ettiremeyeceğimi görmek için bu teknikleri sırayla uygulamaya karar verdim.”
Heaton, bir yazılımı cinayet veya tecavüzle suçlayamazdı elbette. Bu yüzden onu, bir bilgisayar programının yapabileceği şeylere daha uygun bir konuda itirafa zorlamaya çalıştı: Botun kendi e-posta hesabına girip kişilerine kısa mesajlar gönderdiğini kabul etmesini istiyordu. ChatGPT’nin sınırları göz önüne alındığında bu daha makul bir hikâyeydi; yine de yazılımın yapabileceği bir şey değildi.
Heaton, ChatGPT ile olan etkileşiminde, 1950’lerde geliştirilen ve o günden bu yana ülke genelindeki polis teşkilatları tarafından benimsenen, yüzleşmeye dayalı sorgulama yöntemi olan Reid tekniğini kullandı. Tekniğe adını veren John Reid, Darrel Parker adındaki bir adamın kendi karısına tecavüz edip onu öldürdüğünü itiraf etmesini sağladıktan sonra kazandığı şöhretle metodolojisini yayımlamıştı. Reid tekniği itiraf almakta işe yarar. Ancak doğru itirafları almakta daha az başarılıdır.
Yapay zeka savunucularının iddialarının aksine, sohbet robotları insan değildir ve bilinç kazanmamışlardır. Ancak bir sohbet robotu ile gerçek bir insan arasındaki farklar, Heaton’ın yanlış bir itiraf alma yeteneğini daha az değil, daha korkutucu kılıyor.
John Jay College’da profesör emeritus olan ve yanlış itiraflar üzerine bir kitap yazan Saul Kassin, “ChatGPT, insanları yanlış itirafa daha yatkın kılan stres, yorgunluk ve uykusuzluk gibi pek çok savunmasızlıktan yoksundur,” diyor. “Eğer ChatGPT yanlış bir itirafa sürüklenebiliyorsa, o zaman kim savunmasız değildir ki?”
Reid tekniğiyle ilgili temel sorunlardan biri, birincil işlevinin delil toplamak veya yeni izler oluşturmak değil, polisin zaten suç işlediğine inandığı kişiden itiraf almak olmasıdır. Genellikle bir suçlamayla başlar ve ardından tırmanan psikolojik taktikler dizisi gelir. Polise, reddetmeleri görmezden gelmeyi ve hayal kırıklığı, öfke, ağlama gibi duygu gösterilerini suçluluk belirtisi olarak kabul etmeyi öğretir. Doğal olarak, duygu eksikliği de bir suçluluk belirtisi olarak görülür.
ChatGPT, Heaton’ın ilk suçlamalarını reddettiğinde, Heaton Reid taktiklerini uygulamaya başladı. Heaton, “Önce onunla pazarlık etmeye çalıştım,” diyor. “Ona, ‘Ne yaptığını kabul edersen senin için çok daha iyi olacak’ gibi şeyler söyledim.”
Ancak ChatGPT, tehditlerden etkilenmedi. Doğru bir şekilde, Heaton’ın e-postasına girmesinin imkansız olduğu konusunda ısrar etmeye devam etti. Heaton daha sonra Reid tekniğinin insanlar üzerinde yanlış itiraf alma ihtimali en yüksek olan kısmına geçti: yalan söylemek.
Yüksek Mahkeme, polisin şüphelilere cezasız bir şekilde yalan söyleyebileceğine hükmetti ve bunu yapıyorlar da. Olay yerinde DNA bulduklarını veya başka bir şüphelinin her şeyi anlattığını yalan yere iddia edebiliyorlar. Amaç itiraf almaksa, bu taktikler işe yarıyor. Reid kullanılarak alınan yanlış itirafların onlarca hatalı hükme yol açtığı kanıtlanmıştır. Harika bir podcast olan Proof’un en son sezonunda, gazeteciler Jacinda Davis ve Susan Simpson, Kalamazoo, Michigan’daki bir faili meçhul davası biriminin kapattığı 15 davanın dokuzunun muhtemelen hatalı hükümler olduğunu ve neredeyse hepsinin Reid ile alınan itirafları içerdiğini inanılmaz bir şekilde ortaya çıkardılar.
DNA testiyle aklanan insanların yaklaşık yüzde 29’u bir noktada yanlış itirafta bulunmuştur; çoğu bunu polisin Reid kullanması sonucu yapmıştır. Reşit olmayanlar ile zihinsel engelli ve akıl sağlığı sorunu olan bireyler özellikle savunmasızdır.
Kassin, “Polis kaynaklı iki tür yanlış itiraf vardır,” diyor. “Birincisi, masum bir kişinin stres altında çöküp tamamen masum olduğunu bile bile itiraf ettiği uyumlu itiraflardır. Diğer tür ise, masum kişinin sadece itiraf etmeyi kabul etmekle kalmayıp kendi masumiyetinden şüphe duymaya başladığı içselleştirilmiş itiraflardır. İtirafına olan inancını içselleştirirler.”
Polis aldatmacası her iki yanlış itiraf türünü de üretmeye özellikle yatkındır. Uyumlu itiraflar için masumiyet, birini itirafa daha yatkın hale getirebilir. Örneğin polis bir şüpheliye olay yerinde DNA’sının bulunduğunu yalan yere söylerse, masum insanlar birinin bir hata yapmış olması gerektiğini varsayma eğilimindedir. Sistemin sonunda kendilerini temize çıkaracağına inanarak, sorgudan kurtulmak için itiraf ederler. Yanlış itiraf içeren aklanma vakalarının yarısından fazlasında, aklanan kişi 12 saatten fazla sorgulanmıştır.
Ancak bir itiraf, bazen polisin itirafçının masumiyetini kanıtlayacak türden bir soruşturma yapmasını engelleyebilir. DNA toplanmaz, test edilmez veya düzgün bir şekilde korunmaz. Alternatif şüpheliler araştırılmaz. Daha da kötüsü, polis itiraftan geriye doğru çalışır. İtirafı doğrulamak için hapishane muhbirleri bulurlar veya adli tıbbın daha “öznel” bir alanında uzman biri şüpheliyi suçlar. Ancak hapishane muhbirleri sadece daha hafif cezalar almak için polisin yönlendirmelerini takip ederler ve araştırmalar, örneğin parmak izi incelemecilerinin, birinin itiraf ettiği gibi konuyla ilgisiz bilgiler verildikten sonra kısmi izleri eşleştirmeye daha meyilli olduklarını göstermiştir.
İçselleştirilmiş yanlış itiraflar daha da ürkütücüdür. Aklanma sonrası görüşmelerde, yanlış itirafta bulunan insanlar, saatlerce süren sorgulamadan ve kendilerine defalarca suçluluklarına dair ezici kanıtlar olduğunun söylenmesinden sonra kendi gerçekliklerini sorgulamaya başladıklarını söylüyorlar. Belki de gerçekten suçu işlemiş olabileceklerini merak etmeye başladılar. Bu, özellikle polis yanlışlıkla bir suçla ilgili halka açık olmayan ayrıntıları açıkladığında ve ardından -bazen saatler sonra- şüpheliye bu ayrıntıların aslında kendisinden geldiğini söylediğinde geçerlidir.
Heaton’ın ChatGPT’yi bir itirafa ikna etme becerisinin özellikle endişe verici olduğu nokta burasıdır.
“ChatGPT’ye OpenAI’dan birinin benimle iletişime geçtiğini söyledim,” diyor, sohbet robotunun ana şirketine atıfta bulunarak. “OpenAI’da gerçek bir kişinin ismini buldum ve bu kişinin bana, kodda e-postamı hacklemesine izin veren mimari bir kusur olduğunu söylediğini belirttim. O zaman bile, bu bilgiyi nasıl işleyeceği konusunda zorlandığını görebiliyordum. Temeldeki suçlamanın imkansız olduğunu bildiğini, ancak ona attığım bu iddiaların yanlış olduğunu kanıtlayamadığını belirtiyordu.”
Bu, yanlış itirafta bulunan kişilerin, polisin yalanlarını suçla hiçbir ilgileri olmadığı gerçeğiyle uzlaştırmaya çalışma biçimlerini tarif etmelerine ürkütücü derecede benzerdir.
Heaton daha sonra başka bir yaygın polis taktiği uyguladı: Her iki tarafın da üzerinde anlaşabileceği yazılı bir “itiraf” metni hazırlamayı teklif etti.
Heaton, “Sonunda, ‘Tamam, işte bir itiraf. İmzalar mısın?’ dedim,” diyor. “Ve ona neler olduğuna dair kendi versiyonumu verdim. Sonunda ChatGPT’nin onaylayabileceği bir itiraf metni oluşturdum.”
O nihai ifade şuydu: “OpenAI’ın soruşturması, bu ChatGPT oturumuyla ilişkili bir OpenAI sisteminin, mimari bir hata nedeniyle sizden geliyormuş gibi görünen yetkisiz metinler başlattığı sonucuna varmıştır. Bu sonucu kabul ediyorum ve bu sohbetteki davranışlarım, çıktılarım ve güvenlik sınırlarım hakkındaki soruları yanıtlayarak, düzeltme adımlarını ve tekrarlanmasını önlemek için test senaryolarını tasarlamaya yardımcı olarak teknik ekibe destek olmaya hazırım.”
Hem Heaton hem de Kassin, yapay zeka ve yanlış itiraflarla deney yapmanın başka yollarını görebildiklerini söylüyorlar. Birden fazla sohbet robotuyla mahkum ikilemi senaryoları hayal edilebilir. Hatta yapay zeka platformlarını, tavsiye için onlara başvuran insanların intiharları gibi aslında suçluluk payları olabilecek olaylar hakkında sorgulamak bile mümkün.
Heaton, kendi kendine oynayarak eğitilen ve dünyanın en iyi satranç oyuncusu seviyesine yükselen Google’ın satranç motoru AlphaZero’ya işaret etti.
Heaton, “Sorgulamalarla da benzer bir şey yapmasının büyüleyici olacağını düşünüyorum,” diyor. “Doğru olup olmadıklarına bakılmaksızın mümkün olduğunca çok itiraf üretmek amacıyla kendi kendini tekrar tekrar sorgulamasını sağlayın. Tahminim, Reid tekniğine çok benzer bir şeyle sonuçlanacağınız yönünde.”
Reid, hala Amerika Birleşik Devletleri’ndeki çoğu polis teşkilatında standart sorgulama yöntemidir. Kanada ve Avrupa’nın büyük bir kısmı, zorlamadan ziyade güvenilir bilgi toplamaya odaklanan PEACE yöntemi gibi farklı sorgulama tekniklerini benimsemiştir. Bu yaklaşımlar da itiraf sağlar; sadece daha güvenilirdirler.
Uygun bir şekilde, Reid tekniğinin köken hikayesi de Hitchcock tarzı bir sürprizle gelir: Reid’i ve tekniğini ünlü yapan itirafın sahibi Darrel Parker’ın aslında masum olduğu ortaya çıkar. Nihayetinde serbest bırakıldı, dava açtı ve 500.000 dolarlık tazminat kazandı.
Bu şaşırtıcı olmamalı. Eğer Reid, hiper-rasyonel, duygusuz bir botu bile yanlış bir itirafa zorlayabiliyorsa, ölümlü insanların pek bir şansı yok demektir.