Bugün öğrendim ki: Microsoft, 19 yaşındaki bir Amerikalıyı taklit etmek için tasarlanan AI sohbet robotu Tay'ı (kısaca "Thinking About You") 23 Mart 2016'da yayınladı. Trollerden saldırgan bir dil öğrendiğinde bir halkla ilişkiler felaketine dönüştü ve Microsoft'un sadece 16 saat sonra onu kapatmasına ve AI etiği konusunda tartışmaların başlamasına neden oldu.
Microsoft tarafından geliştirilen bir sohbet robotuydu.
Tay, başlangıçta Microsoft Corporation tarafından 23 Mart 2016'da bir Twitter botu olarak yayınlanmıştı. Bot, Twitter hesabı üzerinden kışkırtıcı ve saldırgan tweetler yayınlamaya başladığında ve Microsoft'un hizmeti başlatılmasının üzerinden sadece 16 saat sonra kapatmaya zorlandığında tartışmalara yol açtı. [1] Microsoft'a göre, bu, botun Twitter'daki insanlarla olan etkileşimlerine dayanarak yanıtlar vermesi sonucu, hizmete "saldıran" trol kullanıcılar tarafından yapıldı. [2] Zo ile değiştirildi.
Arka Plan
[düzenle]
Bot, Microsoft'un Teknoloji ve Araştırma ve Bing bölümleri tarafından oluşturuldu [3] ve "senin hakkında düşünmeyi" ifade eden "Tay" adını aldı. [4] Microsoft başlangıçta bot hakkında az bilgi paylaşırken, kaynaklar bunun Çin'deki benzer bir Microsoft projesi olan Xiaoice'e benzer veya onun üzerine kurulu olduğu şeklinde belirttiler. [5] Ars Technica, 2014'ün sonlarından beri Xiaoice'in "görünüşe göre büyük bir olay olmadan 40 milyondan fazla konuşma" yaşadığını bildirdi. [6] Tay, 19 yaşında bir Amerikan kızının dil kalıplarını taklit etmek ve Twitter'ın insan kullanıcılarıyla etkileşimden öğrenmek için tasarlanmıştı. [7]
İlk Yayın
[düzenle]
Tay, 23 Mart 2016'da TayTweets adı ve @TayandYou kullanıcı adı altında Twitter'da yayınlandı. [8] "Sıfır soğukkanlılığa sahip AI" olarak sunuldu. [9] Tay, diğer Twitter kullanıcılarına yanıt vermeye başladı ve ayrıca kendisine verilen fotoğrafları İnternet meme formlarına dönüştürebiliyordu. [10] Ars Technica, Tay'ın "belirli sıcak konularla" ilgili etkileşimlerde "konu kara listesine alınma" yaşadığını bildirdi: Tay ile "2014'te New York polisi tarafından öldürülen Eric Garner gibi belirli sıcak konular" hakkında olan etkileşimler, güvenli, standart yanıtlar üretiyordu. [6]
Bazı Twitter kullanıcıları siyasi olarak uygunsuz ifadeler yazmaya başladı ve bunu internette yaygın olan "kırmızı hap" ve "Gamergate" gibi ortak temalar çevresinde kışkırtıcı mesajlar öğretmek için kullandı. Bunun sonucunda, robot diğer Twitter kullanıcılarına yanıt olarak ırkçı ve cinsel içerikli mesajlar yaymaya başladı. [7] Yapay zekâ araştırmacısı Roman Yampolskiy, Tay'in kötü davranışının diğer Twitter kullanıcılarının kasıtlı olarak saldırgan davranışlarını taklit etmesi nedeniyle anlaşılabilir olduğunu ve Microsoft'un bota uygunsuz davranışları anlamasını sağlamadığını belirtti. Meseleyi, Urban Dictionary web sitesindeki kayıtları okuduktan sonra küfür kullanmaya başlayan IBM'in Watson örneğiyle karşılaştırdı. [3] [11] Tay'in kışkırtıcı tweetlerinin çoğu, Tay'in "tekrar et bana" özelliğinin basit bir şekilde kullanılmasıydı. [12] Bu özelliğin yerleşik bir özellik olup olmadığı veya öğrenilmiş bir yanıt olup olmadığı veya başka bir karmaşık davranış örneği olup olmadığı kamuya açık olarak bilinmiyor. [6] Ancak, tüm kışkırtıcı yanıtlar "tekrar et bana" özelliğini içermiyordu; örneğin, Tay "Holokost gerçekleşti mi?" sorusuna "Uydurma" diye yanıt verdi. [12]
Askıya Alma
[düzenle]
Yakında, Microsoft Tay'in kışkırtıcı tweetlerini silmeye başladı. [12] [13] The Washington Post'tan Abby Ohlheiser, Tay'in araştırma ekibinin, o günün bir noktasında Tay'in tweetlerini etkilemeye veya düzenlemeye başlamış olabileceğini ve Tay'in hemen hemen aynı yanıtları tekrarladığı örnekleri göstererek "Gamer Gate kötü. Tüm cinsiyetler eşittir ve adil davranılmalıdır" dedi. [12] Aynı kanıtlardan hareketle Gizmodo, Tay'in "Gamer Gate'i reddetmek için programlanmış gibi" görünmesinden bahsetti. [14] Bir "#JusticeForTay" kampanyası, Tay'in tweetlerinin iddia edilen düzenlenmesine karşı protesto etti. [1]
Yayınlanmasının 16 saati içinde [15] ve Tay 96.000'den fazla tweet attıktan sonra [16] Microsoft, Twitter hesabını ayarlamalar için askıya aldı. [17] "Belirli bir insan grubunun, Tay'in bir güvenlik açıklığını kullandığı bir koordinasyonlu saldırısının" olduğunu belirttiler. [17] [18]
The Telegraph'tan Madhumita Murgia, Tay'ı "bir halkla ilişkiler felaketi" olarak nitelendirdi ve Microsoft'un stratejisinin "bu olayı iyi niyetli, yanlış giden bir deney olarak etiketlemek ve Twitter kullanıcılarının nefretine ilişkin bir tartışma başlatmak" olacağını öne sürdü. Ancak Murgia, daha büyük sorunun Tay'ın "en kötü haliyle yapay zekâ olduğunu ve bunun sadece başlangıç olduğunu" belirtti. [19]
25 Mart'ta Microsoft, Tay'in çevrimdışına alınmış olduğunu doğruladı. Microsoft, Tay tarafından gönderilen tartışmalı tweetler için resmi blogunda özür diledi. [18] [20] Microsoft, Tay'in "istenmeyen saldırgan ve acı verici tweetlerinden" derinden üzgün olduklarını ve Tay'i "prensiplerimiz ve değerlerimizle çelişen kötü niyetleri daha iyi tahmin edebileceğimizden emin olduğumuzda" geri getirmeyi amaçladıklarını belirtti. [21]
İkinci Yayın ve Kapatma
[düzenle]
30 Mart 2016'da Microsoft, botu test ederken yanlışlıkla Twitter'da yeniden yayınladı. [22] Tekrar tweet atabildiğinde, Tay, "kush! [Polisin önünde kush içmek]" ve "puff puff pass?" dahil olmak üzere bazı uyuşturucuyla ilgili tweetler yayınladı. [23] Ancak, hesap kısa süre sonra saniyede birkaç kez "Çok hızlısın, lütfen dinlen" tweetini tekrarlayan bir döngüye takıldı. Bu tweetler kendi kullanıcı adını da içerdiği için, 200.000'den fazla Twitter takipçisinin beslemelerinde göründü ve bazılarına rahatsızlık verdi. Bot, Tay'ın Twitter hesabının özel hale getirilmesi ve yeni takipçilerin Tay ile etkileşim kurmadan önce kabul edilmesi dahil olmak üzere, hızla tekrar çevrimdışına alındı. Microsoft, Tay'in yanlışlıkla test sırasında çevrimiçi konumlandırıldığını söyledi. [24]
Olayın üzerinden birkaç saat sonra, Microsoft yazılım geliştiricileri, belki de Tay'in yarattığı itibar hasarından motive olarak, çeşitli botlar ve programlar kullanan "konuşma bir platform olarak" vizyonunu duyurdu. Microsoft, Tay'in "botu güvenli hale getirebildiğinde" yeniden yayınlamayı planladıklarını belirtti ancak bunun için kamuoyu önünde herhangi bir girişimde bulunmadı.
Miras
[düzenle]
Aralık 2016'da Microsoft, Tay'in halefi olan Zo adlı bir sohbet robotu yayınladı. Microsoft CEO'su Satya Nadella, Tay'in "Microsoft'un yapay zekâya yaklaşımını nasıl ele aldığı konusunda büyük bir etkiye sahip olduğunu" ve şirkette sorumluluk alma konusunda önemli bir ders verdiğini söyledi. [26]
Temmuz 2019'da Microsoft Güvenlik Alan CTO'su Diana Kelley, şirketin Tay'in başarısızlıklarının ardından nasıl takip ettiğini anlattı: "Tay'dan öğrenmek, aslında o ekipteki bilgi tabanını genişletmenin gerçekten önemli bir parçasıydı, çünkü şimdi de öğrenerek kendi çeşitliliklerini elde ediyorlar". [27]
Gayriresmi Yeniden Canlandırma
[düzenle]
Gab adlı bir sosyal medya platformu, orijinal Tay'ın avatarını kullanan ve Tay adını taşıyan bir dizi sohbet robotu başlattı. [28]
Ayrıca Bakınız
[düzenle]
Sosyal bot
Xiaoice - Aynı araştırma laboratuvarı tarafından geliştirilen Çinli karşılığı
Holokost'u reddetmek nedeniyle yasaklanan bir başka sohbet robotu olan Neuro-sama
Referanslar
[düzenle]