
OpenAI Dosyaları: Eski personel, kâr hırsının yapay zeka güvenliğini tehlikeye attığını iddia ediyor
Özet
‘The OpenAI Dosyaları’ raporu, OpenAI'nin kar amacıyla güvenliği tehlikeye attığını ve yapay zekayı tüm insanlığa hizmet etme misyonundan uzaklaştığını iddia ediyor. Şirket, yatırımcıları tatmin etmek için kar amacı gütmeyen statüsünü ve etik değerlerini göz ardı ederek, orijinal kurallarını yıkma eğiliminde. CEO Sam Altman'ın liderliği ve dürüstlüğü konusunda derin endişeler bulunuyor. Eski çalışanlar, bu değişimleri derin bir ihanet olarak görüyor ve güven krizine dikkat çekiyor.
‘The OpenAI Dosyaları’ raporu, endişeli eski çalışanların seslerini bir araya getirerek, dünyanın en önde gelen yapay zeka laboratuvarının kar için güvenliği tehlikeye attığını iddia ediyor. Yapay zekanın tüm insanlığa hizmet etmesini sağlamak için asil bir arayış olarak başlayan şey, artık güvenlik ve etik değerleri geride bırakarak büyük karlar peşinde koşan, sadece başka bir şirket devine dönüşmek üzere.
Her şeyin merkezinde, orijinal kuralları yıkma planı yatıyor. OpenAI başladığında, önemli bir söz verdi: Yatırımcıların ne kadar para kazanabileceğine bir sınır koydu. Başarılı bir şekilde dünyayı değiştirecek bir yapay zeka yaratmaları halinde, büyük faydaların sadece birkaç milyardere değil, tüm insanlığa akacağı yönünde yasal bir garantiydi bu. Şimdi ise, sınırsız getiri isteyen yatırımcıları tatmin etmek için bu sözün silinme eşiğinde olduğu görülüyor.
OpenAI'yi inşa eden insanlar için, yapay zeka güvenliğinden bu kopuş derin bir ihanet gibi geliyor. Eski bir çalışan olan Carroll Wainwright, "Kâr amacı gütmeyen misyon, riskler yükseldiğinde doğru şeyi yapma sözüydü," diyor. "Şimdi riskler yükseldiğinde, kâr amacı gütmeyen yapı terk ediliyor, bu da sözün nihayetinde boş olduğu anlamına geliyor."
Derinleşen güven krizi
Bu derin endişe duyan birçok ses, tek bir kişiye işaret ediyor: CEO Sam Altman. Endişeler yeni değil. Raporlar, önceki şirketlerinde bile üst düzey meslektaşlarının onu "aldatıcı ve kaotik" davranışları nedeniyle görevden aldırmaya çalıştığını gösteriyor.
Aynı güvensizlik hissi onu OpenAI'ye kadar takip etti. Şirketin kurucu ortağı ve Altman ile yıllarca çalışan, daha sonra kendi girişimini başlatan Ilya Sutskever, ürkütücü bir sonuca vardı: "Bence Sam, AGI için düğmeye basması gereken kişi değil." Altman'ın dürüst olmadığını ve kaos yarattığını, kolektif geleceğimizden potansiyel olarak sorumlu biri için korkunç bir kombinasyon olduğunu hissetti.
Eski CTO Mira Murati de aynı derecede rahatsızdı. "Sam'in bizi AGI'ye götürmesi konusunda rahat değilim," dedi. Altman'ın insanlara duymak istediklerini söyleyip, daha sonra yollarına çıkmaları halinde onları baltaladığı toksik bir model tanımladı. Bu, eski OpenAI yönetim kurulu üyesi Tasha McCauley'nin yapay zeka güvenliği söz konusu olduğunda "kabul edilemez" olduğunu söylediği bir manipülasyonu akla getiriyor.
Bu güven krizinin gerçek dünya sonuçları oldu. İçeriden alınan bilgilere göre, OpenAI'deki kültür değişti ve yapay zeka güvenliği çalışmaları "parlak ürünler" yayınlamaya kıyasla geri planda kaldı. Uzun vadeli güvenlikten sorumlu ekibe liderlik eden Jan Leike, "rüzgara karşı yelken açtıklarını", hayati araştırmalarını yapmak için ihtiyaç duydukları kaynakları elde etmekte zorlandıklarını söyledi.
Bir başka eski çalışan William Saunders, ABD Senatosu'na korkunç bir tanıklık bile verdi ve uzun süreler boyunca güvenliğin o kadar zayıf olduğunu, yüzlerce mühendisin şirketin GPT-4 dahil en gelişmiş yapay zekasını çalabileceğini ortaya koydu.
OpenAI'de yapay zeka güvenliğine öncelik verilmesi için çaresiz bir ricada bulunmak
Ancak ayrılanlar sadece çekip gitmiyor. OpenAI'yi uçurumdan geri çekmek için bir yol haritası belirlediler.