
Yapay zeka yarışında hız ve güvenlik gerçekten bir arada bulunabilir mi?
Özet
OpenAI araştırmacısı Boaz Barak'ın rakip şirket xAI'ye yönelik yapay zeka güvenliği eleştirisi, sektördeki iç mücadeleyi gözler önüne serdi. Eski bir OpenAI çalışanı Calvin French-Owen, OpenAI'da güvenlik üzerine çalışan birçok insanın olduğunu, ancak bu çalışmaların çoğunun yayınlanmadığını belirtti. Bu durum, yapay zeka endüstrisinin rekabet hızı ve güvenlik kaygıları arasındaki 'Güvenlik-Hız Paradoksu'na yakalandığını gösteriyor. OpenAI'nin hızlı büyümesi ve AGI yarışındaki baskı, gizlilik ve hız kültürünü beraberinde getiriyor.
Rakip bir şirkete yönelik bir OpenAI araştırmacısının yapay zeka güvenliğiyle ilgili bir eleştirisi, sektörün iç mücadelesine, kendi kendine karşı bir savaşa bir pencere açtı.
Bu, şu anda izinli olarak Harvard'da profesörlük yapan ve OpenAI'da güvenlik üzerine çalışan Boaz Barak'ın bir uyarısıyla başladı. xAI'nin Grok modelinin piyasaya sürülmesini, manşetlere çıkan şakalarından dolayı değil, eksik olanlar nedeniyle "tamamen sorumsuz" olarak nitelendirdi: kamuya açık bir sistem kartı, detaylı güvenlik değerlendirmeleri, kırılgan bir norm haline gelen şeffaflığın temel eserleri.
Bu açık ve gerekli bir çağrıydı. Ancak, şirketten ayrıldıktan sadece üç hafta sonra eski OpenAI mühendisi Calvin French-Owen'dan gelen samimi bir yansıma, hikayenin diğer yarısını gösteriyor.
French-Owen'ın açıklaması, OpenAI'da çok sayıda insanın gerçekten güvenlik üzerinde çalıştığını, nefret söylemi, biyolojik silahlar ve kendine zarar verme gibi çok gerçek tehditlere odaklandığını gösteriyor. Ancak, şu içgörüyü sunuyor: "Yapılan çalışmaların çoğu yayınlanmıyor," diye yazdı ve OpenAI'nin "bunu daha fazla duyurması gerektiğini" ekledi.
Burada, iyi bir aktörün kötü birini azarlamasının basit anlatısı çöker. Onun yerine, tüm sektörde yaygın olan gerçek bir ikilem görüyoruz. Tüm yapay zeka endüstrisi, rekabet etmek için baş döndürücü bir hızla hareket etme ihtiyacı ile bizi güvende tutmak için ihtiyatla hareket etme ahlaki ihtiyacı arasındaki derin, yapısal bir çelişki olan 'Güvenlik-Hız Paradoksu'na yakalanmış durumda.
French-Owen, OpenAI'nin tek bir yılda personel sayısını üçe katlayarak 3.000'in üzerine çıkardığı, "bu kadar hızlı ölçeklendiğinizde her şeyin bozulduğu" bir kontrollü kaos halinde olduğunu öne sürüyor. Bu kaotik enerji, Google ve Anthropic'e karşı AGI için verilen "üç atlı bir yarış" ın muazzam baskısıyla yönlendiriliyor. Sonuç, inanılmaz bir hız kültürü, aynı zamanda bir gizlilik kültürüdür.
OpenAI'nin kodlama aracı Codex'in yaratılmasını düşünün. French-Owen, projeyi küçük bir ekibin yedi haftada sıfırdan devrim niteliğinde bir ürün inşa ettiği bir "çılgın sprint" olarak adlandırıyor.
Bu, hızın ders kitabı bir örneğidir; çoğu gece ve hatta hafta sonları bunu gerçekleştirmek için gece yarısına kadar çalışmayı anlatıyor. Bu, bu hızın insan maliyetidir. Bu kadar hızlı hareket eden bir ortamda, yapay zeka güvenliği araştırmalarını yayınlamanın yavaş, metodik çalışmasının, yarıştan bir dikkat dağıtıcı gibi hissettirmesine şaşmamalı.
Bu paradoks, kötü niyetten değil, bir dizi güçlü, birbirine kenetlenmiş güçten doğmuştur.
İlk olma konusunda bariz bir rekabet baskısı var. Ayrıca, "bilim insanları ve tamircilerden" oluşan gevşek gruplar olarak başlayan ve metodik süreçlere göre değişen çığır açan atılımlara değer veren bu laboratuvarların kültürel DNA'sı da var. Ve ölçümle ilgili basit bir sorun var: hızı ve performansı ölçmek kolaydır, ancak başarıyla önlenen bir felaketi ölçmek son derece zordur.
Günümüzün yönetim kurullarında, hızın görünür metrikleri neredeyse her zaman, güvenliğin görünmez başarılarından daha yüksek sesle bağıracaktır. Ancak, ilerlemek için parmakla işaret etmekle ilgili olmamalı - temeli değiştirmekle ilgili olmalı.