'AGI'yi Piyasaya Sürmeden Önce Kesinlikle Bir Sığınak İnşa Edeceğiz'
2023 yazında, OpenAI'nin kurucu ortaklarından ve baş bilim insanlarından Ilya Sutskever, şirketin yeni araştırmacılarından oluşan bir grupla görüşüyordu. Tüm geleneksel ölçütlere göre Sutskever yenilmez hissetmeliydi: Tarihte en hızlı büyüyen uygulama olan ChatGPT'nin oluşturulmasına yardımcı olan büyük dil modellerinin arkasındaki beyindi; şirketinin değerlemesi fırlamıştı; ve OpenAI, Silikon Vadisi'nin geleceğini güçlendirdiğine inanılan sektörün tartışmasız lideriydi. Ancak baş bilim insanı kendisiyle savaş halinde gibi görünüyordu.
Sutskever uzun zamandır yapay genel zekanın (AGI) kaçınılmaz olduğuna inanıyordu—şimdi, üretici yapay zeka sektöründe işler hızlanırken, AGI'nin gelişi yaklaşmak üzereydi, onun doktora danışmanı ve akıl hocası olan yapay zeka öncüsü Geoff Hinton'a ve Sutskever'ın düşünce tarzına aşina başka bir kişiye göre. (Bu yazıda yer alan kaynakların çoğu, OpenAI hakkında misilleme korkusu olmadan özgürce konuşmak için anonimlik istedi.) Çevresindeki insanlara göre Sutskever, bu yaklaşan medeniyet dönüşümü düşünceleriyle tüketilmiş gibi görünüyordu. En üst düzey bir AGI ortaya çıktığında ve insanlığı geride bıraktığında dünya nasıl görünecekti? Ve OpenAI'nin olağanüstü bir acı çekme değil, olağanüstü bir refah sonucu sağlamak için ne sorumluluğu vardı?
O zamana kadar, daha önce zamanının çoğunu yapay zeka yeteneklerini geliştirmeye adamış olan Sutskever, zamanının yarısını yapay zeka güvenliğine ayırmaya başlamıştı. Çevresindeki insanlara hem iyimser hem de kötümser olarak görünüyordu: Olacaklara her zamankinden daha çok heyecanlı ve korkmuştu. O gün, yeni araştırmacılarla yaptığı toplantıda bir plan açıkladı.
"Hepimiz sığınağa girdiğimizde—" diye başladı, o sırada orada bulunan bir araştırmacıya göre.
"Üzgünüm," diye araya girdi araştırmacı, "sığınak mı?"
"AGI'yi yayınlamadan önce kesinlikle bir sığınak inşa edeceğiz," diye yanıtladı Sutskever. Böylesine güçlü bir teknoloji, küresel olarak hükümetler için yoğun bir arzu nesnesi haline gelecekti. Teknoloji üzerinde çalışan temel bilim insanlarının korunması gerekiyordu. "Elbette," diye ekledi, "sığınağa girmek isteyip istememeniz isteğe bağlı olacak."
Konuştuğum iki başka kaynak da Sutskever'ın sık sık böyle bir sığınaktan bahsettiğini doğruladı. "Ilya'nın da aralarında olduğu bir grup insan var—AGI'nin bir kopuşa yol açacağına inanıyorlar," dedi araştırmacı bana. "Kelimenin tam anlamıyla bir kopuş." (Sutskever bu hikaye hakkında yorum yapmayı reddetti.)
Sutskever'ın çok güçlü bir yapay zeka hakkındaki korkuları aşırı görünebilir, ancak tamamen nadir değildir, ne de o zamanki OpenAI'nin genel duruşuyla özellikle uyumsuzdu. Mayıs 2023'te şirketin CEO'su Sam Altman, teknolojiyi potansiyel bir yok olma riski olarak tanımlayan ortak imzalı bir açık mektuba imza attı—bu anlatının muhtemelen OpenAI'nin kendisini merkezine almasına ve düzenleyici görüşmeleri yönlendirmesine yardımcı olduğu bir anlatı. Yine de yaklaşan kıyamet hakkındaki endişeler, OpenAI'nin büyüyen işletmesiyle de dengelenmek zorundaydı: ChatGPT bir hitti ve Altman daha fazlasını istiyordu.
OpenAI kurulduğunda, amaç AGI'yi insanlığın yararına geliştirmekti. Bu amaçla, Altman ve Elon Musk'ı içeren kurucu ortaklar, organizasyonu kar amacı gütmeyen bir kuruluş olarak kurdular ve diğer kurumlarla araştırmayı paylaşmayı taahhüt ettiler. Teknolojinin geliştirilmesinde demokratik katılım, kabul ettikleri temel bir ilkeydi, bu nedenle şirketin adı. Ancak 2019'da şirketi takip etmeye başladığımda, bu idealler aşınıyordu. OpenAI yöneticileri, gitmek istedikleri yolun olağanüstü miktarda para gerektireceğini anlamıştı. Hem Musk hem de Altman CEO olarak göreve geçmeye çalıştı. Altman kazandı. Musk 2018'in başlarında organizasyonu terk etti ve parasını da kendisiyle birlikte götürdü. Açığı kapatmak için Altman, OpenAI'nin yasal yapısını yeniden yapılandırarak, kar amacı gütmeyen kuruluşun içine daha fazla sermaye toplamak için yeni bir "kazanç sınırlaması olan" bir bölüm oluşturdu.
O zamandan beri, 90'dan fazla mevcut ve eski çalışanla, yöneticiler ve müteahhitler de dahil olmak üzere yaptığım röportajlar aracılığıyla OpenAI'nin evrimini takip ettim. Şirket, bu hikayenin uyarlandığı hakkındaki kitabım üzerinde çalışırken tekrarlanan röportaj taleplerimi ve sorularımı reddetti; makale yayınlanmadan önce bir kez daha ulaştığımda yanıt vermedi. (OpenAI'nin The Atlantic ile de bir kurumsal ortaklığı var.)
OpenAI'nin çelişkili kültürleri—AGI'yi güvenli bir şekilde geliştirme hırsı ve yeni ürün lansmanları yoluyla büyük bir kullanıcı kitlesi oluşturma arzusu—2023'ün sonuna doğru patlayacaktı. Altman'ın şirketi nereye götürdüğü konusunda ciddi endişeler duyan Sutskever, meslektaşı ve OpenAI'nin o zamanki baş teknoloji sorumlusu Mira Murati ile birlikte yönetim kurulu üyelerine yaklaşırdı; yönetim kurulu daha sonra CEO'yu görevden alma ihtiyacı üzerinde sonuca varacaktı. Daha sonra olanlar—Altman'ın görevden alınması ve ardından yeniden göreve getirilmesi—teknoloji sektörünü sarstı. Ancak o zamandan beri, OpenAI ve Sam Altman dünya olaylarında daha merkezi bir konuma geldi. Geçen hafta, şirket, OpenAI'nin Amerika Birleşik Devletleri dışında yapay zeka altyapısı geliştirmede önemli bir rol oynamasına olanak tanıyacak bir "Ülkeler için OpenAI" girişimini tanıttı. Ve Altman, Trump yönetiminin bir müttefiki oldu ve örneğin bu hafta Suudi yetkililerle bir etkinlikte ve Ocak ayında başkanla birlikte sahnede 500 milyar dolarlık bir yapay zeka bilgi işlem altyapı projesini duyurmak üzere göründü.
Altman'ın kısa süreli görevden alınması—ve gücü geri kazanma ve pekiştirme yeteneği—şimdi yapay zeka geliştirme geleceği için bu dönüm noktasında şirketin konumunu anlamak için çok önemli bir tarihsel olay. Bu olaya ilişkin önceki raporlamalarda ayrıntılar eksikti, bunlar arasında Sutskever ve Murati'nin düşüncelerini ve sıradan çalışanların yanıtını aydınlatan bilgiler de vardı. İşte bu bilgiler, doğrudan dahil olan veya doğrudan dahil olan kişilere yakın olan bir düzineden fazla kişiye ait anlatımlara, onların zamansal notlarına, Slack mesajlarının ekran görüntülerine, e-postalara, ses kayıtlarına ve diğer teyit edici kanıtlara göre ilk kez sunuluyor.
İdealist OpenAI, eğer hiç var olmuşsa, ortadan kalkmıştır. Şirket şimdi nasıl bir gelecek inşa ediyor?
ChatGPT'den önce, kaynaklar bana Altman'ın genellikle enerjik göründüğünü söylediler. Şimdi sık sık bitkin görünüyordu. Megayıldızlığa terfi etmiş, yoğun inceleme ve ezici bir seyahat programıyla karşı karşıyaydı. Bu arada, Google, Meta, Anthropic, Perplexity ve diğer birçok şirket, OpenAI'nin sohbet robotuyla rekabet etmek için kendi üretici yapay zeka ürünlerini geliştiriyordu.
Altman'ın en yakın yöneticilerinin çoğu, davranışında belirli bir deseni uzun süredir gözlemlemişti: İki ekip anlaşmazlığa düşerse, o sık sık her birinin bakış açısıyla özelde hemfikir oluyordu, bu da karışıklık yaratıyor ve meslektaşları arasında güvensizliğe yol açıyordu. Şimdi Altman ayrıca sık sık çalışanların arkasından kötü konuşurken onları ürünleri daha hızlı ve daha hızlı konuşlandırmaya zorluyordu. Davranışını yansıtan ekip liderleri, personeli birbirine karşı kışkırtmaya başladı. Kaynaklar bana, OpenAI'nin kurucu ortaklarından ve başkanlarından olan Greg Brockman'ın, projelere girip uzun süredir devam eden planları son dakika değişiklikleriyle raydan çıkarmasıyla sorunları daha da artırdığını söyledi.
OpenAI içindeki ortam değişiyor. Daha önce Sutskever, çalışanları ortak bir amaç etrafında birleştirmeye çalışmıştı. Çalışanlar arasında derin bir düşünür ve hatta mistik biri olarak tanınıyordu, düzenli olarak ruhsal terimlerle konuşuyordu. Ofise üzerlerinde hayvan resimleri olan tişörtler giyer ve bunları da boyardı—sevimli bir kedi, sevimli alpakalar, sevimli ateş püskürten bir ejderha. Amatör resimlerinden biri ofiste asılıydı, OpenAI logosu şeklinde açan üçlü bir çiçek, her zaman çalışanları inşa etmeye çağırdığı şeyin sembolü: "Çok sayıda insanı seven AGI."
Ancak 2023'ün ortalarına doğru—sığınak fikrinden daha düzenli olarak bahsetmeye başladığı zamana doğru—Sutskever artık yalnızca AGI ve üstün zekanın olası felaket değişimleriyle meşgul değildi, düşünce tarzına aşina olan kaynaklara göre. Başka bir endişeyle tüketilmişti: OpenAI'nin AGI'ye ulaşmak için teknik gelişmelerini sürdürebileceğine veya Altman onun lideri olarak bu sorumluluğu taşıyabileceğine olan inancının aşınması. Sutskever, Altman'ın davranış biçiminin OpenAI misyonunun iki temelini alt üst ettiğini hissetti, kaynaklar şunları söyledi: Araştırma ilerlemesini yavaşlatıyordu ve sağlam yapay zeka güvenliği kararları alma şansını azaltıyordu.
Bu arada, Murati karmaşayı yönetmeye çalışıyordu. Her zaman Altman için tercüman ve köprü görevi görmüştü. Şirketin stratejik yönünde ayarlamaları varsa, uygulayıcı oydu. Bir ekibin kararlarına karşı koyması gerekiyorsa, onların şampiyonuydu. İnsanlar Altman'dan net bir yanıt alamamaları konusunda hayal kırıklığına uğradıklarında, ondan yardım istediler. "İşleri yoluna koyan oydu," eski bir meslektaşı bana bunu söyledi. (Murati yorum yapmayı reddetti.)
GPT-4'ün geliştirilmesi sırasında, Altman ve Brockman'ın dinamiği önemli kişilerin ayrılmasına neredeyse yol açmıştı, kaynaklar bana bunu söyledi. Altman ayrıca kolaylık sağlamak için güvenlik süreçlerini aşmaya çalışıyormuş gibi görünüyordu. Duruma yakın kaynaklar bir noktada, Altman'ın OpenAI'nin hukuk ekibinin en son model olan GPT-4 Turbo'nun şirketin Dağıtım Güvenlik Kurulu'nun (DSB)—Microsoft ve OpenAI temsilcilerinden oluşan ve OpenAI'nin en güçlü modellerinin piyasaya sürülmeye hazır olup olmadığını değerlendiren bir komite—incelemesini atlamasını temizlediğini Murati'ye söylediğini söyledi. Ancak Murati, hukuk ekibine bakan Jason Kwon ile görüştüğünde, Kwon, Altman'ın bu izlenime nasıl sahip olduğunu bilmiyordu.
Yaz aylarında, Murati, çok sayıda kaynağa göre, bu konular hakkında Altman'a ayrıntılı geri bildirim vermeye çalıştı. Başarılı olmadı. CEO onu dışladı ve ilişkinin düzelmesi haftalar sürdü.
Sonbahara gelindiğinde, Sutskever ve Murati aynı sonuca vardılar. OpenAI çalışanı olmayan üç yönetim kurulu üyesine—Georgetown Üniversitesi Güvenlik ve Yeni Teknolojiler Merkezi'nde yönetici olan Helen Toner; robotikçi Tasha McCauley; ve Quora'nın kurucu ortaklarından ve CEO'larından Adam D'Angelo—ayrı ayrı yaklaştılar ve Altman'ın liderliği hakkında endişelerini dile getirdiler. "Sam'in AGI'nin düğmesine basacak kişi olduğunu düşünmüyorum," dedi Sutskever, incelediğim notlara göre böyle bir toplantıda. "Sam'in bizi AGI'ye götürmesi konusunda rahat hissetmiyorum," dedi Murati bir diğerinde, konuşmaya aşina olan kaynaklara göre.
Sutskever ve Murati'nin ikisinin de böyle hissetmesinin Toner, McCauley ve D'Angelo üzerinde büyük bir etkisi oldu. Yaklaşık bir yıldır onlar da Altman hakkında kendi ciddi endişelerini değerlendiriyorlardı, düşüncelerine aşina olan kaynaklara göre. Birçok şüpheleri arasında, üç yönetici bir dizi tesadüfi karşılaşma yoluyla, DSB protokollerindeki bir ihlalden, şirketin altında olması gereken ancak bunun yerine Altman'ın kendisine ait olduğu bir anlaşma aracı olan OpenAI Startup Fonunun yasal yapısına kadar bir dizi konuda onlara açık olmadığını keşfetmişti.
Altman'ın en kıdemli iki yardımcısı liderliği konusunda alarm çalıyorsa, yönetim kurulunun ciddi bir sorunu vardı. Sutskever ve Murati de bu tür sorunları gündeme getiren ilk kişiler değildi. Toplamda, üç yönetici yıllar boyunca Altman'ın bir veya iki seviyesi içindeki en az beş başka kişiden benzer geri bildirimler almıştı, kaynaklar bunu söyledi. Ekim ayı sonuna kadar Toner, McCauley ve D'Angelo, neredeyse günlük olarak görüntülü görüşmelerde görüşmeye başladılar ve Sutskever'ın ve Murati'nin Altman hakkındaki geri bildirimlerinin ve Sutskever'ın onu işten çıkarma önerisinin ciddi bir şekilde değerlendirilmeyi hak ettiğini kabul ettiler.
Bunu yaparken Sutskever, Murati ile birlikte topladıkları Altman'ın davranışlarına ilişkin örneklerle birlikte uzun dosyalar ve ekran görüntüleri gönderdi. Ekran görüntüleri, en az iki üst düzey liderin Altman'ın yapay zeka güvenliği nedenleriyle veya şirket operasyonlarını düzene koymak için oluşturulmuş olsun olmasın süreçleri atlama veya görmezden gelme eğilimini gösterdiğini gösteriyordu. Yöneticilerin öğrendiği gibi, bu, Altman'ın GPT-4 Turbo için DSB incelemesini atlama görünürdeki girişimini içeriyordu.
11 Kasım Cumartesi günü, bağımsız yöneticiler kararlarını vermişlerdi. Sutskever'ın önerdiği gibi, Altman'ı görevden alacak ve Murati'yi geçici CEO olarak atacaklar. 17 Kasım 2023'te, Pasifik saatiyle öğlen civarında, Sutskever üç bağımsız yönetim kurulu üyesiyle birlikte bir Google Meet'te Altman'ı işten çıkardı. Daha sonra Sutskever, Brockman'a başka bir Google Meet'te Brockman'ın artık yönetim kurulunda olmayacağını, ancak şirketindeki rolünü koruyacağını söyledi. Hemen kamuoyu açıklaması yapıldı.
Kısa bir süre için OpenAI'nin geleceği açık bir soruydu. Agresif ticarileştirmeden ve Altman'dan uzaklaşan bir yol izleyebilirdi. Ama bu olmadı.
Murati'nin Microsoft ile—o sırada OpenAI'nin en büyük finansal destekçisi—verimli bir görüşme yapması da dahil olmak üzere birkaç saatlik sakinlik ve istikrardan sonra, aniden yönetim kurulu üyelerini yeni bir sorunla aramıştı. Altman ve Brockman herkese Altman'ın görevden alınmasının Sutskever tarafından gerçekleştirilen bir darbe olduğunu söylüyordu, dedi.
Sutskever'ın çalışanların sorularını ele almak için şirket genelinde yapılan bir toplantıda iletişimde tamamen etkisiz kalması yardımcı olmamıştı.
"Bunu gerektiren özel bir olay oldu mu?" Murati, toplantının eldeki kaydına göre, çalışanların sorularından oluşan bir listeden yüksek sesle okudu.
"Belgede yer alan soruların çoğu ayrıntılarla ilgili olacak," diye yanıtladı Sutskever. "Ne, ne zaman, nasıl, kim, tam olarak. Ayrıntılara girebilmeyi dilerdim. Ama yapamıyorum."
"Mevcut yönetim kurulu üyelerinin zorlayıcı etkisi yoluyla düşmanca ele geçirmekten mi endişeleniyoruz?" Sutskever daha sonra başka bir çalışandan okudu.
"Düşmanca ele geçirme mi?" Sutskever tekrarladı, sesinde yeni bir sertlik vardı. "OpenAI kar amacı gütmeyen kuruluşun yönetim kurulu tamamen amacına uygun hareket etmiştir. Düşmanca bir ele geçirme değil. Hiç değil. Bu soruya katılmıyorum."
Kısa bir süre sonra, Sutskever de dahil olmak üzere kalan yönetim kurulu, bir görüntülü görüşme üzerinden öfkeli liderlikle yüzleşti. Baş strateji sorumlusu Kwon ve küresel ilişkiler başkan yardımcısı Anna Makanju, toplantıda bulunan kaynaklara göre, yönetim kurulunun Altman'ın davranışını "tutarlı bir şekilde açık sözlü olmamak" olarak nitelendirmesine karşı çıkıyorlardı. Yönetim kurulunun kararını desteklemek için kanıt talep ettiler ve üyelerin düşüncelerine aşina olan kaynaklara göre Murati'yi ifşa etmeden bunu sağlayamadıklarını hissettiler.
O gün hızlı bir ardışıklıkta, Brockman protesto ederek istifa etti, ardından üç üst düzey araştırmacı daha istifa etti. Akşam boyunca çalışanlar, birleşen sorunlardan dolayı daha da kızdı: aralarında, Altman'ı işten çıkarma nedenleri hakkında yönetim kurulundan netlik eksikliği; bazılarının milyonlarca dolar değerinde hisselerini satma seçeneği sağlayan bir satın alma teklifinin olası kaybı; ve şirket içindeki istikrarsızlığın, çok fazla vaadi ve sıkı çalışmayı boşa çıkaracak şekilde şirketin dağılmasına yol açabileceği konusunda artan bir korku.
OpenAI'nin dağılma olasılığıyla karşı karşıya kalan Sutskever'ın kararlılığı hemen kırılmaya başladı. OpenAI onun bebeğiydi, hayatıydı; dağılması onu yok ederdi. Yönetim kurulu üyelerine Altman konusundaki pozisyonlarını yeniden gözden geçirmek için yalvarmaya başladı.
Bu arada, Murati'nin geçici pozisyonu tartışılıyordu. Şirket içindeki yangın, giderek büyüyen bir yatırımcı çevresine de yayılıyordu. Murati artık Altman'ı işten çıkarma kararı konusunda yönetim kurulunun arkasına açıkça geçmeye isteksizdi. Geri bildirimleri başlamasına yardımcı olmuş olsa da, müzakerelere kendisi katılmamıştı.
Pazartesi sabahına kadar yönetim kurulu kaybetmişti. Murati ve Sutskever taraf değiştirdi. Altman geri dönecekti; OpenAI'yi kurtarmanın başka yolu yoktu.
O sırada zaten OpenAI hakkında bir kitap üzerinde çalışıyordum ve yönetim kurulu krizini izleyen haftalarda, arkadaşlar, aile ve medya bana düzinelerce kez şunu soracaktı: Bütün bunlar, eğer bir anlamı varsa, ne anlama geliyordu? Bana göre, drama neslimizin en acil sorularından birini vurguladı: Yapay zekayı nasıl yönetiyoruz? Yapay zeka, toplumdaki birçok başka önemli işlevi yeniden yapılandırma yolunda ilerlerken, bu soru aslında şunu soruyor: Geleceğimizi daha iyi, daha kötü değil nasıl sağlıyoruz?
Kasım 2023 olayları, Silikon Vadisi seçkinlerinin küçük bir avuç insanı arasındaki bir güç mücadelesinin bu teknolojinin geleceğini şu anda ne kadar şekillendirdiğini en açık şekilde göstermiştir. Ve yapay zeka geliştirmenin bu merkezileştirilmiş yaklaşımının puan tablosu son derece rahatsız edicidir. OpenAI bugün, olmayacağını söylediği her şey haline gelmiştir. Sadece adına kar amacı gütmeyen bir kuruluş haline geldi, ChatGPT gibi ürünleri agresif bir şekilde ticarileştiriyor ve tarihsel değerlemeler arıyor. Sadece kendi araştırmasına erişimi kesmekle kalmadı, aynı zamanda sektör genelindeki normları da değiştirerek yapay zeka modelleri hakkında anlamlı teknik ayrıntıları paylaşmaktan vazgeçti. Belirsiz bir ilerleme vizyonunun peşinde, ölçek sınırlarındaki agresif ilerlemesi, yeni bir yapay zeka geliştirme çağı için kuralları yeniden yazdı. Şimdi her teknoloji devi birbirini geride bırakmak için yarışıyor ve o kadar astronomik meblağlar harcıyor ki, kaynaklarını yeniden dağıtmak ve konsolide etmek için bile çabalıyorlar. Daha önce eşi benzeri görülmemiş olan şey şimdi norm haline geldi.
Sonuç olarak, bu yapay zeka şirketleri hiç bu kadar zengin olmamıştı. Mart ayında OpenAI, rekor kıran en büyük özel teknoloji finansmanı turu olan 40 milyar dolar topladı ve 300 milyar dolarlık bir değerlemeye ulaştı. Anthropic'in değeri 60 milyar dolardan fazla. Geçen yılın sonlarına doğru, en büyük altı teknoloji devi birlikte, ChatGPT'den sonra piyasa değerlerinde 8 trilyondan fazla dolarlık bir artış gördü. Aynı zamanda, üretici yapay zekanın gerçek ekonomik değeri hakkında giderek daha fazla şüphe yükseldi, bunların arasında teknolojinin çoğu çalışan için verimlilik artışlarına dönüşmediğini ve eleştirel düşünmelerini de aşındırdığını gösteren giderek artan bir çalışma grubu da bulunmaktadır.
Kasım ayında üretici yapay zeka sektörünü inceleyen bir Bloomberg makalesinde, personel yazarları Parmy Olson ve Carolyn Silverman bunu özlü bir şekilde özetledi. Veriler, yazdıkları gibi, "rahatsız edici bir olasılığı gündeme getiriyor: Bu sözde devrim niteliğindeki teknolojinin geniş ekonomik dönüşüm vaadini asla yerine getirmeyebileceği, bunun yerine yalnızca zenginliğin üstlerde daha fazla yoğunlaşması."
Bu arada, dünyanın geri kalanındaki birçok kişinin karşılaştığı sadece verimlilik artışı eksikliği değil. Patlayan insan ve maddi maliyetler, toplumun geniş kesimlerine, özellikle de en savunmasız kesimlere yerleşiyor; dünyanın dört bir yanındaki insanlarla tanıştım, ister küresel Kuzey'deki işçiler ve kırsal sakinler ister küresel Güney'deki yoksul topluluklar olsun, herkes yeni bir güvencesizlik düzeyi yaşıyor. Kenya'daki işçiler, ChatGPT de dahil olmak üzere OpenAI teknolojilerinden şiddeti ve nefret söylemini filtrelemek için düşük ücretler kazandı. Sanatçılar, onların rızası veya tazminatı olmadan çalışmalarından oluşturulan yapay zeka modelleri tarafından değiştiriliyor. Üretici yapay zeka teknolojileri artan miktarlarda yanlış bilgi yarattığı için gazetecilik sektörü zayıflıyor. Gözlerimizin önünde, eski bir hikayenin tekrarlandığını görüyoruz: Eski imparatorluklar gibi, yeni yapay zeka imparatorlukları da herkese büyük bir maliyetle uzay ve zaman boyunca olağanüstü zenginlikler biriktiriyor.
Üretici yapay zekanın günümüzdeki performansı hakkındaki artan endişeleri gidermek için Altman, AGI'nin gelecekteki faydalarını giderek daha yüksek sesle duyurmuştur. Eylül 2024 tarihli bir blog gönderisinde, "muazzam bir refah" ile karakterize edilen "Zeka Çağı"nın yakında geleceğini ilan etti. Bu noktada AGI büyük ölçüde söylemseldir—OpenAI'nin daha fazla zenginlik ve güç için ilerlemeye devam etmesi için fantastik, çok amaçlı bir bahane. Medeni bir misyon kisvesi altında, yapay zeka imparatorluğu küresel genişlemesini hızlandırıyor ve gücünü pekiştiriyor.
Sutskever ve Murati'ye gelince, ikisi de çalışanların şimdi "Aksaklık" dediği olaydan sonra OpenAI ile yollarını ayırarak, Altman ile çatışmadan sonra organizasyonu terk eden liderlerin uzun listesine katıldı. OpenAI'yi yeniden şekillendirmeyi başaramayan diğerleri gibi, ikisi de en popüler ikinci seçeneği yapmıştı: Her biri, bu teknolojinin geleceği için rekabet etmek üzere kendi dükkanlarını kurmuştu.
Bu deneme, Karen Hao'nun yaklaşan kitabı Empire of AI'dan uyarlanmıştır.