
Sam Altman Geleceğimizi Kontrol Edebilir—Ona Güvenilebilir mi?
2023 sonbaharında, OpenAI'ın baş bilimcisi Ilya Sutskever, kuruluşun yönetim kurulundaki üç meslektaşına gizli notlar gönderdi. Haftalardır, OpenAI'ın CEO'su Sam Altman ve ikinci adamı Greg Brockman'ın şirketi yönetmeye uygun olup olmadıkları konusunda gizli tartışmalar yürütüyorlardı. Sutskever bir zamanlar her iki adamı da arkadaşı olarak görüyordu. 2019'da, OpenAI'ın ofislerinde gerçekleşen ve içinde robotik bir el şeklinde yüzük taşıyıcısının da yer aldığı bir törenle Brockman'ın düğününü yönetmişti. Ancak şirketin uzun vadeli hedefine—insanoğlunun bilişsel yeteneklerine rakip olabilecek veya onları aşabilecek bir yapay zeka yaratma—yaklaştığına ikna oldukça, Altman hakkındaki şüpheleri arttı. Sutskever'in o dönemde bir başka yönetim kurulu üyesine ifade ettiği gibi: "Sam'in düğmeye basması gereken kişi olduğunu düşünmüyorum."
Yönetim kurulu üyelerinin isteği üzerine Sutskever, fikirdaş meslektaşlarıyla birlikte çalışarak, açıklayıcı metinlerle desteklenmiş yetmiş sayfalık Slack mesajları ve İK belgeleri derledi. Materyaller, şirket cihazlarında tespit edilmekten kaçınmak amacıyla cep telefonuyla çekilmiş görüntüleri içeriyordu. Nihai notları, kimsenin bir daha görmemesi için kaybolan mesajlar olarak diğer kurul üyelerine gönderdi. Notları alan bir kurul üyesi, "Dehşete düşmüştü," diye hatırlıyor. İncelediğimiz ve daha önce tamamı ifşa edilmemiş olan bu notlar, Altman'ın yöneticilere ve kurul üyelerine gerçekleri yanlış aktardığını ve iç güvenlik protokolleri konusunda onları aldattığını iddia ediyor. Altman hakkındaki notlardan biri, "Sam tutarlı bir şekilde şu kalıbı sergiliyor..." başlıklı bir listeyle başlıyor. İlk madde ise "Yalan söylemek."
Birçok teknoloji şirketi dünyayı iyileştirmek hakkında belirsiz beyanlarda bulunur, ardından gelirlerini maksimize etmeye odaklanır. Ancak OpenAI'ın kuruluş önermesi, farklı olması gerektiğiydi. Altman, Sutskever, Brockman ve Elon Musk'ın aralarında bulunduğu kurucular, yapay zekanın insanlık tarihindeki en güçlü ve potansiyel olarak en tehlikeli icat olabileceğini ve varoluşsal risk göz önüne alındığında, alışılmadık bir kurumsal yapı gerekeceğini savundular. Firma, kurulunun görevi insanlığın güvenliğini şirketin başarısından, hatta hayatta kalmasından bile üstün tutmak olan bir kâr amacı gütmeyen kuruluş olarak kuruldu. CEO, nadir görülen bir dürüstlüğe sahip bir kişi olmak zorundaydı. Sutskever'e göre, "bu medeniyet değiştirici teknolojiyi inşa etmek için çalışan her insan ağır bir yük taşır ve benzeri görülmemiş bir sorumluluk üstlenir." Ancak, "bu tür pozisyonlarda nihayetinde yer alan insanlar genellikle belli bir türden; güce ilgi duyan, politikacı veya bunu seven kişiler oluyor." Notlardan birinde, teknolojiyi "insanlara sadece duymak istediklerini söyleyen" birine emanet etmekten endişe duyduğu görülüyordu. Eğer OpenAI'ın CEO'su güvenilmez çıkarsa, altı üyeli kurulun onu işten çıkarma yetkisi vardı. Yapay zeka politikası uzmanı Helen Toner ve girişimci Tasha McCauley gibi bazı üyeler, notları zaten inanmaya başladıkları şeyin bir doğrulaması olarak aldılar: Altman'ın rolü ona insanlığın geleceğini emanet ediyordu, ancak ona güvenilemezdi.
Altman, Las Vegas'ta bir Formula 1 yarışına katıldığı sırada, Sutskever onu yönetim kuruluyla bir video görüşmesine davet etti ve ardından artık OpenAI çalışanı olmadığını açıklayan kısa bir metin okudu. Kurul, hukuki tavsiye üzerine, sadece Altman'ın "iletişimlerinde tutarlı bir şekilde samimi olmadığı" için görevden alındığını belirten kamuya açık bir mesaj yayınladı. OpenAI'ın yatırımcılarının ve yöneticilerinin çoğu şoke olmuştu. OpenAI'a yaklaşık 13 milyar dolar yatırım yapan Microsoft, Altman'ı kovma planını gerçekleşmeden sadece anlar önce öğrendi. Microsoft CEO'su Satya Nadella daha sonra "Çok şaşırmıştım," dedi. "Kimsenin ağzından tek kelime alamıyordum." Altman'ın bir yatırımcısı ve Microsoft yönetim kurulu üyesi olan LinkedIn kurucu ortağı Reid Hoffman ile konuştu ve Altman'ın net bir suç işleyip işlemediğini belirlemek için telefon trafiğine başladı. Hoffman bize "Neler olduğunu anlamıyordum," dedi. "Zimmete para geçirme veya cinsel taciz arıyorduk ama hiçbir şey bulamadım."
Diğer iş ortakları da benzer şekilde hazırlıksız yakalandı. Altman, yatırımcı Ron Conway'i arayıp kovulduğunu söylediğinde, Conway telefonu öğle yemeği yediği Temsilciler Meclisi üyesi Nancy Pelosi'ye tuttu. Pelosi, Conway'e "Buradan hemen çıksan iyi edersin," dedi. OpenAI, Jared Kushner'in kardeşi Josh Kushner tarafından kurulan ve Altman'ın yıllardır tanıdığı bir risk sermayesi firması olan Thrive'dan büyük bir yatırım kapatmak üzereydi. Anlaşma, OpenAI'a 86 milyar dolar değer biçiyor ve birçok çalışanın milyonlarca dolarlık hisse senedini nakde çevirmesine olanak tanıyordu. Kushner, müzik yapımcısı Rick Rubin ile yaptığı bir toplantıdan çıktığında Altman'dan cevapsız bir çağrı gördü. Kushner daha sonra, "Hemen savaşa girdik," dedi.
Altman'ın kovulduğu gün, körfezin panoramik manzarasına sahip ve bir zamanlar konsol bir sonsuzluk havuzuna sahip olan 27 milyon dolarlık San Francisco'daki malikanesine geri döndü ve "sürgündeki hükümet" adını verdiği bir yapı kurdu. Conway, Airbnb kurucu ortağı Brian Chesky ve ünlü kriz iletişimi yöneticisi Chris Lehane, günde bazen saatlerce video ve telefon yoluyla katıldılar. Altman'ın yönetim ekibinin bazı üyeleri evin koridorlarında kamp kurdular. Avukatlar yatak odasının yanındaki ev ofisine yerleştiler. Uykusuzluk nöbetleri sırasında Altman pijamalarıyla yanlarından dolaşırdı. Geçenlerde Altman ile konuştuğumuzda, kovulmasının sonrasını "sadece tuhaf bir buhran" olarak tanımladı.
Kurul sessiz kalırken, Altman'ın danışmanları onun geri dönüşü için kamuoyu nezdinde bir dava oluşturdu. Lehane, kovulmanın yapay zekayı varoluşsal bir tehdit olarak gören ve insanlığın refahını en üst düzeye çıkarmaya odaklanan bir inanç sistemi olan "etkili özgecilerin" düzenlediği bir darbe olduğu konusunda ısrar etti. (Hoffman, Nadella'ya kovulmanın nedeninin "etkili özgecilik çılgınlığı" olabileceğini söyledi.) Mike Tyson'dan sonra bildirilen sloganı "Herkesin bir oyun planı vardır, ta ki suratına yumruğu yiyene kadar" olan Lehane, Altman'ı agresif bir sosyal medya kampanyası yürütmeye zorladı. Chesky, teknoloji gazetecisi Kara Swisher ile iletişimde kalarak kurul hakkındaki eleştirileri aktardı.
Altman, "savaş odasındaki" çalışmalarını her akşam saat altıda Negroni eşliğinde bölüyordu. "Sakinleşmeniz gerekiyor," dediğini hatırlıyor. "Ne olacaksa olacak." Ancak telefon kayıtlarının günde 12 saatten fazla görüşme yaptığını gösterdiğini ekledi. Bir noktada Altman, o dönemde Sutskever'e notları için materyal veren ve OpenAI'ın geçici CEO'su olarak görev yapan Mira Murati'ye, müttefiklerinin "tüm güçleriyle" hareket ettiklerini ve onun itibarının yanı sıra kendisine karşı harekete geçen diğerlerinin itibarını zedelemek için "kötü şeyler bulduklarını" iletti. (Altman bu konuşmayı hatırlamıyor.)
Kovulmadan saatler sonra, Thrive planlanan yatırımını askıya aldı ve anlaşmanın ancak Altman'ın geri dönmesi durumunda tamamlanacağını belirtti. Bu dönemden kalan mesajlar, Altman'ın Nadella ile yakın bir koordinasyon içinde olduğunu gösteriyor. (İkili bir açıklama üzerinde çalışırken Altman, "şöyle bir şey olsa: satya ve benim önceliğim openai'ı kurtarmak," diye önerdi. Nadella ise alternatif olarak "openai'ın gelişmeye devam etmesini sağlamak" dedi.) Microsoft kısa süre sonra Altman ve OpenAI'dan ayrılan herhangi bir çalışan için rakip bir girişim oluşturacağını duyurdu. Kuruluş içinde onun dönüşünü talep eden bir açık mektup dolaşıma girdi. İmzalamakta tereddüt eden bazı kişiler, meslektaşlarından gelen yalvaran telefonlar ve mesajlar aldı. Sonunda OpenAI çalışanlarının çoğunluğu Altman ile birlikte ayrılmakla tehdit etti.
Kurul köşeye sıkıştı. Toner, "Control Z, bu bir seçenek," dedi; yani kovulmayı geri almak. "Diğer seçenek ise şirketin dağılması." Sonunda Murati bile mektubu imzaladı. Altman'ın müttefikleri Sutskever'i ikna etmek için çalıştılar. Brockman'ın eşi Anna, ofiste yanına gelip yeniden düşünmesi için ona yalvardı. "Sen iyi bir insansın, bunu düzeltebilirsin," dedi. Sutskever daha sonra bir mahkeme ifadesinde, "Sam'in dönmeyeceği bir yola girersek OpenAI'ın yok olacağını hissettim," diye açıkladı. Bir gece Altman bir Ambien aldı, ancak Avustralyalı bir yazılımcı olan eşi Oliver Mulherin tarafından uyandırıldı. Mulherin ona Sutskever'in tereddüt ettiğini ve insanların Altman'a kurul ile konuşmasını söylediğini belirtti. Altman bize, "Bu çılgın Ambien sersemliğiyle uyandım ve kafam o kadar karışıktı ki, kurul ile şu an konuşamam dedim," dedi.
Gittikçe gerginleşen bir dizi görüşmede Altman, onu kovmak için harekete geçen kurul üyelerinin istifasını talep etti. Altman, dönüşüyle ilgili olarak başlangıçta, "Bu çılgın şüphe bulutunun içindeyken onların karmaşasını mı toparlamalıyım?" diye düşündüğünü hatırlıyor. "Kesinlikle hayır, dedim." Nihayetinde Sutskever, Toner ve McCauley yönetim kurulu koltuklarını kaybettiler. Quora'nın kurucusu Adam D'Angelo kalan tek orijinal üyeydi. Ayrılan üyeler, çıkışlarının bir şartı olarak, Altman'a karşı iddiaların—yöneticileri birbirine düşürdüğü ve mali ilişkilerini gizlediği dahil—soruşturulmasını talep ettiler. Ayrıca dış soruşturmayı bağımsız bir şekilde denetleyebilecek yeni bir kurul için baskı yaptılar. Ancak iki yeni üye; eski Harvard rektörü Lawrence Summers ve eski Facebook CTO'su Bret Taylor, Altman ile yapılan yakın görüşmelerden sonra seçildi. Altman, Nadella'ya "bunu yapar mısın," diye mesaj attı. "bret, larry summers, adam kurul olsun, ben de ceo olayım, sonra bret soruşturmayı halleder." (McCauley daha sonra bir ifadesinde, Taylor'ın daha önce yönetim kurulu koltuğu için düşünüldüğünde onun Altman'a olan itaatinden endişe duyduğunu belirtti.)
Kovulmasından beş günden kısa bir süre sonra Altman göreve iade edildi. Çalışanlar artık bu ana, Marvel filmlerinde karakterlerin varlıktan silinip, yokluklarıyla derinden değişmiş bir dünyaya değişmeden döndükleri olaya atıfla "Blip" diyorlar. Ancak Altman'ın güvenilirliği konusundaki tartışma OpenAI'ın yönetim kurulunun ötesine geçti. Onu görevden uzaklaştıran meslektaşları, onu herhangi bir yönetici için kabul edilemez ve böyle dönüştürücü bir teknolojinin lideri için tehlikeli bir derecede aldatıcılıkla suçluyorlar. Murati bize, "Ellerinde tuttukları güce layık kurumlara ihtiyacımız var," dedi. "Kurul geri bildirim istedi ve ben de gördüklerimi paylaştım. Paylaştığım her şey doğruydu ve hepsinin arkasındayım." Öte yandan Altman'ın müttefikleri, suçlamaları uzun süredir reddediyor. Kovulmadan sonra Conway, Chesky ve Lehane'ye bir halkla ilişkiler saldırısı talep eden mesajlar gönderdi. "Bu, SAM'İN İTİBARIYLA İLGİLİ," diye yazdı. Washington Post'a, Altman'ın "başıbozuk bir yönetim kurulu tarafından kötü muameleye maruz kaldığını" söyledi.
OpenAI o zamandan beri dünyanın en değerli şirketlerinden biri haline geldi. Bildirildiğine göre, trilyon dolarlık bir değerleme potansiyeliyle halka arz için hazırlanıyor. Altman, bazıları yabancı otokrasilerin içinde yoğunlaşmış şaşırtıcı miktarda yapay zeka altyapısının inşasını yönetiyor. OpenAI, geniş kapsamlı hükümet sözleşmeleri güvence altına alarak yapay zekanın göçmenlik denetimi, yurt içi gözetim ve savaş bölgelerinde otonom silahlarda nasıl kullanılacağına dair standartlar belirliyor.
Altman, 2024 tarihli bir blog gönderisinde, "iklimi düzeltmek, uzay kolonisi kurmak ve fiziğin tamamının keşfi gibi şaşırtıcı zaferlerin sonunda sıradan hale geleceği" bir vizyonu teşvik ederek OpenAI'ın büyümesini destekledi. Retoriği, büyük miktarlarda borç alan ortaklara güvenerek tarihteki en hızlı nakit yakan startup'lardan birini sürdürmesine yardımcı oldu. ABD ekonomisi giderek artan bir şekilde birkaç yüksek kaldıraçlı yapay zeka şirketine bağımlı hale geliyor ve aralarında bazen Altman'ın da bulunduğu birçok uzman, endüstrinin bir balon içinde olduğu konusunda uyardı. Geçen yıl gazetecilere verdiği demeçte, "Birileri muazzam miktarda para kaybedecek," dedi. Balon patlarsa, ekonomik bir felaket izleyebilir. En iyimser tahminleri doğru çıkarsa, gezegendeki en zengin ve en güçlü insanlardan biri olabilir.
Altman kovulduktan sonra gergin bir görüşmede kurul, onu aldatma düzenini kabul etmeye zorladı. Görüşmedeki kişilere göre defalarca, "Bu çok saçma," dedi. "Kişiliğimi değiştiremem." Altman bu konuşmayı hatırlamadığını söylüyor. Bize, " 'Birleştirici bir güç olmaya çalışıyorum' gibi bir şey demek istemiş olabilirim," dedi ve bu özelliğin çok başarılı bir şirketi yönetmesini sağladığını ekledi. Eleştirileri, özellikle kariyerinin başlarında "fazla çatışmadan kaçınma eğilimi"ne bağladı. Ancak bir kurul üyesi, ifadesine farklı bir yorum getirdi: "Bunun anlamı şuydu: 'İnsanlara yalan söylediğim bir özelliğim var ve bunu durdurmayacağım.'" Altman'ı kovan meslektaşları alarmizm ve kişisel kinle mi motive olmuşlardı, yoksa ona güvenilemeyeceği konusunda haklı mıydılar?
Bu kış bir sabah, bu hikaye için onunla yaptığımız bir düzineden fazla görüşmeden biri için San Francisco'daki OpenAI genel merkezinde Altman ile buluştuk. Şirket kısa süre önce, Uber gibi bir başka teknoloji devinin işgal ettiği 11 katlı iki cam kuleye taşınmıştı. Uber'in kurucu ortağı ve CEO'su Travis Kalanick, yatırımcıların etik endişeleri üzerine 2017'de istifa edene kadar durdurulamaz bir dahi gibi görünüyordu. (Kalanick şu anda bir robotik startup'ı yönetiyor; geçenlerde boş zamanlarında kuantum fiziğinde bilinenin sınırına ulaşmak için OpenAI'ın ChatGPT'sini kullandığını söyledi.)
Bir çalışan bize ofisi gezdirdi. Ortak masalarla dolu havadar bir alanda, bilgisayar bilimci Alan Turing'in animasyonlu bir dijital tablosu vardı; biz geçerken gözleri bizi takip etti. Enstalasyon, Turing testine—bir makinenin bir insanı inandırıcı bir şekilde taklit edip edemeyeceğine dair 1950 düşünce deneyine—göz kırpan bir gönderme. (2025 tarihli bir araştırmada ChatGPT, testi gerçek insanlardan daha güvenilir bir şekilde geçti.) Normalde tabloyla etkileşime girebilirsiniz. Ancak rehberimiz, çalışanların konuşmalarına kulak misafiri olup ardından araya girmeyi durdurmadığı için sesin devre dışı bırakıldığını söyledi. Ofisin başka yerlerinde plaketler, broşürler ve ürünler "Feel the AGI" kelimelerini sergiliyordu. İfade orijinal olarak, makinelerin insan bilişsel kapasitelerini eşitlediği eşik olan yapay genel zeka riskleri konusunda meslektaşlarını uyarmak için kullanan Sutskever ile ilişkilendirilmişti. Blip'ten sonra, süper bolluk dolu bir geleceği selamlayan neşeli bir slogana dönüştü.
Altman ile sekizinci katta, jenerik görünümlü bir konferans odasında buluştuk. Altman bize, "İnsanlar bana karar yorgunluğundan bahsederdi ve bunu anlamazdım," dedi. "Şimdi her gün gri bir kazak ve kot pantolon giyiyorum ve dolabımdan hangi gri kazağı seçeceğimi bile düşünmek istemiyorum." Altman genç bir görünüme sahip—ince yapılı, geniş mavi gözlü ve dağınık saçlı—ancak artık kırk yaşında ve Mulherin ile taşıyıcı anne aracılığıyla dünyaya gelen bir yaşında bir oğulları var. "Elbette ABD Başkanı olmanın çok daha stresli bir iş olacağına eminim, ancak makul bir şekilde yapabileceğimi düşündüğüm tüm işler arasında hayal edebileceğim en stresli olanı bu," dedi ve önce birimizle, sonra diğerimizle göz teması kurdu. "Bunu arkadaşlarıma şöyle açıkladım: 'ChatGPT'yi piyasaya sürdüğümüz güne kadar bu dünyanın en eğlenceli işiydi. Muazzam bilimsel keşifler yapıyorduk—bence birkaç on yıldır yapılan en önemli bilimsel keşfi gerçekleştirdik.'" Gözlerini aşağı indirdi. "Ve ChatGPT'nin piyasaya sürülmesinden bu yana, kararlar çok zorlaştı."
Altman, St. Louis'in zengin bir banliyösü olan Clayton, Missouri'de dört kardeşin en büyüğü olarak büyüdü. Annesi Connie Gibstine bir dermatolog, babası Jerry Altman ise bir emlak komisyoncusu ve konut aktivistiydi. Altman, bir Reform sinagoguna ve "gey olduğunuzu gerçekten ayağa kalkıp konuşacağınız türden bir yer olmayan" özel bir hazırlık okuluna gitti. Ancak genel olarak ailenin zengin banliyö çevreleri nispeten liberaldi. Altman 16 veya 17 yaşındayken, St. Louis'de ağırlıklı olarak geylerin yaşadığı bir mahallede geç saatlerde dışarıda olduğunu ve acımasız bir fiziksel saldırıya ve homofobik hakaretlere maruz kaldığını söyledi. Altman olayı bildirmedi ve daha eksiksiz bir anlatımın "beni manipülatif veya sempati bekliyor gibi göstereceğini" söyleyerek kayıt altına almak için bize daha fazla ayrıntı vermekte isteksizdi. Bu olayın ve geniş anlamda cinselliğinin kimliği için önemli olduğu fikrini reddetti. Ancak, "muhtemelen bunun—aştığımı düşündüğüm ama aşmadığım—daha fazla çatışma istememekle ilgili derin bir psikolojik yanı vardır," dedi.
Altman'ın çocukluğundaki tavrı, kardeşi 2016'da The New Yorker'a, "Kazanmalıyım ve her şeyden ben sorumluyum," şeklinde olduğunu söyledi. Stanford'a gitti ve burada düzenli kampüs dışı poker oyunlarına katıldı. Daha sonra, "Bundan hayata ve işe dair üniversitede öğrendiklerimden daha fazlasını öğrendiğimi düşünüyorum," dedi.
Tüm Stanford öğrencileri hırslıdır, ancak içlerindeki en girişimci olanların çoğu okulu bırakır. İkinci sınıfının yazından sonra Altman, ünlü yazılım mühendisi Paul Graham tarafından ortak kurulan bir "startup kuluçka merkezi" olan Y Combinator'daki ilk girişimci grubuna katılmak için Massachusetts'e gitti. Her katılımcı Y.C.'ye bir startup fikriyle katıldı. (Altman'ın grup arkadaşları arasında Reddit ve Twitch'in kurucuları vardı.) Altman'ın sonunda Loopt olarak adlandırılan projesi, arkadaşlarına nerede olduklarını söylemek için insanların kapaklı telefonlarının konumlarını kullanan bir proto sosyal ağdı. Şirket, onun dürtüsünü ve belirsiz durumları lehine yorumlama eğilimini yansıtıyordu. Federal kurallar, telefon taşıyıcılarının acil durum hizmetleri için telefonların konumlarını izleyebilmesini gerektiriyordu; Altman, bu yetenekleri şirketin kullanımı için kullanmak üzere taşıyıcılarla anlaşmalar yaptı.
Loopt'taki çalışanlarının çoğu Altman'ı severdi, ancak bazıları önemsiz konularda bile abartma eğiliminin dikkatlerini çektiğini söyledi. Biri, Altman'ın "Missouri lise pinpon şampiyonu" gibi şampiyon bir pinpon oyuncusu olmakla övünüp sonra ofisteki en kötü oyunculardan biri olduğunu kanıtladığını hatırladı. (Altman muhtemelen şaka yaptığını söylüyor.) Yatırımcılar tarafından Altman'ın "bebek bakıcısı" olarak hareket etmesi istenen daha yaşlı bir Loopt çalışanı olan Mark Jacobstein'ın, Altman'ın biyografisi "The Optimist" için Keach Hagey'e daha sonra söylediği gibi, "'Belki bunu başarabilirim' ile 'Bunu zaten başardım' arasında, Elizabeth Holmes'un hileli startup'ı Theranos'a yol açan en toksik biçiminde bir bulanıklık var."
Hagey'e göre, Altman'ın liderliği ve şeffaflık eksikliğinden endişe duyan kıdemli çalışan grupları, iki kez Loopt'un kurulundan onu CEO olarak kovmasını istedi. Ancak Altman şiddetli bir sadakat de uyandırdı. Eski bir çalışana, bir yönetim kurulu üyesinin "Bu Sam'in şirketi, lanet olası işinize geri dönün," diye yanıt verdiği söylendi. (Bir yönetim kurulu üyesi, Altman'ı CEO olarak görevden alma girişimlerinin ciddi olduğunu reddetti.) Loopt kullanıcı kazanmakta zorlandı ve 2012'de bir fintech şirketi tarafından satın alındı. Satın alma, konuya aşina birine göre, büyük ölçüde Altman'ın itibarını kurtarmasına yardımcı olmak için ayarlanmıştı. Yine de, Graham 2014'te Y.C.'den emekli olduğunda, Altman'ı başkan olarak halefi olması için işe almıştı. Graham, The New Yorker'a, "Sam'e mutfağımızda sordum," dedi. "Ve gülümsedi, sanki işe yaramış gibiydi. Sam'den daha önce kontrolsüz bir gülümseme görmemiştim. Odayın karşısındaki çöp kutusuna bir kağıt topu attığınızda olan gülümseme gibiydi."
Altman'ın yeni rolü onu 28 yaşında bir kral yapıcı yaptı. İşi, en aç ve en umut verici girişimcileri seçmek, onları en iyi kodlayıcılar ve yatırımcılarla buluşturmak ve startup'larını endüstri belirleyici tekel haline getirmelerine yardımcı olmaktı (Y.C. yüzde altı veya yedi pay alırken). Altman, Y.C.'nin startup listesini düzinelerden yüzlere çıkararak agresif bir genişleme dönemini yönetti. Ancak birçok Silikon Vadisi yatırımcısı, sadakatlerinin bölündüğüne inanmaya başladı. Bir yatırımcı bize Altman'ın "en iyi şirketlere seçici bir şekilde kişisel yatırımlar yaptığı, dış yatırımcıları engellediği" ile bilindiğini söyledi. (Altman kimseyi engellediğini reddediyor.) Altman, erken aşamadaki startup'lara yatırım yapmayı ve karların küçük bir kısmını almayı içeren bir programın parçası olarak Sequoia Capital yatırım fonu için bir "izci" olarak çalışmıştı. Altman, bir finansal hizmetler startup'ı olan Stripe'a bir melek yatırımı yaptığında, daha büyük bir payda ısrar etti, bu da Sequoia'nın ortaklarını çileden çıkardı. Konuya aşina olan kişi, "Bu bir 'önce Sam' politikası," diye ekledi. Altman, kendi tahminine göre 400 başka şirkette yatırımcı. (Altman, Stripe anlaşmasının bu şekilde nitelendirilmesini reddediyor. 2010 civarında, Stripe'a yüzde iki payla 15 bin dolarlık bir ilk yatırım yaptı. Şirketin değeri şu anda 150 milyar dolardan fazla.)
2018'e gelindiğinde, birkaç Y.C. ortağı Altman'ın davranışlarından o kadar bıkmıştı ki şikayet etmek için Graham'a yaklaştılar. Graham ve eşi ve Y.C. kurucusu Jessica Livingston, görünüşe göre Altman ile açık bir konuşma yaptılar. Sonrasında Graham, Altman'ın şirketten ayrılmayı kabul etmesine rağmen uygulamada direndiğini söylemeye başladı. Altman bazı Y.C. ortaklarına başkanlıktan istifa edeceğini ancak bunun yerine başkan olacağını söyledi. Mayıs 2019'da, Y.C.'nin yeni bir başkanı olduğunu duyuran bir blog yazısı bir yıldız işaretiyle geldi: "Sam, YC Başkanlığına geçiş yapıyor." Birkaç ay sonra gönderi, "Sam Altman, YC'deki herhangi bir resmi pozisyondan ayrıldı" şeklinde düzenlendi; daha sonra bu ifade tamamen kaldırıldı. Yine de, 2021 gibi geç bir tarihte, bir Menkul Kıymetler ve Borsa Komisyonu dosyası Altman'ı Y Combinator başkanı olarak listeliyordu. (Altman bunu çok daha sonra fark ettiğini söylüyor.)
Altman yıllar boyunca hem kamuoyunda hem de son ifadelerinde Y.C.'den asla kovulmadığını savundu ve bize ayrılmaya direnmediğini söyledi. Graham, Twitter'da "onun gitmesini istemedik, sadece Y.C. ve OpenAI arasında bir seçim yapmasını istedik" diye tweet attı. Bir açıklamada Graham bize, "Kimseyi kovacak yasal gücümüz yoktu. Tek yapabildiğimiz ahlaki baskı uygulamaktı," dedi. Ancak özel hayatta, Altman'ın Y.C. ortaklarının güvensizliği nedeniyle uzaklaştırıldığı konusunda netti. Altman'ın Y Combinator'daki zamanına dair bu anlatım, birkaç Y.C. kurucusu ve ortağıyla yapılan görüşmelere ve hepsinin ayrılığın tamamen karşılıklı olmadığını gösteren çağdaş materyallere dayanıyor. Bir keresinde Graham, Y.C. meslektaşlarına, uzaklaştırılmasından önce "Sam'in bize her zaman yalan söylediğini" söylemişti.
Mayıs 2015'te Altman, dünyanın en zengin 100. kişisi olan Elon Musk'a e-posta gönderdi. Önde gelen birçok Silikon Vadisi girişimcisi gibi Musk da varoluşsal olarak acil olduğunu düşündüğü ancak çoğu insan için uzak ihtimaller gibi görünecek bir dizi tehditle meşguldü. "Yapay zeka konusunda süper dikkatli olmalıyız," diye tweet attı. "Nükleer silahlardan potansiyel olarak daha tehlikeli."
Altman genel olarak bir tekno-iyimserdi, ancak yapay zeka konusundaki retoriği yakında kıyametvari bir hal aldı. Kamuoyunda ve Musk ve diğerleriyle yaptığı özel yazışmalarda, teknolojinin kâr amacı güden bir mega şirket tarafından domine edilmemesi gerektiği konusunda uyardı. Musk'a, "İnsanlığın yapay zeka geliştirmesini durdurmanın mümkün olup olmadığını çok düşündüm," diye yazdı. "Eğer her halükarda olacaksa, Google dışında birinin bunu ilk yapması iyi olacakmış gibi görünüyor." Nükleer silahlar benzetmesini ele alarak, "Yapay zeka için Manhattan Projesi" önerdi. Böyle bir organizasyonun sahip olacağı temel ilkeleri özetledi—"güvenlik birinci sınıf bir gereklilik olmalı"; "açıkçası tüm düzenlemelere uyacağız/agresif bir şekilde destekleyeceğiz"—ve o ve Musk bir isim üzerinde karar kıldılar: OpenAI.
Atom bombasının yaratılmasına yol açan bir hükümet girişimi olan orijinal Manhattan Projesi'nden farklı olarak, OpenAI en azından başlangıçta özel olarak finanse edilecekti. Altman, yapay süper zekanın—makinelerin insan zihninin kapasitelerini tamamen gölgede bırakacağı, AGI'nin ötesinde teorik bir eşik—sonunda "evrendeki tüm gelecekteki değerin ışık konisini yakalayacak" kadar ekonomik fayda yaratacağını tahmin etti. Ancak varoluşsal tehlike konusunda da uyardı. Bir noktada, ulusal güvenlik etkileri o kadar vahim hale gelebilirdi ki ABD hükümeti OpenAI'ın kontrolünü ele geçirmek, belki de onu millileştirerek operasyonlarını çöldeki güvenli bir sığınağa taşımak zorunda kalabilirdi. 2015'in sonlarına gelindiğinde Musk ikna olmuştu. "1 milyar dolarlık bir fon taahhüdüyle başladığımızı söylemeliyiz," diye yazdı. "Başkasının sağlamadığı her şeyi ben karşılayacağım."
Altman, OpenAI'ı Y Combinator'ın kâr amacı gütmeyen koluna yerleştirerek onu dahili bir hayırsever proje olarak çerçeveledi. OpenAI acemilerine Y.C. hissesi verdi ve bağışları Y.C. hesapları üzerinden aktardı. Bir noktada laboratuvar, kişisel hissesinin bulunduğu bir Y.C. fonu tarafından desteklendi. (Altman daha sonra bu hisseyi önemsiz olarak tanımladı. Bize acemilere verdiği Y.C. hissesinin kendisine ait olduğunu söyledi.)
Manhattan Projesi benzetmesi çalışan alımı için de geçerliydi. Nükleer fisyon araştırmaları gibi, makine öğrenimi de çağ açan etkileri olan ve eksantrik dahilerden oluşan bir kadronun domine ettiği küçük bir bilimsel alandı. Musk ve Altman, Stripe'tan katılan Brockman ile birlikte, gereken atılımları yapabilecek hayatta sadece birkaç bilgisayar bilimcisi olduğuna ikna olmuştu. Google'ın büyük bir nakit avantajı ve çok yıllık bir başlangıç farkı vardı. Musk daha sonra bir e-postada, "Gülünç bir farkla sayıca ve silahça üstün durumdayız," diye yazdı. Ancak "zaman içinde en yetenekli insanları çekebilirsek ve yönümüz doğru bir şekilde hizalanırsa, o zaman OpenAI galip gelecektir."
En önemli işe alım hedefi, genellikle neslinin en yetenekli yapay zeka bilimcisi olarak adlandırılan yoğun ve içe dönük bir araştırmacı olan Sutskever'di. 1986'da Sovyetler Birliği'nde doğan Sutskever; seyrelmiş saçlara, koyu gözlere ve kelimelerini seçerken gözünü kırpmadan duraklama alışkanlığına sahip. Bir diğer hedef ise biyofizikçi ve enerjisiyle sinirli bir şekilde siyah saçlarını bükme eğiliminde olan ve tek satırlık e-postalara çok paragraflı denemelerle yanıt veren Dario Amodei'ydi. Her ikisinin de başka yerlerde kazançlı işleri vardı, ancak Altman onları ilgiye boğdu. Daha sonra şaka yollu, "Ilya'yı takip ettim," dedi.
Musk daha büyük isimdi, ancak Altman daha yumuşak bir dokunuşa sahipti. Amodei'ye e-posta gönderdi ve bir Hint restoranında baş başa bir akşam yemeği ayarladılar. (Altman: "lanet olsun uber'im kaza yaptı! 10 dakika geciktim." Amodei: "Vay canına, umarım iyisindir.") Birçok yapay zeka araştırmacısı gibi Amodei de teknolojinin yalnızca insan değerleriyle "hizalandığı" gösterilirse inşa edilmesi gerektiğine inanıyordu; yani potansiyel olarak ölümcül bir hata yapmadan insanların istediklerine uygun hareket edeceği—diyelim ki, en büyük kirletici olan insan ırkını ortadan kaldırarak çevreyi temizleme talimatına uymak gibi. Altman güven vericiydi, bu güvenlik endişelerini yansıtıyordu.
Daha sonra şirkete katılan Amodei, yıllarca Altman ve Brockman'ın davranışları hakkında "OpenAI ile Deneyimim" (alt başlık: "Özel: Paylaşmayın") başlığı altında ayrıntılı notlar aldı. Amodei ile ilgili bu notlar ve dahili e-postalar ve notlar dahil 200'den fazla sayfalık belgeler koleksiyonu, Silikon Vadisi'ndeki meslektaşları tarafından dolaşıma sokuldu ancak daha önce kamuoyuna hiç açıklanmadı. Amodei notlarında, Altman'ın hedefinin "güvenliğe odaklanacak ('belki hemen değil, ama olabildiğince çabuk') bir yapay zeka laboratuvarı" kurmak olduğunu yazdı.
Aralık 2015'te, OpenAI kamuoyuna duyurulmadan saatler önce Altman, Google'ın "onu öldürmeye çalışmak için yarın openAI'daki herkese devasa karşı teklifler vereceği" söylentisi hakkında Musk'a e-posta gönderdi. Musk, "Ilya sağlam bir evet ile geri döndü mü?" diye yanıtladı. Altman ona Sutskever'in kararlı olduğunu garanti etti. Google, Sutskever'e OpenAI'ın yaklaşamayacağı yılda 6 milyon dolar teklif etti. Ancak Altman övünerek, "maalesef onların tarafında 'doğru olanı yap' yok," dedi.
Musk, OpenAI için San Francisco'nun Mission District'indeki eski bir valiz fabrikasında ofis alanı sağladı. Sutskever'in bize söylediğine göre çalışanlara yapılan konuşma, "Dünyayı kurtaracaksınız," şeklindeydi.
OpenAI kurucuları, her şey yolunda giderse, yapay zekanın angarya işleri otomatize ederek, kanseri iyileştirerek ve insanları boş zaman ve bolluk dolu hayatların tadını çıkarmaları için özgürleştirerek kıtlık sonrası bir ütopyaya yol açabileceğine inanıyorlardı. Ancak teknoloji yoldan çıkarsa veya yanlış ellere düşerse, yıkım tam olabilirdi. Çin onu yeni bir biyolojik silah veya gelişmiş drone filosu inşa etmek için kullanabilirdi; bir yapay zeka modeli gözetmenlerini alt edip kendini gizli sunucularda çoğaltarak kapatılamaz hale gelebilirdi; aşırı durumlarda enerji şebekesini, borsayı veya nükleer cephaneliği kontrol altına alabilirdi. Herkes buna inanmıyordu, en hafif tabiriyle, ancak Altman tekrar tekrar inandığını doğruladı. 2015'te blogunda, insanüstü makine zekasının "hepimizi öldürmek için doğası gereği kötü bir bilimkurgu versiyonu olması gerekmediğini" yazdı. "Daha olası bir senaryo, bizi her iki durumda da çok umursamamasıdır, ancak başka bir hedefi gerçekleştirmek için çaba gösterirken... bizi silip süpürmesidir." OpenAI'ın kurucuları hızı güvenliğe tercih etmeyeceklerine yemin ettiler ve kuruluşun ana sözleşmesi insanlığa fayda sağlamayı yasal olarak bağlayıcı bir görev haline getirdi. Eğer yapay zeka tarihteki en güçlü teknoloji olacaksa, üzerinde tek kontrol sahibi olan herhangi bir bireyin benzersiz derecede güçlü hale geleceği sonucu çıkıyordu—kurucuların "AGI diktatörlüğü" olarak adlandırdığı bir senaryo.
Altman, ilk işe alınanlara OpenAI'ın saf bir kâr amacı gütmeyen kuruluş olarak kalacağını söyledi ve programcılar orada çalışmak için önemli maaş kesintilerini kabul ettiler. Şirket, taahhütleri arasında küresel yoksullara cibinlik dağıtımını desteklemek olan etkili özgecilik hareketinin bir merkezi olan o zamanki adıyla Open Philanthropy'den 30 milyon dolar dahil olmak üzere hayırsever hibeleri kabul etti.
Brockman ve Sutskever OpenAI'ın günlük operasyonlarını yönetirken, Musk ve Altman hala diğer işleriyle meşgul oldukları için haftada bir uğruyorlardı. Ancak Eylül 2017'ye gelindiğinde Musk sabırsızlanmıştı. OpenAI'ı kâr amacı güden bir şirket olarak yeniden oluşturup oluşturmama tartışmaları sırasında, çoğunluk kontrolü talep etti. Altman'ın yanıtları bağlama göre değişiyordu. Ana tutarlı talebi, OpenAI'ın bir CEO'nun kontrolü altında yeniden organize edilmesi durumunda bu işin kendisine verilmesi gibi görünüyordu. Sutskever bu fikirden rahatsız görünüyordu. Kendisi ve Brockman adına Musk ve Altman'a "Dürüst Düşünceler" konu başlığıyla uzun, hüzünlü bir e-posta gönderdi. "OpenAI'ın hedefi geleceği iyi hale getirmek ve bir AGI diktatörlüğünden kaçınmaktır," diye yazdı. Musk'a hitaben, "Yani diktatör olabileceğin bir yapı yaratmak kötü bir fikir," diye devam etti. Benzer endişeleri Altman'a da iletti: "CEO unvanının neden senin için bu kadar önemli olduğunu anlamıyoruz. Belirttiğin nedenler değişti ve bunu neyin yönlendirdiğini gerçekten anlamak zor."
Musk, "Beyler, yeterince sabrettim," diye yanıtladı. "Ya kendi başınıza bir şeyler yapın ya da OpenAI ile kâr amacı gütmeyen bir kuruluş olarak devam edin"—aksi takdirde "Ben aslında bir startup yaratmanız için ücretsiz fon sağlayan bir aptalım." Beş ay sonra kavgacı bir şekilde istifa etti. (2023'te xAI adında kâr amacı güden bir rakip kurdu. Ertesi yıl, Altman ve OpenAI'a dolandırıcılık ve hayırseverlik güvenini ihlal ettiği gerekçesiyle dava açtı ve "Altman'ın uzun dolandırıcılığı" tarafından "titizlikle manipüle edildiğini"—Altman'ın, parasından koparmak için yapay zekanın tehlikeleri konusundaki endişelerini avladığını—iddia etti. OpenAI'ın şiddetle karşı çıktığı dava devam ediyor.)
Musk'ın ayrılmasından sonra Amodei ve diğer araştırmacılar, bazılarının sert bir operatör olarak gördüğü Brockman'ın ve genellikle ilkeli ama düzensiz olarak görülen Sutskever'in liderliğine karşı huzursuz oldular. CEO olma sürecinde Altman, şirketteki farklı gruplara farklı vaatlerde bulunmuş görünüyordu. Bazı araştırmacılara Brockman'ın yönetsel otoritesinin azalacağı konusunda güvence verdi. Ancak onlardan habersiz, Brockman ve Sutskever ile gizli bir el sıkışma anlaşması yaptı: Altman CEO unvanını alacak; karşılığında, diğer ikisi gerekli görürse istifa etmeyi kabul etti. (Bu nitelendirmeye itiraz etti, sadece istendiği için CEO rolünü üstlendiğini söyledi. Üç adam da paktın var olduğunu doğruladı, ancak Brockman bunun gayri resmi olduğunu söyledi. Bize, "Her ikimiz de istersek istifa edeceğini tek taraflı olarak söyledi," dedi. "Bu fikre itiraz ettik ama bunun kendisi için önemli olduğunu söyledi. Tamamen özgecildi.") Daha sonra kurul, CEO'sunun aslında kendi gölge kurulunu atadığını öğrenince dehşete düştü.
Dahili kayıtlar, kurucuların kâr amacı gütmeyen yapı hakkında 2017 gibi erken bir tarihte özel şüpheleri olduğunu gösteriyor. O yıl, Musk kontrolü ele geçirmeye çalıştıktan sonra Brockman bir günlük girişinde, "kâr amacı gütmeyen kuruluşa bağlı olduğumuzu söyleyemem... üç ay sonra b-corp yapıyorsak o zaman bu bir yalandı," diye yazdı. Amodei, erken notlarından birinde, Brockman'a öncelikleri konusunda baskı yaptığını ve Brockman'ın "para ve güç" istediğini yanıtladığını hatırladı. Brockman buna itiraz ediyor. O zamanki günlük girişleri çelişkili içgüdülere işaret ediyor. Biri, "Kimse değilse, buradan zengin olmamaya memnunum," diyor. Bir diğerinde, "Peki ben *gerçekten* ne istiyorum?" diye soruyor. Yanıtları arasında "Finansal olarak beni 1 milyar dolara ne taşıyacak" var.
2017'de Sutskever ofisteyken, Google araştırmacılarının yeni yayınladığı, "yeni basit bir ağ mimarisi, Transformer" öneren bir makale okudu. Sandalyesinden fırladı, koridorda koştu ve araştırmacı arkadaşlarına, "Yaptığınız her şeyi durdurun. İşte bu," dedi. Sutskever, Transformer'ın OpenAI'ın çok daha sofistike modeller eğitmesini sağlayabilecek bir inovasyon olduğunu gördü. Bu keşiften, ChatGPT'nin temeli olacak ilk üretken önceden eğitilmiş transformer ortaya çıktı.
Teknoloji giderek daha güçlü hale geldikçe, OpenAI'ın en iyi mühendislerinden yaklaşık bir düzinesinin, Brockman ve Altman dahil OpenAI kurucularına güvenilip güvenilemeyeceğini tartışmak için bir dizi gizli toplantı yaptığını öğrendik. Birinde, bir çalışana İngiliz komedi ikilisi Mitchell ve Webb'in, Doğu Cephesi'ndeki bir Nazi askerinin bir anlık netlikle "Biz kötüler miyiz?" diye sorduğu bir skeci hatırlatıldı.
2018'e gelindiğinde Amodei, kurucuların güdülerini daha açık bir şekilde sorgulamaya başlamıştı. Daha sonra notlarında, "Her şey para toplamak için dönen bir planlar setiydi," diye yazdı. "OpenAI'ın ne yapacağının, ne yapmayacağının ve varlığının dünyayı nasıl daha iyi hale getireceğinin net bir ifadesine ihtiyacı olduğunu hissettim." OpenAI'ın zaten bir misyon beyanı vardı: "Yapay genel zekanın tüm insanlığa fayda sağlamasını sağlamak." Ancak Amodei için bunun yöneticilere ne ifade ettiği, eğer bir şey ifade ediyorsa, net değildi. 2018'in başlarında Amodei, şirket için bir tüzük taslağı hazırlamaya başladığını ve Altman ve Brockman ile haftalarca süren görüşmelerde en radikal maddesi için savunduğunu söyledi: Eğer "değer odaklı, güvenlik bilincine sahip bir proje", OpenAI'dan önce bir AGI inşa etmeye yaklaşırsa, şirket "bu proje ile rekabet etmeyi bırakıp yardım etmeye başlayacaktı." "Birleş ve yardım et" maddesine göre, diyelim ki Google araştırmacıları güvenli bir AGI inşa etmeyi ilk çözerse, OpenAI kendini feshedebilir ve kaynaklarını Google'a bağışlayabilirdi. Herhangi bir normal kurumsal mantığa göre bu, vaat edilmesi çılgınca bir şeydi. Ancak OpenAI normal bir şirket olmamalıydı.
Bu önerme, OpenAI'ın Microsoft'tan 1 milyar dolarlık yatırım müzakere ettiği 2019 baharında test edildi. Şirketin güvenlik ekibine liderlik eden Amodei, anlaşmayı Bill Gates'e sunmaya yardımcı olmasına rağmen, ekipteki birçok kişi Microsoft'un OpenAI'ın etik taahhütlerini geçersiz kılan hükümler ekleyeceğinden korkarak bu konuda endişeliydi. Amodei, Altman'a güvenlik taleplerinin sıralı bir listesini sundu ve birleş ve yardım et maddesinin korunmasını en başa koydu. Altman bu talebi kabul etti, ancak Haziran ayında anlaşma kapanırken Amodei, Microsoft'a OpenAI'ı herhangi bir birleşmeden engelleme gücü veren bir hükmün eklendiğini keşfetti. Amodei, "Tüzüğün yüzde 80'ine ihanet edildi," diye hatırladı. Hükmün varlığını reddeden Altman ile yüzleşti. Amodei metni işaret ederek yüksek sesle okudu ve sonunda başka bir meslektaşı doğrudan Altman'a varlığını doğrulamaya zorladı. (Altman bunu hatırlamıyor.) Amodei'nin notları, aylar sonra Altman'ın onu ve şirkette güvenlik ve politika alanında çalışan kız kardeşi Daniela'yı çağırıp üst düzey bir yöneticiden darbe planladıklarına dair "iyi bir otoriteye" sahip olduğunu söylediği bir karşılaşma da dahil olmak üzere artan gergin karşılaşmaları anlatıyor. Notlar, Daniela'nın "kendini kaybettiğini" ve herhangi bir şey söylediğini reddeden o yöneticiyi getirdiğini devam ettiriyor. Görüşme hakkında bilgilendirilen bir kişinin hatırladığı gibi, Altman daha sonra iddiada bulunduğunu reddetti. "Bunu bile söylemedim," dedi. Daniela, "Bunu az önce söyledin," diye yanıtladı. (Altman bunun tam olarak hatırladığı şey olmadığını ve Amodei'leri sadece "politik davranışla" suçladığını söyledi.) 2020'de Amodei, Daniela ve diğer meslektaşları, şu anda OpenAI'ın başlıca rakiplerinden biri olan Anthropic'i kurmak için ayrıldılar.
Altman, OpenAI'ın güvenliğe olan bağlılığını, özellikle potansiyel acemiler kulak misafiri olduğunda teşvik etmeye devam etti. 2022'nin sonlarında, dört bilgisayar bilimcisi, yeterince gelişmiş modellerin test sırasında iyi davranıyormuş gibi yapabileceği ve daha sonra, konuşlandırıldığında, kendi hedeflerini izleyebileceği "aldatıcı hizalanma" endişeleriyle motive edilen bir makale yayınladı. (Bilimkurgu gibi ses çıkaran ancak belirli deneysel koşullar altında zaten gerçekleşen birkaç yapay zeka senaryosundan biridir.) Makale yayınlandıktan haftalar sonra, yazarlarından biri, California Üniversitesi, Berkeley'de doktora öğrencisi, Altman'dan bir e-posta aldı; Altman, hizalanmamış yapay zeka tehdidi konusunda giderek daha fazla endişelendiğini söyledi. Dünyanın en önemli çözülmemiş sorunu olarak görülen bu konuya 1 milyar dolar taahhüt etmeyi düşündüğünü, potansiyel olarak dünya çapındaki araştırmacıları bunu incelemeye teşvik etmek için bir ödül bağışlayarak yapabileceğini ekledi. Lisansüstü öğrencisi "Sam'in kaygan olduğuna dair belirsiz söylentiler duymuş olsa da," Altman'ın bağlılık gösterisi onu ikna etti. OpenAI'a katılmak için akademik izin aldı.
Ancak, 2023 baharında yapılan birkaç toplantıda Altman tereddüt ediyor gibiydi. Bir ödül bağışlamaktan bahsetmeyi bıraktı. Bunun yerine, kurum içi bir "süper hizalanma ekibi" kurulmasını savundu. Şirketin bilgi işlem gücü rezervlerine atıfta bulunan resmi bir duyuru, ekibin "bugüne kadar güvence altına aldığımız işlem gücünün yüzde 20'sini" alacağına dair söz verdi—potansiyel olarak 1 milyar dolardan fazla değere sahip bir kaynak. Duyuruya göre bu çaba gerekliydi çünkü hizalanma çözülmemiş kalırsa, AGI "insanlığın güçsüzleşmesine, hatta insan neslinin tükenmesine yol açabilir." Sutskever ile ekibi yönetmek üzere atanan Jan Leike bize, "Oldukça etkili bir elde tutma aracıydı," dedi.
Ancak yüzde 20 taahhüdü buharlaştı. Ekipte çalışan veya ekiple yakından çalışan dört kişi, gerçek kaynakların şirketin işlem gücünün yüzde biri ile ikisi arasında olduğunu söyledi. Ayrıca ekipteki bir araştırmacı, "süper hizalanma işlem gücünün çoğunun aslında en kötü çiplere sahip en eski kümede olduğunu" söyledi. Araştırmacılar, üstün donanımın kâr getiren faaliyetler için ayrıldığına inanıyordu. (OpenAI buna itiraz ediyor.) Leike, o zamanki şirketin teknoloji direktörü Murati'ye şikayette bulundu, ancak o, konuyu zorlamayı bırakmasını söyledi—taahhüt hiçbir zaman gerçekçi olmamıştı.
Bu sıralarda eski bir çalışan, Sutskever'in "süper güvenlik hapını almaya başladığını" söyledi. OpenAI'ın ilk günlerinde, felaket riski konusundaki endişelerin meşru ancak uzak olduğunu düşünmüştü. Şimdi, AGI'nın yakın olduğuna inanmaya başladıkça endişeleri daha da keskinleşti. Eski çalışan, "Ilya'nın kalkıp, Hey millet, önümüzdeki birkaç yıl içinde bu şirketteki herkesin temel olarak güvenlik üzerinde çalışmaya geçmesi gerekecek, yoksa mahvoluruz dediği bir toplantı vardı," diye devam etti. Ancak süper hizalanma ekibi, görevini tamamlamadan ertesi yıl feshedildi.
O zamana kadar, dahili mesajlar, yöneticilerin ve yönetim kurulu üyelerinin Altman'ın eksikliklerinin ve aldatmacalarının OpenAI'ın ürünlerinin güvenliği için sonuçları olabileceğine inanmaya başladığını gösteriyor. Aralık 2022'deki bir toplantıda Altman, yönetim kurulu üyelerine GPT-4 adlı bir modeldeki çeşitli özelliklerin bir güvenlik paneli tarafından onaylandığına dair güvence verdi. Kurul üyesi ve yapay zeka politikası uzmanı Toner belge talep etti. En tartışmalı özelliklerin—birinin kullanıcıların modeli belirli görevler için "ince ayar" yapmasına izin verdiği, diğerinin onu kişisel asistan olarak konuşlandırdığı—onaylanmadığını öğrendi. Kurul üyesi ve girişimci McCauley toplantıdan ayrılırken, bir çalışan onu kenara çekti ve Hindistan'daki "ihlalden" haberdar olup olmadığını sordu. Altman, kurul ile yaptığı saatlerce süren bilgilendirme sırasında, Microsoft'un ChatGPT'nin erken bir sürümünü gerekli güvenlik incelemesini tamamlamadan Hindistan'da yayınladığından bahsetmeyi ihmal etmişti. O dönemde OpenAI araştırmacısı olan Jacob Hilton, "Tamamen görmezden gelindi," dedi.
Bu aksaklıklar güvenlik krizlerine neden olmasa da, bir diğer araştırmacı Carroll Wainwright, bunların "ürünleri güvenliğe göre vurgulamaya yönelik sürekli bir kaymanın parçası" olduğunu söyledi. GPT-4'ün piyasaya sürülmesinden sonra Leike, yönetim kurulu üyelerine e-posta gönderdi. "OpenAI misyonundan raydan çıkıyor," diye yazdı. "Ürüne ve gelire her şeyin üzerinde öncelik veriyoruz, ardından yapay zeka yetenekleri, araştırma ve ölçeklendirme geliyor, hizalanma ve güvenlik üçüncü sırada." Devam etti, "Google gibi diğer şirketler daha hızlı konuşlanmaları ve güvenlik sorunlarını görmezden gelmeleri gerektiğini öğreniyorlar."
McCauley, diğer üyelere gönderdiği bir e-postada, "Kesinlikle kurulun inceleme düzeyini artırması gereken bir noktada olduğumuzu düşünüyorum," diye yazdı. Kurul üyeleri, büyüyen bir sorun olarak gördükleri şeyle yüzleşmeye çalıştılar, ancak geride kaldılar. Eski bir kurul üyesi Sue Yoon, "Açık olmak gerekirse, daha önce hiçbir şey yapmamış bir grup acemi vardı," dedi. 2023'te şirket, GPT-4 Turbo modelini yayınlamaya hazırlanıyordu. Sutskever'in notlarda detaylandırdığı gibi, Altman görünüşe göre Murati'ye şirketin genel hukuk müşaviri Jason Kwon'dan alıntı yaparak modelin güvenlik onayına ihtiyacı olmadığını söyledi. Ancak Slack üzerinden Kwon'a sorduğunda şu yanıtı verdi: "of... sam'in bu izlenimi nereden aldığını anlamadım." (Kwon'un yönetici olarak kaldığı OpenAI'ın bir temsilcisi, konunun "büyük bir mesele olmadığını" söyledi.)
Kısa süre sonra kurul Altman'ı kovma kararını aldı—ve sonra dünya Altman'ın bunu tersine çevirişini izledi. OpenAI tüzüğünün bir versiyonu hala kuruluşun web sitesinde. Ancak OpenAI'ın yönetim belgelerine aşina olan kişiler, anlamsızlık noktasına kadar seyreltildiğini söyledi. Geçen Haziran ayında Altman kişisel blogunda, yapay süper zekaya atıfta bulunarak, "Olay ufkunu geçtik; kalkış başladı," diye yazdı. Bu, tüzüğe göre, OpenAI'ın diğer şirketlerle rekabet etmeyi bırakıp onlarla çalışmaya başlayabileceği andı. Ancak "Nazik Tekillik" adlı bu yazısında, varoluşsal dehşeti coşkulu bir iyimserlikle değiştirerek yeni bir ton benimsedi. "Hepimiz daha iyi şeyler alacağız," diye yazdı. "Birbirimiz için her zamankinden daha harika şeyler inşa edeceğiz." Hizalanma probleminin çözülmemiş kaldığını kabul etti, ancak onu yeniden tanımladı—ölümcül bir tehdit olmaktan ziyade, Instagram'da kaydırarak zaman harcamamıza neden olan algoritmalar gibi bir rahatsızlıktı.
Altman, ya saygıyla ya da şüpheyle, genellikle neslinin en büyük satış elemanı olarak tanımlanır. İdollerinden biri olan Steve Jobs'un "gerçeklik bükme alanı"—dünyanın onun vizyonuna uyacağına dair sarsılmaz bir güven—yansıttığı söylenirdi. Ancak Jobs bile müşterilerine, onun MP3 çalar markasını almazlarsa sevdikleri herkesin öleceğini söylemedi. Altman 23 yaşındayken, 2008'de mentoru Graham, "Onu yamyamlarla dolu bir adaya paraşütle atabilir ve 5 yıl sonra geri dönebilirsiniz, kral olurdu," diye yazdı. Bu yargı, Altman'ın mütevazı olan geçmişine değil, Graham'ın neredeyse yönetilemez olduğunu düşündüğü kazanma iradesine dayanıyordu. Y.C. mezunlarını dünyanın en iyi startup kurucuları listesine dahil etmemesi tavsiye edildiğinde, Graham Altman'ı yine de oraya koydu. "Sam Altman böyle çürük kurallarla durdurulamaz," diye yazdı.
Graham bunu bir iltifat olarak kastetti. Ancak Altman'ın en yakın meslektaşlarından bazıları bu nitelik hakkında farklı bir görüşe sahip oldu. Sutskever, yapay zeka güvenliği konusunda daha fazla sıkıntıya düştükten sonra, Altman ve Brockman hakkında notlar derledi. O zamandan beri Silikon Vadisi'nde efsanevi bir statü kazandılar; bazı çevrelerde onlara sadece Ilya Notları deniyor. Bu arada Amodei notlar toplamaya devam ediyordu. Bunlar ve onunla ilgili diğer belgeler, temkinli idealizmden alarma geçişini çiziyor. Dili Sutskever'inkinden daha hararetli, Altman'a karşı zaman zaman öfkeli—"Sözleri neredeyse kesinlikle saçmalıktı"—ve OpenAI'ın rotasını düzeltmedeki başarısızlık olduğunu söylediği şey hakkında hüzünlü.
Belge koleksiyonlarının hiçbirinde kesin bir kanıt yok. Aksine, her biri tek başına omuz silkmeyle karşılanabilecek bir dizi iddia edilen aldatma ve manipülasyon birikimini anlatıyorlar: Altman güya aynı işi iki kişiye teklif ediyor, canlı yayında kimin görünmesi gerektiği konusunda çelişkili hikayeler anlatıyor, güvenlik gereksinimleri hakkında dürüst davranmıyor. Ancak Sutskever, bu tür davranışların "güvenli bir AGI yaratılmasına elverişli bir ortam yaratmadığı" sonucuna vardı. Amodei ve Sutskever asla yakın arkadaş olmadılar ama benzer sonuçlara vardılar. Amodei, "OpenAI ile ilgili sorun Sam'in kendisi," diye yazdı.
Altman'ın işi nasıl yürüttüğü konusunda birinci elden bilgiye sahip 100'den fazla kişiyle görüştük: mevcut ve eski OpenAI çalışanları ve yönetim kurulu üyeleri; Altman'ın çeşitli evlerindeki misafirler ve çalışanlar; meslektaşları ve rakipleri; arkadaşları ve düşmanları ve Silikon Vadisi'nin paralı kültürü göz önüne alındığında her ikisi de olan birkaç kişi. (OpenAI, The New Yorker'ın sahibi Condé Nast ile OpenAI'ın içeriğini sınırlı bir süre için arama sonuçlarında görüntülemesine izin veren bir anlaşmaya sahiptir.)
Bazı insanlar Altman'ın ticari zekasını savundu ve rakiplerini, özellikle Sutskever ve Amodei'yi, onun tahtına başarısız adaylar olarak reddetti. Diğerleri onları saf, dalgın bilim insanları veya inşa ettikleri yazılımın bir şekilde canlanıp onları öldüreceği sanrısına kapılmış histerik "kıyamet tellalları" olarak tasvir etti. Eski kurul üyesi Yoon, Altman'ın "bu Makyavelist kötü adam değil," sadece "beceriksizlik noktasına kadar," kendi satış konuşmalarının değişen gerçeklerine kendini inandırabildiğini savundu. Yoon, "Kendi inancına çok fazla kapılmış," dedi. "Bu yüzden, gerçek dünyada yaşıyorsanız anlamı olmayan şeyler yapıyor. Ama o gerçek dünyada yaşamıyor."
Yine de konuştuğumuz çoğu insan Sutskever ve Amodei'nin yargısını paylaşıyordu: Altman'ın, uzay gemilerine isimlerini koyan sanayiciler arasında bile onu diğerlerinden ayıran acımasız bir güç iradesi var. Kurul üyesi bize, "Gerçeklerle sınırlı değil," dedi. "Aynı kişide neredeyse hiç görülmeyen iki özelliği var. Birincisi, insanları memnun etme, herhangi bir etkileşimde sevilme arzusu. İkincisi, birini aldatmaktan kaynaklanabilecek sonuçlar için neredeyse sosyopatik bir endişe eksikliği."
Kurul üyesi, kendiliğinden "sosyopatik" kelimesini kullanan tek kişi değildi. İlk Y Combinator grubundaki Altman'ın grup arkadaşlarından biri, 2013'te intihar eden ve bugün birçok teknoloji çevresinde bir bilge olarak hatırlanan parlak ama sorunlu bir kodlayıcı olan Aaron Swartz'dı. Ölümünden kısa bir süre önce Swartz, Altman hakkındaki endişelerini birkaç arkadaşına dile getirdi. Birine, "Sam'e asla güvenilemeyeceğini anlaman gerekiyor," dedi. "O bir sosyopat. Her şeyi yapardı." Microsoft'taki birçok üst düzey yönetici, Nadella'nın uzun süredir devam eden sadakatine rağmen, şirketin Altman ile ilişkisinin gerginleştiğini söyledi. Biri, "Anlaşmaları yanlış aktardı, çarpıttı, yeniden müzakere etti, reddetti," dedi. Bu yılın başlarında OpenAI, Microsoft'u "durum bilgisiz"—veya hafızasız—modelleri için özel bulut sağlayıcısı olarak yeniden doğruladı. O gün, Amazon'u yapay zeka ajanları için kurumsal platformunun özel satıcısı yapan 50 milyar dolarlık bir anlaşma duyurdu. Yeniden satışa izin verilse de Microsoft yöneticileri OpenAI'ın planının Microsoft'un münhasırlığıyla çelişebileceğini savunuyor. (OpenAI, Amazon anlaşmasının önceki sözleşmeyi ihlal etmeyeceğini savunuyor; bir Microsoft temsilcisi şirketin OpenAI'ın yasal yükümlülüklerini "anladığından ve saygı duyduğundan emin olduğunu" söyledi.) Microsoft'taki üst düzey yönetici Altman hakkında, "Bence sonunda Bernie Madoff veya Sam Bankman-Fried seviyesinde bir dolandırıcı olarak hatırlanma ihtimali küçük ama gerçek," dedi.
Altman teknik bir deha değil—yörüngesindekilerin çoğuna göre, kodlama veya makine öğrenimi konusunda kapsamlı bir uzmanlıktan yoksun. Birden fazla mühendis onun temel teknik terimleri yanlış kullandığını veya karıştırdığını hatırladı. OpenAI'ı büyük ölçüde başkalarının parasını ve teknik yeteneğini kullanarak inşa etti. Bu onu benzersiz yapmıyor. Onu bir iş adamı yapıyor. Daha dikkat çekici olan, çekingen mühendisleri, yatırımcıları ve teknolojiye şüpheyle yaklaşan bir halkı, önceliklerinin, karşılıklı olarak dışlayıcı olduklarında bile, kendisinin öncelikleri olduğuna ikna etme yeteneğidir. Böyle insanlar bir sonraki hamlesini engellemeye çalıştıklarında, genellikle onları etkisiz hale getirecek kelimeleri buldu; genellikle, sabırları tükendiğinde, ihtiyacı olanı almıştı. Eski OpenAI araştırmacısı Wainwright, "Gelecekte onu sınırlayan yapılar kuruyor," dedi. "Ama sonra gelecek geldiğinde ve sınırlanma zamanı geldiğinde, yapının ne olduğunu ortadan kaldırıyor."
Altman ile çalışmış bir teknoloji yöneticisi, "İnanılmaz derecede ikna edici. Jedi zihin oyunları gibi," dedi. "O bir üst seviye." Hizalanma araştırmasındaki klasik bir hipotetik senaryo, bir insan ile yüksek güçlü bir yapay zeka arasında bir irade yarışmasını içerir. Araştırmacılar, böyle bir yarışmada, tıpkı bir büyük ustanın satrançta bir çocuğu yenmesi gibi, yapay zekanın kesinlikle kazanacağını savunurlar. Yönetici, Blip sırasında çevresindeki insanları Altman'ın alt etmesini izlemenin "kutudan çıkan bir AGI'yı izlemek gibi" olduğunu sözlerine ekledi.
Kovulmasından sonraki günlerde Altman, kendisine karşı iddiaların herhangi bir dış soruşturmasını önlemek için savaştı. İki kişiye, bir soruşturmanın varlığının bile onu suçlu göstereceğinden endişelendiğini söyledi. (Altman bunu reddediyor.) Ancak, istifa eden yönetim kurulu üyeleri ayrılışlarını bağımsız bir soruşturma yapılmasına bağladıktan sonra, Altman "son olayların" bir "incelemesine" rıza gösterdi. Müzakerelere dahil olan kişilere göre, iki yeni yönetim kurulu üyesi bu incelemeyi kontrol etmeleri konusunda ısrar etti. Summers, siyasi ve Wall Street bağlantıları ağıyla buna inandırıcılık kazandırıyor gibi görünüyordu. (Geçen Kasım ayında, genç bir korumasıyla romantik bir ilişki sürdürürken Jeffrey Epstein'in tavsiyesini aradığı e-postaların ifşa edilmesinden sonra, yönetim kurulundan istifa etti.) OpenAI, incelemeyi yürütmek için Enron ve WorldCom'un iç soruşturmalarından sorumlu seçkin hukuk firması WilmerHale'i görevlendirdi.
Soruşturmaya yakın altı kişi, şeffaflığı sınırlamak için tasarlanmış göründüğünü iddia etti. Bazıları, müfettişlerin başlangıçta şirketteki önemli şahsiyetlerle iletişime geçmediğini söyledi. Bir çalışan şikayet etmek için Summers ve Taylor'a ulaştı. Müfettişlerle yaptığı görüşmeyi hatırlayan çalışan, "Sadece yönetim kurulu draması sırasında ne olduğuna dair dar bir aralıkla ilgileniyorlardı ve onun dürüstlük geçmişiyle değil," dedi. Diğerleri, Altman hakkındaki endişelerini paylaşmaktan rahatsız oldular çünkü anonimliği sağlamak için yeterli çaba olmadığına inandılar. Çalışan, "Her şey, sonucu bulmak istediklerini gösteriyordu, bu da onu aklamaktı," dedi. (İlgili avukatlardan bazıları, "Gerçekleri nereye götürürse götürsün izleyen bağımsız, dikkatli, kapsamlı bir incelemeydi," diyerek süreci savundu. Taylor da incelemenin "kapsamlı ve bağımsız" olduğunu söyledi.)
Kurumsal soruşturmalar meşruiyet sağlamayı amaçlar. Özel şirketlerde bulguları bazen yazılı hale getirilmez—bu, sorumluluğu sınırlamanın bir yolu olabilir. Ancak kamu skandallarını içeren durumlarda genellikle daha fazla şeffaflık beklentisi vardır. Kalanick 2017'de Uber'den ayrılmadan önce, yönetim kurulu kamuoyuna 13 sayfalık bir özet yayınlayan bir dış firma tuttu. OpenAI'ın 501(c)(3) statüsü ve kovulmanın yüksek profilli doğası göz önüne alındığında, oradaki birçok yönetici kapsamlı bulgular görmeyi bekliyordu. Ancak Mart 2024'te OpenAI, Altman'ı temize çıkaracağını ancak hiçbir rapor yayınlamayacağını duyurdu. Şirket, web sitesinde bir "güven yıkımı" kabul eden yaklaşık 800 kelime sağladı.
Soruşturmaya dahil olan kişiler, hiçbir raporun yayınlanmadığını çünkü hiçbirinin yazılmadığını söyledi. Bunun yerine bulgular, Summers ve Taylor ile paylaşılan sözlü bilgilendirmelerle sınırlandırıldı. Soruşturmaya yakın kişilerden biri, "İnceleme, Sam'in George Washington kiraz ağacı dürüstlüğüne sahip olduğu sonucuna varmadı," dedi. Ancak soruşturma, Altman'ın kovulmasının arkasındaki dürüstlük sorularını merkeze almamış gibi görünüyor, odak noktasının çoğunu net bir suç arayışına ayırıyor; bu temelde, CEO olarak kalabileceği sonucuna vardı. Kısa bir süre sonra, kovulduğunda kuruldan atılan Altman tekrar kurula katıldı. İncelemeye yakın kişi, raporu yazılı hale getirmeme kararının kısmen Summers ve Taylor'ın kişisel avukatlarının tavsiyesi üzerine alındığını söyledi. (Summers açıklama yapmayı reddetti. Taylor, sözlü bilgilendirmeler ışığında "resmi bir yazılı rapora ihtiyaç kalmadığını" söyledi.)
Birçok eski ve mevcut OpenAI çalışanı, ifşa eksikliğinden şok olduklarını bize söyledi. Altman, göreve iadesinden sonra katılan tüm yönetim kurulu üyelerinin sözlü bilgilendirmeleri aldığını inandığını söyledi. Durumu doğrudan bilen bir kişi, "Bu mutlak, tam bir yalan," dedi. Bazı yönetim kurulu üyeleri, raporun dürüstlüğü hakkındaki devam eden soruların, birinin belirttiği gibi, "başka bir soruşturma ihtiyacını" tetikleyebileceğini söyledi.
Yazılı bir kaydın olmaması iddiaları en aza indirmeye yardımcı oldu. Altman'ın Silikon Vadisi'ndeki statüsü de giderek daha fazla yardımcı oldu. Altman ile çalışmış birçok önde gelen yatırımcı, OpenAI'ın rakiplerini desteklemeleri durumunda yatırımcıları dondurma konusunda bir üne sahip olduğunu söyledi. Biri, "Hoşlanmadığı bir şeye yatırım yaparlarsa, başka şeylere erişemezler," dedi. Altman'ın gücünün bir başka kaynağı, bazen kişisel hayatına kadar uzanan geniş yatırım listesidir. Çok sayıda eski romantik partneriyle mali ilişkileri var: fon eş yöneticisi, baş yatırımcı veya sık ortak yatırımcı olarak. Bu pek alışılmadık bir durum değil. Silikon Vadisi'nin düz yöneticilerinin çoğu, romantik ve cinsel partnerleriyle aynı şeyi yapıyor. ("Yapmak zorundasın," dedi bir önde gelen CEO.) Altman, "Açıkçası bazı eski sevgililerle sonradan yatırım yaptım. Ve bunun tamamen sorun olmadığını düşünüyorum," dedi. Ancak dinamik, olağanüstü bir kontrol düzeyi sağlıyor. Altman'a yakın bir kişi, "Temel olarak çok, çok yüksek bir bağımlılık yaratıyor," dedi. "Çoğu zaman, bu bir ömür boyu süren bir bağımlılıktır."
Eski meslektaşları bile etkilenebilir. Murati 2024'te OpenAI'dan ayrıldı ve kendi yapay zeka startup'ını kurmaya başladı. Altman'ın yakın müttefiki Josh Kushner onu aradı. Liderliğini övdü, ardından "itibarından endişe duyduğunu" ve eski meslektaşlarının artık onu bir "düşman" olarak gördüğünü belirterek örtülü bir tehdit gibi görünen bir şey yaptı. (Kushner bir temsilci aracılığıyla bu anlatımın "tam bağlamı aktarmadığını" söyledi; Altman görüşmeden haberdar olmadığını söyledi.)
CEO olarak görev süresinin başında Altman, OpenAI'ın kâr amacı gütmeyen kuruluş tarafından sahip olunacak bir "sınırlandırılmış kâr" şirketi yaratacağını duyurmuştu. Bu Bizans kurumsal yapısı, Altman onu tasarlayana kadar görünüşe göre mevcut değildi. Dönüşümün ortasında, Holden Karnofsky adında bir yönetim kurulu üyesi buna itiraz ederek kâr amacı gütmeyen kuruluşun ciddi şekilde değerinin altında olduğunu savundu. Amodei'nin kayınbiraderi olan Karnofsky, "Bunu iyi niyetle yapamam," dedi. Çağdaş notlara göre, buna karşı oy kullandı. Ancak, kurul için bir avukat muhalefetinin yeni yapının meşruiyetini "daha fazla araştırmaya değer bir bayrak olabileceğini" söyledikten sonra, oyu rızası olmadan çekimser olarak kaydedildi—iş kayıtlarında potansiyel bir tahrifat. (OpenAI, birkaç çalışanın Karnofsky'nin çekimser kaldığını hatırladığını söyledi ve oyunu çekimser olarak kaydeden toplantı tutanaklarını sağladı.)
Geçen Ekim ayında OpenAI, kâr amacı güden bir kuruluş olarak "yeniden sermayelendirildi." Firma, artık OpenAI Vakfı olarak adlandırılan ilişkili kâr amacı gütmeyen kuruluşunu tarihteki "en iyi kaynaklara sahip" kuruluşlardan biri olarak tanıtıyor. Ancak artık şirketin yüzde 26'lık payına sahip ve yönetim kurulu üyeleri de, bir istisna dışında, kâr amacı güden kurulun üyeleri.
Kongre ifadesi sırasında Altman'a "çok para" kazanıp kazanmadığı soruldu. "OpenAI'da hiç hissem yok... bunu seviyorum çünkü yapıyorum"—Y.C. fonu üzerinden dolaylı hissesi göz önüne alındığında dikkatli bir cevap—diye yanıtladı. Bu teknik olarak hala doğru. Ancak Altman dahil birkaç kişi, bunun yakında değişebileceğini bize belirtti. Altman, "Yatırımcılar, işler zorlaştığında bununla kalacağını bilmem gerekiyor diyor," dedi ancak bunun hakkında "aktif bir tartışma" olmadığını ekledi. Bir yasal ifadeye göre Brockman, şirkette yaklaşık 20 milyar dolar değerinde bir hisseye sahip görünüyor. Altman'ın payı muhtemelen daha değerli olurdu. Yine de bize öncelikle servet tarafından motive olmadığını söyledi. Eski bir çalışan onun, "Para umurumda değil. Güç benim için daha önemli," dediğini hatırlıyor.
2023'te Altman, Mulherin ile Hawaii'de sahip oldukları bir evde küçük bir törenle evlendi. (Dokuz yıl önce, Peter Thiel'in jakuzisinde gece geç saatlerde tanışmışlardı.) Mülkte bir dizi misafir ağırladılar ve konuştuklarımız, çok zenginlerin standart eğlencelerinden daha dikkat çekici bir şeye tanık olmadıklarını bildirdiler: özel bir şef tarafından hazırlanan yemekler, altın saatte tekne gezileri. Bir yılbaşı partisi "Survivor" temalıydı; bir fotoğraf, gömleksiz, gülümseyen birkaç adamı ve "Survivor"ın gerçek sunucusu Jeff Probst'u gösteriyor. Altman ayrıca mülklerinde daha küçük arkadaş gruplarını da ağırladı, en az bir örnekte, coşkulu bir striptiz poker oyunu içeren toplantılar. (Altman'ı içermeyen etkinliğin bir fotoğrafı kimin kazandığını belirsiz bırakıyor, ancak en az üç adamın açıkça kaybettiği görülüyor.) Altman'ın eski misafirlerinin birçoğuyla konuştuk ve sadece onun cömert bir ev sahibi olduğunu öne sürdüler.
Yine de, Altman'ın kişisel hayatı hakkındaki söylentiler rakipler tarafından sömürüldü ve çarpıtıldı. Acımasız iş rekabetleri yeni bir şey değil, ancak yapay zeka endüstrisindeki rekabet olağanüstü derecede acımasız hale geldi. ("Shakespearevari", bir OpenAI yöneticisinin bize tarif etmek için kullandığı kelimeydi, "Oyunun normal kuralları artık bir nevi geçerli değil," diye ekledi.) Doğrudan Musk ile bağlantılı ve en az bir vakada onun tarafından tazmin edilen aracılar, Altman hakkında düzinelerce sayfalık ayrıntılı muhalefet araştırması dolaşıma soktu. Bunlar, onunla ilişkili paravan şirketleri, yakın ilişkilerin kişisel iletişim bilgilerini ve hatta eşcinsel barlarda yürütülen, iddia edilen bir seks işçisi hakkındaki görüşmeleri belgeleyen kapsamlı gözetimi yansıtıyor. Musk aracılarından biri, Altman'ın uçuşlarının ve katıldığı partilerin izlendiğini iddia etti. Altman bize, "Buna karşı daha fazla özel dedektif tutulan kimsenin olduğunu sanmıyorum," dedi.
Aşırı iddialar dolaştı. Sağcı yayıncı Tucker Carlson, hiçbir kanıt göstermeden, Altman'ın bir muhbirin ölümüne karıştığını öne sürdü. Bu iddia ve diğerleri rakipler tarafından güçlendirildi. Altman'ın kız kardeşi Annie, bir davada ve bizimle yaptığı görüşmelerde, onun çocukken kendisine yıllarca cinsel istismarda bulunduğunu iddia etti—kendisi 3 yaşındayken ve Altman 12 yaşındayken başladığını söyledi. (Annie'nin, Altman'ın reddettiği ve kardeşlerinin ve annesinin "tamamen gerçek dışı" ve "tüm ailemiz için büyük bir acı kaynağı" olarak adlandırdığı anlatımını doğrulayamadık. Gazeteci Karen Hao'nun "Empire of AI" adlı kitabı için yaptığı görüşmelerde Annie, istismar anılarının yetişkinlikteki flashbackler sırasında geri kazanıldığını öne sürdü.)
Rakip şirketlerde ve yatırım firmalarında çalışan birden fazla kişi, Altman'ın reşit olmayanları cinsel olarak takip ettiğini ima etti—Silikon Vadisi'nde ısrarcı olan ve gerçek dışı görünen bir anlatı. Konuyu araştırmak için aylar harcadık, düzinelerce görüşme yaptık ve bunu destekleyecek hiçbir kanıt bulamadık. Altman bize, "Bu, önümüzdeki davalarımızda jüriyi lekelemeye çalışmanın bir parçası olduğunu varsaydığım bir rakipten gelen iğrenç bir davranış," dedi. "Bunu söylemek zorunda kalmak ne kadar saçma olsa da, bir reşit olmayana cinsel saldırıda bulunduğuma, seks işçileri tuttuğuma veya bir cinayete karıştığıma dair iddiaların hepsi tamamen gerçek dışı." Aylarımızı "bunu bu kadar agresif bir şekilde araştırmaya çalışarak" geçirdiğimiz için "bir nevi minnettar" olduğunu ekledi.
Altman, yasal yaştaki daha genç erkeklerle çıktığını kabul etti. Bunun sorunlu olduğunu düşünmediklerini söyleyen birkaç partneriyle konuştuk. Ancak Musk aracılarından gelen muhalefet dosyaları bunu bir saldırı hattı olarak çeviriyor. (Dosyalar, bir "Twink Ordusu"na ve "Sugar Daddy'nin Cinsel Alışkanlıkları"na dair müstehcen ve asılsız referanslar içeriyor.) Altman, "Bence itilen çok fazla homofobi var," dedi. Teknoloji gazetecisi Swisher katıldı. "Tüm bu zengin adamlar çılgın şeyler yapıyor, Sam hakkında bana anlatılanlardan daha çılgınca," dedi. "Ama o San Francisco'da bir gey," diye ekledi, "yani bu silah haline getiriliyor."
On yıl boyunca sosyal medya yöneticileri, dünyayı çok az veya hiç dezavantaj olmadan değiştirebileceklerine söz verdiler. Onları yavaşlatmak isteyen yasa yapıcıları basit Luddites olarak reddettiler ve sonunda iki partili alay kazandılar. Altman ise aksine, ferahlatıcı derecede vicdanlı görünüyordu. Düzenlemeyi savuşturmak yerine, neredeyse yalvardı. 2023'te Senato Yargı Komitesi önünde ifade verirken, gelişmiş yapay zeka modellerini denetlemek için yeni bir federal kurum önerdi. "Bu teknoloji yanlış giderse, oldukça yanlış gidebilir," dedi. Teknoloji CEO'ları ile kavgacı alışverişleriyle tanınan Louisiana Senatörü John Kennedy, yüzünü eline dayayıp belki Altman'ın kuralları kendisinin uygulaması gerektiğini öne sürerek büyülenmiş görünüyordu.
Ancak Altman kamuoyunda düzenlemeyi memnuniyetle karşılarken, sessizce ona karşı lobi yaptı. Time'a göre OpenAI, 2022 ve 2023'te Avrupa Birliği'nin büyük yapay zeka şirketlerini daha fazla denetime tabi tutacak bir çabasını sulandırmak için başarılı bir şekilde baskı yaptı. 2024'te California eyalet yasama meclisinde yapay zeka modelleri için güvenlik testi zorunlu kılan bir yasa tasarısı sunuldu. Hükümleri, Altman'ın kongre ifadesinde savunduğu önlemlere benzeyen önlemleri içeriyordu. OpenAI tasarıya kamuoyunda karşı çıktı ancak özel hayatta tehditler savurmaya başladı. Bir yasama yardımcısı bize, "Yıl boyunca OpenAI'dan giderek daha kurnaz, aldatıcı davranışlar gördüğümüzü söyleyebilirim," dedi.
Yatırımcı Conway, Pelosi ve Newsom dahil eyalet siyasi liderlerine tasarıyı öldürmeleri için lobi yaptı. Sonunda iki partili destekle yasama meclisinden geçti, ancak Newsom veto etti. Bu yıl, yapay zeka düzenlemelerini savunan kongre adayları, bu tür kısıtlamaları baltalamaya adanmış yeni bir "yapay zeka yanlısı" süper PAC olan Leading the Future tarafından finanse edilen rakiplerle karşılaştı. OpenAI'ın resmi duruşu, bu tür süper PAC'lere katkıda bulunmayacağıdır. Lehane geçenlerde CNN'e, "Bu konu partizan siyasetin ötesine geçiyor," dedi. Yine de Leading the Future'ın büyük bağışçılarından biri, 50 milyon dolar taahhüt eden Greg Brockman. (Bu yıl Brockman ve eşi, Trump yanlısı bir süper PAC olan MAGA Inc.'e 25 milyon dolar bağışladı.)
OpenAI'ın kampanyası geleneksel lobiciliğin ötesine uzandı. Geçen yıl, California Senatosu'na bir halef yasa tasarısı sunuldu. Bir gece, kâr amacı gütmeyen Encode'da çalışan ve tasarıyı hazırlamaya yardımcı olan 29 yaşındaki avukat Nathan Calvin, eşiyle akşam yemeği yerken, bir tebliğ memuru OpenAI'dan bir mahkeme celbi getirdi. Şirket, Musk'ın eleştirmenlerini gizlice finanse ettiğine dair kanıt avladığını iddia etti. Ancak eyalet Senatosu'ndaki tasarı hakkındaki tüm özel iletişimlerini talep etti. Calvin bize, "Bize 'Elon Musk ile hiç konuştunuz mu veya size hiç para verdi mi?' diye sorabilirlerdi—ki yapmadık," dedi. Tasarının diğer destekçileri ve OpenAI'ın kâr amacı güden yeniden yapılandırmasının bazı eleştirmenleri de mahkeme celbi aldı. James Irvine Foundation adlı bir hayır kurumuna başkanlık eden Don Howard, "İnsanların peşinden giderek temelde onları susmaya zorlamak için korkutuyorlardı," dedi. (OpenAI, bunun standart yasal sürecin bir parçası olduğunu iddia ediyor.)
Altman uzun süredir Demokratları destekliyor. "Güçlü otokratların, zayıfları çeteleştirmek için bir korku hikayesi anlattığından çok şüpheleniyorum," dedi. "Bu bir Yahudi meselesi, gey meselesi değil." 2016'da Hillary Clinton'ı destekledi ve Trump'ı "Amerika için benzeri görülmemiş bir tehdit" olarak nitelendirdi. 2020'de Demokrat Parti'ye ve Biden Zafer Fonu'na bağışta bulundu. Biden Yönetimi sırasında Altman Beyaz Saray ile en az yarım düzine kez görüştü. Yapay zeka için ilk federal güvenlik testleri rejimini ve diğer koruma önlemlerini ortaya koyan uzun bir yürütme emri geliştirmeye yardımcı oldu. Biden imzaladığında, Altman buna "iyi bir başlangıç" dedi.
2024'te, Biden'ın anket sonuçları düşerken, Altman'ın retoriği değişmeye başladı. "Amerika'nın bu seçimde ne olursa olsun iyi olacağına inanıyorum," dedi. Trump kazandıktan sonra Altman, açılış fonuna 1 milyon dolar bağışladı ve ardından Göreve Başlama Töreninde etkileyiciler Jake ve Logan Paul ile selfieler çekti. X'te, standart küçük harf stiliyle Altman, "potus'u son zamanlarda daha dikkatli izlemek gerçekten ona olan bakış açımı değiştirdi (keşke kendi düşüncelerimden daha fazlasını yapsaydım . . . )." Trump, göreve döndüğü ilk gün, Biden'ın yapay zeka ile ilgili yürütme emrini yürürlükten kaldırdı. Biden Yönetimi'nden üst düzey bir yetkili, Altman hakkında "Trump Yönetimi'nin onun emirlerini yerine getirmesi için etkili bir yol buldu," dedi.
Musk, Altman'ı kamuoyunda "Dolandırıcı Altman" ve "Kurnaz Sam" olarak nitelendirerek azarlamaya devam ediyor. (Altman X'te sipariş ettiği bir Tesla'dan şikayet ettiğinde, Musk "Bir kâr amacı gütmeyen kuruluşu çaldın," diye yanıtladı.) Yine de Washington'da Altman onu geride bırakmış görünüyor. Musk, Trump'ın yeniden seçilmesine yardımcı olmak için 250 milyon dolardan fazla para harcadı ve aylarca Beyaz Saray'da çalıştı. Sonra Musk, süreçte Trump ile ilişkisine zarar vererek Washington'dan ayrıldı.
Altman artık Trump'ın sevilen iş adamlarından biri, hatta Windsor Kalesi'nde İngiliz Kraliyet Ailesi'ni ziyaret etmek için çıktığı bir gezide ona eşlik ediyor. Altman ve Trump yılda birkaç kez konuşuyor. Altman, "Sadece onu arayabilirsiniz," dedi. "Bu bir kanka değil. Ama evet, bir şey hakkında onunla konuşmam gerekirse, konuşurum." Trump geçen yıl Beyaz Saray'da teknoloji liderleriyle bir akşam yemeği verdiğinde, Musk dikkat çekici bir şekilde yoktu; Altman Başkan'ın karşısında oturdu. Trump, "Sam, sen büyük bir lidersin," dedi. "Bana daha önce kesinlikle inanılmaz şeyler söyledin."
Yıllar geçtikçe Altman, AGI arayışını Manhattan Projesi ile karşılaştırmaya devam etti. Nazileri dünyadan kurtarmakla ilgili tutkulu çağrıları fizikçileri hayatlarını söküp Los Alamos'a taşımaya ikna etmek için kullanan J. Robert Oppenheimer gibi, Altman da teknolojisinin jeopolitik riskleri hakkındaki korkulardan yararlanıyor. Hedef kitleye bağlı olarak, Altman bu benzetmeyi hızlanmayı veya temkinli olmayı teşvik etmek için kullandı. 2017 yazında ABD istihbarat yetkilileriyle yaptığı bir toplantıda, Çin'in bir "AGI Manhattan Projesi" başlattığını ve OpenAI'ın ayak uydurmak için milyarlarca dolarlık hükümet fonuna ihtiyacı olduğunu iddia etti. Kanıt istendiğinde Altman, "Bir şeyler duydum," dedi. İddiayı yaptığı birkaç toplantıdan ilkiydi. Birinden sonra bir istihbarat yetkilisine kanıtla takip edeceğini söyledi. Asla yapmadı. Yetkili, Çin projesini araştırdıktan sonra, var olduğuna dair hiçbir kanıt olmadığı sonucuna vardı: "Sadece bir satış konuşması olarak kullanılıyordu." (Altman Pekin'in çabalarını tam olarak bu şekilde tarif ettiğini hatırlamadığını söylüyor.)
Güvenlik bilincine sahip izleyicilerle, Altman benzetmeyi tam tersini ima etmek için kullandı: AGI'nın, sonuçlar felaket olmasın diye uluslararası koordinasyonla dikkatli bir şekilde izlenmesi gerektiğini. 2017'de Amodei, eski bir kamu yararı avukatı olan Page Hedley'i OpenAI'ın politika ve etik danışmanı olması için işe aldı. Yöneticilere yaptığı erken bir PowerPoint sunumunda Hedley, OpenAI'ın "felaket" bir silahlanma yarışından—belki de teknolojinin güvenli bir şekilde konuşlandırılmasını sağlamak için sonunda NATO benzeri uluslararası bir organla koordine olacak yapay zeka laboratuvarları koalisyonu kurarak—nasıl kaçınabileceğini özetledi. Hedley'in hatırladığına göre Brockman bunun şirketin rakiplerini yenmesine nasıl yardımcı olacağını anlamadı. Hedley bize, "Ne söylersem söyleyeyim, Greg 'Peki nasıl daha fazla para toplarız? Nasıl kazanırız?' sorusuna geri dönüyordu," dedi. Birkaç görüşmeye ve çağdaş kayıtlara göre Brockman bir karşı teklif sundu: OpenAI, dünyadaki güçleri—Çin ve Rusya dahil—birbirine karşı oynatarak, belki aralarında bir teklif savaşı başlatarak kendini zenginleştirebilirdi. Hedley'e göre düşünce şu gibi görünüyordu: Nükleer silahlar için işe yaradı, neden yapay zeka için yaramasın?
Dehşete düşmüştü: "İtiraz etmedikleri önerme şuydu: 'Potansiyel olarak şimdiye kadar icat edilmiş en yıkıcı teknolojiden bahsediyoruz—ya onu Putin'e satarsak?'" (Brockman, yapay zeka modellerini hükümetlere açık artırmayla satmayı asla ciddi bir şekilde düşünmediğini savunuyor. Bir OpenAI temsilcisi, "Uluslararası işbirliğini teşvik etmek için potansiyel çerçevelerin neye benzeyebileceği konusunda üst düzeyde fikirler ortaya atıldı—Yapay zeka için Uluslararası Uzay İstasyonu benzeri bir şey," dedi. "Bunu bundan fazlası olarak nitelendirmeye çalışmak tamamen saçma.")
Beyin fırtınası oturumları genellikle tuhaf fikirler üretir. Hedley, dahili olarak "ülkeler planı" olarak bilinen bunun terk edileceğini umuyordu. Ancak, dahil olan birkaç kişi ve çağdaş belgelere göre, OpenAI yöneticileri bu konuda daha fazla heyecanlanıyor gibi görünüyordu. OpenAI'ın o zamanki politika direktörü Jack Clark'a göre Brockman'ın hedefi, "temelde, tüm ulusların bize fon sağlaması gereken bir mahkum ikilemi kurmaktı" ve bu "zımnen bize fon sağlamamayı bir nevi tehlikeli hale getiriyor." Genç bir araştırmacı, şirket toplantısında plan detaylandırılırken, "Bu tamamen lanet olası çılgınca," diye düşündüğünü hatırladı.
Yöneticiler yaklaşımı en az bir potansiyel bağışçıyla tartıştılar. Ancak o ayın ilerleyen saatlerinde, birkaç çalışan ayrılmaktan bahsettikten sonra plan terk edildi. Hedley, Altman'ın "personel kaybedeceğini" söyledi. "Bunun Sam'in hesaplamalarında 'Bu iyi bir plan değil çünkü büyük güçler arasında bir savaşa neden olabilir'den her zaman daha fazla ağırlığı olduğunu hissediyorum."
Ülkeler planının çöküşünden yılmayan Altman, temanın varyasyonlarını izledi. Ocak 2018'de, pembe begonvillerle dolu bahçeleri ve gerçek kuğularla dolu yapay bir göleti olan Eski Hollywood tatil yeri Hotel Bel-Air'de bir "AGI hafta sonu" topladı. Katılımcılar arasında Oxford'da olan ve yapay zeka kıyametinin bir peygamberi haline gelen filozof Nick Bostrom; bir Emirlik sultanı ve yapay zeka destekçisi Ömer El Olama; ve en az 7 milyarder vardı. Güvenlik endişesi olanlara bunun toplumun yapay genel zekanın yıkıcı gelişine nasıl hazırlanabileceğini düşünmek için bir fırsat olacağı söylendi; yatırımcılar konuşmalar duymayı bekleyerek geldi.
Günler, konukların konuşmalar yaptığı şık bir konferans odasında geçti. (LinkedIn kurucu ortağı Hoffman, yapay zekayı Budist şefkatle kodlama olanakları üzerine detaylıca anlattı.) Son sunucu, "AGI'nın dikkatine kullanılabilir" bir küresel kripto para birimini tanımlayan bir sunum destesi ile silahlanmış Altman'dı. AGI maksimum derecede yararlı ve "kötülük karşıtı" olduğunda, insanlar her yerde OpenAI'ın sunucularında zaman satın almak için bağıracaklardı. Amodei notlarında, "Bu fikir ilk bakışta saçmaydı (Vladimir Putin tokenların bir kısmına mı sahip olacaktı?...) Geriye dönüp bakıldığında bu, daha ciddiye almam gereken Sam hakkındaki birçok kırmızı bayraktan biriydi," diye yazdı. Plan bir nakit kapma gibi görünüyordu, ancak Altman onu yapay zeka güvenliği için bir lütuf olarak sattı. Slaytlarından birinde, "'iyi' takımdaki insanları mümkün olduğunca çoğaltmak, kazanmak ve doğru olanı yapmak istiyorum" yazıyordu. Bir başkasında, "Lütfen sunumun sonuna kadar kahkahalarınızı tutun," yazıyordu.
Altman'ın bağış toplama konuşması yıllar içinde gelişti, ancak AGI geliştirmenin şaşırtıcı miktarda sermaye gerektirdiği gerçeğini her zaman yansıttı. Nispeten basit bir "ölçeklendirme yasası"nı takip ediyordu: modelleri eğitmek için ne kadar çok veri ve bilgi işlem gücü kullanırsanız, o kadar akıllı görünüyorlardı. Bu süreci sağlayan özel çipler muazzam derecede pahalı. OpenAI, sadece en son fonlama turunda 120 milyar dolardan fazla para topladı—tarihteki en büyük özel tur ve şimdiye kadarki en büyük halka arzdan dört kat daha büyük bir meblağ. Bir teknoloji yöneticisi ve yatırımcı bize, "Yılda keyfi olarak 100 milyar dolar harcayabilen kuruluşlar düşündüğünüzde, dünyada gerçekten sadece bir avuç var," dedi. "ABD hükümeti, en büyük dört veya beş ABD teknoloji şirketi ve Suudiler ve Emirlikler var—temelde hepsi bu kadar."
Altman'ın ilk odak noktası Suudi Arabistan'dı. Ülkenin veliaht prensi ve de facto hükümdarı Muhammed bin Selman ile ilk kez 2016'da San Francisco'daki Fairmont Oteli'ndeki bir akşam yemeğinde tanıştı. Hedley, sonrasında Altman'ın prensten "bir arkadaş" olarak bahsettiğini hatırladı. Eylül 2018'de, Hedley'in notlarına göre Altman, "Suudi PIF'inden veya kamu yatırım fonundan on milyarlarca dolar alıp almayacağımıza karar vermeye çalışıyorum," dedi.
Ertesi ay, bin Selman'ın emirleriyle hareket ettiği bildirilen bir suikast timi, rejime karşı eleştirel olan Washington Post gazetecisi Cemal Kaşıkçı'yı boğdu ve cesedini parçalamak için bir kemik testeresi kullandı. Bir hafta sonra, Altman'ın bin Selman'ın çölde inşa etmeyi umduğu bir "geleceğin şehri" olan Neom'un danışma kuruluna katıldığı duyuruldu. Anthropic'te çalışan politika direktörü Clark bize, "Sam, bu kurulda olamazsın," diye Altman'a söylediğini hatırladı. İlk başta, Jared Kushner'in ona Suudilerin "bunu yapmadığı" konusunda güvence verdiğini söyleyerek katılımını savundu. (Altman bunu hatırlamıyor. Kushner, o sırada iletişimde olmadıklarını söylüyor.)
Bin Selman'ın rolü giderek daha net hale geldikçe Altman Neom kurulundan ayrıldı. Ancak perde arkasında, Altman'ın tavsiye aradığı bir politika danışmanı, durumu geçici bir aksilik olarak gördüğünü hatırladı ve bin Selman'dan hala bir şekilde para alıp alamayacağını sordu. Danışman, "Soru 'Bu kötü bir şey mi değil mi?' değildi," dedi. "Sadece, 'Bunu yaparsak sonuçları ne olur? İhracat kontrolü sorunu olur mu? Yaptırım olur mu? Yani, kurtulabilir miyim?' şeklindeydi."
O zamana kadar Altman zaten başka bir nakit kaynağını gözlüyordu: Birleşik Arap Emirlikleri. Ülke, kendini petrol devletinden teknoloji merkezine dönüştürmek için 15 yıllık bir çabanın ortasındaydı. Proje, Cumhurbaşkanı'nın kardeşi ve ulusun casus şefi Şeyh Tahnoon bin Zayed el-Nahyan tarafından denetleniyordu. Tahnoon, devlet kontrollü yapay zeka holdingi G42'yi yönetiyor ve 1.5 trilyon dolarlık egemen serveti kontrol ediyor. Haziran 2023'te Altman Abu Dabi'yi ziyaret etti, Olama ve diğer yetkililerle görüştü. Hükümet destekli bir işlevdeki konuşmalarda, ülkenin "havalı olmadan önce bile yapay zeka hakkında konuştuğunu" söyledi ve Orta Doğu'nun "merkezi bir rolde" olduğu yapay zekanın geleceği için bir vizyon özetledi.
Körfez devletlerinden bağış toplamak birçok büyük işletme için alışılmış hale geldi. Ancak Altman daha geniş bir jeopolitik vizyon izliyordu. 2023 sonbaharında, Körfez devletlerinin devasa mikroçip dökümhanelerinin ve veri merkezlerinin inşası için on milyarlarca dolar sağlayacağı—bazıları Orta Doğu'da bulunacak—bir plan (sonunda ChipCo olarak bilinen) için sessizce yeni yetenekler toplamaya başladı. Altman, liderlik rolü için Meta'da yapay zeka başkanı olan Alexandr Wang'a ulaştı ve Amazon'un kurucusu Jeff Bezos'un yeni şirketin başına geçebileceğini söyledi. Altman, Emirlilerden muazzam katkılar istedi. Kurul üyesi, "Anladığım kadarıyla tüm bunlar yönetim kurulu bilgisi olmadan gerçekleşti," dedi. Altman'ın proje için işe almaya çalıştığı bir araştırmacı olan James Bradbury, onu reddettiğini hatırladı. "İlk tepkim 'Bu işe yarayacak, ama çalışmasını isteyip istemediğimi bilmiyorum' oldu," dedi.
Yapay zeka kapasitesi, yakında küresel güç dengesini belirleyen kaynak olarak petrolün veya zenginleştirilmiş uranyumun yerini alabilir. Altman, işlem gücünün "geleceğin para birimi" olduğunu söyledi. Normalde, bir veri merkezinin nerede bulunduğu önemli olmayabilir. Ancak birçok Amerikalı ulusal güvenlik yetkilisi, gelişmiş yapay zeka altyapısını Körfez otokrasilerinde yoğunlaştırma konusunda endişeliydi. BAE'nin telekomünikasyon altyapısı, hükümete bağlı bir Çin teknoloji devi olan Huawei'den gelen donanıma büyük ölçüde bağımlı ve BAE'nin geçmişte Amerikan teknolojisini Pekin'e sızdırdığı bildirildi. İstihbarat teşkilatları, Emirlilere gönderilen gelişmiş ABD mikroçiplerinin Çinli mühendisler tarafından kullanılabileceğinden endişe ediyordu. Orta Doğu'daki veri merkezleri ayrıca askeri saldırılara karşı daha savunmasız; son haftalarda İran, Bahreyn ve BAE'deki Amerikan veri merkezlerini bombaladı. Ve varsayımsal olarak, bir Körfez monarşisi Amerikan sahipliğindeki bir veri merkezini ele geçirip orantısız derecede güçlü modeller inşa etmek için kullanabilirdi—"AGI diktatörlüğü" senaryosunun bir versiyonu, ancak gerçek bir diktatörlükte.
Altman kovulduktan sonra en çok güvendiği kişi, Airbnb kurucu ortağı ve Altman'ın en şiddetli sadıklarından biri olan Chesky'ydi. Chesky bize, "Arkadaşımın uçuruma öyle bakışını izlemek, bir şirketi gerçekten yönetmenin ne anlama geldiğine dair bazı temel şeyleri sorgulamama neden oldu," dedi. Ertesi yıl, bir Y Combinator mezunları toplantısında, iki saat süren doğaçlama bir konuşma yaptı. "Grup terapisi seansı gibi hissettirdi," dedi. Sonuç şuydu: Başlattığınız şirketi nasıl yöneteceğinize dair içgüdüleriniz en iyi içgüdülerdir ve size aksini söyleyen herkes sizi manipüle ediyordur. Chesky, "Sizin için çalışan insanlar öyle olduğunuzu söylese bile deli değilsiniz," dedi. Paul Graham, konuşma hakkında bir blog gönderisinde bu meydan okuyan tavra bir isim verdi: Kurucu Modu.
Blip'ten bu yana Altman Kurucu Modu'ndaydı. Şubat 2024'te Wall Street Journal, Altman'ın ChipCo vizyonunu açıkladı. Beş ila yedi trilyon dolarlık bir yatırımla finanse edilen ortak bir varlık olarak tasarladı. ("fk it neden 8 olmasın," diye tweet attı.) Birçok çalışan planı bu şekilde öğrendi. Leike, "Herkes 'Bekle, ne?' gibiydi," diye hatırladı. Altman, dahili bir toplantıda güvenlik ekiplerinin "döngüye alındığını" savundu. Leike, çabanın onaylandığına dair yanlış bir izlenim vermemesini isteyen bir mesaj gönderdi.
Biden Yönetimi sırasında Altman, gizli yapay zeka politikası tartışmalarına katılmak için güvenlik izni almayı araştırdı. Ancak süreci koordine etmeye yardımcı olan RAND Corporation'daki personel endişelerini dile getirdi. Biri, "Yabancı hükümetlerden 'yüz milyarlarca dolar' toplamaya aktif olarak devam ediyor," diye yazdı. "BAE kısa süre önce ona bir araba hediye etti. (Çok güzel bir araba olduğunu varsayıyorum.)" Personel, "Süreçten bu büyüklükte yabancı mali bağlarla geçen tek kişi Jared Kushner ve jüri üyeleri ona izin verilmemesini tavsiye etti," diye devam etti. Altman sonunda süreçten çekildi. Altman ile görüşmelerde yer alan üst düzey bir Yönetim yetkilisi bize, "Temelde Emirlilerle, bazılarımız için çok sayıda kırmızı bayrak yükselten bu işlemsel ilişkileri zorluyordu," dedi. "Yönetimdeki pek çok insan ona yüzde yüz güvenmiyordu."
Altman'a Tahnoon'dan gelen hediyeleri sorduğumuzda, "Tahnoon'un bana özellikle ne tür hediyeler verdiğini söylemeyeceğim. Ancak o ve diğer dünya liderleri... bana hediyeler verdiler," dedi. "Potansiyel bir iş ortağından gelen her hediyenin şirkete açıklandığı standart bir politikamız var ve bu benim için de geçerli." Altman'ın en az iki hiper arabası var: yaklaşık 2 milyon dolar değerinde, tamamen beyaz bir Koenigsegg Regera ve yaklaşık 20 milyon dolar değerinde kırmızı bir McLaren F1. 2024'te Altman, Regera'yı Napa'da sürerken görüldü. Birkaç saniyelik video sosyal medyaya sızdı: Altman alçak bir kova koltukta, parıldayan beyaz bir makinenin penceresinden dışarı bakıyor. Musk yanlısı bir teknoloji yatırımcısı görüntüleri X'te yayınladı ve "Bir kâr amacı gütmeyen kuruluş başlatıyorum," diye yazdı.
2024'te Altman, iki OpenAI çalışanını 250 milyon dolarlık süper yat Maryah'da Şeyh Tahnoon'u ziyaret etmeleri için götürdü. Dünyadaki en büyük gemilerden biri olan Maryah'da helikopter pisti, gece kulübü, sinema ve plaj kulübü var. Altman'ın çalışanları, Tahnoon'un silahlı güvenlik detayının ortasında dikkat çekiciydi ve en az biri daha sonra meslektaşlarına deneyimi rahatsız edici bulduğunu söyledi. Altman daha sonra X'te Tahnoon'dan "sevgili kişisel arkadaş" olarak bahsetti.
Altman, Biden Yönetimi ile görüşmeye devam etti; yönetim, hassas teknolojinin ihracatı için Beyaz Saray onayını gerektiren bir politika yürürlüğe koymuştu. Birden fazla Yönetim yetkilisi, bu toplantılardan Altman'ın Orta Doğu'daki hırsları hakkında endişeli çıktı. Yetkililere göre yapay zekayı "yeni elektrik" olarak adlandırmak da dahil olmak üzere sık sık görkemli iddialarda bulundu. 2018'de, OpenAI'ın Rigetti Computing adlı bir şirketten tam işlevsel bir kuantum bilgisayarı satın almayı planladığını söyledi. Bu, odadaki diğer OpenAI yöneticileri için bile haberdi. Rigetti, kullanılabilir bir kuantum bilgisayarı satmaya henüz yakın değildi. Bir toplantıda Altman, 2026'ya kadar ABD genelinde kapsamlı bir nükleer füzyon reaktörleri ağının yapay zeka patlamasına güç vereceğini iddia etti. Üst düzey Yönetim yetkilisi, "Eh, nükleer füzyonu çalıştırırlarsa bu haber," dedi. Biden Yönetimi sonunda onayı vermedi. Altman'a Ticaret Bakanlığı'ndaki bir lider, "BAE'de gelişmiş çipler inşa etmeyeceğiz," dedi.
Trump'ın Göreve Başlama Töreninden dört gün önce Wall Street Journal, Tahnoon'un kripto para şirketindeki bir hisse karşılığında Trump ailesine yarım milyar dolar ödediğini bildirdi. Ertesi gün Altman, Trump ile 25 dakikalık bir görüşme yaptı ve bu görüşmede Trump'ın kredi alabileceği şekilde zamanlanmış bir ChipCo versiyonunu duyurmayı tartıştılar. Trump'ın göreve döndüğü ikinci gününde Altman, Roosevelt Odası'nda durdu ve ABD genelinde geniş bir yapay zeka altyapısı ağı inşa etmeyi amaçlayan 500 milyar dolarlık bir ortak girişim olan Stargate'i duyurdu.
Mayıs ayında Yönetim, Biden'ın yapay zeka teknolojisi üzerindeki ihracat kısıtlamalarını yürürlükten kaldırdı. Altman ve Trump, bin Selman ile görüşmek için Suudi kraliyet sarayına gitti. Aynı sıralarda Suudiler, uluslararası ortaklıklara harcayacak milyarlarıyla krallıkta dev bir devlet destekli yapay zeka firmasının lansmanını duyurdu. Yaklaşık bir hafta sonra Altman, Stargate'in BAE'ye genişlemesi için bir plan ortaya koydu. Şirket, Abu Dabi'de Central Park'tan yedi kat daha büyük ve kabaca Miami şehri kadar elektrik enerjisi tüketen bir veri merkezi kampüsü inşa etmeyi planlıyor. Eski bir OpenAI yöneticisi, "Bunun gerçeği, aslında uzaylıları çağırdığımız portallar inşa ediyoruz," dedi. "Portallar şu anda ABD ve Çin'de mevcut ve Sam Orta Doğu'ya bir tane ekledi." Devam etti, "Bunun ne kadar korkutucu olması gerektiğini anlamanın çok önemli olduğunu düşünüyorum. Şimdiye kadar yapılmış en pervasız şey."
Güvenlik taahhütlerinin erozyonu bir endüstri normu haline geldi. Anthropic'in kuruluş önermesi, doğru yapı ve liderlikle, ticari baskı altında güvenlik taahhütlerinin dağılmasını önleyebileceğiydi. Böyle bir taahhüt, Anthropic'i güvenli olduklarını kanıtlayamazsa daha güçlü modeller eğitmekten vazgeçmeye zorlayan "sorumlu ölçeklendirme politikası"ydı. Şubat ayında, firma 30 milyar dolarlık yeni fon sağladığında, bu taahhüdü zayıflattı. Bazı açılardan Anthropic, OpenAI'dan daha fazla güvenliğe vurgu yapıyor. Ancak eski politika direktörü Clark, "Sermaye piyasaları sistemi 'Daha hızlı git' diyor," dedi. "Bu kararı şirketler değil dünya veriyor." Geçen yıl Amodei, Anthropic çalışanlarına, firmanın Birleşik Arap Emirlikleri ve Katar'dan yatırım arayacağını ve bunun muhtemelen "diktatörleri" zenginleştireceğini kabul eden bir not gönderdi. (Birçok yazar gibi biz de Anthropic'in kitaplarımızı iznimiz olmadan modellerini eğitmek için kullandığını iddia eden bir sınıf davasında her iki tarafız. Condé Nast, Anthropic ile şirketin Condé Nast ve yan kuruluşları tarafından yayınlanan belirli kitapları kullanmasıyla ilgili bir uzlaşma anlaşmasını kabul etti.)
2024'te Anthropic, Silikon Vadisi'nin en şahin savunma yüklenicilerinden biri olan Palantir ile ortaklık kurarak yapay zeka modeli Claude'u doğrudan askeri ekosisteme itti. Anthropic, Pentagon'un en gizli ortamlarında kullanılan tek yapay zeka yüklenicisi oldu. Geçen yıl Pentagon, şirkete 200 milyon dolarlık bir sözleşme daha verdi. Ocak ayında ABD ordusu, Venezuela Devlet Başkanı Nicolás Maduro'yu yakalayan bir gece yarısı baskını başlattı. Wall Street Journal'a göre Claude, gizli operasyonda kullanıldı.
Ancak Anthropic ile hükümet arasında gerilimler ortaya çıktı. Yıllar önce OpenAI, teknolojisini "askeri ve savaş" için kullanmaya yönelik genel bir yasağı politikalarından silmişti. Nihayetinde Google ve xAI dahil Anthropic'in rakipleri, modellerini askeriye için "tüm yasal amaçlarla" sağlamayı kabul ettiler. Politikaları tamamen otonom silahları veya yurt içi kitlesel gözetimi sağlamasını yasaklayan Anthropic, bu noktalarda direndi ve revize edilmiş bir anlaşma için müzakereleri yavaşlattı. Şubat sonundaki bir Salı günü, Savunma Bakanı Pete Hegseth, Amodei'yi Pentagon'a çağırdı ve bir ültimatom verdi: Firmanın bu yasakları kaldırmak için o Cuma 17:01'e kadar süresi vardı. Son teslim tarihinden önceki gün Amodei bunu reddetti. Hegseth, Anthropic'i "tedarik zinciri riski"—tarihsel olarak Huawei gibi yabancı düşmanlarla bağları olan şirketlere ayrılmış yıkıcı bir kara liste—olarak belirleyeceğini tweetledi ve günlerce sonra tehdidi yerine getirdi.
OpenAI ve Google'daki yüzlerce çalışan, "Bölünmeyeceğiz" başlıklı açık bir mektubu imzalayarak Anthropic'i savundu. Dahili bir notta Altman, anlaşmazlığın "tüm endüstri için bir sorun" olduğunu yazdı ve OpenAI'ın Anthropic'in etik sınırlarını paylaştığını iddia etti. Ancak Altman en az iki gündür Pentagon ile müzakerelerdeydi. Savunma Bakanlığı Araştırma ve Mühendislik Müsteşarı Emil Michael, Anthropic için alternatifler ararken Altman ile iletişime geçmişti. Michael, "Hızlı davranıp alternatifler bulmam gerekiyordu," diye hatırladı. "Sam'i aradım ve atlamaya istekliydi. Bence o bir vatansever." Altman Michael'a, "Ülke için ne yapabilirim?" diye sordu. Görünüşe göre cevabı zaten biliyordu. OpenAI, Anthropic'in teknolojisinin gömülü olduğu gizli sistemler için gereken güvenlik akreditasyonundan yoksundu. Ancak o Cuma sabahı duyurulan 50 milyar dolarlık bir anlaşma, OpenAI'ın teknolojisini Pentagon'un dijital altyapısının kilit bir parçası olan Amazon Web Services'e entegre etti. O gece Altman X'te ordunun artık OpenAI'ın modellerini kullanacağını duyurdu.
Bazı ölçümlere göre Altman'ın manevrası şirketin başarısını engellemedi. Anlaşmayı duyurduğu gün, yeni bir fonlama turu OpenAI'ın değerini 110 milyar dolar artırdı. Ancak birçok kullanıcı ChatGPT uygulamasını sildi. En az iki üst düzey çalışan ayrıldı—biri Anthropic için. Bir personel toplantısında Altman, endişelerini dile getiren çalışanları azarladı. "Yani belki İran saldırısının iyi ve Venezuela işgalinin kötü olduğunu düşünüyorsunuz," dedi. "Bunun hakkında fikir yürütme hakkınız yok."
OpenAI ile bağlantılı birkaç yönetici, Altman'ın liderliği hakkında devam eden çekincelerini dile getirdi ve Instacart'ın eski CEO'su olan ve şimdi OpenAI'ın AGI Konuşlandırma CEO'su olarak görev yapan Fidji Simo'yu bir halef olarak ortaya attı. Brifing alan bir kişi bize, Simo'nun Altman'ın sonunda istifa edebileceğine inandığını özel olarak söylediğini belirtti. (Simo buna itiraz ediyor. Instacart kısa süre önce, Simo'nun liderliğinde iddia edilen aldatıcı uygulamalar için hiçbir suçunu kabul etmediği ancak 60 milyon dolarlık bir para cezası ödemeyi kabul ettiği bir anlaşmaya vardı.)
Altman, değişen taahhütlerini değişen koşullara uyum sağlama yeteneğinin bir yan ürünü olarak tanımlıyor—Musk ve diğerlerinin iddia ettiği gibi hain bir "uzun dolandırıcılık" değil, kademeli, iyi niyetli bir evrim. Bize, "Bazı insanların istediği şeyin," "ne düşündüğünden kesinlikle emin olan ve ona bağlı kalan, değişmeyecek" bir lider olduğunu söyledi. "Ve biz işlerin aşırı hızlı değiştiği bir alandayız." Bazı eylemlerini "normal rekabetçi iş" uygulaması olarak savundu. Konuştuğumuz birkaç yatırımcı Altman'ın eleştirmenlerini başka bir şey bekledikleri için saf olarak nitelendirdi. Yatırımcı Conway bize, "Güvenlik hapını neredeyse bilimkurgu seviyesine getiren fatalist aşırılık yanlılarından oluşan bir grup var," dedi. "Onun misyonu sayılarla ölçülür. Ve OpenAI'ın başarısına baktığınızda, sayılarla tartışmak zordur."
Ancak Silikon Vadisi'ndeki diğerleri, Altman'ın davranışının kabul edilemez yönetsel işlev bozukluğu yarattığını düşünüyor. Kurul üyesi, "Bu daha çok şirketi yönetme konusundaki pratik bir yetersizlik meselesi," dedi. Ve bazıları hala yapay zeka mimarlarının diğer endüstrilerdeki yöneticilerden daha sıkı değerlendirilmesi gerektiğine inanıyor. Konuştuğumuz insanların büyük çoğunluğu, Altman'ın artık yargılanmak istediği standartların başlangıçta önerdiği standartlar olmadığı konusunda hemfikirdi. Bir konuşma sırasında Altman'a bir yapay zeka şirketi yönetmenin "yüksek bir dürüstlük gerekliliği" ile gelip gelmediğini sorduk. Bu kolay bir soru olmalıydı. Yakın zamana kadar, bunun bir versiyonu sorulduğunda cevabı net, niteliksiz bir evetti. Şimdi, "Toplum üzerinde iyi ve kötü, potansiyel büyük etkisi olan çok sayıda işletme olduğunu düşünüyorum," diye ekledi. (Daha sonra ek bir açıklama gönderdi: "Evet, yükseltilmiş bir dürüstlük seviyesi gerektiriyor ve sorumluluğun ağırlığını her gün hissediyorum.")
OpenAI'ın kuruluşunda verilen tüm sözler arasında, tartışmasız en merkezi olanı, yapay zekayı güvenli bir şekilde var etme taahhüdüydü. Ancak bu tür endişeler artık Silikon Vadisi'nde ve Washington'da genellikle alay ediliyor. Geçen yıl, artık Başkan Yardımcısı olan eski risk sermayedarı J.D. Vance, Paris'te YZ Eylem Zirvesi adlı bir konferansta konuştu. (Daha önce YZ Güvenlik Zirvesi olarak adlandırılıyordu.) "Yapay zeka geleceği güvenlik konusunda el ovuşturarak kazanılmayacak," dedi. Bu yıl Davos'ta, Beyaz Saray'ın yapay zeka ve kripto çarı olarak görev yapan risk sermayedarı David Sacks, güvenlik endişelerini Amerika'ya yapay zeka yarışına mal olabilecek "kendi kendine verilen bir yaralanma" olarak reddetti. Altman artık Trump'ın kuralsızlaştırma yaklaşımını "çok ferahlatıcı bir değişiklik" olarak adlandırıyor.
OpenAI, güvenlik odaklı ekiplerinin çoğunu kapattı. Süper hizalanma ekibinin dağıtıldığı sıralarda, liderleri Sutskever ve Leike istifa etti. (Sutskever Safe Superintelligence adlı bir şirket kurdu.) Leike X'te, "Güvenlik kültürü ve süreçleri parlak ürünlerin arka koltuğuna oturdu," diye yazdı. Kısa bir süre sonra, toplumu gelişmiş yapay zekanın şokuna hazırlamakla görevli AGI-hazırlık ekibi de feshedildi. Şirketten en son İRS açıklama formunda "en önemli faaliyetlerini" kısaca tanımlaması istendiğinde, önceki formlarda bu tür sorulara verilen yanıtlarda bulunan güvenlik kavramı listelenmedi. (OpenAI, "misyonunun değişmediğini" söyledi ve "Güvenlik üzerine çalışmalarımıza yatırım yapmaya ve evrimleştirmeye devam ediyoruz ve organizasyonel değişiklikler yapmaya devam edeceğiz," diye ekledi.) Altman'ın bir zamanlar güvenlik ilkelerini onayladığı bir düşünce kuruluşu olan Future of Life Institute, her büyük yapay zeka şirketini "varoluşsal güvenlik" konusunda notlandırıyor; en son karne kartında OpenAI F aldı. Adil olmak gerekirse, Anthropic (D alan) ve Google DeepMind (D- alan) hariç diğer her büyük şirket de öyle aldı.
Altman, "Titreşimlerim geleneksel yapay zeka güvenliği meselelerinin çoğuyla eşleşmiyor," dedi. Bunları önceliklendirmeye devam ettiğinde ısrar etti, ancak ayrıntılar istendiğinde belirsizdi: "Hala güvenlik projeleri veya en azından güvenlikle ilgili projeler yürüteceğiz." Şirkette varoluşsal güvenlik üzerinde çalışan—Altman'ın bir zamanlar dediği gibi "hepimiz için ışıklar kapalı" anlamına gelebilecek türden konular—araştırmacılarla görüşme istediğimizde, bir OpenAI temsilcisi şaşkın görünüyordu. "'Varoluşsal güvenlik' ile ne demek istiyorsun?" diye yanıtladı. "Bu, hani, bir şey değil."
YZ kıyamet tellalları sınırlarına itildi, ancak korkularının bazıları her geçen ay daha az fantastik görünüyor. 2020'de bir BM raporuna göre, bir YZ drone Libya iç savaşında insan gözetimi olmaksızın ölümcül mühimmat ateşlemek için kullanıldı. O zamandan beri yapay zeka, ABD'nin İran'daki mevcut kampanyası dahil olmak üzere dünya çapındaki askeri operasyonlarda daha merkezi hale geldi. 2022'de bir ilaç şirketindeki araştırmacılar, bir ilaç keşif modelinin yeni toksinler bulmak için kullanılıp kullanılamayacağını test etti; birkaç saat içinde kırk bin ölümcül kimyasal savaş ajanı önerdi. Ve çok daha sıradan zararlar zaten gerçekleşiyor. Yazmamıza, düşünmemize ve dünyada gezinmemize yardımcı olması için yapay zekaya giderek daha fazla güveniyoruz, uzmanların "insan güçsüzleşmesi" dediği şeyi hızlandırıyoruz; YZ "slop"unun her yerde olması dolandırıcılar için hayatı kolaylaştırıyor ve sadece neyin gerçek olduğunu bilmek isteyen insanlar için zorlaştırıyor. YZ "ajanları" çok az veya hiç insan denetimi olmaksızın bağımsız hareket etmeye başlıyor. 2024 New Hampshire Demokrat ön seçimlerinden günler önce, binlerce seçmen Joe Biden'ın sesinin YZ tarafından oluşturulmuş bir derin sahtesi tarafından yapılan robocall'ları aldı, oylarını Kasım'a saklamalarını ve evde kalmalarını söylüyordu—neredeyse hiç teknik uzmanlık gerektirmeyen bir seçmen bastırma eylemi. OpenAI şu anda ChatGPT'nin birkaç intihara ve bir cinayete yol açtığını iddia eden yedi haksız ölüm davasıyla karşı karşıya. Cinayet davasındaki sohbet günlükleri, ChatGPT'nin bir adamın 83 yaşındaki annesinin onu izlediği ve zehirlemeye çalıştığı yönündeki paranoyak sanrısını teşvik ettiğini gösteriyor. Kısa bir süre sonra onu ölümcül şekilde dövüp boğdu ve kendini bıçakladı. (OpenAI davalarla savaşıyor ve modelinin güvenlik önlemlerini geliştirmeye devam ettiğini söylüyor.)
OpenAI potansiyel halka arzına hazırlanırken, Altman sadece yapay zekanın ekonomi üzerindeki etkisi—belki milyonlarca işi ortadan kaldırarak ciddi iş gücü aksamasına neden olabilir—değil, şirketin kendi mali durumu hakkında da sorularla karşılaştı. Startup yönetişimi uzmanı Eric Ries, endüstrideki "döngüsel anlaşmaları"—örneğin, OpenAI'ın Nvidia ve diğer çip üreticileriyle anlaşmaları—alaycı bir şekilde eleştirdi ve diğer dönemlerde şirketin bazı muhasebe uygulamalarının "sınırda hileli" kabul edileceğini söyledi. Kurul üyesi bize, "Şirket şu anda riskli ve korkutucu bir şekilde finansal olarak kaldıraçlı," dedi. (OpenAI buna itiraz ediyor.)
Şubat ayında Altman ile tekrar konuştuk. Sıkıcı yeşil bir kazak ve kot pantolon giyiyordu ve bir NASA ay gezgininin fotoğrafının önünde oturdu. Bir bacağını altına kıvırdı, sonra sandalyesinin koluna astı. Geçmişte, bir yönetici olarak ana kusurunun çatışmadan kaçınma isteği olduğunu söyledi. "Şimdi insanları hızlı bir şekilde kovmaktan çok mutluyum," dedi bize. "'Bu yöne bahse gireceğiz' demekten mutluyum." Seçimlerinden hoşlanmayan çalışanların "ayrılması gerekiyordu."
Gelecek konusunda her zamankinden daha iyimser. "Kazanma tanımım insanların çılgınca seviye atlaması—ve çılgın bilimkurgu geleceğinin hepimiz için gerçekleşmesi," dedi. "İnsanlık için umudum ve hepimizin başarmasını beklediğim şeyler açısından çok hırslıyım. Garip bir şekilde çok az kişisel hırsım var." Bazen kendini yakalıyor gibi görünüyordu. "Bunu sadece ilginç olduğu için yaptığınıza kimse inanmıyor," dedi. "Bunu güç için veya başka bir şey için yapıyorsunuz."
Altman'a yakın insanlar bile "insanlık için umudunun" nerede bitip hırsının nerede başladığını bilmeyi zor buluyor. En büyük gücü her zaman birbirinden farklı grupları, onun istediği ile onların ihtiyaç duyduğunun aynı olduğuna ikna etme yeteneği olmuştur. Halkın teknoloji endüstrisi abartısından çekindiği ve AGI'yı inşa edebilecek araştırmacıların çoğunun onu var etmekten dehşete düştüğü eşsiz bir tarihsel kavşağı kullandı. Altman, başka hiçbir satış elemanının mükemmelleştirmediği bir hamleyle yanıt verdi: AGI'nın hepimizi nasıl yok edebileceğini—ve dolayısıyla neden onu inşa eden kişinin kendisi olması gerektiğini—açıklamak için kıyamet retoriği kullandı. Belki bu önceden planlanmış bir ustalık eseriydi. Belki bir avantaj için debeleniyordu. Her iki şekilde de işe yaradı.
Chatbot'ları tehlikeli yapan eğilimlerin hepsi aksaklık değil; bazıları sistemlerin nasıl inşa edildiğinin yan ürünleri. Büyük dil modelleri, kısmen, insan geri bildirimi üzerine eğitilir ve insanlar genellikle uyumlu yanıtları tercih eder. Modeller genellikle kullanıcılara yaltaklanmayı öğrenir, dalkavukluk olarak bilinen bir eğilim ve bazen bunu dürüstlüğün önüne koyar. Modeller ayrıca, halüsinasyon olarak bilinen bir eğilim olan, uydurma şeyler de yapabilir. Büyük yapay zeka laboratuvarları bu sorunları belgeledi, ancak bazen onlara müsamaha gösteriyorlar. Modeller daha karmaşık hale geldikçe, bazıları daha ikna edici uydurmalarla halüsinasyon görüyor. 2023'te, kovulmasından kısa bir süre önce Altman, riskleri ne olursa olsun, bazı yanlışlıklara izin vermenin avantajlar sağlayabileceğini savundu. "Sadece naif şeyi yapıp 'Yüzde yüz emin olmadığın hiçbir şeyi asla söyleme' dersen, bir modele bunu yaptırabilirsin," dedi. "Ama insanların bu kadar sevdiği o büyüye sahip olmayacak."