
OpenAI araştırmalarının geleceğini şekillendiren iki kişi
Son birkaç yıldır OpenAI, tek kişilik bir marka gibiydi. Şov dünyası tarzı ve göz alıcı fon toplama stratejisiyle CEO Sam Altman, şirketin kadrosundaki diğer tüm büyük isimleri gölgede bıraktı. Hatta aceleyle görevden alınması bile onu zirveye geri döndürdü – ve her zamankinden daha ünlü oldu. Ancak karizmatik öncüden bakarsanız, bu şirketin nereye gittiği konusunda daha net bir fikir edinebilirsiniz. Sonuçta, Altman, şirketin itibarının temelinde yatan teknolojiyi inşa eden kişi değil.
Bu sorumluluk, OpenAI'nin araştırma alanındaki iki başkanına – baş araştırma görevlisi Mark Chen ve baş bilim insanı Jakub Pachocki'ye – düşüyor. İkisi birlikte, OpenAI'nin Google gibi güçlü rakiplerinden bir adım önde kalmasını sağlama rolünü paylaşıyorlar.
OpenAI'nin 2023 yılında ilk uluslararası ofisini kurduğu Londra'ya yaptıkları yakın bir seyahat sırasında Chen ve Pachocki ile özel bir görüşme gerçekleştirdim. Araştırma ve ürün arasındaki içsel gerilimi nasıl yönettikleri hakkında konuştuk. Ayrıca, daha yetenekli çok amaçlı modellerin anahtarının kodlama ve matematik olduğunu neden düşündüklerini; AGI'dan bahsettiklerinde ne demek istediklerini; ve şirketin kurucu ortağı ve eski baş bilim insanı Ilya Sutskever tarafından, varsayımsal bir süper zekanın kontrolden çıkmasını önlemek için kurulan, ancak Sutskever'ın ayrılmasından kısa bir süre sonra dağıtılan OpenAI'nin süper hizalama ekibinin başına gelenleri konuştuk.
Özellikle, OpenAI'nin aylardır beklenen en büyük ürün lansmanı olan GPT-5'in yaklaşımında kafalarının nerede olduğunu anlamak istedim.
Şirketin yeni nesil modelinin Ağustos ayında piyasaya sürüleceğine dair raporlar var. OpenAI'nin resmi açıklaması – yani Altman'ın – GPT-5'i "yakında" yayınlayacakları yönünde. Beklenti yüksek. OpenAI'nin GPT-3 ve ardından GPT-4 ile yaptığı sıçramalar, bu teknolojiyle mümkün olanın sınırlarını yükseltti. Yine de GPT-5'in lansmanındaki gecikmeler, OpenAI'nin kendi – ve diğer herkesin – beklentilerini karşılayacak bir model oluşturmakta zorlandığına dair söylentileri alevlendirdi.
Ancak beklenti yönetimi, son birkaç yıldır sektörün gündemini belirleyen bir şirket için işin bir parçası. Ve Chen ve Pachocki, OpenAI'nin içinde gündemi belirliyor.
İki Zirve
Şirketin ana Londra ofisi, Buckingham Sarayı'nın birkaç yüz metre doğusunda, St James's Park'ta bulunuyor. Ancak ben Chen ve Pachocki ile, OpenAI'nin Londra'nın teknoloji bölgesinin kalbinde bir tür geçici konut olarak kullandığı King's Cross yakınlarındaki bir ortak çalışma alanındaki bir konferans odasında görüştüm (Google DeepMind ve Meta hemen köşede). OpenAI'nin araştırma iletişiminden sorumlu başkanı Laurance Fauconnet, masanın ucunda açık bir dizüstü bilgisayarla birlikte oturdu.
Bordo renkli polo gömlek giyen Chen, düzgün ve neredeyse şık. Medya eğitimi almış ve bir muhabirle konuşmakta rahat. ("GPT-4'ü Tanıtıyoruz" videosunda bir sohbet robotuyla flört eden o.) Siyah bir fil logosu tişörtü giyen Pachocki ise daha çok televizyon filmlerindeki hacker görünümüne sahip. Konuşurken ellerine çok bakıyor.
Ancak ikili, ilk bakışta göründüğünden daha sıkı bir ikili. Pachocki rollerini özetledi. Chen araştırma ekiplerini şekillendiriyor ve yönetiyor dedi. "Araştırma yol haritasını belirlemek ve uzun vadeli teknik vizyonumuzu oluşturmakla sorumluyum."
Chen, Wall Street firması Jane Street Capital'da kantitatif trader olarak çalıştıktan sonra 2018 yılında şirkete katıldı ve burada vadeli işlem ticareti için makine öğrenimi modelleri geliştirdi. OpenAI'de şirketin çığır açan üretken görüntü modeli DALL-E'nin oluşturulmasına öncülük etti. Daha sonra GPT-4'e görüntü tanıma eklemek üzerinde çalıştı ve GitHub Copilot'u destekleyen üretken kodlama modeli Codex'in geliştirilmesine liderlik etti.
Pachocki, 2017 yılında OpenAI'ye katılmak için teorik bilgisayar bilimlerindeki akademik kariyerinden ayrıldı ve 2024 yılında Sutskever'ın yerini baş bilim insanı olarak aldı. Özellikle o1 ve o3 olan ve bilim, matematik ve kodlamada karmaşık görevleri ele almak için tasarlanmış OpenAI'nin sözde akıl yürütme modellerinin kilit mimarıdır.
Bizimle görüştüklerinde, şirketlerinin teknolojisi için arka arkaya iki yeni zaferin verdiği heyecanın etkisiyle canlıydılar.
16 Temmuz'da OpenAI'nin büyük dil modellerinden biri, dünyanın en zorlu programlama yarışmalarından biri olan AtCoder Dünya Turu Finallerinde ikinci oldu. 19 Temmuz'da OpenAI, modellerinden birinin dünyanın en prestijli matematik yarışmalarından biri olan 2025 Uluslararası Matematik Olimpiyatlarında altın madalya seviyesinde sonuçlar elde ettiğini duyurdu.
Matematik sonucu, OpenAI'nin olağanüstü başarısından dolayı değil, aynı zamanda iki gün sonra rakip Google DeepMind'ın modellerinden birinin aynı yarışmada aynı puanı elde ettiğini açıklamasından dolayı da manşetlere taşındı. Google DeepMind, yarışmanın kurallarına göre oynadı ve sonuçlarının organizatörler tarafından kontrol edilmesini bekledikten sonra bir açıklama yaptı; OpenAI ise kendi cevaplarını işaretledi.
Chen ve Pachocki için sonuç kendi kendini açıklıyor. Neyse ki, en heyecanlandıkları programlama zaferi. Chen bana, "Bence bu oldukça hafife alınıyor" dedi. Uluslararası Matematik Olimpiyatlarında altın madalya, sizi ilk 20 ila 50 yarışmacı arasına koyar, dedi. Ancak AtCoder yarışmasında OpenAI'nin modeli ilk ikiye girdi: "İnsan performansının gerçekten farklı bir seviyesine girmek – bu benzeri görülmemiş."
Gönder, gönder, gönder!
OpenAI'deki insanlar hala bir araştırma laboratuvarında çalıştıklarını söylemeyi seviyorlar. Ancak şirket, üç yıl önce ChatGPT'nin piyasaya sürülmesinden önceki halinden çok farklı. Şirket artık dünyanın en büyük ve en zengin teknoloji şirketleriyle yarış halinde ve 300 milyar dolar değerinde. Sınırları zorlayan araştırmalar ve dikkat çekici gösteriler artık yeterli değil. Ürünleri piyasaya sürmeli ve insanların eline geçirmesini sağlamalı – ve bunu da fazlasıyla yapıyor.
OpenAI, yeni sürümlerini sürdürdü – GPT-4 serisine büyük güncellemeler yayınladı, bir dizi üretken görüntü ve video modeli başlattı ve ChatGPT ile sesinizle konuşma özelliğini tanıttı. Altı ay önce, o1 sürümüyle sözde akıl yürütme modellerinin yeni bir dalgasını başlattı ve ardından o3 izledi. Ve geçen hafta tarayıcı kullanan aracı Operatör'ü halka açıkladı. Şimdi, her hafta 400 milyondan fazla kişinin ürünlerini kullandığını ve günde 2,5 milyar istemde bulunduğunu iddia ediyor.
OpenAI'nin yeni uygulama CEO'su Fidji Simo, ivmeyi korumayı planlıyor. Şirkete gönderdiği bir notta, çalışanlara "OpenAI teknolojilerini dünyadaki daha fazla insanın eline geçirmelerine yardımcı etmeyi" ve böylece "tarihteki herhangi bir teknolojiden daha fazla insan için daha fazla fırsat yaratacaklarını" dört gözle beklediğini söyledi. Ürünlerin gelmeye devam etmesini bekleyin.
OpenAI'nin açık uçlu araştırma ve ürün geliştirmeyi nasıl dengelediğini sordum. Pachocki, "Bu, ChatGPT'den çok önce, çok uzun zamandır düşündüğümüz bir şey," dedi. "Eğer gerçekten yapay genel zeka oluşturmaya ciddi olarak bağlıysak, açıkçası bu teknolojiyle yol boyunca yapabileceğiniz çok şey olacak, büyük ürünlere dönüşebilecek çok fazla yan dal var." Başka bir deyişle, ağacı sallamaya devam edin ve elinize geçenleri toplayın.
OpenAI çalışanları arasında ortaya çıkan bir tartışma noktası, deneysel modelleri dünyaya sunmanın araştırmanın gerekli bir parçası olmasıydı. Amaç, insanların bu teknolojinin ne kadar iyi hale geldiğinin farkına varmalarını sağlamaktı. Altman, 2022'de bana, "İnsanları yaklaşan şeyler hakkında eğitmek istiyoruz, böylece çok zorlu olacak bir toplumsal konuşmaya katılabiliriz" demişti. Bu garip yeni teknolojinin yapımcıları da bunun ne için olabileceğini merak ediyorlardı: OpenAI, insanların bununla ne yapacaklarını görmek için bunu insanların eline geçirmeye hevesliydi.
Bu hala geçerli mi? Aynı anda cevap verdiler. Chen, "Evet!" dedi. Pachocki, "Bir dereceye kadar," dedi. Chen güldü: "Hayır, devam et."
Pachocki, "Araştırmanın ürün üzerinde yinelediğini söylemem," dedi. "Ancak modeller, klasik kıyaslamalar tarafından ölçülebilen yeteneklerin sınırında olduğuna ve düşündüğümüz uzun süredir devam eden birçok zorluğun aşılmaya başlandığına göre, artık gerçekten modellerin gerçek dünyada neler yapabileceğiyle ilgili."
İnsanları kodlama yarışmalarında alt etmek gibi. Bu yıl Japonya'da düzenlenen AtCoder yarışmasında OpenAI'nin modelini yenen kişi, Psyho olarak da bilinen Przemysław Dębiak adlı bir programcıydı. Yarışma, yarışmacıların karmaşık bir kodlama problemini çözmenin en verimli yolunu bulmak için 10 saatleri olan bir bulmaca çözme maratonuydu. Kazandıktan sonra Psyho, X'e şunları yazdı: "Tamamen bitap düştüm... Zar zor yaşıyorum."
Chen ve Pachocki'nin rekabetçi kodlama dünyasıyla güçlü bağları var. Her ikisi de geçmişte uluslararası kodlama yarışmalarına katıldı ve Chen, ABD Bilgisayar Olimpiyatı takımını çalıştırıyor. Bir modelin böyle bir zorlukta iyi performans göstermesinin ne kadar büyük bir olay olduğu algılarını, rekabetçi kodlamaya olan kişisel coşkularının renklendirip renklendirmediğini sordum.
Pachocki kodlama yarışmalarına katıldığında, somut çözümlere sahip daha kısa problemlere odaklananları tercih ediyordu. Ancak Dębiak, açık bir doğru cevabı olmayan daha uzun, açık uçlu problemleri seviyordu.
Pachocki, "Benim katıldığım türdeki yarışmaların, onun sevdiği yarışmalardan çok daha önce otomatikleştirileceğini söyleyerek benimle dalga geçerdi," diye hatırladı. "Bu yüzden bu son yarışmadaki modelin performansına ciddi anlamda yatırım yaptım."
Pachocki, modelinin ikinci geldiğini izlerken Tokyo'dan gelen gece geç saatlerdeki canlı yayını izlediğini söyledi: "Psyho şimdilik direniyor."
Chen, "LLM'lerin kodlama yarışmalarındaki performansını bir süredir takip ediyoruz," dedi. "Onların benden, Jakub'dan daha iyi hale geldiğini gördük. Lee Sedol'un Go oynamasına benziyor."
Lee, 2016'da DeepMind'ın oyun oynayan modeli AlphaGo'ya karşı bir dizi maç kaybetmiş Go ustasıdır. Sonuçlar uluslararası Go topluluğunu şaşırttı ve Lee'nin profesyonel oyunu bırakmasına yol açtı. Geçen yıl New York Times'a şunları söyledi: "Yapay zekaya karşı kaybetmek, bir anlamda tüm dünyamın çökmesi anlamına geliyordu... Oyunun tadını artık çıkaramıyordum." Ve yine de, Lee'nin aksine, Chen ve Pachocki geride kalmaktan heyecan duyuyorlar.
Ama geri kalanımızın bu niş zaferlerle neden ilgilenmesi gerekiyor? İnsan zekasını taklit etmek ve nihayetinde yerine geçmek için tasarlanmış olan bu teknolojinin, zirve zekasının fikrinin matematik yarışmasında başarılı olmak veya efsanevi bir kodlayıcıya karşı direnebilmek olan insanlar tarafından inşa edildiği açık. Bu zeka görüşünün matematiksel, analitik ölçeğin ucuna doğru eğik olması bir sorun mu?
Chen bana, "Yani, bencilce, kendimizi hızlandıran modeller oluşturmak istiyoruz," dedi. "Bunu çok hızlı bir ilerleme faktörü olarak görüyoruz."
Chen ve Pachocki gibi araştırmacıların savunduğu şey, matematik ve kodlamanın, kendimiz düşünmemiş olabileceğimiz şekillerde çok çeşitli problemleri çözebilen, çok daha genel bir zeka biçiminin temeli olduğudur. Pachocki, "Burada programlamadan ve matematikten bahsediyoruz," dedi. "Ama bu gerçekten yaratıcılıkla, yeni fikirler üretmekle, farklı yerlerden gelen fikirleri bir araya getirmekle ilgili."
Son iki yarışmaya bakın: "Her iki durumda da, çok zorlu, beklenmedik düşünmeyi gerektiren problemler vardı. Psyho, programlama yarışmasının yarısını düşünerek geçirdi ve ardından modelinin baktığı her şeyden gerçekten yeni ve oldukça farklı bir çözüm buldu."
Pachocki, "Bizim peşinde olduğumuz gerçekten bu," diye devam etti. "Bu tür yeni içgörüleri modellere nasıl sağlayabiliriz? Bilgimizi gerçekten nasıl ilerletebiliriz? Bence şimdiden bazı sınırlı şekillerde buna yetenekliler. Ama bence bu teknolojinin bilimsel ilerlemeyi gerçekten hızlandırma potansiyeli var."
Matematik ve programlamaya odaklanmanın bir sorun olup olmadığı sorusuna geri döndüm ve belki de inşa ettiğimiz şeyler bilim yapmamıza yardımcı olacak araçlarsa sorun olmadığını kabul ettim. Büyük dil modellerinin politikacıların yerini almasını ve insanların becerilerine sahip olmasını istemeyiz, diye önerdim.
Chen yüzünü buruşturdu ve tavana baktı: "Neden olmasın?"
Eksik Olan Şey
OpenAI, Silikon Vadisi standartlarına göre bile dikkat çeken bir kibirle kuruldu ve AGI'dan bahsetmenin hala tuhaf göründüğü zamanlarda AGI oluşturma hedefinden bahsetti. OpenAI, AGI konusunda her zamanki kadar hevesli ve AGI'yi ana akım milyarlarca dolarlık bir endişe haline getirmek için diğerlerinden daha fazlasını yaptı. Ancak henüz orada değil. Chen ve Pachocki'ye eksik olduğunu düşündüklerini sordum.
Pachocki, "Geleceği hayal etmenin yolu, bugün gördüğümüz teknolojiyi gerçekten derinden incelemektir," dedi. "Başından beri OpenAI, derin öğrenmeye çok gizemli ve açıkça çok güçlü, büyük bir potansiyele sahip bir teknoloji olarak baktı. Sınırlı noktalarını anlamaya çalışıyorduk. Ne yapabilir? Ne yapamaz?"
Chen, mevcut en ileri düzeyde, problemleri daha küçük, daha yönetilebilir adımlara bölen akıl yürütme modellerinin olduğunu söyledi, ancak bunların bile sınırları var: "Birçok şeyi bilen ama bu bilgiyi bir araya getiremeyen bu modellere sahipsiniz. Bunun nedeni nedir? İnsanların yapabildiği gibi neden bunu yapamıyor?"
OpenAI, bu soruyu cevaplamak için her şeyi deniyor.
Pachocki bana, "Muhtemelen hala bu akıl yürütme paradigmasının henüz başındayız," dedi. "Gerçekten, bu modellerin uzun vadede öğrenmesini ve keşfetmesini ve gerçekten yeni fikirler sunmasını nasıl sağlayacağımızı düşünüyoruz."
Chen noktayı vurguladı: "Akıl yürütmeyi çözüldü olarak görmüyorum. Kesinlikle çözmedik. İnsanların bildiklerinin bir tür yaklaşımını elde etmek için çok fazla metin okumalısınız."
OpenAI, modellerini eğitmek için hangi verileri kullandığını veya boyutları ve şekilleri hakkında ayrıntılar vermeyecek – yalnızca geliştirme sürecinin tüm aşamalarını daha verimli hale getirmek için çok çalıştığını söyleyecek.
Bu çabalar, sözde ölçeklendirme yasalarının – modellerin ne kadar fazla hesaplama gücü atarsanız o kadar iyi hale geleceğini öne süren – bozulma belirtisi göstermediğinden emin olmalarını sağlıyor.
Chen ısrarla, "Ölçeklendirme yasalarının bir anlamda öldüğüne dair bir kanıt olduğunu düşünmüyorum," dedi. "Her zaman darboğazlar oldu, değil mi? Bazen modellerin nasıl oluşturulduğuyla ilgilidir. Bazen verilerle ilgilidir. Ama temelde, sizi mevcut darboğazdan kurtaran araştırmaları bulmakla ilgili."
İlerlemeye olan inanç sarsılmaz. Pachocki'nin Mayıs ayında Nature ile yaptığı bir röportajda AGI hakkında söylediği bir şeyi gündeme getirdim: "2017'de OpenAI'ye katıldığımda, şirketin en büyük şüphecilerinden biriydim." Şüpheyle baktı.
"Kavram konusunda şüpheci olduğumdan emin değilim," dedi. "Ama bence ben..." Durakladı, ellerine önündeki masada baktı. "OpenAI'ye katıldığımda, şimdi bulunduğumuz noktaya ulaşmanın daha uzun süreceğini bekliyordum."
"Bu modellerin bilim insanlarına yardımcı olduğunu zaten görüyoruz. Ama daha uzun ufuklarda çalışabildiklerinde – kendileri için araştırma programları kurabildiklerinde – dünya anlamında farklı hissedecek."
Chen için modellerin kendi başlarına daha uzun süre çalışabilme yeteneği çok önemli. "Yani, herkesin AGI'nın kendi tanımlarının olduğunu düşünüyorum," dedi. "Ama bu otonom zaman kavramı – modelin zor bir problemde üretken bir ilerleme kaydetmek için, bir çıkmaza girmeden geçirebileceği zaman miktarı – peşinde olduğumuz önemli şeylerden biri."
Cesur bir vizyon – ve bugünün modellerinin yeteneklerinin çok ötesinde. Ancak yine de Chen ve Pachocki'nin AGI'yi neredeyse sıradan bir şey gibi nasıl anlattıklarından etkilendim. Bunu, 18 ay önce kendisiyle konuştuğumda Sutskever'ın verdiği yanıtlara karşılaştırın. "Bu anıtsal, dünyayı değiştirecek bir şey olacak," demişti. "Bir önce ve bir sonra olacak." İnşa ettiği şeyin büyüklüğüyle karşı karşıya kalan Sutskever, kariyerinin odağını daha iyi ve daha iyi modeller tasarlamak yerine, yakında kendisinden daha zeki olacağına inandığı bir teknolojiyi nasıl kontrol edeceğini bulmaya çevirdi.
İki yıl önce Sutskever, bir diğer OpenAI güvenlik araştırmacısı Jan Leike ile birlikte yöneteceği bir süper hizalama ekibi kurdu. İddia, bu ekibin OpenAI'nin kaynaklarının beşte birini varsayımsal bir süper zekayı nasıl kontrol edeceğini bulmaya yönlendireceğiydi. Bugün, Sutskever ve Leike de dahil olmak üzere süper hizalama ekibindeki insanların çoğu şirketten ayrıldı ve ekip artık mevcut değil.
Leike ayrıldığında, ekibin hak ettiği desteği almadığı için böyle yaptığını söyledi. Bunu X'e yazdı: "İnsandan daha zeki makineler inşa etmek, doğal olarak tehlikeli bir girişimdir. OpenAI, tüm insanlık adına çok büyük bir sorumluluk üstleniyor. Ancak geçen yıllarda, güvenlik kültürü ve süreçleri, parlak ürünlerin gerisinde kaldı." Ayrılan diğer araştırmacılar da benzer açıklamalarda bulundular.
Chen ve Pachocki'nin bu tür endişeleri hakkında ne düşündüklerini sordum. Chen, "Bu şeylerin çoğu oldukça kişisel kararlar," dedi. "Biliyorsunuz, bir araştırmacı bir şekilde..."
Tekrar başladı. "Alanın belirli bir şekilde evrileceğine ve araştırmasının sonuç vereceğine ve meyve vereceğine inanıyor olabilirler. Ve biliyorsunuz, belki de şirket istediğiniz şekilde yeniden şekillenmiyor. Çok dinamik bir alan."
"Bu şeylerin çoğu kişisel kararlar," diye tekrarladı. "Bazen alan, araştırmanızı yapma şeklinizle daha az uyumlu bir şekilde evriliyor."
Ancak ikisi de hizalamanın artık belirli bir ekibin endişesi değil, çekirdek işin bir parçası olduğunu ısrarla savunuyor. Pachocki'ye göre, bu modeller yalnızca beklediğiniz gibi çalışırlarsa çalışıyor. Mevcut modellerle yapılması zaten yeterince zor bir işken, varsayımsal bir süper zekayı hedeflerinizle hizalamaya odaklanma arzusu da az.
Pachocki, "İki yıl önce hayal ettiğimiz riskler çoğunlukla teorik risklerdi," dedi. "Bugünün dünyası çok farklı görünüyor ve bence birçok hizalama problemi şimdi çok pratik olarak motive ediliyor."
Yine de, deneysel teknoloji, her zamankinden daha hızlı bir şekilde kitlesel pazara yönelik ürünlere dönüştürülüyor. Bu gerçekten hiç aralarında anlaşmazlığa yol açmıyor mu?
Pachocki, "Teknolojinin nereye gittiği konusunda uzun vadeli düşünme lüksüne genellikle sahip oluyorum," dedi. "Hem insanlar hem de daha geniş şirket ihtiyaçları açısından sürecin gerçekliğiyle uğraşmak Mark'a düşüyor. Bu gerçekten bir anlaşmazlık değil, ancak bu farklı hedefler ve şirketin karşılaştığı farklı zorluklar arasında ortaya çıkan doğal bir gerilim var."
Chen araya girdi: "Bence bu çok hassas bir denge."
Düzeltme: GPT-5 hakkında Altman'ın X'te paylaştığı bir mesajı içeren bir satırı kaldırdık.