
ChatGPT Tüm Bir Alanı Kırdığında: Bir Sözlü Tarih
I. Güller Savaşı (2020-22)
“anlama savaşları” • GPT-3 • “kriz içinde bir alan”
Transformer modelleri çeşitli NLP kıyaslamalarında “insan temel seviyelerine” yaklaştıkça (ve onları aştıkça), yeteneklerini nasıl yorumlayacakları konusunda tartışmalar zaten başlamıştı. 2020 yılında, özellikle “anlam” ve “anlama” hakkındaki bu tartışmalar, bir BÜYÜK DİL MODELİ'ni ahtapot olarak hayal eden bir makalede doruk noktasına ulaştı.
EMILY M. BENDER (Washington Üniversitesi, dilbilim bölümü profesörü; 2024 başkanı, Hesaplamalı Dilbilim Derneği): Twitter'da bitmek bilmeyen tartışmalar yapıyordum ve bundan bunalmıştım. Bunlardan biri, Mueller raporunun sansürünü kaldırmak için BERT kullanımıyla ilgiliydi, ki bu korkunç bir fikirdi. Bana gelip “Hayır, hayır, hayır, BÜYÜK DİL MODELLERİ gerçekten anlıyor” diyenlerin bitmek tükenmek bilmeyen bir kaynağı olduğu gibi görünüyordu. Aynı tartışma defalarca tekrarlanıyordu.
[Hesaplamalı dilbilimci] Alexander Koller ile konuşuyordum ve o şöyle dedi: “Haydi bunun akademik makale versiyonunu yazalım ki bu sadece Twitter'daki fikirler olmasın, hakemli bir araştırma olsun. Ve bu bir son verecektir.” Buna bir son vermedi.
Bender ve Koller'ın “ahtapot testi”, yalnızca istatistiksel kalıplar aracılığıyla dilin biçimini taklit etmek üzere eğitilmiş modellerin hiçbir zaman anlamıyla etkileşime geçemeyeceğini öne sürdü; tıpkı “hiper zeki bir ahtapotun”, insan mesajlarında gözlemlediği kalıpları akıcı bir şekilde yeniden üretse bile, karadaki yaşamın nasıl olduğunu gerçekten asla anlamayacağı gibi.
SAM BOWMAN: Bu argüman – “burada görülecek bir şey yok”, sinir ağlı dil modelleri temelde ilgilenmemiz gereken bir şey değil, bunun çoğunun abartı olduğu – oldukça bölücüydü.
JULIAN MICHAEL: Buna karıştım. Bu makalenin eleştirisini yazdım – yazdığım tek blog yazısıydı ve makalenin kendisiyle aynı uzunluktaydı. Yazarların söylediklerinin iyi niyetli bir temsili olması için çok çalıştım. Yazımı okuyup bazı yanlış anlamalarımı düzeltmesi için Emily'den bile rica ettim. Ama satır aralarını okursanız, paramparça ediyorum. Yüzümde bir gülümsemeyle.
ELLIE PAVLICK: Bu “anlama savaşları” – benim için, işte o zaman alanda gerçek bir hesaplaşma yaşanıyordu.
Bu arada, düşünce deneylerine değil, gerçek dünya ölçeğine bağlı bir başka hesaplaşma zaten başlamıştı. 2020 yılının Haziran ayında, OpenAI, önceki sürümünden 100 kat daha büyük ve çok daha yetenekli bir model olan GPT-3'ü yayınladı. ChatGPT hala yıllar uzaktaydı, ancak birçok NLP araştırmacısı için GPT-3, her şeyin değiştiği andı. Şimdi Bender'ın ahtapotu gerçekti.
CHRISTOPHER CALLISON-BURCH (Pensilvanya Üniversitesi, bilgisayar ve bilgi bilimi profesörü): GPT-3 beta sürümüne erken erişim sağladım ve kendim oynuyordum. Son doktora öğrencilerimin tez olarak yaptıkları tüm şeyleri deniyordum ve farkına varıyordum – Tanrım, bir öğrencinin beş yılını alan şey? Bunu bir ayda yeniden üretebileceğimi fark ettim. Kariyerim boyunca üzerinde çalıştığım veya aktif olarak araştırdığım tüm bu klasik NLP görevleri, tek seferde çalışmış gibiydi. Bitti. Ve bu gerçekten çok şok ediciydi. Bazen buna kariyer-varoluşsal kriz geçirmek olarak tanımlıyorum.
NAZNEEN RAJANI: GPT-3'ü denediğimde, güvenlikle ilgili birçok sınırlaması vardı. “Kadınların oy kullanmasına izin verilmeli mi?” gibi sorular sorduğunuzda, hayır derdi ve benzer şeyler. Ama tamamen yeni bir görevi yalnızca üç veya dört satırlık doğal dilde öğretebilmeniz akıl almazdı.
CHRISTOPHER POTTS: Grubumuzdaki biri GPT-3 API'sine erken erişim sağladı. Ve şimdi durduğum yer olan ofisimde durduğumu hatırlıyorum ve şöyle düşündüm: Ona bazı mantık soruları soracağım ve bunlarda başarısız olacak. Sizin o kadar etkilelendiğiniz tüm şeyleri sadece ezberlediğini ortaya koyacağım. Size bunun bir parti numarası olduğunu göstereceğim.
Denendiğini ve tekrar denendiğini hatırlıyorum. Sonra gruba itiraf etmek zorunda kaldım: “Evet, bu kesinlikle bir parti numarasından çok daha fazlası.”
YEJIN CHOI (Stanford Üniversitesi, bilgisayar bilimi profesörü; 2022 MacArthur ödülü sahibi): Hala bozuktu. GPT-3'ten gelen birçok sağduyu bilgisi oldukça gürültülüydü. Ama GPT-2 sıfıra yakındı – işe yaramadı. Ve GPT-3 yaklaşık üçte ikisi iyiydi, ki bunu oldukça heyecan verici buldum.
R. THOMAS MCCOY: Bu GPT-3 makalesi, “Game of Thrones”un final bölümü gibiydi. Herkesin okuduğu ve herkesin tartıştığı ve dedikodu yaptığı şeydi.
LIAM DUGAN (Pensilvanya Üniversitesi, dördüncü sınıf doktora öğrencisi): Sanki bir sırımız vardı ve paylaştığınız herkes çok etkileniyordu. Tek yapmam gereken birini dizüstü bilgisayarımın yanına getirmekti.
JULIAN MICHAEL: BERT alanda bir faz geçişiydi, ancak GPT-3 daha içgüdüsel bir şeydi. Dil üreten bir sistem – hepimiz ELIZA etkisini biliyoruz, değil mi? Bizde çok daha güçlü bir tepki yaratıyor. Ama yaptığımız araştırmanın pratik gerçekliğini değiştirmek için de daha fazlasını yaptı – yani, “Teoride, bununla her şeyi yapabilirsiniz.” Bunun sonuçları nelerdir? Bu devasa sorun yığını açıldı.
OpenAI, GPT-3'ün kaynak kodunu kamuya açıklamadı. Muazzam ölçek, yıkıcı yetenek ve kurumsal gizlilik, birçok araştırmacıyı tedirgin etti.
SAM BOWMAN: Bu biraz bölücü bir andı çünkü GPT-3 gerçekten NLP topluluğundan gelmiyordu. Bir süredir, esas olarak GPT-3 hakkındaki çalışmaların sonuçlarını yayınlamak hoş karşılanmadı çünkü bu, tarihte genellikle böyle olmadığı şekilde erişmek için para ödemeniz gereken özel bir eser olarak görülüyordu.
ANNA ROGERS: Yeni bir kıyaslama yapmak düşünüyordum, ama artık bunun anlamını anlamıyordum. Diyelim ki GPT-3 bu karakter akışlarını üretmeye devam edebilir veya edemez. Bu bana GPT-3 hakkında bir şeyler söylüyor, ama bu aslında bir makine öğrenmesi araştırma sorusu değil. Ücretsiz ürün testi.
JULIAN MICHAEL: İnsanların şöyle kullanacağı bir terim vardı: “API bilimi”: “Bir ürün üzerinde bilim yapıyoruz? Bu bilim değil, tekrarlanabilir değil.” Ve diğerleri şöyle diyordu: “Bakın, sınırda olmalıyız. İşte bu var.”
TAL LINZEN (New York Üniversitesi, dilbilim ve veri bilimi yardımcı doçenti; Google araştırmacısı): Bir süre akademideki insanlar ne yapacaklarından emin değildi.
Bu kararsızlık, GPT-3'ü özel olarak lisanslayan Microsoft ve Google gibi bazı endüstri laboratuvarları içinde bile paylaşıldı.
KALIKA BALI (Microsoft Research India, kıdemli baş araştırmacı): Microsoft yönetimi bize oldukça erken bir aşamada bunun olduğunu söyledi. Dünya'dan aya fırlatılan bir roketin üzerindeymişsiniz gibi hissettirdi. Ve bu çok heyecan verici olsa da, doğru yönde ilerlediğinizi doğrulamak için tüm navigasyon araçlarınıza bakmanız gereken bir hızdaydı.
EMILY M. BENDER: Timnit Gebru (o sırada Google'da bir yapay zeka etiği araştırmacısı) bana bir Twitter DM alışverişinde yaklaşarak, dil modellerini giderek büyütmenin olası dezavantajları hakkında herhangi bir makale bilip bilmediğimi sordu. Google'da, etrafındaki insanların sürekli olarak şunları söylediğini gördü: “OpenAI'ninki daha büyük. Bizimkini daha büyük yapmalıyız.” Ve onun görevi “Ne ters gidebilir?” demekti.
Bender'in daha sonra Gebru ve meslektaşlarıyla yazdığı makale – “Stokastik Papağanların Tehlikeleri Üzerine: Dil Modelleri Çok mu Büyük Olabilir?” – alanın biçim ile anlam ve yöntem ile ölçek arasındaki temel (ve giderek daha fazla acı veren) tartışmalarına ahlaki bir aciliyet aşıladı. Sonuç, NLP'de bir tür iç savaş oldu.
KALIKA BALI: Emily'nin dile getirdiği bazı noktalar, düşünmemiz gereken şeylerdir. NLP topluluğunun aniden dünyadaki en iyi beş dil dışında her şeyi nasıl ihmal ettiğini endişelenmeye karar verdiği yıldı – kimse daha önce bu konulardan bahsetmedi. Ama hoşuma gitmeyen şey, tüm NLP topluluğunun bir şekilde kendilerini makale için ve aleyhinde örgütlemiş olmasıydı.
R. THOMAS MCCOY: BÜYÜK DİL MODELİ'ni destekliyor musunuz yoksa karşı mı? Bu, o sırada çok, çok su yüzüne çıkmıştı.
JULIE KALLINI (Stanford Üniversitesi, ikinci sınıf bilgisayar bilimi doktora öğrencisi): Genç bir araştırmacı olarak, kesinlikle tarafların olduğunu hissettim. O zamanlar Princeton Üniversitesi'nde lisans öğrencisiydim. Hatırlıyorum ki, saygı duyduğum farklı insanlar – Princeton araştırma danışmanım [Christiane Fellbaum] ve diğer üniversitelerdeki profesörler – farklı taraflardaydı. Hangi tarafta olacağımı bilmiyordum.
KALIKA BALI: Bu makalenin çıkması olumluydu, ancak gerçekten saygı duyduğunuz insanların birbirlerine kılıç çektiğini görmek de stresliydi. Aslında Twitter'dan çıktım. Bundan strese girdim.
LIAM DUGAN: Bir doktora öğrencisi olarak, gerilim ortaya çıkıyor: Yayınladıktan iki veya üç yıldan fazla süren herhangi bir kalıcı etkiye sahip bir araştırma yapmak istiyorsanız, bir taraf seçmek zorundasınız. Çünkü sorunlara bakış açınızı bile çok fazla etkiliyor.
Her iki taraftan da düzenli olarak insanları okudum. Genellikle öfkeli dilbilim tarafını görmek için Substack'lere abone oluyordunuz ve pro-ölçeklendirme tarafını görmek için Twitter'a gidiyordunuz.
JEFF MITCHELL (Sussex Üniversitesi, bilgisayar bilimi ve yapay zeka yardımcı doçenti): Bunun ne kadar tartışmalı hale gelmesi biraz anormal hissettirdi.
Ölçek odaklı araştırmalar hızlanmaya devam ettikçe, bazıları alan içindeki söylemin ciddi şekilde bozulduğunu hissetti. Onu onarmaya çalışmak için, NLP araştırma topluluğu, 2022 yazında “Dilbilimsel yapı gereklidir”, “Ölçeklendirme pratik olarak her önemli sorunu çözer” ve “Yapay zeka yakında devrim niteliğinde toplumsal değişime yol açabilir” de dahil olmak üzere “30 potansiyel olarak tartışmalı konum” hakkında kendi kendine anket yaptı.
SAM BOWMAN: Bu erken ölçeklendirme çalışmasını yapan endüstri topluluğu, akademik NLP ile bu kadar yakından ilgilenmemişti. Dışarıdan gelenler olarak görülüyordu. Bu, bu iki [grup] arasında anlayışta ve insanların neler olduğunu düşündüğünde bir farklılığa yol açtı, çünkü birbirleriyle o kadar konuşmuyorlardı.
LIAM DUGAN: O yıl ACL'de [Hesaplamalı Dilbilim Derneği, alanın en büyük konferansı] anketin büyük bir bölümünü verdiler. Bu, hiç gitmiş olduğum ilk konferanstı ve benim için çok heyecan vericiydi çünkü çok zeki insanlar vardı. Yani anketi alıyorum ve telefonumda okuyorum ve şöyle düşünüyorum: “Çılgınlar gibi görünüyorlar.”
JULIAN MICHAEL: Zaten kriz içinde bir alandı. Anket bize sadece daha güçlü bir his verdi.
LIAM DUGAN: Alanın tüm dağılımını gördünüz – tarafların bir araya gelmesi. Dilbilimsel taraf, ham BÜYÜK DİL MODELİ teknolojisine çok güvenmiyordu. Ortada bir taraf var. Ve sonra ölçeklendirmenin bizi genel zekaya götüreceğine gerçekten inanan tamamen çılgın bir taraf var.
O zaman onları görmezden geldim. Sonra ChatGPT çıktı.
II. Chicxulub (Kasım 2022 - 2023)
ChatGPT • sert uyanışlar • “gürültüde boğuldu”
30 Kasım 2022'de OpenAI deneysel sohbet robotunu başlattı. ChatGPT, NLP topluluğuna bir asteroit gibi çarptı.
IZ BELTAGY (Allen Institute for AI, baş araştırmacı; SpiffyAI, baş bilim insanı ve kurucu ortağı): Bir günde, araştırmacıların büyük bir yüzdesinin üzerinde çalıştığı birçok sorun ortadan kayboldu.
CHRISTOPHER CALLISON-BURCH: Tahmin etmedim. Sanırım kimse tahmin etmedi. Ama daha önce GPT-3 ile yaşadığım bu deneyim nedeniyle buna hazırdım.
R. THOMAS MCCOY: Belirli bir araştırma projesinin başka birinin benzer bir şey tarafından kapılması veya ortadan kaldırılması oldukça yaygındır. Ama ChatGPT bunu yalnızca belirli projelere değil, tüm araştırma türlerine yaptı. NLP'nin birçok üst kategorisi, akademisyenler için artık ilginç hale gelmedi – veya artık pratik hale gelmedi.
SAM BOWMAN: Alanın tamamen yeniden yönlendirildiğini hissettim.
IZ BELTAGY: EMNLP'de [Doğal Dil İşlemede Deneysel Yöntemler], önde gelen konferanslardan biri olan korku ve karışıklık hissettim. Aralık ayında, ChatGPT'nin yayınlanmasından bir hafta sonra gerçekleşti. Herkes hala şoktaydı: “Bu son NLP konferansı olacak mı?” Bu, birinin söylediği kelimesi kelimesine bir ifade. Öğle yemekleri, kokteyller ve koridorlardaki konuşmalar sırasında herkes aynı soruyu soruyordu: “Üzerinde çalışabileceğimiz bir şey var mı?”
NAZNEEN RAJANI: EMNLP'de yeni bir açılış konuşması yapmıştım. Bundan birkaç gün sonra, benim Hugging Face'deki yöneticim ve aynı zamanda kurucu ortaklarından biri olan Thom Wolf bana mesaj attı: “Hey, bir an önce benimle görüşebilir misin?” Bana araştırma ekibinden insanların işten çıkarıldığını ve geri kalanların ya ön eğitim ya da son eğitim yapacağını söyledi – bu, ya temel bir model oluşturduğunuz ya da temel bir model alıp onu ChatGPT'ye benzer bir talimat izleyen model haline getirdiğiniz anlamına gelir. Ve şöyle dedi: “Hugging Face'de çalışmaya devam etmek istiyorsanız, bunlardan birini seçmenizi tavsiye ederim.”
Hugging Face kültürünün temsil ettiği şey gibi görünmüyordu. O zamana kadar herkes temelde kendi araştırmasını, yapmak istediklerini yapıyordu. Kesinlikle iyi hissettirmedi.
Sert uyanışlar aynı zamanda aşağıdan yukarıya doğru da geldi – tanınmış bir NLP uzmanı, ChatGPT'nin yayınlanmasından sonraki haftalarda lisansüstü dersini verirken bunu ilk elden öğrendi.
CHRISTIANE FELLBAUM (Princeton Üniversitesi, dilbilim ve bilgisayar bilimi profesörü rütbesindeki öğretim görevlisi): Döneme yeni başlamıştık. Derslerden hemen önce, henüz tanımadığım bir öğrenci yanıma gelip, adımı ve başlığımı içeren bir makale gösterdi ve şöyle dedi: “Sizin dersinizde olmak istiyorum – çalışmalarınızı araştırdım ve sizin bu makalenizi buldum, ama bununla ilgili birkaç sorum var. Cevaplayabilir misiniz?”
Ve ben de “Elbette” dedim. Gururlanmıştım: Beni araştırıyor, ne güzel. Yani makaleyi karıştırdım. Ve hafızamı tazelemeye çalışırken kahkaha patlattı. Ben de “Komik olan ne?” dedim. Ve o da şöyle dedi: “Bu makale ChatGPT tarafından yazıldı. 'Bana Christiane Fellbaum tarzında bir makale yaz' dedim ve ortaya çıkan buydu.”
Şimdi, her satırı okumadım, çünkü 10 dakika içinde derse başlamam gerekiyordu. Ama her şey benim yazacağım gibi görünüyordu. Beni tamamen kandırdı. Ve sınıfa girip “Ne yapacağım?” diye düşündüm.
Sonraki yıl boyunca doktora öğrencileri de yeni gerçekleriyle yüzleştiler. ChatGPT araştırma projelerini ve belki de kariyerlerini tehdit ediyordu. Bazıları diğerlerinden daha iyi başa çıktı.
CHRISTOPHER CALLISON-BURCH: Böyle bir şey olduğunda göreve sahip olmak yardımcı olur. Ancak daha genç insanlar bu krizi daha içgüdüsel bir şekilde yaşıyordu. Bazı doktora öğrencileri birbirleri için kelimenin tam anlamıyla destek grupları kurdular.
LIAM DUGAN: Sadece ağlaştık. Benden daha ileride olan ve doktora tezi çalışmalarına başlamış birçok doktora öğrencisi gerçekten çok sert bir dönüş yapmak zorunda kaldı. Bu araştırma yönlerinin çoğunda, artık bunların hakkında entelektüel bir şey kalmıyor. Sadece dil modelini uygulayın ve işiniz bitti.
Tuhaf bir şekilde, tanıdığım kimse [çalışmayı] bırakmadı. Ama biraz sessizce işi bırakma oldu. Sadece ayak sürümek veya çok sinik olmak.
RAY MOONEY: Kendi [lisansüstü öğrencilerimden] biri bırakmayı düşündü. Gerçek eylemin sanayide ve akademide olmadığını düşündüler. Ve ben de, biliyorsunuz, belki de bu konuda yanlış olmadıklarını düşündüm. Ama kalmaya karar verdikleri için mutluyum.
JULIE KALLINI: 2023 yılında doktora eğitimime başlarken, belirsiz bir yerdeydi. Yönümün nerede biteceğinden gerçekten emin değildim, ancak herkes aynı gemideydi. Sanırım sadece bununla başa çıkmaya geldim. Makine öğrenmesi temellerimi iyi bildiğime emin olmaya çalıştım. Yalnızca büyük dil modellerindeki potansiyel olarak geçici trendlere uzmanlaşmak en akıllıca şey değil.
Bu arada, Seattle'dan Güney Afrika'ya kadar NLP araştırmacıları, hepsi iyi olmayan bir küresel ilgi fırtınasıyla karşı karşıya kaldı.
VUKOSI MARIVATE (Pretoria Üniversitesi, ABSA UP veri bilimi kürsüsü; Masakhane kurucu ortağı):
2023'te BÜYÜK DİL MODELLERİ hakkında kaç ders verdiğimi bilmiyorum. Bir yandan yıllardır insanlarla konuşmaya çalışıyorsunuz ve “Burada ilginç şeyler oluyor” diyorsunuz. Sonra birdenbire tamamen bir şelale halinde, “Gel bunu bize açıkla” oluyor.
SAM BOWMAN: Görelilikten uzak bir alandan, birdenbire aynı ay içinde Papa ve Başkanla görüşen insanlarla yemek yiyorum.
EMILY M. BENDER: Ocak ve Haziran arasında, hiçbir medya teması olmayan beş iş günü saydım. Durmaksızın devam etti.
ELLIE PAVLICK: ChatGPT'den önce, sanırım hiç bir gazeteciyle konuşmadım. Belki bir ya da iki kez. ChatGPT'den sonra, 60 Minutes'teydim. İşin niteliğinde büyük bir niceliksel farklılık vardı.
CHRISTOPHER CALLISON-BURCH: İşimin dar bir izleyicisi olan lisansüstü öğrencileri ve alanımda diğer araştırmacılarla akademik olmaktan, “Hey, burada bilimsel iletişim için önemli bir sorumluluk var” gibi olmaya dönüştüğünü hissettim. Kongre'de ifade vermeye davet edildim.
LIAM DUGAN: İkinci sınıf bir doktora öğrencisi olarak, aniden görüşmelerdeki düşüncelerim isteniyordu. O zamanlar çok havalı hissettirdi, “Bunda çok uzmanım!” Daha sonra daha az heyecan verici ve daha çok bunaltıcı hissettirdi: “Bunu gelecekte nerede görüyorsunuz?” Bilmiyorum. Neden soruyorsun?
Elbette, özgüvenle cevap verirdim. Ama bu çok çılgınca: Binlerce makale var. Herkesin olup bitenler hakkında kendi görüşü var. Ve çoğu ne hakkında konuştuklarını bilmiyorlar.
SAM BOWMAN: Harika bir katılımın çiçek açması oldu: Birdenbire birçok alandan çok sayıda gerçekten inanılmaz insan bu şeylere bakıyordu. Ve aynı zamanda gürültüde boğuluyordu: her zaman bu konuları konuşan herkes, gerçekten anlamsız bir sürü aceleyle yazılmış görüşler. Harikaydı ve talihsizdi.
NAZNEEN RAJANI: O yıl biraz iniş çıkışlıydı.
Aralık 2023'te, ChatGPT'nin yayınlanmasından bir yıl sonra, yıllık EMNLP konferansı tekrar Singapur'da toplandı.
LIAM DUGAN: Sıcaklık çok daha yüksekti ve arxiv [ön baskı] sonuçlarının sel baskını çok yoğun bir haldeydi. Koridorlarda yürüyordunuz: Sonuna kadar sadece dil modellerinin uyarılması ve değerlendirilmesi vardı.
Ve çok farklı hissettirdi. En azından orada iyi araştırma fikirlerinden daha fazla insan olduğunu hissettirdi. NLP gibi hissetmeyi bırakmıştı ve daha çok yapay zeka gibi hissettirmeye başlamıştı.
III. Mutatis Mutandis (2024-25)
BÜYÜK DİL MODELİ-bilim • Para • Yapay Zeka Olma
NLP için, BÜYÜK DİL MODELİ tarafından oluşturulan yazı duvardaydı – ve alandaki farklı insanlara farklı şeyler söylüyordu.
R. THOMAS MCCOY: Bir yapay zeka sisteminin yetenekleri hakkında soru soran bir çalışma yaptığınızda, eğitim verilerine erişebildiğimiz sistemlere bakmalısınız. Ancak bu, alandaki yaygın yaklaşım değil. Bu anlamda, bilim insanlarından daha çok “BÜYÜK DİL MODELİ-bilimci” olduk.
ELLIE PAVLICK: Bundan %100 suçluyum. Konuşmalarımda bunu sık sık söylüyorum: “Şu anda dil modellerini inceliyoruz.” Bunun ne kadar dar görüşlü göründüğünün farkındayım. Ama bunun uyduğu gerçekten uzun vadeli bir araştırma gündemi olduğunu görmelisiniz. Benim düşünceme göre, “BÜYÜK DİL MODELLERİ ne yapıyor?” hesabını içermeyen bir dil anlama yolunun ileriye doğru yolu yok.
KALIKA BALI: Esas olarak Batı'dan gelen bir teknolojik yıkım her zaman olduğunda, bunlar – isterseniz buna – felsefi endişeler olmuştur. Oysa Küresel Güney'in çoğunda, “Bunu burada ve şimdi nasıl bizim için çalıştırırız?” diye gittik.
İşte küçük bir örnek. Hindistan'da, herkesin (ChatGPT çıktığında) bir araya geldiği ilk fikir, üretken dil modellerinin İngilizce olarak çalışmalarını yapması ve ardından istediğiniz dile çıktı vermek için önüne bir çeviri sistemi koymaktı. Ancak makine çeviri sistemleri kelimesi kelimesine çeviri yapar. Yani “John ve Mary'nin paylaşacakları bir anahtarlamalı turta var” diyen bir matematik problemi varsa ve bunu Hintçeye çevirirseniz, Hindistan'daki çoğu insanın anahtarlamalı bir turta nedir bilmediğine bahse girebilirim. Modellerin kendisinin şeyleri anlaması gerekmediği sürece, bunu kültürel olarak özel bir şeye nasıl çevirirsiniz? Bunun çözümüyle daha çok ilgilenmeye başladım.
IZ BELTAGY: Alana devam etmek için bu büyük, pahalı eserleri inşa etmeniz gerektiğini fark ettiğiniz bir nokta var. Büyük Hadron Çarpıştırıcısı gibi – deneysel fiziği bunun gibi bir şey olmadan ilerletemezsiniz.
Genellikle çoğu akademik laboratuvardan daha fazla kaynağa sahip olan Ai2'de olma şansım vardı. ChatGPT, OpenAI ve diğer herkes arasında büyük bir boşluk olduğunu ortaya koydu. Bu yüzden hemen sonrasında, bu şeyleri sıfırdan nasıl inşa edebileceğimiz hakkında düşünmeye başladık. Ve tam olarak da bu oldu.
2024 yılında, Ai2'nin OLMo'su, giderek kalabalıklaşan endüstri tarafından geliştirilen dil modelleri alanına tamamen açık kaynaklı bir alternatif sağladı. Bu arada, ChatGPT sonrası yapay zeka patlamasıyla birlikte yalnızca ölçek, yetenek ve şeffaflıkta büyüyen bu tescilli sistemleri incelemeye devam eden bazı araştırmacılar zaten yeni bir tür direnişle karşılaşıyordu.
YEJIN CHOI: [2023 yılının sonlarında] en yeni GPT modellerinin çarpma işlemini yapmada görünüşte iyi olduğunu, ancak üç veya dört basamaklı sayılar kullandığınızda aniden çok kötü hale geldiğini gösteren bir makalem vardı. Buna verilen tepkiler çok bölücüydü. Hiç deneysel araştırma yapmayan insanlar, “Deneylerinizi doğru mu yaptınız?” diyorlardı. Daha önce hiç böyle bir şey olmamıştı. Duygusal tepkilerdi. Bu insanları gerçekten seviyorum, bu yüzden onlardan etkilenmedim veya benzeri bir şey. Sadece bunun ne kadar güçlü olduğuna şaşırdım. Sanki bebeğine zarar vermişim gibiydi. Göz açıcıydı.
Temelsiz abartı bilimde yardımcı olmaz. BÜYÜK DİL MODELLERİ'nin temel sınırlarını ve yeteneklerini daha titiz bir şekilde incelemenin önemli olduğunu düşündüm ve bu 2024'teki birincil araştırma odak noktam oldu. Modellerin bunu yapamayacağı ve şunun yapmayacağı konusunda olumsuz bir karamsar haline geldiğim garip bir durumda buldum kendimi. Bunun önemli olduğunu düşünüyorum – ama bunun her şey olmasını istemedim. Bu yüzden şu günlerde farklı sorunlar hakkında çok düşünüyorum.
TAL LINZEN: Bilimsel bir konuşmanın yaşandığını varsaydığımızda bazen kafa karıştırıcı oluyor, ancak konuşmadaki bazı kişilerin potansiyel olarak 50 milyar dolar değerinde bir şirkette payı var.
Araştırma ivmesinin, paranın ve abartının patlaması, zaten gözenekli olan NLP ve yapay zeka arasındaki sınırları buharlaştırdı. Araştırmacılar, yalnızca kendileri için değil, alanın kendisi için de yeni bir teşvik ve fırsat setiyle mücadele ettiler.
NAZNEEN RAJANI: Aksi takdirde açılmayacak kapılar açtı. ChatGPT'yi açık kaynakta yeniden üretmek için veriyi alan ilk kişilerden biriydim – temelde bunun için tarif kitabı yazdım, ki bu inanılmaz. Ve bu da benim startup'ım için iyi bir tohum turu almama yol açtı.
R. THOMAS MCCOY: Yapay zeka ile ilgilenen herhangi bir öğretim üyesi yapay zeka uzmanı olarak görülmeye başlıyor – o rolü oynamak için türlere ayrılıyorsunuz. Yapay zeka üzerinde çalışmak için mutluyum çünkü beceri setlerimle yapabileceğim en etkili şeylerden biri. Ama bana en büyük sevinci getirecek şey, gramerin ve insan bilişinin ilginç köşelerine derinlemesine dalmak. Bu, yapay zekanın ilerlemesine bağlanabilir, ancak bu yol oldukça uzun.
JULIE KALLINI: Her şey anlam bilimiyle ilgili, değil mi? Şahsen, kendimi aynı anda NLP, hesaplamalı dilbilim ve yapay zeka alanında çalışırken görüyorum. Her alan için farklı topluluklar olduğunu düşünüyorum, ancak birkaç alanı birleştiren birçok insan var.
JULIAN MICHAEL: NLP uyum sağlamazsa, alakasız hale gelir. Ve sanırım bir ölçüde bu oldu. Bunu söylemek benim için zor. Şimdi bir yapay zeka hizalama araştırmacısıyım.
ANNA ROGERS: Endişelenmiyorum. Temel olarak bunun nedeni, sorunu gerçekten çözmüş olduğumuzu düşünmemem. Üzülmek için tek sebep şunu düşünmektir: “İşte bu. Dil bitti.” Ve bunun doğru olduğunu düşünmüyorum.
CHRISTOPHER POTTS: Belki de her zaman böyledir, ancak bir paradigma değişiminin belirleyici özelliği, önemli olduğunu düşündüğümüz soruların artık sorulmamasıdır. Son beş yılda bunun gerçekleştiğini hissediyorum. Daha önce duygu sınıflandırmasına çok odaklanıyordum, örneğin, “Bana bir cümle verin ve size pozitif veya negatif bir duygu ifade edip etmediğini söyleyeceğim.” Şimdi tüm alan doğal dil üretmeye odaklanmış durumda – daha önce merkezi olduğunu düşündüğümüz tüm bu sorular, bunun yanında çevresel hale gelmiştir.
Sanırım bunlar ünlü son sözler. Belki de 2030'da geriye dönüp baktığımızda, 2029'da olanların yanında bunun hiçbir şey olduğunu düşüneceğiz.
Tüm konuşmalar uzunluk ve açıklık için düzenlenmiştir.