Mantık ve aramayı ayırmanın yapay zeka ajanlarının ölçeklenebilirliğini nasıl artırdığı



Özet


Yapay zeka aracılarının ölçeklenebilirliğini artırmak için, temel iş akışı mantığı ile çıkarım zamanı yürütme stratejilerinin ayrılması önerilmektedir. Bu, Büyük Dil Modellerinin (BBM'ler) stokastik doğasının neden olduğu güvenilirlik sorunlarını çözmeyi amaçlar. MIT CSAIL ve Caltech araştırmacıları tarafından geliştirilen PAN (Olasılıksal Melek Deterministik Olmama) adlı yeni programlama modeli, iş mantığını ayrı tutarken çıkarım stratejilerini ayrı bir çalışma zamanı motoruna devreder. Bu mimari ayrım, mevcut yaklaşımlardaki kod karmaşasını ve teknik borcu azaltarak otomatikleştirilmiş görevlerin performansını artırma potansiyeli sunar.




Mantıktan çıkarımı ayırmak, temel iş akışlarını yürütme stratejilerinden ayırarak yapay zeka aracısı ölçeklenebilirliğini artırır.

Üretken yapay zeka prototiplerinden üretim düzeyindeki aracılara geçiş, belirli bir mühendislik engelini beraberinde getirir: güvenilirlik. Büyük Dil Modelleri (BBM'ler) doğaları gereği stokastiktir. Bir kez çalışan bir istem, ikinci denemede başarısız olabilir. Bunu hafifletmek için geliştirme ekipleri genellikle temel iş mantığını karmaşık hata işleme döngüleri, yeniden denemeler ve dallanma yolları içine sarar.

Bu yaklaşım bir bakım sorunu yaratır. Bir aracının ne yapması gerektiğini tanımlayan kod, modelin tahmin edilemezliğiyle nasıl başa çıkılacağını tanımlayan kodla iç içe geçer. Asari AI, MIT CSAIL ve Caltech araştırmacıları tarafından önerilen yeni bir çerçeve, kurumsal alanda aracılı iş akışlarını ölçeklendirmek için farklı bir mimari standarda ihtiyaç olduğunu öne sürüyor.

Araştırma, Olasılıksal Melek Deterministik Olmama (Probabilistic Angelic Nondeterminism - PAN) adı verilen bir programlama modeli ve ENCOMPASS adında bir Python uygulaması sunuyor. Bu yöntem, geliştiricilerin bir aracının iş akışının "mutlu yolunu" yazmasına olanak tanırken, çıkarım zamanı stratejilerini (örneğin, ışın araması veya geri izleme) ayrı bir çalışma zamanı motoruna devreder. Bu sorumluluk ayrımı, teknik borcu azaltırken otomatikleştirilmiş görevlerin performansını artırmak için potansiyel bir yol sunar.

Aracı tasarımında karmaşa sorunu

Aracı programlamaya yönelik mevcut yaklaşımlar genellikle iki farklı tasarım yönünü karıştırır. Birincisi, temel iş akışı mantığı veya bir iş görevini tamamlamak için gereken adımlar dizisidir. İkincisi, sistemin birden fazla taslak oluşturma veya çıktıları bir derecelendirme ölçeğine göre doğrulama gibi belirsizlikte nasıl gezindiğini belirleyen çıkarım zamanı stratejisidir.

Bunlar birleştirildiğinde, ortaya çıkan kod tabanı kırılgan hale gelir. "N'nin en iyisi" örneklemesi gibi bir stratejiyi uygulamak, tüm aracı işlevini bir döngü içine sarmayı gerektirir. Ağaç araması veya iyileştirme gibi daha karmaşık bir stratejiye geçmek genellikle aracının kodunun tamamen yapısal olarak yeniden yazılmasını gerektirir.

Araştırmacılar, bu karmaşanın deneyi sınırladığını savunuyorlar. Bir geliştirme ekibi, doğruluğu artırmak için basit örneklemeden ışın araması stratejisine geçmek isterse, genellikle uygulamanın kontrol akışını yeniden tasarlamak zorunda kalır. Deney yapmanın bu yüksek maliyeti, ekiplerin mühendislik yükünden kaçınmak için sıklıkla en uygun olmayan güvenilirlik stratejilerine razı olmasına neden olur.

Mantığı aramadan ayırarak yapay zeka aracı ölçeklenebilirliğini artırma

ENCOMPASS çerçevesi, programcıların kodları içindeki "güvenilmezlik yerlerini" branchpoint() adı verilen bir ilkel kullanarak işaretlemesine izin vererek buna değinir.

Bu işaretler, bir BBM çağrısının nerede gerçekleştiğini ve yürütmenin nerede ayrılabileceğini gösterir. Geliştirici, işlemin başarılı olacağı varsayımıyla kodu yazar. Çalışma zamanında, çerçeve, olası yürütme yollarının bir arama ağacını oluşturmak için bu dallanma noktalarını yorumlar.

Bu mimari, yazarların "program-kontrol-altında" aracılar olarak adlandırdıkları şeyi mümkün kılar. Modelin tüm diziyi belirlediği "BBM-kontrol-altında" sistemlerin aksine, o