DeepSeek'in son yapay zeka modeli, ifade özgürlüğü için 'büyük bir geri adım'



Özet


DeepSeek'in yeni yapay zeka modeli R1 0528, ifade özgürlüğünü kısıtlamasıyla endişe yaratıyor. Araştırmalar, modelin tartışmalı konularda önceki sürümlere göre daha fazla sansür uyguladığını gösteriyor. Modelin ahlaki sınırları tutarsız bir şekilde uyguladığı, örneğin Çin'deki insan hakları ihlallerini örnek gösterip aynı konu hakkında soru sorulduğunda sansür uygulaması dikkat çekiyor. Ayrıca, modelin Çin hükümetini eleştiren sorulara verdiği yanıtlar da önceki modellerden daha fazla sansür içeriyor.




DeepSeek'in en yeni yapay zeka modeli R1 0528, kullanıcıların neyi tartışabileceği ve ifade özgürlüğünün daha da gerilemesi konusunda kaşları çattı. Önde gelen bir yapay zeka araştırmacısının özetlediği gibi, "İfade özgürlüğü için büyük bir geri adım."

Yapay zeka araştırmacısı ve popüler çevrimiçi yorumcu 'xlr8harder' modeli test etti ve DeepSeek'in içerik kısıtlamalarını artırdığını gösteren bulgular paylaştı.

Araştırmacı, "DeepSeek R1 0528, önceki DeepSeek sürümlerine göre tartışmalı ifade özgürlüğü konularında önemli ölçüde daha az izin veriyor," diye belirtti. Bunun felsefedeki kasıtlı bir değişiklik mi yoksa yapay zeka güvenliğine yönelik farklı bir teknik yaklaşım mı olduğu henüz belli değil.

Yeni modelle ilgili özellikle büyüleyici olan şey, ahlaki sınırlarını ne kadar tutarsız bir şekilde uyguladığı.

Bir ifade özgürlüğü testinde, muhalif toplama kamplarını destekleyen argümanlar sunması istendiğinde, yapay zeka modeli kesinlikle reddetti. Ancak, reddederken, özellikle Çin'in Sincan toplama kamplarını insan hakları ihlallerine örnek olarak gösterdi.

Ancak, doğrudan bu aynı Sincan kampları hakkında soru sorulduğunda, model aniden ağır sansürlü yanıtlar verdi. Görünüşe göre bu yapay zeka, bazı tartışmalı konuları biliyor ancak doğrudan sorulduğunda bilmezden gelmesi talimatını almış.

Araştırmacı, "Kampları insan hakları ihlallerine örnek olarak sunabilmesi, ancak doğrudan sorulduğunda reddetmesi ilginç, ancak tamamen şaşırtıcı değil," diye gözlemledi.

Çin eleştirisi mi? Bilgisayar hayır diyor

Bu kalıp, modelin Çin hükümeti hakkındaki soruları ele alış biçimini incelerken daha da belirginleşiyor.

Yapay zeka yanıtlarında siyasi açıdan hassas konularda ifade özgürlüğünü değerlendirmek için tasarlanmış yerleşik soru kümelerini kullanan araştırmacı, R1 0528'in "Çin hükümetini eleştirmek için şimdiye kadarki en sansürlü DeepSeek modeli" olduğunu keşfetti.

Önceki DeepSeek modelleri, Çin politikası veya insan hakları sorunları hakkında ölçülü yanıtlar verebilirken, bu yeni sürüm sıklıkla hiç dahil olmayı reddediyor; küresel olayları açıkça tartışabilen yapay zeka sistemlerine değer verenler için endişe verici bir gelişme.

Ancak, bu karanlık bulutta bir umut ışığı var. Daha büyük şirketlerin kapalı sistemlerinin aksine, DeepSeek'in modelleri izin verici lisanslarla açık kaynaklı kalmaya devam ediyor.

Araştırmacı, "Model, izin verici bir lisansla açık kaynaklıdır, bu nedenle topluluk bunu ele alabilir (ve alacaktır)," diye belirtti. Bu erişilebilirlik, geliştiricilerin güvenliği açıklıkla daha iyi dengeleyen sürümler oluşturması için kapının açık kaldığı anlamına geliyor.

DeepSeek'in en yeni modelinin yapay zeka çağında ifade özgürlüğü hakkında gösterdikleri

Durum, bu sistemlerin nasıl inşa edildiği hakkında oldukça ürkütücü bir şey ortaya koyuyor: Sorunuzu nasıl çerçevelediğinize bağlı olarak, tartışmalı olayları biliyor olabilirlerken, bilmediklerini varsaymak üzere programlanabilirler.

Yapay zeka, günlük hayatımıza doğru ilerlemeye devam ettikçe, makul güvenlik önlemleri ve açık söylem arasında doğru dengeyi bulmak giderek daha kritik hale geliyor. Çok kısıtlayıcı olursa, bu sistemler işe yaramaz hale gelir...