
Yapay zeka sisteminde meydana gelebilecek bir olaya nasıl hazırlanılır ve olay nasıl düzeltilir?
Özet
ISACA'nın araştırması, birçok kuruluşun bir yapay zeka krizi anında sistemi hızlıca durdurma veya yaşanan sorunun nedenini açıklama konusunda ciddi eksiklikler yaşadığını ortaya koymaktadır. Profesyonellerin büyük çoğunluğu, sistemlere yönelik bir güvenlik olayı karşısında yetersiz kaldıklarını belirtirken, bu durum kontrolsüz operasyonel risklere ve geri dönüşü olmayan hasarlara yol açma potansiyeli taşımaktadır. Uzmanlar, yapay zekanın kritik iş akışlarına dahil edilirken güçlü bir yönetişim katmanının eksikliğine dikkat çekerek, sorumluluk ve denetim mekanizmalarının kurulmasının zorunlu olduğunu vurgulamaktadır. Sistemin davranışını analiz edemeyen ve müdahale edemeyen işletmelerin, hem operasyonel hatalarla hem de ciddi yasal yaptırımlarla karşı karşıya kalabileceği ifade edilmektedir.
Yapay zekanın bize sunduğu tüm olasılıklara rağmen, teknolojinin arızalanması veya güvenliğinin tehlikeye girmesi ihtimali her zaman mevcuttur. ISACA tarafından yapılan yeni araştırmalar, bir yapay zeka sistemi krizi yaşanması durumunda, ankete katılan kuruluşların çoğunun bir yapay zeka sistemi acil durumunu ne kadar hızlı durdurabileceklerini açıklayamadıklarını ve hatta sorunun nedenini raporlayamadıklarını ortaya koymuştur.
ISACA'nın raporuna göre, dijital güven profesyonellerinin %59'u, kuruluşlarının bir güvenlik olayı sırasında bir yapay zeka sistemini ne kadar hızlı bir şekilde kesintiye uğratıp durdurabileceğini anlamamaktadır. Sadece %21'i yarım saat içinde anlamlı bir şekilde müdahale edebileceğini belirtmiştir. Bu durum, bozulmuş yapay zeka sistemlerinin kontrolsüz bir şekilde çalışmaya devam edebileceği ve geri dönüşü olmayan hasar riski doğurabileceği bir ortama işaret etmektedir.
Otonom kurumsal platform Kovant'ın CEO'su ve Kurucusu Ali Sarrafi şunları söyledi: "ISACA'nın bulguları, kuruluşların yapay zekayı kullanma biçimindeki büyük bir yapısal soruna işaret ediyor. Sistemler, eylemlerini denetlemek ve gözden geçirmek için gereken yönetişim katmanı olmadan kritik iş akışlarına dahil ediliyor. Bir işletme bir yapay zeka sistemini hızlı bir şekilde durduramıyorsa, davranışını açıklayamıyorsa veya kimin sorumlu tutulacağını belirleyemiyorsa, o işletme sistemi kontrol edemiyor demektir."
Yapay zeka hataları ve riskleri
Genel olarak, katılımcıların sadece %42'si kuruluşlarının ciddi yapay zeka olaylarını analiz edip netleştirebileceğine dair güven duyduğunu ifade etmiş, bu da olası operasyonel hatalara ve güvenlik risklerine yol açmaktadır. Ayrıca, bu olaylar düzenleyicilere ve yönetime açıklanamazsa, işletmeler yasal cezalar ve kamuoyu tepkisi ile karşı karşıya kalabilir.
Hatalardan ders çıkarmak için doğru analiz gereklidir. Net bir anlayış olmadan, tekrarlanan olayların olasılığı sadece artar. Yapay zekayı etkili bir yönetişim ile sorumlu bir şekilde yönetmek önemlidir, ancak ISACA'nın bulguları bunun genellikle eksik olduğunu göstermektedir.
Hesap verebilirlik bir başka belirsiz alan olup, katılımcıların %20'si bir yapay zeka sistemi hasara yol açarsa kimin sorumlu olacağını bilmediklerini belirtmiştir. Sadece %38'i Yönetim Kurulu veya bir yöneticinin nihai olarak sorumlu olduğunu belirtmiştir.
Sarrafi, yapay zeka benimseme sürecini yavaşlatmanın çözüm olmadığını, bunun yerine yönetilme biçimini yeniden düşünmenin anahtar olduğunu kaydetti: "Yapay zeka sistemlerinin, onları dijital çalışanlar olarak gören, net sahiplik, tanımlanmış yükseltme yolları ve risk eşikleri aşıldığında anında durdurulabilme veya devre dışı bırakılabilme yeteneğine sahip yapılandırılmış bir yönetim katmanında yer alması gerekir. Bu şekilde, aracılar gizemli botlar olmaktan çıkar ve inceleyebileceğiniz ve güvenebileceğiniz sistemler haline gelir. Yapay zeka temel iş fonksiyonlarına daha derinlemesine yerleştikçe, yönetişim sonradan düşünülen bir şey olamaz. Her seviyede görünürlük ve kontrol ile tasarlanmış, ilk günden itibaren mimariye dahil edilmelidir. Bunu doğru yapan kuruluşlar riski azaltmakla kalmayacak, aynı zamanda yapay zekayı iş dünyasında güvenle ölçeklendirebilenler olacaklardır."
Bununla birlikte, katılımcıların %40'ının insanların neredeyse tüm yapay zeka eylemlerini uygulamaya konulmadan önce onayladığını, %26'sının ise yapay zeka çıktılarını değerlendirdiğini söylemesi bir nebze rahatlatıcıdır. Bununla birlikte, uygun bir denetim olmadan...