Skip to content Skip to sidebar Skip to footer

Yapay zekanın kurumsal operasyonlara entegrasyonu, inovasyonu güvenlikle dengeleyen düzenleyici çerçevelere yönelik acil bir ihtiyaç yarattı.

Yapay zeka sistemleri müşteri hizmetlerinden siber güvenliğe kadar iş operasyonlarının merkezi haline geldikçe, kuruluşlar sorumlu dağıtım ve risk yönetimini sağlama konusunda artan bir baskıyla karşı karşıya kalıyor.

Bu zorluk, yapay zeka teknolojilerinin artık tehdit algılama ve yanıt sistemlerinin omurgasını oluşturduğu siber güvenlik alanında özellikle belirgindir.

AB, yapay zekanın yaygınlaştırılmasına yönelik ilk kapsamlı yasal çerçeveyi oluşturan Yapay Zeka Yasası aracılığıyla bu endişeleri gidermek için harekete geçti.

Yasa, dünya çapındaki kuruluşların yapay zeka yönetimi, etiği ve güvenliğiyle ilgili sorularla boğuştuğu bir dönemde geliyor.

Sektör liderleri artık teknolojik gelişmeleri sürdürürken yeni düzenleyici gereklilikleri karşılamak için operasyonlarını uyarlamak zorundalar.

Bu bağlamda, küresel siber güvenlik sağlayıcısı Kaspersky, Avrupa Komisyonu’nun Yapay Zeka Paktı’nı imzaladı.

Anlaşma, kuruluşları 2026 yılında yürürlüğe girecek olan ve yapay zekanın dağıtımına ilişkin ilk kapsamlı yasal çerçeveyi oluşturan AB Yapay Zeka Yasası’na hazırlıyor.

Taahhüt, imzacıların, geleneksel olarak insan zekası gerektiren görevleri yerine getirmek için bilgisayar algoritmalarını kullanan yapay zeka sistemleri için yönetişim stratejileri uygulamasını gerektiriyor.

Temel AB Yapay Zeka Yasası uygulama gereklilikleri

Pakta katılan örgütler üç temel yükümlülüğü üstleniyor.

Öncelikle, gelecekte uyumluluğu garanti altına alırken teknoloji benimsenmesini teşvik etmek için yapay zeka yönetişim stratejilerini benimsemeleri gerekiyor.

İkincisi, Kanun kapsamında yüksek riskli kabul edilen bölgelerdeki yapay zeka sistemlerini haritalamaları gerekiyor.

Üçüncüsü, yapay zeka sistemleriyle etkileşimde bulunan personel ve taşeronlar arasında yapay zeka okuryazarlığını artırmalılar.

Çerçeve, her yapay zeka sisteminin operasyonel bağlamına özgü teknik bilgi, deneyim ve eğitim gereksinimlerini dikkate alır ve bu yaklaşım, yapay zeka uygulamasının tüm seviyelerinde kapsamlı bir anlayış yaratmayı hedefler.

Kaspersky, AI yönetişim çerçevesinin geliştirilmesini ilerletiyor

Siber güvenlik firması, yapay zeka sistemlerinden etkilenen bireyler için potansiyel riskleri belirlemeyi ve iş yerlerinde yapay zeka dağıtımı konusunda şeffaflığı korumayı taahhüt ediyor ve bu, Kaspersky’nin tehdit tespit sistemlerindeki yirmi yıllık yapay zeka uygulama deneyimine dayanıyor.

Kaspersky Kurucusu ve CEO’su Eugene Kaspersky, “Yapay zeka teknolojilerinin hızla yaygınlaştığını gördüğümüzde, inovasyon çabasının uygun risk yönetimiyle dengelenmesini sağlamak hayati önem taşıyor” diyor.

Eugene ayrıca şirketin yapay zeka okuryazarlığı ve risk farkındalığının geliştirilmesindeki rolünün de altını çiziyor.

Avrupa Komisyonu AI anlaşması endüstri standartlarını belirliyor

Anlaşma, kuruluşların bireyleri yapay zeka sistemleriyle doğrudan etkileşimleri konusunda bilgilendirmeleri için gereklilikler belirliyor ve bu, yapay zeka teknolojilerinin güvenlik ve etik ilkelerine uymasını sağlamaya yönelik daha geniş AB hedefleriyle örtüşüyor.

Ayrıca, 2024 yılında yürürlüğe giren Yapay Zeka Yasası, AB’nin yapay zeka dağıtımına ilişkin artan endişelere verdiği yanıtı temsil ediyor ve bu mevzuat, Avrupa pazarlarında ve ötesinde ilişkili riskleri ele alırken güvenilir yapay zeka gelişimini teşvik etmeyi amaçlıyor.

Güvenlik araştırma ve geliştirme girişimleri

Kaspersky Yapay Zeka Teknolojisi Araştırma Merkezi ayrıca, 2024 BM İnternet Yönetişim Forumu’nda sunulan güvenli yapay zeka sistemi dağıtımına yönelik yönergeler geliştirdi.

Bu öneriler, yapay zeka teknolojilerini benimseyen kuruluşlar için uygulama zorluklarını ele alıyor.

Kılavuzlar, şirketin otomatik tehdit tespiti ve gizlilik koruma teknolojilerindeki deneyiminden yararlanarak uygulayıcılara güvenli yapay zeka dağıtımı için özel öneriler sunuyor.

Yapay zeka güvenlik standartlarında sektör liderliği

Şirketin Yapay Zeka Paktı’na katılımı, aynı zamanda siber güvenlikte yapay zeka kullanımına ilişkin etik ilkelerin geliştirilmesinin de bir sonucu.

Bu çerçevenin amacı, sorumlu yapay zeka dağıtımı için endüstri standartları oluşturmaktır.

Kaspersky’nin yapay zeka teknolojilerini uygulama geçmişi yirmi yılı aşkın bir süredir devam ediyor ve müşteriler için otomatik tehdit tespiti ve gizlilik korumasına odaklanıyor; şirket, yapay zeka sistemi dağıtımında ortaya çıkan riskleri ele almak için araştırma faaliyetlerini sürdürüyor.

Etik AI geliştirmeye bağlılık

Şirket, siber güvenlikte etik yapay zeka kullanımına yönelik ilkeler formüle etti ve diğer sağlayıcıları da benzer standartları benimsemeye davet etti.

Bu girişim, sektörde yapay zeka güvenliğine yönelik koordineli yaklaşımlara duyulan ihtiyacın giderek daha fazla kabul gördüğünü yansıtıyor.

Eugene, “Yıllardır yapay zeka okuryazarlığı ve yapay zeka ile ilgili riskler ve tehditler hakkında bilgi paylaşımının savunucusu olarak, şirketlerin yapay zeka teknolojilerinden sorumlu ve güvenli bir şekilde yararlanmasına yardımcı olmak için çalışan kuruluşların saflarına katılmaktan mutluluk duyuyoruz” diyor.

“Şeffaf ve etik yapay zeka uygulamalarını daha da ilerletmek ve bu teknolojiye olan güvenin artmasına katkıda bulunmak için çalışacağız.”