AB AI Yasası’nın ilk gereksinimleri, ‘kabul edilemez’ yasaklanmış olarak kabul edilen bazı AI kullanım durumları ve yeterli okuryazarlık gerektiren yapay zeka sağlayan veya kullanan şirketlerde personel de dahil olmak üzere yasal olarak bağlayıcıdır.
2 Şubat 2025’te, Ağustos 2024’te resmi olarak yürürlüğe giren türünün ilk örneği bir AI düzenleyici çerçevesi olan Yasa için ilk uyum son tarihi geçti. AI risklerini ele alıyor ve Avrupa’yı önde gelen bir oyuncu olarak konumlandırmayı amaçlıyor. Teknolojinin gelişimi, geliştirme, kullanım ve uygulama etrafında yapay zeka geliştiricileri ve dağıtımcılar için açık bir dizi riske dayalı kurallar oluşturur.
İlk uyumluluk son tarihinin geçmesi, şirketlerin artık AI okuryazarlığı etrafında belirtilen kısıtlamalara uymaları gerektiği ve AI sistemlerinin “insanların güvenliği, geçimleri ve hakları için açık bir tehdit” olarak kabul edilmesi gerektiği anlamına geliyor.
Eğer yapmazlarsa ya da gelecekteki ihlaller yaparlarsa, 35 milyon Euro veya küresel yıllık gelirlerinin% 7’sine kadar para cezasıyla karşılaşırlar – hangisi miktar daha yüksektir.
AI Yasası nedir?
AI Yasası, Avrupalıların AI’ya güvenebilmelerini ve AB’de inovasyon, işbirliği, yatırım ve düzenleme konusundaki güvenilir AI’nın gelişimini destekleyen daha geniş bir politika önlem paketinin bir parçası olmasını sağlar.
Son yıllarda AI’da kalkınma ve yenilikçiliğin hızı, evlat edinmenin birçok durumda mevzuatın geride kaldığı anlamına gelir;
Avrupa Komisyonu, AI sistemlerinin çoğu riskle sınırlıdır ve karmaşık zorluklarla mücadeleye ve toplumun ilerlemesine katkıda bulunabilir. Bununla birlikte, bazı sistemler, eğer kabul edilmezse, insanlar ve işletmeler için istenmeyen sonuçlara neden olabilecek riskler getirir.
Bunu azaltmak için Yasa, düzenleme düzeyini farklı AI uygulamalarının topluma verdiği algılanan riske uyarlayan riske dayalı bir düzenleyici çerçeveyi takip eder.
Uygulamada bu çerçeve, bir AI sistemi piyasaya çıktıktan sonra uygunluk değerlendirmeleri yapması ve AB gerekliliklerine uyması gerektiğini belirtir. Daha sonra AB’nin veritabanında kaydedilir ve imzalanmış bir uygunluk beyanı. Yapay zeka sisteminde önemli bir gelişme değişikliği, sürece tekrar girmesi gerektiği anlamına gelir.
Etkili Düzenleme: Riske dayalı bir yaklaşım
AI Yasası, dört kategori altındaki riskleri tanımlar: minimum veya hiç risk, sınırlı risk, yüksek risk ve kabul edilemez risk.
Yüksek riskli uygulamalar, ayrıntılı risk değerlendirmesi ve azaltma protokolleri, ayrımcı sonuçlar riskini en aza indirmek için yüksek kaliteli veri kuralları ve yüksek düzeyde sağlamlık, siber güvenlik ve doğruluk gibi katı yükümlülüklerle karşı karşıyadır.
Yüksek riskli kullanım örneklerine örnek olarak kritik altyapı, tıbbi uygulamalar, işe alım ve işe alım, kredi puanlama kolluk kuvvetleri ve eğitim gibi temel özel ve kamu hizmetleri sayılabilir.
2 Şubat’ta iktidara gelen kurallar, en yüksek seviye veya ‘kabul edilemez’ risk olarak kabul edilen AI sistemleriyle ilgilidir.
Burada, AI Yasası sekiz uygulamayı yasaklıyor:
Gen AI, Yasa’da bir ‘genel amaçlı’ AI biçimi olarak kategorize edilir. Bu sınıflandırma, insan yetenekleriyle karşılaştırılabilir veya bunları aşan bir seviyede çok çeşitli görevler gerçekleştirmek için tasarlanmış araçları kapsar.
Bu tür AI sistemleri için Yasa, AB telif hakkı yasasına bağlılık, model eğitim yöntemlerine ilişkin şeffaflık açıklamalarının verilmesi ve yeterli siber güvenlik korumalarının uygulanması gibi gereklilikler getirir. Kurallar 2 Ağustos 2025’te uygulanabilir.
Düzenlenmiş ürünlere gömülü yüksek riskli AI sistemleri için kurallar, 2 Ağustos 2027’ye kadar bir uzatma geçiş süresine sahiptir.