Sivil toplum kuruluşları, AB'yi yapay zeka düzenlemesine ilişkin yaklaşmakta olan müzakerelerde insan hakları korumalarını sürdürmeye ve geliştirmeye teşvik etmelidir.
Bildiri, AB'yi yapay zekanın zararlı ve ayrımcı gözetimini ve diğer suiistimal edici uygulamalarını yasaklamaya, yapay zeka sistemlerinin geliştirilmesi sırasında ve konuşlandırılmasından önce temel haklar üzerindeki etki değerlendirmelerini zorunlu kılmaya ve diğer önlemlerin yanı sıra yapay zekadan zarar gören insanlar için etkili çözüm yolları sağlamaya çağırıyor.
Bildiri aşağıda yer almaktadır ve imzacılar listesiyle birlikte buradan erişilebilir .
AB Üçlemeleri: Yapay Zeka Yasası insanların haklarını korumalıdır
AB Yapay Zeka Yasasındaki temel haklara ilişkin bir sivil toplum bildirisi
Avrupa Birliği kurumları [1] üçlü müzakerelere başlarken, sivil toplum AB kurumlarını Yönetmeliğin Yapay Zeka Yasasında (AI Yasası) insanları ve temel hakları ilk sıraya koymasını sağlamaya çağırıyor.
Avrupa'da ve dünya çapında yapay zeka sistemleri, kamusal alanlarda bizi izlemek ve kontrol etmek , gelecekte suç işleme olasılığımızı tahmin etmek , sığınma hakkı ihlallerini kolaylaştırmak , duygularımızı tahmin etmek ve bizi kategorize etmek ve belirleyici kararlar almak için kullanılıyor.
Güçlü düzenlemeler olmadan şirketler ve hükümetler, kitlesel gözetimi, yapısal ayrımcılığı, büyük teknoloji şirketlerinin merkezileştirilmiş gücünü, hesap vermeyen kamusal karar alma sürecini ve çevresel zararı şiddetlendiren yapay zeka sistemlerini kullanmaya devam edecek.
AB kurumlarını, yapay zeka geliştirme ve kullanımının hesap verebilir, kamuya açık ve insanların zararlara karşı çıkma yetkisine sahip olmasını sağlamaya çağırıyoruz:
1. Etkilenen insanları hesap verebilirlik, şeffaflık, erişilebilirlik ve tazmin çerçevesiyle güçlendirin
AB AI Yasasının, AI sistemlerinin kullanımı zararları şiddetlendirdiğinde ve temel hakları ihlal ettiğinde insanları ve kamu yararına çalışan aktörleri anlama, tanımlama, itiraz etme ve tazminat arama yetkisi vermesi çok önemlidir. Bunu yapmak için, AI Yasasının bir hesap verebilirlik, şeffaflık, erişilebilirlik ve tazmin çerçevesi geliştirmesi çok önemlidir.
Bu şunları içermelidir:
- Tüm kamu ve özel 'kullanıcıların' (dağıtıcılar), yüksek riskli bir yapay zeka sisteminin her konuşlandırılmasından önce bir temel haklar etki değerlendirmesi yürütme ve yayınlama ve bu süreçte sivil toplumu ve etkilenen insanları anlamlı bir şekilde dahil etme yükümlülüğü;
- Yüksek riskli yapay zeka sistemlerinin tüm kullanıcılarının ve kamusal alandaki tüm sistemlerin kullanıcılarının, konuşlandırmadan önce kullanımlarını herkesin görebileceği AB veri tabanına kaydetmelerini zorunlu kılın;
- Sistemleri AB dışındaki kişileri etkileyen AB merkezli yapay zeka sağlayıcılarının, AB içindekilerle aynı gereksinimlere tabi olmasını sağlayın.
- Tüm AI sistemleri için yatay ve ana akım erişim gereksinimleri sağlayın ;
- Yapay zeka sistemlerinden etkilenen kişilerin bilgilendirildiğinden ve yapay zeka destekli kararlardan ve sonuçlardan etkilendiklerinde bilgi arama hakkına sahip olduklarından emin olun;
- Bir AI sistemi kullanılarak hakları ihlal edilmişse, etkilenen kişilerin ulusal bir makama şikayette bulunma hakkını dahil edin;
- Gerçek kişilerin temsil edilme hakkını ve kamu yararına çalışan kuruluşların ulusal bir denetim makamına bağımsız şikayette bulunma hakkını dahil edin;
- Hakların ihlali için etkili hukuk yollarına başvurma hakkını içerir.
2. Ulusal güvenlik, kolluk kuvvetleri ve göçmenlik makamları tarafından yapılan zararlı ve ayrımcı gözetime sınırlar çizin
Giderek artan bir şekilde AI sistemleri, zararlı ve ayrımcı devlet gözetimi biçimleri için geliştirilmekte ve konuşlandırılmaktadır. Bu tür sistemler orantısız bir şekilde zaten marjinalize edilmiş toplulukları hedef alır, yasal ve usule ilişkin hakları baltalar ve kitlesel gözetime katkıda bulunur. Yapay zeka sistemleri kanun yaptırımı, güvenlik ve geçiş kontrolü bağlamında konuşlandırıldığında, daha da büyük bir zarar riski ve temel hakların ve hukukun üstünlüğünün ihlali söz konusudur. Kamu gözetimini sürdürmek ve zararı önlemek için AB Yapay Zeka Yasası şunları içermelidir:
- İstisnasız tüm aktörler tarafından halka açık alanlarda gerçek zamanlı ve uzaktan biyometrik tanımlamanın tamamen yasaklanması ;
- Kolluk kuvvetleri ve ceza adaletinde (bireylere, gruplara ve konumlara veya alanlara odaklanan ve bunları hedefleyen sistemler dahil) her türlü tahmin ve profil çıkarma sistemlerinin yasaklanması;
- Kişisel ve hassas verilere dayalı bireysel risk değerlendirmeleri ve profilleri yapmak için geçiş bağlamlarında yapay zekaya yönelik yasaklar ve göçü engellemek, kısıtlamak ve engellemek için kullanıldığında tahmine dayalı analitik sistemler;
- Gerçek kişileri hassas veya korunan özelliklerine göre sınıflandıran biyometrik sınıflandırma sistemlerinin yanı sıra, kamuya açık alanlarda herhangi bir biyometrik sınıflandırma ve otomatik davranış algılama sistemlerinin kullanılmasının yasaklanması;
- İnsanların duygularını ve zihinsel durumlarını anlamak için duygu tanıma sistemlerinin kullanımının yasaklanması ;
- Konsey'in ulusal güvenlik amaçları için geliştirilen veya kullanılan AI sistemlerine yönelik AI Yasasına genel bir muafiyet eklemesini reddetmek;
- Kanun yaptırımı ve göç kontrolü için Konsey tarafından getirilen istisnaları ve yasal boşlukları kaldırın;
- Kamu aktörlerinin yüksek riskli yapay zekayı kolluk kuvvetleri ve göç kontrolü alanlarında ne, ne zaman ve nasıl kullandığı konusunda kamu şeffaflığının sağlanması ve yüksek riskli kullanımların AB yapay zeka veri tabanına kaydedilmesi yükümlülüğünden herhangi bir muafiyetten kaçınılması.
3. Büyük Teknoloji lobiciliğini geri itin: düzenlemeyi baltalayan yasal boşlukları kaldırın
Mevzuatın etkili bir şekilde uygulanabilmesi için AB AI Yasası, açık ve yasal olarak kesin uygulama standartları belirlemelidir. Mevzuat, hangi sistemlerin yüksek riskli olduğunu belirlemek için nesnel bir süreci desteklemeli ve yüksek risk sınıflandırma sürecine eklenen herhangi bir 'ek katmanı' kaldırmalıdır. Böyle bir katman, AI geliştiricilerinin, hesap verebilirlik veya gözetim olmadan, sistemlerinin Yönetmelik kapsamında yasal incelemeyi gerektirecek kadar 'önemli' bir risk oluşturup oluşturmadığına karar vermesine olanak tanır. İsteğe bağlı bir risk sınıflandırma süreci, tüm AI Yasasını baltalama, kendi kendini düzenlemeye geçme, uygulama ve uyumlaştırma için aşılmaz zorluklar ortaya çıkarma ve daha büyük şirketleri kendi AI sistemlerini yetersiz sınıflandırmaya teşvik etme riski taşır.
Yapay Zeka Yasası müzakerecileri, finansal çıkarlar için düzenlemeleri atlatmaya çalışan büyük teknoloji şirketlerinin lobicilik çabalarına boyun eğmemelidir.
AB AI Yasası şunları yapmalıdır:
- 6. Maddede risk sınıflandırma sürecine eklenen ek katmanı kaldırın, Avrupa Komisyonu'nun orijinal pozisyonunda belirtilen açık, objektif risk sınıflandırma sürecini geri yükleyin;
- Genel amaçlı yapay zeka sistemlerinin sağlayıcılarının, daha küçük sağlayıcıların ve kullanıcıların orijinal geliştiricilere daha uygun olan yükümlülüklerin yükünü üstlenmelerini önleyerek, Yapay Zeka Yasası kapsamında açık bir dizi yükümlülüklere tabi olduğundan emin olun.
[1] Avrupa Parlamentosu, Avrupa Birliği Konseyi ve Avrupa Komisyonu, hem Parlamento hem de Konsey tarafından kabul edilebilir bir yasa teklifi üzerinde geçici bir anlaşmaya varmak için kurumlar arası müzakerelere, 'üçlemelere' girerler.