Cenevre’de düzenlenen BM Silahsızlanma Araştırmaları Enstitüsü (UNIDIR) Küresel Yapay Zekâ Güvenliği ve Etik Konferansı’nda uzmanlar, yapay zekânın geldiği kritik eşiğe dikkat çekerek, bu teknolojilerin savaş alanında kötüye kullanılmasının önüne geçilmesi için acil küresel iş birliği çağrısında bulundu.

UNIDIR Eş Başkan Yardımcısı Gosia Loy, savunma politikalarının artık teknoloji topluluğuyla doğrudan ve sürekli bir iletişim içinde olması gerektiğini vurgulayarak, "Yapay zekâ sistemlerinin güvenliği ve etik kullanımı için kuralların belirlenmesinde teknoloji uzmanlarının sürece en baştan dahil edilmesi zorunlu" dedi. Loy, bu çağrısını, yapay zekânın nükleer teknolojinin geliştirilme sürecine benzetildiği "Oppenheimer anı" ifadesiyle pekiştirdi.

Kusurlu sistemler, ölümcül sonuçlar

Yapay zekâ temelli sistemlerin hala oldukça kırılgan olduğunu söyleyen Advai CEO’su David Sully, bu sistemlerin savaş alanlarında geri dönüşü olmayan sonuçlar doğurabileceği uyarısında bulundu. Comand AI Halkla İlişkiler Başkanı Arnaud Valli ise, “Bu sistemler sadece sivil değil, aynı zamanda askeri amaçlarla da kullanılabiliyor. Geliştiriciler, yazdıkları kodların sahadaki etkilerini çoğu zaman tam olarak kavrayamıyor” diyerek, teknolojinin çift yönlü doğasına dikkat çekti.

TÜBİTAK Ortaokul Adana Bölge Yarışması Sergisi'nin Açılış Töreni Yapıldı TÜBİTAK Ortaokul Adana Bölge Yarışması Sergisi'nin Açılış Töreni Yapıldı

Paylaşılan sorumluluk, eksik denetim

Microsoft’un Dijital Diplomasi Direktörü Michael Karimian, etik, kapsayıcılık ve hesap verebilirlik ilkelerine dayalı bir yapay zekâ politikası izlediklerini belirterek, teknolojik ilerlemenin şirketler arası iş birliğiyle şekillenmesi gerektiğini söyledi. UNIDIR ile iş birliği yaptıklarını açıklayan Karimian, "İnovasyon tek bir kurumun tekelinde gerçekleşemez. Bu, ortak bir sorumluluktur" dedi.

Ancak teknolojinin baş döndürücü hızı, regülasyonların gerisinde kalmasına neden oluyor. Uluslararası Telekomünikasyon Birliği (ITU) Genel Sekreter Danışmanı Sulyna Nur Abdullah, "Yapay zekâ gelişimi, bu alandaki riskleri yönetme kapasitemizi aşmış durumda" diyerek, politika yapıcılar ile teknik uzmanlar arasında sürekli bir diyalog gerektiğini vurguladı.

Hesap verilebilirlik boşlukları

Birleşmiş Milletler İnsan Hakları Yüksek Komiserliği’nden Peggy Hicks, ölüm-kalım kararlarının insana ait olması gerektiğini belirtti: “İnsanı denklemden çıkarırsak, insanlığı da çıkarırız.” Bu uyarı, 2013 yılında yayınlanan bir BM raporunun da altını çizdiği temel etik sorunu yeniden gündeme taşıdı.

Yapay zekâda iz bırakmak zor

Yapay zekâ sistemlerinin uluslararası denetimi konusunda büyük bir açık olduğuna dikkat çeken David Sully, "Nükleer silahlar gibi tespit edilebilir imzaları yok. Bu da uluslararası düzeyde düzenleme getirmeyi ciddi şekilde zorlaştırıyor" dedi.

Geleceği güvence altına almak

Mozilla Hindistan Direktörü Jibu Elias, yeni nesil yazılımcıların ne yaptıklarının farkında olması gerektiğini vurgularken, Stellenbosch Üniversitesi'nden Dr. Moses B. Khanyile ise üniversitelerin etik değerlerin korunmasında kilit rol oynaması gerektiğini söyledi. Dr. Khanyile, “Askeri aktörler ve hükümetler yapay zekâyı iyiye yönlendirecek aktörler haline gelmeli” diyerek savunma sektörünü de sorumluluğa davet etti.

Ülkeler de devrede

Konferansta Çin, Hollanda, Pakistan, Fransa, İtalya ve Güney Kore’den gelen diplomatlar da söz alarak, ileri teknoloji ihracatı ve güvenli kullanım için küresel düzenlemeler gerektiğini vurguladı. Hollanda’nın Silahsızlanma Büyükelçisi Robert in den Bosch ise, "Yapay zekâ yalnızca kendi içinde değil, siber güvenlik, kuantum teknolojileri ve uzay teknolojileriyle birlikte ele alınmalı" dedi.

Sonuç: Gelecek tehdit altında

BM uzmanları, özel sektör ve akademisyenlerin ortak görüşü net: Yapay zekâ kontrolsüz biçimde gelişirse, yalnızca savaş alanında değil, tüm insanlık için geri dönülmez tehlikeler doğurabilir. Bu yüzden teknolojik ilerlemenin etik ve hukuki çerçevede şekillenmesi artık bir seçenek değil, zorunluluk.

Editör: Haber Merkezi