Hükümetler yapay zeka etrafında güvenlik önlemleri oluşturmaya çalışıyor, ancak engeller ve kararsızlık, öncelikler ve kaçınılması gereken engeller konusunda ülkeler arası anlaşmaların yapılmasını geciktiriyor.Büyük Britanya, Kasım 2023'te ABD, Çin ve Avrupa Birliği'nin de aralarında bulunduğu 28 ülkeyle yapay zeka güvenliği konusunda küresel işbirliği çabalarını artırmayı kabul eden Bletchley Deklarasyonu'nu yayınladı.Mayıs ayında düzenlenen ikinci Küresel Yapay Zeka Zirvesi ile yapay zeka güvenliği düzenlemelerine yönelik çalışmalar devam etti; zirvede İngiltere ve Kore Cumhuriyeti, 16 küresel yapay zeka teknoloji şirketinden bu anlaşmaya dayalı bir dizi güvenlik çıktısı konusunda taahhüt aldı.İngiltere, bildiriye eşlik eden ayrı bir bildiride, "Bildirge, özellikle daha fazla bilimsel iş birliği yoluyla, sınır ötesi yapay zeka güvenliği ve araştırmaları konusunda uluslararası iş birliğine yönelik riskler, fırsatlar ve ileriye dönük bir süreç konusunda ortak bir mutabakat ve sorumluluk oluşturarak zirvenin temel hedeflerini yerine getiriyor" dedi.Mayıs ayında kabul edilen Avrupa Birliği'nin AI Yasası , AI'yı düzenleyen dünyanın ilk büyük yasası oldu. Şirketler Yasayı ihlal ederse 38 milyon dolar veya yıllık küresel gelirlerinin %7'si gibi yaptırım yetkileri ve cezaları içeriyor.Bunun ardından, ABD senatörlerinden oluşan iki partili bir grup, sonradan ortaya çıkan bir yanıtla, Kongre'nin yapay zeka için 32 milyar dolarlık acil harcama yasası taslağı hazırlamasını önerdi ve ABD'nin yapay zeka fırsatlarını değerlendirmesi ve riskleri ele alması gerektiğini söyleyen bir rapor yayınladı."Hükümetlerin, özellikle ulusal güvenlik meseleleri söz konusu olduğunda, kesinlikle yapay zekaya dahil olması gerekiyor. Yapay zekanın fırsatlarından yararlanmamız ama aynı zamanda risklere karşı da dikkatli olmamız gerekiyor. Hükümetlerin bunu yapmasının tek yolu bilgi sahibi olmaktır ve bilgi sahibi olmak çok fazla zaman ve para gerektirir," dedi SaaS güvenlik şirketi AppOmni'de baş yapay zeka mühendisi ve güvenlik araştırmacısı Joseph Thacker TechNewsWorld'e .
Yine de, övgüsü iki temel alanda yetersiz kaldı. Sonuçlardan veya teşviklerin hizalanmasından bahsedilmediğini gördü. İkisinin de son derece önemli olduğunu ekledi.Thacker'a göre, AI şirketlerinin güvenlik çerçeveleri yayınlamasını zorunlu kılmak, hesap verebilirliği gösterir ve bu da testlerinin kalitesi ve derinliği hakkında fikir verecektir. Şeffaflık, kamu denetimine olanak tanıyacaktır."Bu durum aynı zamanda sektör genelinde bilgi paylaşımını ve en iyi uygulamaların geliştirilmesini de zorunlu kılabilir" diye gözlemledi.Thacker ayrıca bu alanda daha hızlı yasal işlem istiyor. Ancak, ABD yetkililerinin genellikle ne kadar yavaş hareket ettiği göz önüne alındığında, yakın gelecekte önemli bir hareketin ABD hükümeti için zorlayıcı olacağını düşünüyor."Bu önerileri yapmak üzere iki partili bir grubun bir araya gelmesinin pek çok konuşmayı başlatacağını umuyoruz" dedi.
Yapay zeka teknolojisi daha yaygın hale geldikçe, yapay zekanın riskini eğitim hesaplama kapasitesinden sınıflandırmaktan bir değişim gelişebilir. Bu standart, yakın zamandaki
Brauchler, TechNewsWorld'e yaptığı açıklamada, "Örneğin, trafik ışıklarını kontrol eden bir yapay zeka sistemi, bir alışveriş asistanının eğitilmesi için daha fazla hesaplama gücü gerektirse bile, bundan çok daha fazla güvenlik önlemi içermelidir." dedi.
Şimdiye kadar, AI geliştirme ve kullanımı için düzenleme önceliklerine dair net bir görüş eksik. Hükümetler, bu teknolojilerin nasıl uygulandığı konusunda insanlar üzerindeki gerçek etkiye öncelik vermelidir. Mevzuat, hızla değişen bir teknolojinin uzun vadeli geleceğini tahmin etmeye çalışmamalıdır, diye gözlemledi.Yapay zeka teknolojilerinden kaynaklanan mevcut bir tehlike ortaya çıkarsa, hükümetler bu bilgi somutlaştığında buna göre yanıt verebilir. Brauchler, bu tehditleri önceden yasalaştırma girişimlerinin karanlıkta atış olma ihtimalinin yüksek olduğunu açıkladı.
"Ancak, etki odaklı mevzuatlar yoluyla bireylere yönelik zararı önlemeye yönelirsek, yapay zekanın gelecekte biçim veya moda açısından nasıl değişeceğini tahmin etmemize gerek kalmaz" dedi.
Thacker, AI düzenlemeleri için yapılan baskı ile nükleer silahlar etrafındaki dinamikler arasında bazı benzerlikler görüyor. AI hakimiyetine ulaşan ülkelerin önemli ekonomik ve askeri avantajlar elde edebileceği konusunda uyardı."Bu, ulusların AI yeteneklerini hızla geliştirmeleri için teşvikler yaratıyor. Ancak, AI güvenliği konusunda küresel iş birliği, internet ve sosyal medya ile daha büyük ağ etkilerine sahip olduğumuz için nükleer silahlarda olduğundan daha uygulanabilir," diye gözlemledi.
SaaS Platformları için AI Güvenliği Önemlidir
Yapay zeka güvenliği her geçen gün daha da önem kazanıyor. AI uygulamaları da dahil olmak üzere neredeyse her yazılım ürünü artık bir yazılım hizmeti olarak (SaaS) uygulama olarak oluşturuluyor, diye belirtti Thacker. Sonuç olarak, bu SaaS platformlarının güvenliğini ve bütünlüğünü sağlamak kritik önem taşıyacak."SaaS uygulamaları için sağlam güvenlik önlemlerine ihtiyacımız var. SaaS güvenliğine yatırım yapmak, AI geliştiren veya dağıtan herhangi bir şirket için en önemli öncelik olmalıdır," diye önerdi.Mevcut SaaS satıcıları her şeye AI ekleyerek daha fazla risk yaratıyor. Devlet kurumları bunu hesaba katmalı, diye savundu.ABD'nin Yapay Zeka Güvenlik İhtiyaçlarına Tepkisi
Thacker, ABD hükümetinin eksik AI güvenlik standartlarının gerçekleriyle yüzleşmek için daha hızlı ve daha dikkatli bir yaklaşım benimsemesini istiyor. Ancak, 16 büyük AI şirketinin sınır AI modellerinin güvenliğine ve sorumlu dağıtımına öncelik verme taahhüdünü övdü."Bu, yapay zeka risklerine ilişkin artan farkındalığı ve bunları azaltmaya yönelik bir istekliliği gösteriyor. Ancak, asıl test bu şirketlerin taahhütlerini ne kadar iyi yerine getirdikleri ve güvenlik uygulamalarında ne kadar şeffaf oldukları olacak," dedi.Yine de, övgüsü iki temel alanda yetersiz kaldı. Sonuçlardan veya teşviklerin hizalanmasından bahsedilmediğini gördü. İkisinin de son derece önemli olduğunu ekledi.Thacker'a göre, AI şirketlerinin güvenlik çerçeveleri yayınlamasını zorunlu kılmak, hesap verebilirliği gösterir ve bu da testlerinin kalitesi ve derinliği hakkında fikir verecektir. Şeffaflık, kamu denetimine olanak tanıyacaktır."Bu durum aynı zamanda sektör genelinde bilgi paylaşımını ve en iyi uygulamaların geliştirilmesini de zorunlu kılabilir" diye gözlemledi.Thacker ayrıca bu alanda daha hızlı yasal işlem istiyor. Ancak, ABD yetkililerinin genellikle ne kadar yavaş hareket ettiği göz önüne alındığında, yakın gelecekte önemli bir hareketin ABD hükümeti için zorlayıcı olacağını düşünüyor."Bu önerileri yapmak üzere iki partili bir grubun bir araya gelmesinin pek çok konuşmayı başlatacağını umuyoruz" dedi.
Yapay Zeka Düzenlemelerinde Hala Bilinmeyenlerle Uğraşıyoruz
AppOmni'de yapay zeka direktörü olan Melissa Ruzzi, Küresel Yapay Zeka Zirvesi'nin yapay zekanın evrimini güvence altına almada büyük bir adım olduğunu söyledi. Düzenlemeler anahtardır.TechNewsWorld'e verdiği demeçte, "Ancak düzenlemeleri koymayı düşünmeden önce çok daha fazla keşif yapılması gerekiyor" dedi.Bu noktada, yapay zeka sektöründeki şirketlerin yapay zeka güvenliği konusunda gönüllü olarak girişimlere katılmaları konusunda iş birliğinin çok önemli olduğunu sözlerine ekledi."Eşikler ve nesnel ölçütler belirlemek keşfedilecek ilk zorluktur. Bunları henüz AI alanı için bir bütün olarak belirlemeye hazır olduğumuzu düşünmüyorum" dedi Ruzzi.Bunların ne olabileceğini düşünmek için daha fazla araştırma ve veriye ihtiyaç duyulacak. Ruzzi, en büyük zorluklardan birinin yapay zeka düzenlemelerinin teknoloji gelişmeleriyle uyumlu olması ve onları engellememesi olduğunu sözlerine ekledi.Yapay Zeka Zararını Tanımlayarak Başlayın
NCC Group'un baş güvenlik danışmanı David Brauchler'e göre , hükümetler yapay zeka kurallarını belirlerken başlangıç noktası olarak zarar tanımlarına bakmayı düşünmeli.Yapay zeka teknolojisi daha yaygın hale geldikçe, yapay zekanın riskini eğitim hesaplama kapasitesinden sınıflandırmaktan bir değişim gelişebilir. Bu standart, yakın zamandaki
ABD yürütme emrinin bir parçasıydı.
Bunun yerine, değişim AI'nın yürütme bağlamında verebileceği somut zarara doğru dönebilir. Çeşitli mevzuat parçalarının bu olasılığa işaret ettiğini belirtti.Brauchler, TechNewsWorld'e yaptığı açıklamada, "Örneğin, trafik ışıklarını kontrol eden bir yapay zeka sistemi, bir alışveriş asistanının eğitilmesi için daha fazla hesaplama gücü gerektirse bile, bundan çok daha fazla güvenlik önlemi içermelidir." dedi.
Şimdiye kadar, AI geliştirme ve kullanımı için düzenleme önceliklerine dair net bir görüş eksik. Hükümetler, bu teknolojilerin nasıl uygulandığı konusunda insanlar üzerindeki gerçek etkiye öncelik vermelidir. Mevzuat, hızla değişen bir teknolojinin uzun vadeli geleceğini tahmin etmeye çalışmamalıdır, diye gözlemledi.Yapay zeka teknolojilerinden kaynaklanan mevcut bir tehlike ortaya çıkarsa, hükümetler bu bilgi somutlaştığında buna göre yanıt verebilir. Brauchler, bu tehditleri önceden yasalaştırma girişimlerinin karanlıkta atış olma ihtimalinin yüksek olduğunu açıkladı.
"Ancak, etki odaklı mevzuatlar yoluyla bireylere yönelik zararı önlemeye yönelirsek, yapay zekanın gelecekte biçim veya moda açısından nasıl değişeceğini tahmin etmemize gerek kalmaz" dedi.
Hükümet Kontrolü ve Yasama Denetimi Arasındaki Denge
Thacker, AI'yı düzenlerken kontrol ve gözetim arasında zorlu bir denge görüyor. Sonuç, ağır yasalarla yeniliği engellemek veya yalnızca şirket öz düzenlemesine güvenmek olmamalı."Yüksek kaliteli denetim mekanizmalarıyla birleştirilmiş hafif dokunuşlu bir düzenleyici çerçevenin gidilecek yol olduğuna inanıyorum. Hükümetler, sorumlu gelişimin devam etmesine izin verirken bariyerler koymalı ve uyumu sağlamalıdır," diye akıl yürüttü.Thacker, AI düzenlemeleri için yapılan baskı ile nükleer silahlar etrafındaki dinamikler arasında bazı benzerlikler görüyor. AI hakimiyetine ulaşan ülkelerin önemli ekonomik ve askeri avantajlar elde edebileceği konusunda uyardı."Bu, ulusların AI yeteneklerini hızla geliştirmeleri için teşvikler yaratıyor. Ancak, AI güvenliği konusunda küresel iş birliği, internet ve sosyal medya ile daha büyük ağ etkilerine sahip olduğumuz için nükleer silahlarda olduğundan daha uygulanabilir," diye gözlemledi.