- AI bilim insanları, insanların kontrolü kaybetmesi durumunda AI'nın olası tehditlerine karşı uyarıda bulunuyor.
- Uzmanlar, risklerle başa çıkmak için küresel bir acil durum planı benimsemeleri için uluslara çağrıda bulunuyor.
- Gelişmiş teknolojinin AI'nın zararlarıyla yüzleşmek için yetersizliğinden yakındılar.
AI bilim insanları, yapay zekanın potansiyel tehlikeleri konusunda alarm verdi. Bir grup uzman, insanların AI üzerindeki kontrolünü kaybetme olasılığı hakkında uyarıda bulundu ve küresel olarak koordine edilmiş bir düzenleyici sistem çağrısında bulundu.
AI teknolojisinin geliştirilmesinde rol oynayan bilim insanları, kontrolsüz bırakıldığında potansiyel zararlı etkileri konusunda endişelerini dile getirdiler. AI sistemlerini "kontrol etmek ve korumak" için mevcut gelişmiş bilimin eksikliğine dikkat çekerek, "insan kontrolünün kaybı veya bu AI sistemlerinin kötü niyetli kullanımı, tüm insanlık için felaket sonuçlara yol açabilir" dediler.
Ayrıca okuyun: OpenAI, Cevap Vermeden Önce 'Düşünmek' İçin Tasarlanmış Yeni AI Modelini Başlattı
Johns Hopkins Üniversitesi'nde hukuk bilgini ve profesör olan Gillian Hadfield, düzenleyici önlemlerin acil gerekliliğini vurguladı. AI'nın insan kontrolünü aşması durumunda kontrol etmek veya sınırlamak için mevcut teknolojinin eksikliğine dikkat çekti.
Küresel Acil Durum Planı Çağrısı
Bilim insanları, ulusların AI'nın oluşturduğu tehditleri tanımlayıp ele alabilmesi için "küresel bir acil durum planı" gerekliliğini vurguladılar. AI güvenliğinin uluslararası işbirliği ve yönetişim gerektiren küresel bir kamu yararı olduğunu belirttiler.
Uzmanlar, AI'yı düzenlemek için üç anahtar süreç önerdiler:
- Acil durum müdahale protokollerinin oluşturulması
- Bir güvenlik standartları çerçevesinin uygulanması
- AI güvenliği üzerine kapsamlı araştırmalar yapılması
Yeni düzenleyici yönergelerin benimsenmesi acil durumunu ele alırken, uzmanlar AI güvenliğinin uluslararası işbirliği ve yönetişim gerektiren küresel bir kamu yararı olduğunu belirttiler. AI'nın düzenlenmesini içeren üç anahtar süreç önerdiler. Bilim insanları, acil durum müdahale protokollerinin oluşturulmasını, bir güvenlik standartları çerçevesinin uygulanmasını ve AI güvenliği üzerine yeterli araştırmalar yapılmasını tavsiye ettiler.
Dünya genelinde ülkeler, AI'nın artan risklerini azaltmak için düzenlemeler ve yönergeler geliştirme adımları atıyor. Kaliforniya'da, potansiyel AI zararlarından halkı korumak için AB 3211 ve SB 1047 adlı iki yasa tasarısı önerildi. AB 3211, AI ve insan tarafından üretilen içerik arasında ayrım yaparak şeffaflığı sağlamaya odaklanıyor. SB 1047, modellerinin neden olduğu potansiyel zararlar için AI geliştiricilerini sorumlu tutuyor.
Feragatname: Bu makalede sunulan bilgiler yalnızca bilgilendirme ve eğitim amaçlıdır. Makale, finansal tavsiye veya herhangi bir türde tavsiye niteliği taşımaz. Coin Edition, bahsedilen içerik, ürün veya hizmetlerin kullanımı sonucunda meydana gelen kayıplardan sorumlu değildir. Okuyucular, şirketle ilgili herhangi bir işlem yapmadan önce dikkatli olmaya teşvik edilir.