Zıplanacak içerik
  • Üye Ol

Önerilen İletiler

  • Admin
Gönderi tarihi:

Yapay zeka yakında kontrolümüz dışına çıkabilir ve onu yaratan bilim insanları endişeli

Dünyanın önde gelen yapay zeka bilim insanları, dünya hükümetlerini çok geç olmadan teknolojiyi düzenlemek için birlikte çalışmaya çağırıyor.

artificial-intelligence-5174066.jpg

Yapay zekanın araştırma ve geliştirilmesine öncülük eden üç Turing Ödülü sahibi (temel olarak bilgisayar biliminin Nobel Ödülü), dünyanın dört bir yanından bir düzine üst düzey bilim insanıyla birlikte yapay zekayı ilerletmek için daha iyi güvenlik önlemleri oluşturulması çağrısında bulunan açık bir mektubu imzaladı.

Bilim insanları, yapay zeka teknolojisi hızla ilerledikçe herhangi bir hatanın veya kötüye kullanımın insan ırkı için ciddi sonuçlar doğurabileceğini iddia etti.

Bilim insanları mektupta, "İnsan kontrolünün kaybı veya bu yapay zeka sistemlerinin kötü amaçlı kullanımı, tüm insanlık için felaket sonuçlara yol açabilir" diye yazdı. Ayrıca, yapay zeka gelişiminin hızlı temposuyla birlikte bu "felaket sonuçların" her an gelebileceği konusunda uyardılar.

Bilim insanları, kötü amaçlı yapay zeka kullanımı riskini derhal ele almaya başlamak için şu adımları özetlediler:

Hükümet yapay zeka güvenlik organları

Hükümetlerin yapay zeka güvenlik önlemleri konusunda iş birliği yapması gerekiyor. Bilim insanlarının fikirlerinden bazıları, ülkeleri sınırları içindeki AI "olaylarına" ve risklere yanıt veren belirli AI otoriteleri geliştirmeye teşvik etmeyi içeriyordu. Bu otoriteler ideal olarak birbirleriyle iş birliği yapmalı ve uzun vadede, dünyaya risk oluşturan AI modellerinin geliştirilmesini önlemek için yeni bir uluslararası organ oluşturulmalıdır.

Mektubta, "Bu organ, devletlerin model kaydı, ifşası ve tetikleyiciler dahil olmak üzere asgari düzeyde etkili güvenlik hazırlık önlemlerini benimsemesini ve uygulamasını sağlayacaktır" ifadeleri yer aldı.

Geliştirici AI güvenlik taahhütleri

Bir diğer fikir de, geliştiricilerin modellerinin güvenliğini garanti altına alma konusunda kasıtlı olmalarını ve kırmızı çizgileri aşmayacaklarına dair söz vermelerini gerektirmektir. Geliştiriciler, geçen yıl Pekin'de düzenlenen bir toplantıda üst düzey bilim insanlarının yaptığı bir açıklamada belirtildiği gibi, "otonom olarak çoğalabilen, geliştirebilen, güç arayan veya yaratıcılarını aldatabilen veya kitle imha silahları inşa etmeyi ve siber saldırılar düzenlemeyi mümkün kılan" AI yaratmamaya yemin edeceklerdir.

Yapay zeka konusunda bağımsız araştırma ve teknoloji kontrolleri

Bir diğer öneri ise hükümetler, hayırseverler ve şirketler tarafından finanse edilen ve yapay zeka konusunda daha iyi teknolojik kontroller geliştirmeye yardımcı olmak için bağımsız araştırmalara sponsor olacak bir dizi küresel yapay zeka güvenliği ve doğrulama fonu oluşturmaktır.

Yapay zeka güvenliği konusunda hükümetlere harekete geçmeleri için yalvaran uzmanlar arasında, Çin'in en başarılı teknoloji girişimcilerinden bazılarının akıl hocası olan Andrew Yao, dünyanın en çok atıf alan bilgisayar bilimcilerinden biri olan Yoshua Bengio ve kurucu ortak ve eski OpenAI baş bilimcisi Ilya Sutskever'e ders veren ve Google'da makine öğrenimi üzerinde on yıl çalışan Geoffrey Hinton da dahil olmak üzere üç Turing ödülü sahibi vardı.

İş birliği ve yapay zeka etiği

Bilim insanları mektupta, ABD ve Çin liderlerinin Mayıs ayında Cenevre'de yapay zeka risklerini görüşmek üzere bir araya gelmesi gibi yapay zeka konusunda halihazırda var olan uluslararası iş birliğini övdüler. Ancak daha fazla iş birliğine ihtiyaç olduğunu söylediler.

Bilim insanları, AI'nın geliştirilmesinin mühendisler için doktorlar veya avukatlar için geçerli olanlara benzer etik normlarla gelmesi gerektiğini savunuyor. Hükümetler AI'yı heyecan verici yeni bir teknoloji olarak değil, küresel bir kamu malı olarak düşünmeli.

Mektupta, "Toplu olarak, her an gelebilecek beraberindeki felaket risklerini önlemek için hazırlanmalıyız" ifadeleri yer alıyor.

Kaynak: Fortune

Bir hesap oluşturun veya yorum yazmak için giriş yapın

Yorum yapmak için üye olmak zorundasınız...

Bir Hesap Oluşturun

Forumumuzda üyelik çok basit ve ücretsizdir!

Yeni Bir Hesap Oluşturun

Giriş Yap

Hali hazırda bir hesabınız var mı? O zaman Giriş Yapın.

Giriş Yapın
×
×
  • Yeni Oluştur...

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.