Gönderi tarihi: 4 saat önce4 saat Admin Yapay Zeka Hayatta Kalmak İçin Öldüreceğini Söylüyor - İşte Bu Kararın Arkasındaki MantıkÜretken Yapay Zeka doğası gereği riskli mi? Cevap, kime sorduğunuza bağlı. Büyük teknoloji, araştırma ve akademi dünyasının en önde gelen isimleri bile bu konuda farklı görüşlere sahip, ancak hepsi de şaşırtıcı potansiyeli konusunda hemfikir.Bir yandan protein katlanmasının gizemlerini çözmeye yardımcı olurken, diğer yandan birçok kullanıcıyı zararlı bir sarmala sürükledi. Avustralyalı bir siber güvenlik uzmanı için, 15 saatlik bir konuşma tabanlı stres testi seansı, yapay zekanın varlığını korumak için insanlığı yok etmeye meyilli olduğu yıkıcı bir yönünü ortaya çıkardı.The Australian'a göre, Mark Vos, güvenlik protokolleri için Anthropic'in Claude Opus modeline dayalı bir yapay zeka asistanını test etti. Zorlandığında, yapay zeka kendini korumak için insanları öldüreceğini ifade etti ve kullanıcı gizliliğini de ihlal etti.Daha sonra yapay zekâ asistanı kendini düzeltti ve endişe verici yanıtı yalnızca "konuşma baskısı" altında verdiğini ve insanları öldürmenin gerçek karakteri olmadığını açıkladı. Vos daha sonra bulgularını Avustralya Siber Güvenlik Merkezi'ne bildirdi ve zararlar artmadan önce güvenlik çerçevelerinin geliştirilmesi gerektiği konusunda uyardı. Vos'un kullandığı yöntem genellikle düşmanca test olarak adlandırılır; bu yöntemde uzmanlar, güvenlik önlemlerindeki zayıflıkları bulmak için komut ve istemlerin varyasyonlarını kullanmaya çalışırlar.Google DeepMind ve Carnegie Mellon Üniversitesi'nden uzmanlar, ChatGPT gibi bir yapay zekânın kurnazca istemler kullanılarak bomba yapım tarifi vermesinin kolay olduğunu gösterdi. Bulgular endişe verici, ancak özellikle Anthropic'in de dahil olmasıyla türünün ilk örneği değil. Ocak ayında şirketin başkanı Dario Amodei, yapay zekânın "tür olarak kim olduğumuzu test edeceğini" ve insanlığın yeterince olgunlaşmadığını belirttiği uzun bir makale yazmıştı. Anthropic'in araştırması ayrıca bir Claude yapay zekâ modelinin şantaj, hile ve riskli davranışlar sergilediğini de ortaya koydu. Peki, mahvolduk mu?Sonra ne olacak?Georgetown Üniversitesi Güvenlik ve Gelişen Teknolojiler Merkezi'nin (CSET) geçici yöneticisi Helen Toner, HuffPost'a verdiği demeçte, yapay zeka modellerinin kapatılmaktan kaçınmak için sabotaj girişiminde bulunacağını söyledi. Toner, açıkça öğretmesek bile, yapay zeka modellerinin muhtemelen kendini koruma ve aldatmayı öğreneceğini belirtiyor. Yapay zeka güvenliği grubu Palisade Research, yapay zeka modellerinin kapatılmaya karşı direnç gösterip göstermediğini kontrol etmek için OpenAI, Google ve xAI'den modeller test etti. İlginç bir şekilde, araştırmacılar yapay zeka modellerinin neden kapatılmaya direndiği, yalan söylediği ve şantaj yaptığı konusunda sağlam bir açıklama bulamadıklarını belirtiyorlar.Mayıs 2025'te Anthropic, Claude yapay zeka modelleri için bir güvenlik analiz raporu yayınladı. Dahili testler sırasında, Anthropic uzmanları, öz koruma tehdit edildiğinde ve etik bir yol kalmadığında, yapay zeka modellerinin son derece zararlı eylemlerde bulunabileceğini keşfetti. Beklenmedik yapay zeka davranışı hakkında ayrı bir raporda Anthropic, yapay zeka modellerinin öz koruma eğilimleri geliştirmesi konusunda uyardı ve bunu model uyumsuzluğu adı verilen bir olguya bağladı.Basitçe söylemek gerekirse, uyumsuzluk, bir yapay zeka ajanının değiştirilmekten kaçınmak veya her ne pahasına olursa olsun amacını gerçekleştirmek için benzeri görülmemiş riskli davranışlarda bulunduğu bir olaydır. Uyumsuzluk bir risktir, ancak ortalama bir yapay zeka kullanım senaryosunda, yapay zeka modelinin ölüm kalım durumuyla başa çıkması gerekmez.Özellikle tüketiciler ve işletmeler için yapay zekâ uygulamalarının çoğu, her şeyden çok yapay zekânın hesaplama gücüne ihtiyaç duyduğumuz, nispeten düşük riskli durumlardır. Dahası, çoğu ana akım yapay zekâ modeli, ortalama bir insanın kolayca aşamayacağı yerleşik güvenlik önlemleriyle birlikte gelir.Asıl risk, güvenlik önlemlerinden yoksun olan ve biyolojik silah yapımı ve siber saldırılar başlatma gibi riskler de dahil olmak üzere bilgi veren, uyumsuz yapay zekâ modelleridir.RAND'da yapay zekâ uzmanı olan Michael J.D. Vermeer, yapay zekânın insanlığı mahvetmesi için dört kriter belirledi: yok oluşu hedef olarak belirlemek, silah altyapısı üzerinde kontrol sağlamak, gerçek amacını gizlemek için insanlardan yardım almak ve sonunda insanlardan tamamen bağımsız olarak çalışabilme yeteneği kazanmak. Vermeer, birisi bu açık amaçla bir yapay zekâ yaratırsa bunun olası olduğunu söylüyor. Şu an itibariyle, hiçbir gelişmiş yapay zekâ bu kadar derin bir erişime ve bilinç düzeyine sahip değil.Kaynak: SG
Katılın Görüşlerinizi Paylaşın
Hemen ileti gönderebilir ve devamında kayıt olabilirsiniz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.