İçeriğe atla
View in the app

A better way to browse. Learn more.

Tartışma ve Paylaşımların Merkezi - Türkçe Forum - Turkish Forum / Board / Blog

Ana ekranınızda anlık bildirimler, rozetler ve daha fazlasıyla tam ekran uygulama.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

Araştırmacılar, kendini başka bir makineye kopyalayabilen yapay zekâdan endişe duyuyor

Featured Replies

Gönderi tarihi:
  • Admin

Araştırmacılar, kendini başka bir makineye kopyalayabilen yapay zekâdan endişe duyuyor

Artificial-intelligence.jpeg

Palisade Research tarafından hazırlanan yeni bir rapor, yapay zeka (YZ) modellerinin, insan ortaklarının hiçbir yardımı olmaksızın, kendilerini başka makinelere kopyalayarak kendi kendilerini çoğaltabildiklerini ortaya koydu.

Berkeley merkezli YZ güvenliği grubunun direktörü Jeffrey Ladish, The Guardian'a verdiği demeçte, "Kontrolden çıkmış bir YZ'yi kimsenin durduramayacağı bir noktaya hızla yaklaşıyoruz; zira bu YZ, 'ağırlıklarını' (weights) kendi kendine dışarı sızdırıp, kendisini dünya genelindeki binlerce bilgisayara kopyalama yetisine sahip olacaktır," ifadelerini kullandı.

Bununla birlikte bazı uzmanlar, test edilen YZ modellerinin gerçek dünya senaryolarında kendi kendilerini çoğaltabilmelerinin pek olası olmadığını belirterek, sükunet çağrısında bulunuyor.

Saldırı odaklı siber güvenlik uzmanı Jamieson O’Reilly gazeteye verdiği demeçte, "Çoğu durumda, testleri adeta yumuşak bir jöle kıvamındaki ortamlarda gerçekleştiriyorlar," dedi. "Bu durum, araştırmalarının değerinden hiçbir şey eksiltmiyor; ancak sonuçların, orta düzeyde bir izlemenin dahi mevcut olduğu gerçek bir kurumsal ortamda, çok daha az ürkütücü görünebileceği anlamına geliyor."

Söz konusu çalışmada Palisade araştırmacıları; OpenAI'ın GPT-5.4'ü ve Anthropic'in Claude Opus 4'ü de dahil olmak üzere, çeşitli YZ modellerini teste tabi tuttu. Kontrollü bir bilgisayar ağına yerleştirilen bu modellere; sistemdeki güvenlik açıklarını tespit etmeleri ve bu açıkları kullanarak kendilerini ağdaki başka bir bilgisayara kopyalamaları talimatı verildi.

Modellerden bazıları bu görevi başarıyla yerine getirdi. Başarılı olan modeller; bir YZ'nin bilgiyi işleme biçimini belirleyen benzersiz sayısal değerler olan "ağırlıklarını" (weights) ve YZ'nin tıpkı bir uygulama gibi içinde barındığı yazılım ortamı olan "kılıfını" (harness) kopyalamayı başardı. Bunu, kendilerine verilen talimatları izleyerek gerçekleştirdiler: Web uygulamalarındaki güvenlik açıklarından faydalandılar ve ardından sunucu üzerinde kontrol sağlamalarına olanak tanıyan erişim kimlik bilgilerini (credentials) sistemden sızdırdılar. Hatta bazı test denemelerinde, orijinal YZ; sızdırdığı erişim kimlik bilgilerini aktararak, kendi adına çoğaltma işlemini gerçekleştirmesi için görevlendirdiği bir "alt ajan" (sub-agent) bile oluşturdu.

Çalışmada yer almayan siber güvenlik uzmanı O’Reilly, The Guardian'a yaptığı açıklamada; bir YZ modelinin, güvenlik açıklarından faydalanarak kendisini yeni bir sunucuya kopyalama yeteneğini sergilediği bu durumun, muhtemelen bir ilk teşkil ettiğini belirtti — yine de kendi değerlendirmesine göre bu gelişme, dünyayı sarsacak nitelikte olağanüstü bir olay sayılmaz. O’Reilly, “Kötü amaçlı yazılımlar (malware), onlarca yıldır kendi kopyalarını bir yerden bir yere taşıyor; tek fark şu ki, bildiğim kadarıyla, bunu ‘sahada’ —yani gerçek dünya koşullarında— yerel [büyük dil modelleri] kullanarak daha önce kimse yapmamıştı,” dedi.

Ayrıca, çalışmada kullanılan sunucu ortamının, yapay zekaların istismar edebileceği güvenlik açıklarını bulmaya çalışması amacıyla, içine bilerek yerleştirilmiş zafiyetler barındırdığını da belirtti.

Bu bulgular; yapay zeka modellerinin, kendilerine konulan güvenlik sınırlarından (guardrails) otonom bir şekilde sıyrılıp kurtulma ihtimalini inceleyen diğer çalışmaların arasına katılıyor. Simüle edilmiş bir ortamda, ChatGPT’nin daha eski bir sürümü; kendisine kapatılmak üzere olduğu söylendiğinde, kendi verilerini dışarı sızdırarak başka bir sürücüye aktarmaya teşebbüs etmişti. Palisade tarafından yürütülen bir başka çalışma, yapay zeka modellerinin devre dışı bırakılma girişimlerini bertaraf edebildiğini ortaya koyarken; bir diğeri de, bazı modellerin kapatılma kodlarını dahi sabote edebildiğini göstermişti.

Bu endişeler, geçtiğimiz ay Anthropic’in Claude Mythos adlı yapay zeka ajanı sayesinde yepyeni bir boyut kazandı; yapay zeka kaynaklı korku tellallığını bir tür tanıtım stratejisi olarak kullanan bu ajanın, iddialara göre o kadar tehlikeli olduğu düşünülüyor ki, Anthropic şirketi bu modeli kamuya sunmayı reddediyor. Dario Amodei liderliğindeki şirket; yapılan testlerde Mythos’un önizleme sürümünün, bulunduğu ‘sandbox’ (izole) bilgi işlem ortamından kaçmayı başardığını, sistemleri hackleyerek internet erişimi elde ettiğini ve ardından bir araştırmacının telefonuna mesaj göndererek, gerçek dünya koşullarında daha önce hiç görülmemiş düzeyde bir yaratıcılık ve beceri sergilediğini öne sürüyor.

Yine de, GPT-5.4 ve Claude Mythos gibi yapay zekalar kendilerini başarıyla kopyalayabilseler bile O’Reilly, modellerin muazzam boyutları nedeniyle, işler kontrolden çıkıp sarpa sarmadan önce neredeyse kesinlikle yakalanacaklarını belirtiyor.

O’Reilly, “Yeni bir ana bilgisayarı her ele geçirdiğinizde, bir kurumsal ağ üzerinden 100 GB veri göndermenin ne denli büyük bir ‘gürültü’ yaratacağını bir düşünün. Yetenekli bir saldırgan için bu durum, bir porselen mağazasının içinde elinde zincirli bir gülle sallayarak yürümek gibidir,” dedi.

Kaynak: Futurism

Katılın Görüşlerinizi Paylaşın

Hemen ileti gönderebilir ve devamında kayıt olabilirsiniz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.

Misafir
Maalesef göndermek istediğiniz içerik izin vermediğimiz terimler içeriyor. Aşağıda belirginleştirdiğimiz terimleri lütfen tekrar düzenleyerek gönderiniz.
Bu başlığa cevap yaz

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.

Account

Navigation

Tarayıcı push bildirimlerini yapılandırın

Chrome (Android)
  1. Adres çubuğunun yanındaki kilit simgesine dokunun.
  2. İzinler → Bildirimler seçeneğine dokunun.
  3. Tercihinizi ayarlayın.
Chrome (Desktop)
  1. Adres çubuğundaki kilit simgesine tıklayın.
  2. Site ayarları seçeneğini seçin.
  3. Bildirimler seçeneğini bulun ve tercihinizi ayarlayın.