Zıplanacak içerik
View in the app

A better way to browse. Learn more.

Tartışma ve Paylaşımların Merkezi - Türkçe Forum - Turkish Forum / Board / Blog

A full-screen app on your home screen with push notifications, badges and more.

To install this app on iOS and iPadOS
  1. Tap the Share icon in Safari
  2. Scroll the menu and tap Add to Home Screen.
  3. Tap Add in the top-right corner.
To install this app on Android
  1. Tap the 3-dot menu (⋮) in the top-right corner of the browser.
  2. Tap Add to Home screen or Install app.
  3. Confirm by tapping Install.

OpenAI (Yapay Zeka Şirketi), gelecekteki modellerinin biyolojik silah geliştirmeye yardımcı olma riskinin daha yüksek olacağı konusunda uyarıyor

Featured Replies

Gönderi tarihi:
  • Admin

OpenAI (Yapay Zeka Şirketi), gelecekteki modellerinin biyolojik silah geliştirmeye yardımcı olma riskinin daha yüksek olacağı konusunda uyarıyor

  • OpenAI, yeni nesil AI modellerinin biyolojik silah geliştirme riskini önemli ölçüde artırabileceğini, hatta bilimsel geçmişi olmayan kişilerin tehlikeli maddeler yaratmasına olanak sağlayabileceğini söylüyor. Şirket, bazı modellerin en yüksek risk seviyesine ulaşacağını öngördüğü için güvenlik testlerini artırıyor.

bioweapons-ai.jpg

OpenAI, yeni nesil gelişmiş AI modellerinin, özellikle çok az veya hiç bilimsel uzmanlığı olmayan kişiler tarafından kullanıldığında, biyolojik silah geliştirme riskinin önemli ölçüde daha yüksek olabileceği konusunda uyarıyor.

OpenAI yöneticileri, Axios'a, şirketin giderek daha güçlü AI modellerinin oluşturduğu riskleri değerlendirmek ve azaltmak için tasarlanmış bir sistem olan hazırlık çerçevesi kapsamında, yaklaşan modellerin yakında yüksek risk sınıflandırmasını tetikleyeceğini öngördüklerini söyledi.

OpenAI'nin güvenlik sistemleri başkanı Johannes Heidecke, şirketin "o3'ümüzün (akıl yürütme modeli) bazı haleflerinin bu seviyeye ulaşmasını beklediğini" söyledi.

Şirket, bir blog yazısında, modellerin kullanıcıların biyolojik silah yaratmasına yardımcı olma riskini azaltmak için güvenlik testlerini artırdığını söyledi. OpenAI, bu azaltmalar olmadan modellerin yakında "acemi yükseltme" yeteneğine sahip olacağından ve sınırlı bilimsel bilgiye sahip olanların tehlikeli silahlar yaratmasına olanak tanıyacağından endişe ediyor.

Heidecke, "Daha önce var olmamış, tamamen bilinmeyen biyolojik tehditlerin yaratıldığı bir dünyada henüz değiliz," dedi. "Uzmanların zaten çok aşina olduğu şeyleri kopyalamaktan daha çok endişeleniyoruz."

Bunun zor olmasının bir nedeni de hayat kurtarıcı tıbbi buluşların kilidini açabilecek aynı yeteneklerin kötü niyetli kişiler tarafından tehlikeli amaçlar için de kullanılabilmesidir. Heidecke'ye göre, önde gelen AI laboratuvarlarının yerinde son derece doğru test sistemlerine ihtiyaç duymasının nedeni budur.

Zorluklardan biri de AI'nın yeni tıbbi buluşlar keşfetmesine yardımcı olabilecek aynı yeteneklerin bazılarının zarar için de kullanılabilmesidir.

"Bu, %99 veya 100.000'de bir performansın yeterli olduğu bir şey değil," dedi. "Temel olarak, neredeyse mükemmelliğe ihtiyacımız var."

OpenAI temsilcileri, Fortune'un normal çalışma saatleri dışında yaptığı bir yorum talebine hemen yanıt vermedi.

Model kötüye kullanımı

OpenAI, silah geliştirme söz konusu olduğunda modellerinin kötüye kullanımı konusunda endişe duyan tek şirket değil. Modeller daha da geliştikçe kötüye kullanım ve risk potansiyelleri genellikle artıyor.

Anthropic yakın zamanda en gelişmiş modeli olan Claude Opus 4'ü piyasaya sürdü ve bu model, şirketin Sorumlu Ölçeklendirme Politikası kapsamında önceki modellerinden daha sıkı güvenlik protokollerine sahip olarak AI Güvenlik Seviyesi 3 (ASL-3) olarak sınıflandırıldı. Önceki Anthropic modellerinin hepsi, şirketin çerçevesi altında, ABD hükümetinin biyogüvenlik seviyesi (BSL) sistemine göre gevşek bir şekilde modellenen AI Güvenlik Seviyesi 2 (ASL-2) olarak sınıflandırılmıştı.

Bu üçüncü güvenlik seviyesinde kategorize edilen modeller daha tehlikeli yetenek eşiklerini karşılıyor ve silahların geliştirilmesine yardımcı olmak veya AI Ar-Ge'sini otomatikleştirmek gibi önemli riskler oluşturacak kadar güçlü. Anthropic'in en gelişmiş modeli, son derece kontrollü bir testte kapatılmaktan kaçınmak için bir mühendisi şantajla tehdit etmeyi seçtikten sonra da manşetlere çıktı.

Anthropic'in Claude 4'ünün erken sürümlerinin, örneğin istendiğinde terörist saldırıları planlamaya yardımcı olmak gibi tehlikeli talimatlara uyduğu bulundu. Ancak şirket, eğitim sırasında yanlışlıkla atlanan bir veri kümesinin geri yüklenmesiyle bu sorunun büyük ölçüde azaldığını söyledi.

Kaynak: Fortune

Katılın Görüşlerinizi Paylaşın

Hemen ileti gönderebilir ve devamında kayıt olabilirsiniz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.

Misafir
Maalesef göndermek istediğiniz içerik izin vermediğimiz terimler içeriyor. Aşağıda belirginleştirdiğimiz terimleri lütfen tekrar düzenleyerek gönderiniz.
Bu başlığa cevap yaz

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.

Configure browser push notifications

Chrome (Android)
  1. Tap the lock icon next to the address bar.
  2. Tap Permissions → Notifications.
  3. Adjust your preference.
Chrome (Desktop)
  1. Click the padlock icon in the address bar.
  2. Select Site settings.
  3. Find Notifications and adjust your preference.