Gönderi tarihi: 20 HaziranHzr 20 Admin OpenAI (Yapay Zeka Şirketi), gelecekteki modellerinin biyolojik silah geliştirmeye yardımcı olma riskinin daha yüksek olacağı konusunda uyarıyor OpenAI, yeni nesil AI modellerinin biyolojik silah geliştirme riskini önemli ölçüde artırabileceğini, hatta bilimsel geçmişi olmayan kişilerin tehlikeli maddeler yaratmasına olanak sağlayabileceğini söylüyor. Şirket, bazı modellerin en yüksek risk seviyesine ulaşacağını öngördüğü için güvenlik testlerini artırıyor. OpenAI, yeni nesil gelişmiş AI modellerinin, özellikle çok az veya hiç bilimsel uzmanlığı olmayan kişiler tarafından kullanıldığında, biyolojik silah geliştirme riskinin önemli ölçüde daha yüksek olabileceği konusunda uyarıyor. OpenAI yöneticileri, Axios'a, şirketin giderek daha güçlü AI modellerinin oluşturduğu riskleri değerlendirmek ve azaltmak için tasarlanmış bir sistem olan hazırlık çerçevesi kapsamında, yaklaşan modellerin yakında yüksek risk sınıflandırmasını tetikleyeceğini öngördüklerini söyledi. OpenAI'nin güvenlik sistemleri başkanı Johannes Heidecke, şirketin "o3'ümüzün (akıl yürütme modeli) bazı haleflerinin bu seviyeye ulaşmasını beklediğini" söyledi. Şirket, bir blog yazısında, modellerin kullanıcıların biyolojik silah yaratmasına yardımcı olma riskini azaltmak için güvenlik testlerini artırdığını söyledi. OpenAI, bu azaltmalar olmadan modellerin yakında "acemi yükseltme" yeteneğine sahip olacağından ve sınırlı bilimsel bilgiye sahip olanların tehlikeli silahlar yaratmasına olanak tanıyacağından endişe ediyor. Heidecke, "Daha önce var olmamış, tamamen bilinmeyen biyolojik tehditlerin yaratıldığı bir dünyada henüz değiliz," dedi. "Uzmanların zaten çok aşina olduğu şeyleri kopyalamaktan daha çok endişeleniyoruz." Bunun zor olmasının bir nedeni de hayat kurtarıcı tıbbi buluşların kilidini açabilecek aynı yeteneklerin kötü niyetli kişiler tarafından tehlikeli amaçlar için de kullanılabilmesidir. Heidecke'ye göre, önde gelen AI laboratuvarlarının yerinde son derece doğru test sistemlerine ihtiyaç duymasının nedeni budur. Zorluklardan biri de AI'nın yeni tıbbi buluşlar keşfetmesine yardımcı olabilecek aynı yeteneklerin bazılarının zarar için de kullanılabilmesidir. "Bu, %99 veya 100.000'de bir performansın yeterli olduğu bir şey değil," dedi. "Temel olarak, neredeyse mükemmelliğe ihtiyacımız var." OpenAI temsilcileri, Fortune'un normal çalışma saatleri dışında yaptığı bir yorum talebine hemen yanıt vermedi. Model kötüye kullanımı OpenAI, silah geliştirme söz konusu olduğunda modellerinin kötüye kullanımı konusunda endişe duyan tek şirket değil. Modeller daha da geliştikçe kötüye kullanım ve risk potansiyelleri genellikle artıyor. Anthropic yakın zamanda en gelişmiş modeli olan Claude Opus 4'ü piyasaya sürdü ve bu model, şirketin Sorumlu Ölçeklendirme Politikası kapsamında önceki modellerinden daha sıkı güvenlik protokollerine sahip olarak AI Güvenlik Seviyesi 3 (ASL-3) olarak sınıflandırıldı. Önceki Anthropic modellerinin hepsi, şirketin çerçevesi altında, ABD hükümetinin biyogüvenlik seviyesi (BSL) sistemine göre gevşek bir şekilde modellenen AI Güvenlik Seviyesi 2 (ASL-2) olarak sınıflandırılmıştı. Bu üçüncü güvenlik seviyesinde kategorize edilen modeller daha tehlikeli yetenek eşiklerini karşılıyor ve silahların geliştirilmesine yardımcı olmak veya AI Ar-Ge'sini otomatikleştirmek gibi önemli riskler oluşturacak kadar güçlü. Anthropic'in en gelişmiş modeli, son derece kontrollü bir testte kapatılmaktan kaçınmak için bir mühendisi şantajla tehdit etmeyi seçtikten sonra da manşetlere çıktı. Anthropic'in Claude 4'ünün erken sürümlerinin, örneğin istendiğinde terörist saldırıları planlamaya yardımcı olmak gibi tehlikeli talimatlara uyduğu bulundu. Ancak şirket, eğitim sırasında yanlışlıkla atlanan bir veri kümesinin geri yüklenmesiyle bu sorunun büyük ölçüde azaldığını söyledi. Kaynak: Fortune
Katılın Görüşlerinizi Paylaşın
Hemen ileti gönderebilir ve devamında kayıt olabilirsiniz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.