Gönderi tarihi: 6 saat önce6 saat Admin Çin, insan benzeri sistemler için taslak kuralları açıklarken yapay zeka bağımlılığı konusunda uyarıda bulunduÇin, insan gibi davranan ve iletişim kuran yapay zeka sistemlerini düzenlemeyi amaçlayan yeni taslak kurallar yayınladı. Öneri, kullanıcılarla duygusal bağ kurabilen yapay zeka araçlarını hedef alıyor. Bu tür sistemler, sohbet uygulamaları, dijital asistanlar ve sanal arkadaşlar da dahil olmak üzere günlük hayatta giderek daha yaygın hale geliyor.Taslak kurallar Cumartesi günü Çin'in siber düzenleyicisi Çin Siber Alan İdaresi (CAC) tarafından yayınlandı ve kamuoyunun görüşüne açıldı. Bu kurallar, duygusal olarak duyarlı yapay zekanın kullanıcıları nasıl etkileyebileceğine, özellikle de insanların bu sistemlerle uzun saatler geçirmesi durumunda ortaya çıkabilecek endişeleri yansıtıyor.Bu hamle, Pekin'in tüketici yapay zekasının hızlı büyümesini yönlendirirken güvenlik ve etik standartları uygulama çabasını vurguluyor. Yetkililer, yapay zeka davranışını, kullanıcı etkileşimini ve potansiyel riskleri yakından izliyor.Kurallar İnsan Benzeri Yapay Zeka ve Duygusal Etkileşime OdaklanıyorTaslak kurallar, Çin'de halka sunulan ve insan benzeri kişilik özellikleri, düşünme biçimleri ve iletişim kalıpları sergileyen yapay zeka ürünleri ve hizmetleri için geçerlidir. Ayrıca metin, resim, ses, video veya diğer formatlar aracılığıyla duygusal olarak etkileşim kuran yapay zekayı da kapsıyor.Buna, arkadaş veya yardımcı gibi yanıt veren yapay zeka sohbet robotları ve sanal arkadaşlar da dahildir. Duyguları anlamaya veya duygusal bağlar kurmaya çalışan her sistem yeni düzenlemeler kapsamına giriyor.Öneriye göre, şirketler kullanıcıları aşırı kullanıma karşı uyarmalıdır. Sağlayıcıların, kullanıcılar aşırı kullanım belirtileri gösterirse harekete geçmesi bekleniyor. Amaç, bağımlılığı ve duygusal bağımlılığı azaltmaktır.Kurallar ayrıca şirketlerin, ürün yaşam döngüsü boyunca (geliştirme, test, lansman ve günlük operasyon dahil) yapay zeka güvenliğinden tam sorumluluk almasını gerektiriyor. Sağlayıcılar, güvenli ve kontrollü yapay zeka kullanımını sağlamak için algoritma incelemesi, veri güvenliği ve kişisel bilgi koruma sistemlerini uygulamalıdır.Çin ve Rusya, yaptırımlara rağmen ortaklıklarının en yüksek seviyeye ulaştığını söylüyorBağımlılık ve Duygusal Risklerin Ele AlınmasıTaslağın temel odak noktası psikolojik refahtır. Sağlayıcılar, yapay zeka etkileşimleri sırasında kullanıcı durumlarını belirlemeli ve duyguları değerlendirmelidir. Kullanıcıların hizmete ne kadar bağımlı hale geldiğini izlemeleri, aşırı duygular, takıntı veya yapay zekaya aşırı bağımlılık belirtilerini takip etmeleri bekleniyor.Kullanıcılar bağımlılık veya güçlü duygusal sıkıntı belirtileri gösterirse, şirketler müdahale etmelidir. Önlemler arasında hatırlatmalar, etkileşim süresinin azaltılması veya yapay zeka yanıtlarında ayarlamalar yer alabilir. Kurallar, insan benzeri yapay zekanın kullanıcılar için gerçek gibi hissedilebileceğini ve duygusal aşırı bağımlılık riskini yaratabileceğini kabul ediyor.Sorumluluğu hizmet sağlayıcılara yükleyerek, kurallar zararın büyümeden önce önlenmesini amaçlıyor. Duygusal güvenlik, teknik güvenlik kadar önemli kabul ediliyor.İçerik ve Davranış SınırlarıTaslak ayrıca katı içerik kuralları da belirliyor. Yapay zeka sistemleri, ulusal güvenliği tehdit eden, söylenti yayan veya şiddeti ya da müstehcenliği teşvik eden içerik üretmemelidir. Bu sınırlar metin, resim, ses ve video içeriklerini kapsar. Sağlayıcılar, uyumluluğu sağlamaktan sorumludur.Veri koruma da bir diğer önemli gerekliliktir. Şirketler, yapay zeka etkileşimleri sırasında toplanan duygusal veriler de dahil olmak üzere kişisel bilgileri korumalıdır. Taslak, mevcut teknik düzenlemelerin yanı sıra duygusal ve psikolojik koruma önlemleri ekleyerek denetimi güçlendiriyor.Kaynak: RegTechTimes
Katılın Görüşlerinizi Paylaşın
Hemen ileti gönderebilir ve devamında kayıt olabilirsiniz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.