Zıplanacak içerik
  • Üye Ol

Eski Google bilim insanı, hayatımızı yöneten bilgisayarların bizi sömürdüğünü ve onları durdurmanın bir yolunu bulduğunu söylüyor


Önerilen İletiler

  • Admin

Eski Google bilim insanı, hayatımızı yöneten bilgisayarların bizi sömürdüğünü ve onları durdurmanın bir yolunu bulduğunu söylüyor

Yapay zeka, sosyal ve tüketici yaşamlarımızın büyüyen bölümleri üzerinde hak iddia ederken, insanların dünyaya tanıttığı tüm sürünen kusurları ortadan kaldırması gerekiyor.

AASRnbd.img?w=194&h=259&m=6&x=61&y=55&s=

Gerçek, elbette, oldukça farklıdır. Öfkeyi nasıl körükleyeceğini öğrenen Facebook algoritmalarından, renkli insanları tanımayan yüz tanıma uygulamalarına kadar, AI sıklıkla statükoda sinsi bir takviyeden daha az bir gelişme sunar.

Şimdi bir Silikon Vadisi girişimcisi, soruna yeni bir yaklaşımı olduğunu söylüyor. Psikoloji geçmişine sahip eski bir Google veri bilimcisi olan Alan Cowen, bir araştırma şirketi olan Hume AI ve kar amacı gütmeyen bir arkadaş yarattı; bunun, AI'nın tüm karmaşık işini daha empatik ve insani hale getirmeye yardımcı olabileceğini söylüyor.

Cowen, dünyanın dört bir yanından yüz binlerce yüz ve ses ifadesi üzerinde eğitilerek, Hume platformundaki yapay zeka, kullanıcıların gerçekten nasıl hissettiklerine tepki verebilir ve duygusal ihtiyaçlarını daha yakından karşılayabilir, dedi.

Platformun sonunda viral videolar ve dijital asistanlar gibi tüketici uygulamalarına dahil edilmesini umduğunu söyledi - etkinliği hala belirsiz olsa ve büyük teknoloji şirketlerinin bunu hızlı bir şekilde uygulamaya istekli olma olasılığı düşük olsa bile.

Pazartesi günü, Cowen'in platformu kullanan şirketler tarafından kabul edilmesini umduğu bir dizi etik yönergeyi açıklaması bekleniyor. Beta lansmanının Mart ayında gerçekleşeceğini ve ardından daha resmi bir açılış yapılacağını duyurdu. Birçok araştırmacı ve geliştirici için ücretsiz olacak.

Cowen bir röportajda “Bunun uzun bir mücadele olacağını biliyoruz” dedi. “Ancak, angajman için değil, refah için optimize etmeye başlamalıyız.”

Tercüme: Algoritmaların amacı bizi sürekli tıklatıp satın almak değil, bizi daha iyi insanlar ve toplumumuzu daha adil kılmak olmalıdır. Cowen, psikolojik temelli yaklaşımının yardımcı olabileceğini söyledi.

31 yaşındaki girişimci, insanlığı dijital alanlara enjekte etmeye çalışan ilk teknoloji oyuncusu olmaktan çok uzak. “Etik yapay zeka” hareketinin geniş amacı, adaleti algoritmalara dahil etmek ve üyeleri arasında Marc Rotenberg'in politika odaklı Yapay Zeka ve Dijital Politika Merkezi ve eski şirketten önyargıyla mücadele eden yeni Dağıtılmış Yapay Zeka Araştırma Enstitüsü gibi birçok soylu kuruluşu sayar. Google yıldızı Timnit Gebru, sadece iki isim.

Google, Timnit Gebru'yu etik olmayan yapay zekanın açık sözlü eleştirmeni olarak işe aldı. Sonra bunun için kovuldu.
Duke Üniversitesi'nden Cynthia Rudin gibi, sosyal zararı ortadan kaldırmak için yapay zekayı basitleştirme konusunda kamuoyunda güçlü pozisyonlar almış bir dizi akademik uzman da var.

Cowen'in çabaya getirdiği şey, bu etik hedeflere eşlik edecek yüksek derecede psikolojik araştırmadır. Geçmiş çalışmaları, kültürler arası duygusal tepkileri incelemeyi (Amerika Birleşik Devletleri ve Çin'de hüzünlü şarkılara verilen benzer tepkiler üzerine bir çalışma gibi) ve ses tonlamalarının birçok nüansı üzerinde çalışmayı içeriyor.

Bir isim ordusuyla geliyor. Kar amacı gütmeyen kuruluş Hume Initiative, Google'ın insan merkezli Empati Laboratuvarı'nın kurucusu Danielle Krettek Cobb; “algoritmik adalet” uzmanı Karthik Dinakar; ve Cowen'in lisansüstü okul danışmanı olan ve Pixar'a “Inside Out”taki duygular konusunda tavsiyelerde bulunan Berkeley'deki California Üniversitesi'nden profesör Dacher Keltner.

Cowen, yeni kurulan Aegis Ventures stüdyosundan 5 milyon dolar topladığını ve takip eden bir tur daha aldığını söyledi. Para, AI'nın sadece büyük bir hızla işlemek ve görünmeyen kalıpları görmek için değil, aynı zamanda Cowen'in "empatik AI" olarak adlandırdığı bir yaklaşım olan insan anlayışını enjekte etmek için nasıl üretilebileceğini araştırmaya kanalize edilecek. (Google'da Cowen'in araştırması, makinelerin duyguları okuma ve simüle etme yeteneğini artırmayı amaçlayan "duygusal hesaplama"yı içeriyordu.)

Daha fazla duygu fikri, temel gücü genellikle insan duyguları olmadan tam olarak karar verme yeteneği olarak görülen AI hakkındaki düşüncelerin çoğuyla çelişiyor gibi görünebilir. Ancak duygusal bilgi işlem topluluğundaki birçok kişi, yapay zekayı tehlikeli yapan şeyin insanları okuyamaması olduğunu ve yapay zekanın hizmet ettiği insanlarda insanlığı görmesini kritik hale getirdiğini söylüyor.

Cowen, özellikle duygular üzerine yaptığı araştırmadan yararlanarak, bilim insanlarının 1990'lardan bu yana yüz, ses ve bedende tezahür eden 20'den fazla tezahürü kategorize etmek için üzerinde çalıştıkları altı temel şeyin ötesine geçiyor. Birçoğu olumlu. (Orijinal altıdan dördü negatifti.)

Bu iş için dijital uygulamalar, en azından teoride, çok geniştir. Cowen, yüzümüzdeki ve sesimizdeki duyguları tanıyan ve buna göre tavsiyelerde bulunan, stresli kişiler için yatıştırıcı sesler önermek gibi dijital yardımcı algoritmalar öngörüyor.

Ayrıca, bir kişinin depresyonunun ciddiyetini seslendirmelerinden teşhis etmeye yardımcı olmak için Hume tabanlı yapay zekayı kullanan kriz çağrı merkezi operatörlerini hayal ediyor.

Keltner, çocukların belirli duygusal tepkilerine dayalı eğitim planlarını özelleştirmek ve kışkırtıcı siyasi içeriğin gerçek dünyadaki risklerini değerlendirmek de dahil olmak üzere daha zengin olanaklara dikkat çekti.

Cowen, sosyal medya şirketlerinin bir kullanıcının ruh halini ölçmek için Hume'un platformunu kullandığını ve ardından bunu iyileştirmek için sunulan gönderileri algoritmik olarak ayarladığını bile hayal ettiğini söyledi.

“Bir gönderi gördüklerinde insanların üzüntüsü artıyor mu? Bir iki gün sonra gönderi gitmiş olsa bile bu onları üzüyor mu?” dedi Cowen. “Şirketler, duyguların nesnel ölçümlerinden, insanların olumsuz ve olumlu deneyimlerinin çok yönlü ve nüanslı ölçümlerinden yoksundur. Ve artık bunu söyleyemezler."

Elbette, bir şirketin yapay zekası bir duyguyu ölçebilseydi, onu istismar etmeyeceğinin garantisi yok; Veri ve refahın kesiştiği noktada dururken, Big Tech mutlaka yüksek yolu seçmez.

AI'nın duyguyu faktoring etmedeki bir diğer zorluk, insan programcılarının duygularını inşa etmekten nasıl kaçınması gerektiğidir. Cowen'in ortakları, en azından, bunun bu tuzaktan kaçındığına inandıklarını söylüyorlar. Sanal gerçeklik çalışan eğitimi şirketi Mursion'ın kurucu ortağı Arjun Nagendran, "Hume'un modelleri bilgi açısından zengin ama yine de yargılayıcı değil" dedi.

Google Empathy Lab'ın kurucusu Krettek Cobb, Cowen'in çalışmasını dijital dünyayla etkileşimlerimiz için gerekli gördüğünü söyledi.

Bir e-postada, bu hikayedeki duyguların önemine değinerek, “Teknolojinin bize en şefkatli ve şefkatli şekilde hizmet etmesi için, insan hikayesinin tüm yelpazesini anlaması gerekiyor” diye yazdı. "Empatik yapay zekanın bu kadar büyük umut vaat etmesinin nedeni budur - teknolojinin bu kritik duygusal katmanlara uyum sağlamasına ve kendimizin en canlandırıcı kısımlarını yansıtmasına izin verebilir."

(Yönergelerde Cowen, Hume'un amacının yapay zekanın "insanlığın en büyük aidiyet, şefkat ve esenlik özelliklerini güçlendirmek" ve aynı zamanda "kötüye kullanım risklerini" azaltmak için kullanılması olduğunu söylüyor. Empatik yapay zeka, olumsuz duygusal tepkileri optimize ederek daha acımasız psikolojik savaş biçimleri geliştirmek için asla kullanılmamalıdır.”)

Maryland Üniversitesi'nden profesör ve yapay zeka uzmanı ve gelecek ay daha adil yapay zeka sonuçları elde etmeyle ilgili "İnsan Merkezli Yapay Zeka" kitabını yayınlayacak olan Ben Shneiderman, Cowen'inki gibi girişimlerin etnik yapay zeka yaratmada rol oynayabileceğini, ancak öyle olmadığını söyledi. gerekli olan her şey.

“Doğru teknoloji çok yardımcı olabilir. Ancak bir güvenlik kültürü yaratmak için sadece teknolojiye bakıyorsanız, bu işe yaramayacaktır” dedi. Devlet düzenlemelerini ve sigorta şirketleri ve denetçiler tarafından belirlenen katı standartları temel olarak belirtti.

Hume'un benimsenmesi baş rüzgarları şiddetli olabilir. Haziran ayında yayınlanan bir Pew Araştırma Merkezi araştırması, AI uzmanlarının üçte ikisinden fazlasının yapay zekanın 2030 yılına kadar çoğunlukla sosyal fayda için kullanılacağına inanmadığını buldu.

Ve teknoloji şirketleri tarafından ne kadar empatik AI'nın benimsenmesi gerektiği belirsizdir. Acımasızca yüksek güçlü AI'nın benimsenmesinin yavaş ilerlemesi gerektiği gibi, sorunu daha da kötüleştirebilecek duygusal girdilerin de yavaş ilerlemesi gerektiğine dair bir argüman var. Siri, nasıl hissettiğimizi bilmek daha sağlıklı bir insan-makine ilişkisine yol açar mı? Yoksa ürkütücü bir şekilde bizim üzerimizde daha fazla güç mü veriyor?

Cowen, hızla büyüyen yapay zekayı daha duygusal verilerle güçlendirmenin tehlikelerini kabul etti. Ancak alternatifin çok daha korkutucu olduğunu da söyledi.

“Empatik AI gibi projeler olmadan etkileşimi optimize etmek için bu algoritmaları geliştirmeye devam edersek, o zaman yakında çocuklar sosyal medyada günde 10 saat geçirecekler” dedi. "Ve bunun kimse için iyi olduğunu düşünmüyorum."

Kaynak: The Washington Post

laptop-1483974.jpg

Yoruma sekme
Diğer sitelerde paylaş

Katılın Görüşlerinizi Paylaşın

Şu anda misafir olarak gönderiyorsunuz. Eğer ÜYE iseniz, ileti gönderebilmek için HEMEN GİRİŞ YAPIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.

Misafir
Maalesef göndermek istediğiniz içerik izin vermediğimiz terimler içeriyor. Aşağıda belirginleştirdiğimiz terimleri lütfen tekrar düzenleyerek gönderiniz.
Bu başlığa cevap yaz

×   Zengin metin olarak yapıştırıldı..   Onun yerine sade metin olarak yapıştır

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Önceki içeriğiniz geri getirildi..   Editörü temizle

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Yeni Oluştur...

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.