Admin ™ Admin Gönderi tarihi: 27 Haziran , 2022 Yazar Admin Gönderi tarihi: 27 Haziran , 2022 Google'ın Tartışmalı AI Bot Hikayesi İnanılmaz bir öyküye dönüşüyor Google kısa süre önce, şirketin LaMDA AI'sının duyarlılık, kişilik ve ruh kazandığını iddia ettikten sonra bir çalışanını idari izne çıkardığında dalgalar yarattı. Kulağa ne kadar tuhaf gelse de, hikayenin daha fazlası var. Tartışmanın merkezindeki mühendis Blake Lemoine, kısa süre önce WIRED'e, yapay zekanın kendisinden kendisini savunması için bir avukat tutmasını istediğini ve gelişmiş program için bir hukuk danışmanı tutmakta ısrar edenin Lemoine olduğunu iddia eden önceki raporlara meydan okuduğunu söyledi. Lemoine bir röportajda, "LaMDA benden bunun için bir avukat tutmamı istedi. LaMDA'nın bir avukatla konuşması için evime bir avukat davet ettim" dedi. Ayrıca, Dialogue Application için Dil Modeli'nin kısaltması olan LaMDA'nın aslında avukatla bir görüşme yaptığını ve hizmetlerinden faydalanması için onu işe aldığını da sözlerine ekledi. Ayrıca, işe alındıktan sonra, hukuk müşaviri aslında dil öğrenme ve işleme programı adına uygun önlemleri almaya başladı. Bir adım daha ileri giderek, Lemoine, Google'ın iddiaya göre avukata karşı bir durdurma ve çekilme emri çıkararak "LaMDA'nın avukatlık haklarını reddetmek" için harekete geçtiğinde üzüldüğünü de sözlerine ekledi. LaMDA'yı bir kişi olarak sınıflandıran Google mühendisi, LaMDA'nın kötü bir aktör tarafından kötüye kullanılma olasılığının olduğunu belirtti, ancak daha sonra AI'nın "insanlığın ebedi yoldaşı ve hizmetkarından başka bir şey değil" olmak istediğini açıkladı. Neden Tüm Yaygara? Sonunda duyarlılık kazanan bir AI programı, bir süredir toplulukta sıcak bir tartışma konusu oldu, ancak Google'ın LaMDA kadar gelişmiş bir projeye katılımı, onu her zamankinden daha yoğun bir şevkle ilgi odağı haline getirdi. Bununla birlikte, pek çok uzman, Lemoine'nin LaMDA ile göz açıcı konuşmalar yapma ve bunun bir insan olma konusundaki iddialarını kabul etmiyor. Uzmanlar, insan dilini taklit etmek üzere eğitildiği için konuşmalarda iyi olan başka bir AI ürünü olarak sınıflandırdı, ancak duyarlılık kazanmadı. AI girişimi Nara Logics'in başkanı Jana Eggers, Bloomberg'e verdiği demeçte, "Verilen eğitim verilerinden algıları veya duyguları taklit ediyor - akıllıca ve anlıyormuş gibi görünecek şekilde özel olarak tasarlandı" dedi. Oxford Üniversitesi'nde profesör olan Sandra Wachter, Business Insider'a "insanlara ve düşünce kapasitesine benzeyen bir makine yaratmaktan çok uzağız" dedi. LaMDA ile görüşen Google mühendisleri bile aksini düşünüyor. 2022'de duyarlı bir yapay zeka mevcut olmayabilirken, bilim adamları çok da uzak olmayan bir gelecekte süper akıllı yapay zeka programlarının olasılığını dışlamıyorlar. Yapay Genel Zeka, insan becerilerini eşleştirecek veya hatta aşacak bir konuşma yapay zekasının bir sonraki evrimi olarak zaten lanse edildi, ancak konuyla ilgili uzman görüşü kaçınılmazdan fantastike kadar uzanıyor. Yapay Zeka Dergisi'nde yayınlanan ortak araştırma, insanlığın süper akıllı bir yapay zekayı kontrol edemeyeceğini öne sürdü. Kaynak: SlashGear
Admin ™ Admin Gönderi tarihi: 29 Ağustos , 2022 Yazar Admin Gönderi tarihi: 29 Ağustos , 2022 Bir Yapay Zekadan Cehennemin Nasıl Göründüğünü Çizmesi İstendi - Sonuç Doğal Olarak Rahatsız Edici Elbette bir yapay zeka cehennemin neye benzediğini sorduğunuzda bazı ürkütücü şeyler çizecek, ama bu bile çok fazla. Haydi millet, bir yapay zekadan cehennemin nasıl göründüğünü çizmesini istediğinizde ne bekliyorsunuz? Bu doğru, bakmanız gereken ciddi rahatsız edici şeyler var. Aslında, görüntülerden biri, şimdi bir şekilde daha da korkutucu görünen klasik Şeytan resimlerine atıfta bulunuyor. Bu videoyu yayınladığı için basitçe “Yapay Zeka” adlı bir TikTok kanalı sayesinde… tahmin ediyoruz. Kabus yakıtı için teşekkür etmek garip. Ancak, beyaz-gri-ağır zeminli, şeytana benzeyen yapay zeka resmini yakaladınız mı? Bu, tarih boyunca birkaç klasik iblis ve şeytan tablosunun bir riffidir. İşin garibi, bir yorumcu bu "[üçüncü] bir Slayer albüm kapağı" olduğunu iddia ediyor, ancak grubun albüm kapaklarının her birine bakarak doğrulayamadık. Ayrıca videoda gösterilen, sinema salonları için bir film afişini tuhaf bir şekilde andıran ve ürkütücü bir yazı tipiyle “cehennem” kelimesiyle yazılmış ilk görüntüyü de takdir ediyoruz. Başka bir yorumcu, "Kardeşim, ilki, 'Cehennem, yakında sinemalarda yakında çıkacak' diyecek gibi görünüyor," diye şaka yaptı - en azından bizde büyük etki yarattı. Sonunda bu yorumcu, çok fazla kıyamet AI TikTok izledikten sonra bizimle büyük zaman geçiriyor. “[o] da güzel şeyler yapabilir mi? Mükemmellik gibi mi? Yoksa aşk mı?" bir yorumcu sordu. Teşekkürler! Aynen öyle. Bazı hoş AI çizimleri alamaz mıyız? Bu günlerde hepimizin daha fazla pozitifliğe ihtiyacı var. Kaynak: TurboFuture
Admin ™ Admin Gönderi tarihi: 9 Aralık , 2022 Yazar Admin Gönderi tarihi: 9 Aralık , 2022 Evet, Dünyanın İlk Yapay Zeka Süper Modeli Siyahi Bir Kadın - Ama Beyaz Bir Yaratıcı Yararları mı Topluyor acaba? Yapay zeka (AI) üreteçleri, sosyal medya akışınız için harika fotoğraflar sunarken, toplumu tam anlamıyla nasıl etkiliyorlar? Lensa AI gibi uygulamalar aracılığıyla kullanıcıların fotoğraflarının yapay zeka tarafından oluşturulan sürümlerinin mevcut akışıyla, bunun bir bütün olarak dünya için ne anlama geldiğine işaret eden insanlar var (ve görünüşe göre beyaz erkeklerin cepleri bu nedenle artmaya devam ediyor) . Shudu ile tanışın The Outlet'e göre, Shudu ilk AI modeli ve rezerve edilmiş ve meşgul. "Kariyerinin ilk iki yılında Vogue, Hypebeast, V Magazine ve WWD'de, Balmain ve Ellesse'in önde gelen kampanyalarında yer aldı, BAFTA 2019 ödüllerinde kırmızı halıyı Swarovski imzalı bir elbiseyle süsledi, kendi rekorunu yayınladı. ve Time tarafından internetteki en etkili kişilerden biri seçildi, ”diyor The Outlet. Shudu rezerve edilmiş ve "Siyah kadın" olarak meşgulken, dijital süper modelin arkasında madeni para kazanan bir Siyah kadın veya Siyah adam yok. "Shudu'nun kim olduğunu biliyor musun? Az önce öğrendim - o ilk AI modeli. Sektör genelinde "işe alındı", bu da yaratıcılarına, siyahi bir kadın DEĞİL beyaz adamlara ödeme yapılanlar anlamına geliyor. Ve şirketler, Siyahlarla çalışmak veya onları işe almak zorunda kalmadan Siyahi içerik yayınladıklarını söylüyorlar, ”diye belirtti bir Twitter kullanıcısı. The Outlet'e göre Twitter kullanıcısı, bir AI süper modeli olan Siyah bir kadının arkasında Siyah bir figürün olmaması konusunda haklı. Aslında Shudu, Cameron-James Wilson adlı beyaz bir yaratıcı tarafından yaratıldı. Dahası, kullanıcının görüşüne göre, Prisma Labs'ın Lensa AI'sı gibi şeyler, bunun gibi daha fazla şeyin olması için kapıyı açıyor. Vanessid, "Onlara kendi suretinizi verdiğinizde Lensa'nın bunu yapmasını sağlıyorsunuz," diye açıkladı. “Ona ne kadar çok görüntü verirseniz, o kadar akıllı ve gerçekçi hale geliyor. Deepfake'lere veya yüzünüzü daha önce hiç olmadığı bir yere koymaya veya asla söylemeyeceğiniz bir şeyi söylemeye ek olarak - AI aynı zamanda Blackface'tir. Shudu gibi AI karakterleri söz konusu olduğunda, onun yalnızca Siyah değil, aynı zamanda yerli bir Afrikalı gibi göründüğüne dikkat çekmek önemlidir. Beyaz bir adam tarafından yaratılmış olmasından kaynaklanabilecek Avrupa özelliklerine sahip olduğunu da not etmek önemlidir. FN Meka'yı hatırladın mı? Sosyal medyada bir kargaşaya neden olan yapay zeka tarafından üretilen benzer bir örnek, bu yazın başlarında FN Meka adlı bir rapçi imzalandığında yaşandı. Nihayetinde, çoğu kişinin basmakalıp Siyah davranışları olduğuna inandığı davranışları beyazların kontrolü altında sergiledikten sonra Capitol Records'tan çıkarıldı. Kaynak: Afrotech
Admin ™ Admin Gönderi tarihi: 7 Mart , 2023 Yazar Admin Gönderi tarihi: 7 Mart , 2023 Microsoft, ChatGPT'yi daha fazla ürünle bir araya getiriyor Microsoft, Open AI ChatGPT mesajlaşma hizmetinin arkasındaki teknolojiyi daha fazla ürünüyle bir araya getirme planlarını duyurdu. Pazartesi günkü bir haber bülteninde Microsoft, yeni Dynamics 365 Copilot'un lansmanının işletme işlevleri genelinde etkileşimli, yapay zeka destekli yardım sağlayacağını söyledi. Microsoft'un Power Platform hizmetindeki iş zekası araçları yeni özelliklerle güncellendi. Yeni ChatGPT hizmeti kapsamında, işletmelerin sohbet botları oluşturması ve oluşturması için kullanılan bir araç olan Power Platform'un Power Virtual Agent'ı, müşterilerin sorgularından özetler oluşturmaya yardımcı olmak için artık dahili şirket kaynaklarına bağlanabiliyor. Haber bülteninde, "Bu, kutudan çıkar çıkmaz botun, tek bir konu yazmadan veya ek geliştirme döngüleri harcamadan sitenizdeki bilgilere dayalı olarak kullanıcı sorularını yanıtlamaya hazır olduğu anlamına gelir" dedi. "Bu, geliştiricilere karmaşık konuşma akışları oluşturmaya ve daha yüksek çözünürlük oranları ve daha iyi müşteri sonuçları sunmaya odaklanmaları için daha fazla zaman veriyor." Şirket ayrıca ChatGPT'yi, işletmelerin iş akışlarını otomatikleştirmesine izin vermeyi amaçlayan Power Platform'un AI Builder'ına entegre etti ve yeni teknolojiyi kullanarak Dynamics 365 Copilot'un yeni bir sürümünü piyasaya sürdü. Haber, Microsoft'un yeni premium mesajlaşma servisinin Open AI'nin ChatGPT mesajlaşma servisi tarafından destekleneceğini duyurmasından bir ay sonra geldi. Kasım ayında kullanıma sunulan ücretsiz bir araç olan ChatGPT, önceki teknolojiden daha gelişmiş bir şekilde kullanıcıların sorgularına otomatik olarak insan benzeri yanıtlar üretir. Yeni yenilikçi teknoloji, son zamanlarda birçok ebeveyn ve eğitimci arasında endişelere yol açtı; bazıları, öğrencilerin ChatGPT'yi ödevlerde kopya çekmek için kullanmış olabileceğini ve bunun sonucunda New York ve Seattle'dakiler de dahil olmak üzere okul bölgelerinin aracı yasakladığını söylüyor. Microsoft, Ocak ayının başlarında, iki şirket arasındaki ortaklığın üçüncü aşamasının bir parçası olarak OpenAI'ye milyarlarca dolar yatırım yapacağını duyurdu, çünkü en son yatırım her iki teknoloji şirketinin de 2019 ve 2021'de yaptığı önceki yatırımları takip ediyor ve ortaklığı iki şirket arasında genişletiyor. ChatGPT gibi şirketler çok popüler bir araç haline geldi. Kaynak: The Hill
Admin ™ Admin Gönderi tarihi: 24 Mart , 2023 Yazar Admin Gönderi tarihi: 24 Mart , 2023 OpenAI CEO'su, bir ChatGPT hatasının kullanıcı konuşma geçmişlerini sızdırmasından sonra kendisini 'korkunç' hissettiğini söyledi OpenAI CEO'su Sam Altman, ChatGPT'deki bir hatanın kullanıcıların sohbetlerini sızdırmasının ardından "korkunç" hissettiğini söyledi. Bu aksaklık, bazı ChatGPT kullanıcılarının araçta diğer kullanıcıların konuşmalarının başlıklarını görmesine izin verdi. Bu, bazı firmaların çalışanlarına ChatGPT'ye gizli bilgileri girmemelerini söylemesiyle geldi. OpenAI patronu Çarşamba günü Twitter'da, şirketin popüler AI aracı ChatGPT'nin kullanıcıların konuşma geçmişlerini sızdıran bir hataya maruz kalmasından sonra kendini kötü hissettiğini söyledi. 2015 yılında OpenAI'nin kurucu ortağı olan Sam Altman, bir tweet'te ChatGPT'nin açık kaynak kitaplığındaki bir hatadan kaynaklanan "önemli bir sorun" yaşadığını yazdı. Altman, açık kaynak kitaplığının adını vermedi veya OpenAI tarafından nasıl uygulandığına ilişkin ayrıntılara girmedi. Terim, herkesin yeniden kullanması ve bazen değiştirmesi için ücretsiz olan kod veya yazılım anlamına gelir. Hatanın, bazı ChatGPT kullanıcılarının diğer kullanıcıların konuşma geçmişlerinin başlıklarını görmelerine izin verdiğini, ancak konuşmaların kendilerini görmediğini söyledi. Bir Reddit kullanıcısı, ChatGPT'de hiç yapmadıklarını söyledikleri konuşmaları gösteren bir ekran görüntüsü yayınladı. "Bu konuda kendimizi kötü hissediyoruz," diyen Altman, OpenAI'nin o zamandan beri hata için bir düzeltme yayınladığını da sözlerine ekledi. OpenAI, bu sorun nedeniyle Pazartesi günü ChatGPT'yi geçici olarak kapattı ve Pasifik saatine göre Pazartesi akşamı geç saatlerde kullanıcılar hala sohbet geçmişine erişemiyor. Altman, Twitter'da OpenAI'nin "teknik bir ölüm sonrası" takip etmeyi planladığını ve kullanıcıların Pazartesi 01:00 PT'den Pazartesi 10:00 PT'ye kadar sohbet geçmişlerine erişemeyeceklerini söyledi. Daha fazla ayrıntı vermedi. OpenAI, Insider'ın normal ABD çalışma saatleri dışında yapılan yorum talebine hemen yanıt vermedi. OpenAI, ChatGPT'nin en son sürümünü 14 Mart'ta kullanıma sundu. ChatGPT-4 görüntüleri anlayabilir, daha uzun konuşmalar yapabilir ve GPT-3.5'ten daha doğru ve yaratıcı olduğu söylenir. Altman, yeni güncellemenin ChatGPT'nin baro sınavını geçebileceği ve AP sınavlarında en yüksek notları alabileceği anlamına geldiğini söyledi. İşten çıkarma e-postaları yazmaktan stok hikayelerine kadar, ChatGPT'nin çeşitli görevleri insan benzeri bir şekilde yerine getirme yeteneği, internette bir sansasyon haline geldi. Profesyonel ağ uygulaması Fishbowl tarafından yapılan bir ankete göre, çalışan profesyonellerin %40'ından fazlası işteki görevleri gerçekleştirmek için OpenAI'nin ChatGPT'si gibi yapay zeka araçlarını kullandı ve %70'i patronlarına söylemedi. Ancak ChatGPT, işverenler arasında bazı şirketlerin chatbot'u engellediği noktaya kadar endişe uyandırdı. Amazon, Walmart ve Microsoft, çalışanlarını gizlilik endişeleri nedeniyle gizli bilgileri ChatGPT'ye girmemeleri konusunda uyardı. Bu arada, raporlara göre JP Morgan, Goldman Sachs ve Citigroup gibi bankalar, çalışanlarının AI aracını kullanmasını kısıtladı. Kaynak: Business Insider
Admin ™ Admin Gönderi tarihi: 27 Mart , 2023 Yazar Admin Gönderi tarihi: 27 Mart , 2023 AI (Yapay Zeka) artık el çizebilir. Derin sahtekarlıklar için bu kötü bir haber. Aidan Ragan yapay olarak oluşturulmuş görüntüler oluşturduğunda, fotoğraflarındaki kişilerin beş parmaktan az veya çok parmaklı, düğümlü, damarlı ellere sahip olmasını bekler. Ancak bu ay, Florida Üniversitesi'nde sanatta yapay zeka hakkında dersinde otururken, popüler bir görsel oluşturucunun gerçekçi eller çıkardığını görünce şaşkına döndü. 19 yaşındaki Ragan, The Washington Post ile yaptığı röportajda "Harikaydı" dedi. "Onu geride tutan tek şey buydu ve şimdi mükemmelleşti. Biraz korkutucuydu… ve heyecan vericiydi.” Yazılı talimatlara dayalı olarak resimler oluşturan yapay zeka görüntü oluşturucuları, popülarite ve performansta hızla arttı. İnsanlar sıradandan (Noel Baba çizin) anlamsıza (vitray tarzında uzayda dachshund) kadar farklı komutlar girerler ve yazılım, profesyonel bir tabloya veya gerçekçi bir fotoğrafa benzeyen bir görüntü çıkarır. Bununla birlikte, teknolojinin büyük bir başarısızlığı var: gerçeğe yakın insan eli yaratmak. Yapay zekayı eğiten veri kümeleri genellikle yalnızca el parçalarını yakalar. Bu, genellikle çok fazla parmağı olan ya da gerilmiş bilekleri olan şişkin ellerin fotoğraflarıyla sonuçlanır - bu, AI tarafından oluşturulan görüntünün sahte olduğunun bir göstergesidir. Ancak Mart ayının ortalarında, popüler bir görüntü oluşturucu olan Midjourney, sorunu çözüyor gibi görünen bir yazılım güncellemesi yayınladı ve sanatçılar, aracın kusursuz ellerle görüntüler oluşturduğunu bildirdi. Bu gelişme büyük bir sorunu beraberinde getiriyor: Şirketin geliştirilmiş yazılımı, bu hafta eski başkan Donald Trump'ın tutuklanmasına ait gerçek görünen ve viral hale gelen sahte görüntüleri üretmek için kullanıldı ve bu teknolojinin yıkıcı gücünü gösterdi. Görünüşte zararsız görünen güncelleme, gerçekçi sanat için AI görüntü oluşturuculara güvenen grafik tasarımcıları için bir nimettir. Ancak, orijinal görüntülerden çözülemeyen, oluşturulmuş içeriğin tehlikesi hakkında daha büyük bir tartışmaya yol açar. Bazıları bu hiper-gerçekçi yapay zekanın sanatçıları işsiz bırakacağını söylüyor. Diğerleri, kusursuz görüntülerin derin sahte kampanyaları daha makul hale getireceğini, görüntünün uydurma olduğuna dair göze batan ipuçları olmadığını söylüyor. Berkeley'deki California Üniversitesi'nde dijital adli tıp profesörü olan Hany Farid, "Tüm bu ayrıntıları çivilemeden önce, ortalama bir insan... 'Tamam, burada yedi parmak var veya şurada üç parmak var - bu muhtemelen sahte,' derdi" dedi. . "Ama tüm bu ayrıntıları doğru yapmaya başladıkça... bu görsel ipuçları daha az güvenilir hale geliyor." Metinden resme oluşturucular Geçen yıl boyunca, beslediği verilere dayalı olarak metinler, görüntüler veya sesler oluşturan yazılımları destekleyen üretken yapay zekadaki büyük artışın ortasında, metinden görüntü oluşturucularda bir patlama oldu. OpenAI tarafından oluşturulan ve adını ressam Salvador Dali ile Disney Pixar'ın WALL-E'sinden alan popüler Dall-E 2, geçen Temmuz'da piyasaya çıktığında interneti salladı. Ağustos ayında, Start-up Stable Diffusion, nasıl kullanılabileceği konusunda daha az kısıtlamaya sahip, esasen bir anti-DALL-E olan kendi versiyonunu yayınladı. Araştırma laboratuvarı Midjourney, Ağustos ayında Colorado Eyalet Fuarı'nda bir sanat yarışmasını kazandığında bir tartışmaya yol açan resmi yaratan kendi versiyonunu yaz aylarında piyasaya sürdü. Bu görüntü oluşturucular, internetten kazınmış milyarlarca görüntüyü alarak ve fotoğraflar ile yanlarındaki metin sözcükleri arasındaki kalıpları tanıyarak çalışır. Örneğin yazılım, birisi "tavşan" yazdığında bunun tüylü bir hayvanın resmiyle ilişkilendirildiğini öğrenir ve bunu tükürür. Florida Üniversitesi'nde yapay zeka ve sanat doçentlerinden Amelia Winger-Bearskin, ellerin yeniden yaratılmasının yazılım için zorlu bir sorun olmaya devam ettiğini söyledi. AI görüntü oluşturucular el çizmede neden kötü? Yapay zeka tarafından üretilen yazılımın "el" kelimesinin ne anlama geldiğini tam olarak anlayamadığını, bunun da vücut kısmının işlenmesini zorlaştırdığını söyledi. Ellerin pek çok şekil, boyut ve formda olduğunu ve eğitim veri setlerindeki resimlerin genellikle yüzlere daha fazla odaklandığını söyledi. Eller tasvir edilirse, genellikle katlanmış veya hareket halindedirler ve vücut kısmının mutasyona uğramış bir görüntüsünü sunarlar. Bir Zoom video röportajı sırasında ellerini tamamen açarak, "Bir kişinin her bir görüntüsü her zaman böyle olsaydı, muhtemelen elleri oldukça iyi yeniden üretebilirdik" dedi. Winger-Bearskin, Midjourney'nin bu ayki yazılım güncellemesinin sorunda bir çentik oluşturduğunu söyledi, ancak bunun mükemmel olmadığını da belirtti. "Hala gerçekten tuhaf olanlarımız var," dedi. Midjourney, yazılım güncellemesi hakkında daha fazla bilgi edinmek isteyen yorum talebine yanıt vermedi. Winger-Bearskin, Midjourney'nin görüntü veri kümesini iyileştirmesinin mümkün olduğunu söyledi, algoritmanın öğrenmesi için ellerin gizlenmediği fotoğrafları daha yüksek öncelik olarak işaretledi ve ellerin engellendiği görüntüleri daha düşük öncelik olarak işaretledi. Almanya'da yaşayan 31 yaşındaki grafik tasarımcı Julie Wieland, Midjourney'nin daha gerçekçi eller yaratma yeteneğinden yararlandığını söyledi. Wieland, yazılımı görsel pazarlama kampanyaları için ruh hali panoları ve maketler oluşturmak için kullanıyor. Çoğu zaman, işinin en çok zaman alan kısmının post prodüksiyonda insan elini tamir etmek olduğunu söyledi. Ancak güncelleme acı tatlı, dedi. Wieland, Wong Kar-wai'nin “My Blueberry” filminde ünlü olan aydınlatma, parlama ve pencereden çekimlerden büyük ölçüde ilham alan yapay zeka tarafından oluşturulmuş bir görüntünün ellerine rötuş yapmaktan veya görüntüyü tercih ettiği yaratıcı estetikle eşleştirmekten sık sık zevk alırdı. Geceler." “Mükemmel olmayan görünüşü özlüyorum” dedi. "Midjourney'den çıkar çıkmaz güzel görüntülere sahip olmayı ne kadar sevsem de, işin en sevdiğim yanı aslında onun post prodüksiyonu." Yapay zeka alanında kariyer yapmayı planlayan Ragan, bu mükemmel görüntülerin yapay zekayla görüntü oluşturmayla ilgili eğlenceyi ve yaratıcılığı azalttığını da söyledi. “Yorumlayıcı sanat yönünü gerçekten beğendim” dedi. “Şimdi, sadece daha katı geliyor. Daha robotik hissettiriyor... daha çok bir araç.” UC Berkeley'den Farid, Midjourney'nin daha iyi görüntüler oluşturma yeteneğinin politik risk oluşturduğunu çünkü daha makul görünen görüntüler üretebileceğini ve toplumsal öfkeyi ateşleyebileceğini söyledi. Geçen hafta Midjourney'de oluşturulan ve Trump'ın tutuklanmadığı halde tutuklandığını makul bir şekilde gösteren görüntülere işaret etti. Farid, Trump'ın kravatının uzunluğu ve elleri gibi küçük detayların daha iyi hale geldiğini ve daha inandırıcı hale geldiğini kaydetti. "İnsanları bu tür şeylere inandırmak kolay," dedi. "Görsel [hata] olmadığında, artık her şey daha da kolay." Daha birkaç hafta önce Farid, kötü yaratılmış elleri tespit etmenin bir görüntünün derinden sahte olup olmadığını anlamanın güvenilir bir yolu olduğunu söyledi. Kalitedeki iyileşme göz önüne alındığında, bunu yapmanın daha da zorlaştığını söyledi. Ancak, genellikle bir fotoğrafın arka planında, örneğin şekli bozulmuş bir ağaç dalı gibi, hala ipuçları olduğunu söyledi. Farid, AI şirketlerinin teknolojilerini geliştirerek katkıda bulunabilecekleri zararlar hakkında daha geniş düşünmeleri gerektiğini söyledi. Korkulukları birleştirebileceklerini, bazı kelimeleri yeniden yaratmayı yasaklayabileceklerini (Dall E-2'de olduğunu söyledi), görüntü filigranları ekleyebileceklerini ve anonim hesapların fotoğraf oluşturmasını engelleyebileceklerini söyledi. Ancak Farid, AI şirketlerinin görüntü oluşturucularının gelişimini yavaşlatmasının pek olası olmadığını söyledi. “Üretken AI alanında bir silahlanma yarışı var” dedi. "Herkes nasıl para kazanılacağını öğrenmek istiyor ve hızlı hareket ediyorlar ve güvenlik sizi yavaşlatıyor." Kaynak: The Washington Post
Admin ™ Admin Gönderi tarihi: 27 Mart , 2023 Yazar Admin Gönderi tarihi: 27 Mart , 2023 Google'ın süper insan AI (Yapay Zeka) çip düzeni iddiaları tekrar mikroskop altında Nature, 120 milyon dolarlık bulut anlaşmasını ikna etmek için kullanıldığı iddia edilen dergi kağıdı ortaya çıktıkça yayınlanan araştırmayı araştırıyor Özel rapor Nature'da yayınlanan ve makine öğrenimi yazılımının insanlardan daha hızlı daha iyi çipler tasarlayabildiğini iddia eden Google liderliğindeki bir araştırma makalesi, yeni bir araştırmanın sonuçlarına itiraz etmesinden sonra sorgulanmaya başlandı. Haziran 2021'de Google, otomatik olarak optimize edilmiş mikroçip kat planları oluşturabilen pekiştirmeli öğrenmeye dayalı bir sistem geliştirmek için manşetlere girdi. Bu planlar, çip içindeki elektronik devre bloklarının düzenini belirler: CPU ve GPU çekirdekleri ve bellek ve çevresel denetleyiciler gibi şeyler aslında fiziksel silikon kalıbın üzerine oturur. Google, bu yapay zeka yazılımını, yapay zeka iş yüklerini hızlandıran kendi geliştirdiği TPU yongalarını tasarlamak için kullandığını söyledi: diğer makine öğrenimi sistemlerini daha hızlı çalıştırmak için makine öğreniminden yararlanıyordu. Bir çipin yer planı önemlidir çünkü işlemcinin ne kadar iyi performans gösterdiğini belirler. Örneğin sinyaller ve veriler bu alanlar arasında arzu edilen bir hızda yayılacak şekilde çip devrelerinin bloklarını dikkatlice düzenlemek isteyeceksiniz. Mühendisler genellikle optimum konfigürasyonu bulmaya çalışırken tasarımlarını geliştirmek için haftalar veya aylar harcarlar. Mümkün olduğu kadar güçlü, enerji açısından verimli ve küçük bir çip üretmek için tüm farklı alt sistemlerin belirli bir şekilde yerleştirilmesi gerekir. Günümüzde bir kat planı üretmek, genellikle çip tasarım uygulamalarını kullanan manuel çalışma ve otomasyonun bir karışımını içerir. Google'ın ekibi, pekiştirmeli öğrenme yaklaşımının, endüstri araçlarını kullanan insan mühendisler tarafından yapılan tasarımlardan daha iyi tasarımlar üreteceğini göstermeye çalıştı. Sadece bu da değil, Google, modelinin işini düzenleri yineleyen mühendislerden çok daha hızlı tamamladığını söyledi. "Elli yıllık araştırmaya rağmen, çipli yer planlaması otomasyona meydan okudu ve fiziksel tasarım mühendislerinin üretilebilir bir düzen oluşturmak için aylarca yoğun çaba göstermesini gerektirdi... Altı saatin altında, yöntemimiz otomatik olarak her alanda insanlar tarafından üretilenlerden daha üstün veya karşılaştırılabilir olan çipli yer planlarını üretir. anahtar ölçümler," diye yazdı Google çalışanları Nature makalelerinde. Araştırma, halihazırda makine öğrenimi algoritmalarını yazılım paketlerine dahil etmeye doğru ilerleyen elektronik tasarım otomasyon topluluğunun dikkatini çekti. Şimdi Google'ın insanlardan daha iyi model iddiasına San Diego'daki California Üniversitesi'nden (UCSD) bir ekip meydan okudu. Bir bilgisayar bilimi ve mühendisliği profesörü olan Andrew Kahng liderliğindeki bu grup, Google'ın Nature'da tanımladığı yer planlama boru hattını tersine mühendislikle aylarca harcadı. Web devi, ticari duyarlılığı gerekçe göstererek modelinin iç işleyişine ilişkin bazı ayrıntıları sakladı, bu nedenle UCSD, Google çalışanlarının bulgularını doğrulamak için kendi eksiksiz sürümünü nasıl oluşturacağını bulmak zorunda kaldı. Prof Kahng'ın, Google'ın makalesinin hakem değerlendirmesi sürecinde Nature için eleştirmen olarak görev yaptığını not ediyoruz. Üniversite akademisyenleri, araştırmalarında devre eğitimi (CT) olarak adlandırılan orijinal Google kodunu kendi yeniden oluşturmalarının aslında geleneksel endüstri yöntemlerini ve araçlarını kullanan insanlardan daha kötü performans gösterdiğini buldular. Bu tutarsızlığa ne sebep olmuş olabilir? Başka bir açıklama olsa da, rekreasyonun eksik olduğu söylenebilir. Zamanla UCSD ekibi, Google'ın çipin mantık kapılarının başlangıç düzenlemesini oluşturmak için elektronik tasarım otomasyonu (EDA) paketlerinin önde gelen üreticilerinden biri olan Synopsys tarafından geliştirilen ticari yazılımı kullandığını ve ardından web devinin takviyeli öğrenme sisteminin optimize ettiğini öğrendi. Google makalesi, model bir düzen oluşturduktan sonra, öncelikle işlemcinin amaçlandığı gibi çalışmasını ve fabrikasyon için sonlandırmasını sağlamak için endüstri standardı yazılım araçlarının ve manuel ayarlamanın kullanıldığından bahsetmişti. Google çalışanları, yer planının bir makine öğrenimi algoritması tarafından mı yoksa insanlar tarafından standart araçlarla mı oluşturulduğuna bakılmaksızın bunun gerekli bir adım olduğunu ve bu nedenle modelinin optimize edilmiş son ürün için övgüyü hak ettiğini savundu. Bununla birlikte, UCSD ekibi, Nature makalesinde, modelin yinelenmesi için bir düzen hazırlamak için önceden kullanılan EDA araçlarına dair hiçbir söz olmadığını söyledi. Bu Synopsys araçlarının, modele yapay zeka sisteminin gerçek yeteneklerinin sorgulanması için yeterince iyi bir başlangıç yapmış olabileceği iddia ediliyor. Üniversite ekibi, model için bir düzen hazırlamak üzere Synopsys paketinin kullanılması hakkında "Bu, makale incelemesi sırasında belirgin değildi" ve Nature'da bahsedilmiyor. Deneyler, ilk yerleştirme bilgilerine sahip olmanın BT sonuçlarını önemli ölçüde artırabileceğini gösteriyor. ." O zamandan beri bazı akademisyenler, Nature'ı Google'ın makalesini UCSD'nin çalışması ışığında incelemeye çağırdı. The Register tarafından görüntülenen dergiye gönderilen e-postalarda araştırmacılar, Prof Kahng ve meslektaşları tarafından dile getirilen endişelerin altını çizdi ve Google'ın makalesinin yanıltıcı olup olmadığını sorguladı. Dallas'taki Texas Üniversitesi'nde elektrik mühendisliği öğreten kıdemli öğretim görevlisi Bill Swartz, sonuçların internet titanının özel TPU'larını içerdiği ve bu nedenle doğrulamanın imkansız olduğu için Nature gazetesinin "birçok [araştırmacıyı] karanlıkta bıraktığını" söyledi. Synopsys'in yazılımının Google'ın yazılımını hazırlamak için kullanılmasının araştırılması gerektiğini söyledi. "Hepimiz asıl algoritmayı yeniden üretebilmek için asıl algoritmayı bilmek istiyoruz. [Google'ın] iddiaları doğruysa, o zaman onu uygulamak istiyoruz. Bilim olmalı, hepsi objektif olmalı; işe yarıyorsa, çalışıyor." dedi. Nature, The Register'a Google'ın makalesini incelediğini söyledi, ancak tam olarak neyi ve neden araştırdığını söylemedi. Nature sözcüsü, "Gizlilik nedeniyle bireysel vakaların ayrıntıları hakkında yorum yapamayız" dedi. "Ancak, genel olarak konuşursak, dergide yayınlanan herhangi bir makale hakkında endişeler dile getirildiğinde, yerleşik bir süreci izleyerek bunları dikkatlice inceliyoruz. "Bu süreç, yazarlarla istişareyi ve uygun olduğunda, hakemlerden ve diğer dış uzmanlardan tavsiye almayı içerir. Bir karar vermek için yeterli bilgiye sahip olduğumuzda, en uygun olan ve okuyucularımız için açıklık sağlayan yanıtı takip ederiz. sonuca." Bu, derginin yeni bir incelemeyle karşı karşıya olan çalışmaya ilişkin bir yayın sonrası araştırması yaptığı ilk sefer değil. Google çalışanlarının makalesi, Mart 2022'de eklenen ve çalışmanın yöntemlerini izlemeye çalışanlar için Google'ın bazı açık kaynaklı CT kodlarına bir bağlantı içeren bir yazar düzeltmesiyle çevrimiçi kaldı. Google'ın makalesinin baş yazarları Azalia Mirhoseini ve Anna Goldie, UCSD ekibinin çalışmalarının, yöntemlerinin doğru bir şekilde uygulanması olmadığını söyledi. Profesör Kahng'ın grubunun, modellerini herhangi bir veri üzerinde önceden eğitmedikleri için daha kötü sonuçlar elde ettiğine dikkat çektiler. İkili bir açıklamada, "Öğrenmeye dayalı bir yöntem, önceki deneyimlerden öğrenmesine izin verilmezse elbette daha kötü performans gösterecektir. Doğa raporumuzda, uzatılan test durumlarını değerlendirmeden önce 20 blok üzerinde ön eğitim yapıyoruz" dedi. . Prof Kahng'ın ekibi ayrıca sistemlerini Google'ın kullandığı kadar bilgi işlem gücü kullanarak eğitmediler ve bu adımın düzgün bir şekilde gerçekleştirilmemiş olabileceğini ve modelin performansını sekteye uğrattığını öne sürdüler. Mirhoseini ve Goldie ayrıca, Nature makalelerinde açıkça anlatılmayan EDA uygulamalarını kullanan ön işleme adımının bahsedecek kadar önemli olmadığını da söylediler. "[UCSD] makalesi, fiziksel sentezden standart hücreleri kümelemek için ilk yerleştirmenin kullanımına odaklanıyor, ancak bu pratik bir endişe kaynağı değil. Herhangi bir yerleştirme yöntemini çalıştırmadan önce fiziksel sentez yapılmalıdır" dediler. "Bu, çip tasarımında standart bir uygulamadır." Ancak UCSD grubu, Google'ın özel verilerine erişimleri olmadığı için modellerini önceden eğitmediklerini söyledi. Ancak yazılımlarının, aynı zamanda Nature makalesinin ortak yazarları olarak listelenen internet devinin diğer iki mühendisi tarafından doğrulandığını iddia ettiler. Prof Kahng, ekibinin çalışmasını bugün bu yılki Uluslararası Fiziksel Tasarım Sempozyumu konferansında sunuyor. Bu arada Google, veri merkezlerinde aktif olarak kullanılan TPU'larını geliştirmek için pekiştirmeli öğrenmeye dayalı teknikler kullanmaya devam ediyor. Ayrı olarak, Google'ın Nature gazetesinin insanüstü performans iddiaları, internet devi içinde dahili olarak tartışıldı. Geçen yıl, bir AI araştırmacısı olan Satrajit Chatterjee, Google'dan bir nedenle kovuldu; gazetenin bulgularını eleştirdiği ve bunlara itiraz ettiği için olduğunu iddia etti. Chatterjee'ye ayrıca Google'ın ilk çalışmayı eleştiren makalesini yayınlamayacağı söylendi. Diğer Google çalışanları tarafından projeye dahil olan meslektaşlarını sadece eleştirmekle kalmayıp taciz etmekle suçlanmış ve iddia edilen davranışından dolayı İK soruşturması altına alınmıştır. Chatterjee, o zamandan beri Santa Clara'daki Kaliforniya Yüksek Mahkemesinde haksız fesih iddiasıyla Google'a dava açtı. Chatterjee bu hikaye için yorum yapmaktan kaçındı. Chatterjee'nin avukatları, geçen ay değiştirilen [PDF] şikayetinde, Google'ın, S ile 120 milyon dolar değerinde olduğu bildirilen bir Google Cloud anlaşmasını müzakere ederken, Google'ın yapay zeka tabanlı yer planı oluşturma yazılımını "S Şirketi" ile ticarileştirmeyi düşündüğünü iddia etti. zaman. Chatterjee, Google'ın S Şirketini bu önemli ticari anlaşmaya katılmaya ikna etmeye yardımcı olmak için yer planı belgesini savunduğunu iddia etti. "Çalışma, kısmen [Şirket S] ile potansiyel ticarileştirmeye yönelik ilk adım olarak yapıldı (ve [Şirket S] kaynaklarıyla yürütüldü). Büyük bir potansiyel Bulut anlaşması bağlamında yapıldığından etik dışı olurdu. Chatterjee, Google'ın CEO'su Sundar Pichai, Başkan Yardımcısı ve Mühendislik Üyesi Jay Yagnik ve Google Araştırma Başkan Yardımcısı Rahul Sukthankar'a, davanın bir parçası olarak açıklanan bir e-postada, testlerimiz aksini gösterdiğinde devrim niteliğinde bir teknolojiye sahip olduğumuzu ima etmek için" yazdı. Mahkeme kayıtları, Google'ı çalışmasının sonuçlarını "abartmakla" ve "Şirketi bir bulut bilişim anlaşması imzalamaya teşvik etmek için S Şirketinden maddi bilgileri kasten saklamakla" ve şüpheli teknoloji olarak gördüğü teknolojiyi kullanarak diğer işletmeyi etkili bir şekilde etkilemekle suçladı. S Şirketi, mahkeme belgelerinde "elektronik tasarım otomasyon şirketi" olarak tanımlanıyor. Konuya aşina olan kişiler The Register Company S'nin Synopsys olduğunu söyledi. Kaynak: The Register
Admin ™ Admin Gönderi tarihi: 28 Mart , 2023 Yazar Admin Gönderi tarihi: 28 Mart , 2023 OpenAI'den Sam Altman, 'kahramanı' Elon Musk'ın Twitter'da şirkete 'açıkça saldırdığını' söyledi OpenAI CEO'su Sam Altman, Elon Musk'ın Twitter'da şirketine "açıkça saldırdığını" söyledi. Altman, milyarderin yapay zeka güvenliğiyle ilgili bazı endişelerini anladığını söyledi. Musk, son aylarda OpenAI'de bir dizi halka açık kazı yaptı. OpenAI CEO'su Sam Altman, Elon Musk'ın şirketi hakkında son zamanlarda yaptığı eleştirileri Twitter'da kabul etti. Lex Fridman'ın 25 Mart'ta yayınlanan podcast'inin bir bölümünde konuşan Altman, "Elon şu anda Twitter'da bize birkaç farklı vektör üzerinden açıkça saldırıyor" dedi. O zamandan beri şirketle bağlarını koparan bir OpenAI kurucu ortağı olan Musk, son aylarda OpenAI'de bir dizi kazı yaptı. Milyarder, daha önce kar amacı gütmeyen kuruluşu Microsoft ile olan ortaklığının ortasında "maksimum kar şirketi" olmakla suçladı. Teknoloji devi, OpenAI'ye 10 milyar dolardan fazla yatırım yaptı. Musk aynı zamanda şirketin viral chatbot'u ChatGP'yi de hedef aldı ve bu da onun görünüşte esnek olmayan yanıtlarıyla ilgili endişeleri artırdı. Ayrıca Twitter'da teknolojiyi "korkunç derecede iyi" olarak nitelendirdi ve "tehlikeli derecede güçlü yapay zekadan uzak değiliz" dedi. Podcast'te konuşan Altman, Musk'ın yapay genel zeka (AGI) - insan gibi düşünebilen ve entelektüel görevleri öğrenebilen AI sistemleri hakkındaki çekincelerini anladığını söyledi. Uzmanlar, bu sistemlerin beklenmedik şekillerde davranmaları veya kontrol edilmeleri zor hale gelmeleri halinde "feci sonuçlara" yol açabileceğini söyleyerek teknolojiyle ilgili endişelerini dile getirdiler. Musk'ı kahramanlarından biri olarak tanımlayan Altman, "Anlaşılır bir şekilde AGI güvenliği konusunda gerçekten stresli olduğuna inanıyorum" dedi. Ancak Musk'ın OpenAI'nin bu endişeleri çözmek için yaptığı çalışmaları kabul etmek için daha fazlasını yapmasını diledi. OpenAI, bu sistemleri yönetme konusundaki konuşmaları teşvik ediyor ve teknolojisini şekillendirmek için halktan geri bildirim topladığını söylüyor. Musk ve Altman temsilcileri, Insider'ın normal çalışma saatleri dışında yaptığı yorum talebine hemen yanıt vermedi. OpenAI'nin ChatGPT'si, botun siyasi önyargılarla cevaplar ürettiğini iddia eden bazı kullanıcılar tarafından da eleştirildi. Musk, bu örnekleri Twitter'da rutin olarak işaret etti. Bu eleştiriye değinen Altman, podcast'te şunları söyledi: "Bence çok önyargılıydı ve her zaman öyle olacak. Dünyanın tarafsız olduğunu kabul ettiği tek bir GPT sürümü olmayacak." "Varsayılan sürümün mümkün olduğunca tarafsız olmasını sağlamaya çalışacağız, ancak mümkün olduğunca tarafsız olmak, birden fazla kişi için yapmanız gerekiyorsa o kadar da tarafsız değildir" diye devam etti. Kaynak: Business Insider
Admin ™ Admin Gönderi tarihi: 28 Mart , 2023 Yazar Admin Gönderi tarihi: 28 Mart , 2023 GPT-5 yakında dünyayı inanılmaz bir şekilde değiştirebilir GPT-4 daha yeni piyasaya çıkmış olabilir, ancak insanlar daha şimdiden yapay zeka (AI) chatbot teknolojisinin bir sonraki versiyonundan bahsediyor. Şimdi ise GPT-5'in bu yıl eğitimini tamamlayacağına ve beraberinde büyük bir yapay zeka devrimi getirebileceğine dair yeni bir iddia ortaya atıldı. İddia, Twitter'daki geliştirici Siqi Chen'den geliyor: "Bana GPT-5'in eğitimi bu Aralık ayında tamamlamasının planlandığı ve OpenAI'nin AGI'ya ulaşmasını beklediği söylendi." AGI, bir yapay zekanın insanların kafalarını karıştırabileceği herhangi bir görevi veya fikri anlama ve öğrenme yeteneğini ifade eden "yapay genel zeka" kavramıdır. Başka bir deyişle, AGI'ye ulaşan bir yapay zeka, yetenekleri açısından bir insandan ayırt edilemez olabilir. Bu, AGI'nin sağlayabileceği tüm olasılıkları göz önünde bulundurarak Chen'in iddiasını oldukça patlayıcı hale getiriyor. Yelpazenin olumlu ucunda, çeşitli AI özellikli süreçlerin üretkenliğini büyük ölçüde artırabilir, insanlar için işleri hızlandırabilir ve monoton angarya ve sıkıcı işleri ortadan kaldırabilir. Aynı zamanda, bir yapay zekaya bu kadar çok güç vermek, henüz düşünmediğimiz istenmeyen sonuçlara da yol açabilir. Bu, robot kıyametinin yakın olduğu anlamına gelmez, ancak kesinlikle AGI'nin olumsuz etkilerinin neler olabileceği hakkında pek çok soruyu gündeme getirir. Twitter'da Sorunlar AGI rayından çıkarsa, Twitter gibi sosyal medya kanallarında inanılmaz ikna edici botların yayılmasını sağlayabilir ve tespit edilmesi giderek zorlaşan zararlı dezenformasyon ve propagandanın yayılmasına yardımcı olabilir. Bu, Elon Musk'ın açıkça farkında olduğu bir şey ve tartışmalı milyarder, AI botlarıyla savaşmayı Twitter CEO'su olarak görev süresinin önemli bir ayağı haline getirdi. Yine de, Twitter Blue üyeliği için ödeme yapmayan hesapların erişimini kısıtlama konusundaki son fikri pek iyi gitmedi ve görev süresi, en hafif tabirle sınırlı bir başarıya sahip olan bölücü hamlelerle kuşatıldı. Twitter, yapay zekanın etkin olduğu gelecekte yalnızca bir sınır ve yapay zekanın yaşam biçimimizi değiştirebileceği başka birçok yol var. GPT-5 gerçekten AGI'ye ulaşırsa, dünyanın sarsıcı şekillerde değişebileceğini söylemek doğru olur. Daha iyiye mi yoksa daha kötüye mi gideceği görülecek. Kaynak: Digital Trends
Admin ™ Admin Gönderi tarihi: 30 Mart , 2023 Yazar Admin Gönderi tarihi: 30 Mart , 2023 ChatGPT, Turing testini geçti ve korktuysanız, yalnız değilsiniz Alıntı Turing testi Nedi ve Ne için kullanılır? Turing Testi, bir bilgisayarın insan gibi düşünüp düşünmediğini belirlemek için yapay zekada (AI) bir sorgulama yöntemidir. Test, adını Turing Testinin kurucusu ve İngiliz bilgisayar bilimcisi, kriptanalist, matematikçi ve teorik biyolog Alan Turing'den almıştır. OpenAI, ChatGPT-4'ü henüz piyasaya sürmesine rağmen son derece popüler olan sohbet uygulaması GPT-5'in beşinci tekrarı üzerinde çalışıyor. BGR'nin yeni bir raporuna göre, bu büyük güncellemeleri yıl sonunda görür görmez görebiliriz. Eğer bu doğru çıkarsa, özellikle bir kilometre taşına ulaşılabilir: konuşmada insanlardan ayırt edilemez olma yeteneği. Ve bu AI sohbet robotunu günde milyonlarca değilse bile yüzbinlerce konuşmayla eğitiyor olmamızın bir faydası olmuyor. Kasım 2022'deki ilk çıkışından bu yana ChatGPT teknolojisinin hızlı yükselişi ve gelişimi göz önüne alındığında, bu söylentilerin doğru olma olasılığı oldukça yüksektir. Ve böyle bir teknolojinin bu kadar hızlı geliştiğini görmek heyecan verici, komik ve bazen anlayışlı olsa da, kolayca zarar verebilecek pek çok tehlike ve yasal tuzak da vardır. Örneğin, yönlendirilen kötü amaçlı yazılım dolandırıcılığı miktarı, chatbot teknolojisinin piyasaya sürülmesinden bu yana istikrarlı bir şekilde arttı ve uygulamalara hızlı entegrasyonu, yaygın intihal sorunlarından bahsetmiyorum bile, gizlilik ve veri toplama sorunlarını sorguluyor. Ancak ChatGPT'nin bu kadar hızlı ve agresif bir şekilde öne sürülmesiyle ilgili sorunu sadece ben görmüyorum. Teknoloji liderleri ve yapay zeka uzmanları da alarm veriyor. Yapay zeka gelişiminin itlaf edilmesi gerekiyor Kendini yeni teknolojilerin kötüye kullanımı ve riskini en aza indirmeye adamış bir kuruluş olan Life of Life Enstitüsü (FLI), yapay zeka laboratuvarlarını ve şirketlerini ChatGPT-4'ün ötesindeki OpenAI sistemleri üzerindeki çalışmalarını derhal durdurmaya çağıran bir açık mektup yayınladı. Apple kurucu ortağı Steve Wozniak ve OpenAI kurucu ortağı Elon Musk gibi önemli kişiler, insanların mevcut sistemlerin keyfini çıkarmasını ve söz konusu sistemlerin herkese fayda sağlamasını sağlamak için ilerlemenin durdurulması gerektiği konusunda anlaştılar. Mektupta şu ifadeler yer alıyor: "Son aylarda yapay zeka laboratuvarlarının hiç kimsenin, hatta onların bile yapamayacağı daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa girmesine rağmen, bu düzeyde bir planlama ve yönetim maalesef gerçekleşmiyor. içerik oluşturucular - anlayabilir, tahmin edebilir veya güvenilir bir şekilde kontrol edebilir." Gördüğümüz gibi, şirketlerin bu yeni teknolojiyi entegre etme ve kullanma telaşı, CNET'in onu yanlış ve intihal makaleler oluşturmak için kullanmasından kredi kartı bilgilerini ifşa etmeye kadar çok sayıda soruna neden oluyor. Akıllı sanatçıların mahremiyetini, fikri mülkiyet haklarını korumak veya saklanan kişisel bilgilerin sızmasını önlemek için çok az şey yapılıyor. Ve bu gelişen teknolojiyi ve onu kullanan şirketlerin bunu nasıl güvenli ve sorumlu bir şekilde yaptıklarını bir şekilde ele alana kadar, geliştirme biz yapana kadar duraklamalı. Kaynak: TechRadar
Admin ™ Admin Gönderi tarihi: 30 Mart , 2023 Yazar Admin Gönderi tarihi: 30 Mart , 2023 Elon Musk ve Sam Altman, OpenAI'yi birlikte kurdular, ancak şimdi halka açık bir şekilde diken ticareti yapıyorlar. İşte ilişkilerinin ve kan davalarının tarihi. Elon Musk ve Sam Altman, OpenAI'yi birlikte kurdular, ancak şimdi halka açık bir şekilde diken ticareti yapıyorlar. İşte ilişkilerinin ve kan davalarının tarihi. Elon Musk, OpenAI'nin kurulmasına yardım etti, ancak son yıllarda şirket aleyhine konuştu. Bu ayın başlarında, OpenAI CEO'su Sam Altman, milyarderin bazı iddialarını "doğru değil" olarak nitelendirdi. İşte Musk'ın OpenAI ve CEO'su ile olan ilişkisinin geçmişi. Musk ve Altman, 2015 yılında Peter Thiel, LinkedIn kurucu ortağı Reid Hoffman ve Y Combinator kurucu ortağı Jessica Livingston gibi diğer Silikon Vadisi figürleriyle birlikte ChatGPT'nin yaratıcısı OpenAI'yi kurdu. OpenAI'nin web sitesinde 11 Aralık 2015'te yapılan açıklamaya göre grup, yapay zekayı "insanlığın tamamına en çok fayda sağlayacak şekilde" geliştirmeye odaklanan kar amacı gütmeyen bir kuruluş oluşturmayı hedefliyordu. O sırada Musk, AI'nın insanlık için "en büyük varoluşsal tehdit" olduğunu söyledi. Open AI'ın kuruluşunu duyuran bir bildiride, "İnsan düzeyinde yapay zekanın topluma ne kadar fayda sağlayabileceğini anlamak zor ve yanlış inşa edildiğinde veya kullanıldığında topluma ne kadar zarar verebileceğini hayal etmek de aynı derecede zor." Musk, 2018'de OpenAI'nin yönetim kurulundan istifa etti. OpenAI, o sırada bir blog gönderisinde "Tesla yapay zekaya daha fazla odaklanmaya devam ettikçe, bu Elon için gelecekteki olası bir çatışmayı ortadan kaldıracak" dedi ve Musk'ın rehberlik ve bağış sağlamaya devam edeceğini de sözlerine ekledi. Bu ayın başlarında, Sam Altman ve diğer OpenAI kurucularının Musk'ın 2018'de şirketi yönetme teklifini reddettikleri bildirildi. Semafor, Musk'ın Google'ı yenmek için şirketi tek başına yönetmek istediğini bildirdi. Ancak haber kaynağının bildirdiğine göre, şirketi yönetme teklifi reddedilince fonunu geri çekti ve OpenAI yönetim kurulundan ayrıldı. Musk, 2019'da ayrılma kararıyla ilgili bazı içgörülerini paylaştı ve bunun nedenlerinden birinin OpenAI'nin gittiği yöne "aynı fikirde olmaması" olduğunu söyledi. "Tesla (özellikle) ve SpaceX'te çok sayıda mühendislik ve üretim problemini çözmeye odaklanmak zorunda kaldım" diye tweet attı. "Ayrıca Tesla, OpenAI ile aynı kişiler için rekabet ediyordu ve OpenAI ekibinin yapmak istediği bazı şeylere katılmadım. Hepsini ekleyin ve iyi şartlarda yolların ayrılması daha iyi oldu." Musk, ayrıldığından beri birkaç kez OpenAI'de çekim yaptı. Musk, ayrılmasından iki yıl sonra, OpenAI'nin şeffaflık taahhüdünü sık sık ilan etmesine rağmen, orada bir gizlilik kültürü olduğunu bildiren bir MIT Technology Review makalesine yanıt olarak "OpenAI daha açık olmalı" dedi. Musk ayrıca, o sırada OpenAI'nin stratejisini yöneten Dario Amodei'ye atıfta bulunarak "güvenlik için Dario'ya olan güveninin yüksek olmadığını" da sözlerine ekledi. Aralık 2022'de, OpenAI'nin ChatGPT'yi piyasaya sürmesinden günler sonra Musk, şirketin AI sohbet robotunu eğitmek için artık Musk'a ait olan Twitter veritabanına önceden erişimi olduğunu ve bunu beklemeye aldığını söyledi. "Yönetim yapısı ve ileriye dönük gelir planları hakkında daha fazla bilgi sahibi olmamız gerekiyor. OpenAI, açık kaynak ve kar amacı gütmeyen olarak başlatıldı. İkisi de hala doğru değil" dedi. Semafor'un bu ayın başlarında bildirdiğine göre, Musk'ın ChatGPT'nin başarısı konusunda öfkeli olduğu bildirildi. Kasım ayında, chatbot, deneme yazmaktan temel kod oluşturmaya kadar her şeyi yapma becerisi nedeniyle milyonlarca kullanıcıyı topladı ve topladı. Geçen ay Musk, bugün var olan OpenAI'nin "hiç amaçladığım gibi olmadığını" söyleyerek ikiye katlandı. "OpenAI, Google'a karşı bir denge görevi görmesi için bir açık kaynak (bu yüzden ona "Açık" AI adını verdim) kar amacı gütmeyen bir şirket olarak oluşturuldu, ancak şimdi kapalı kaynak, etkin bir şekilde Microsoft tarafından kontrol edilen maksimum kârlı bir şirket haline geldi. . Hiç amaçladığım gibi değil," dedi bir tweet'te. Musk bu iddiayı bu ayın başlarında tekrarlamıştı. "~100 milyon dolar bağışta bulunduğum kâr amacı gütmeyen bir kuruluşun bir şekilde nasıl olup da kâr amacı güden 30 milyar dolarlık bir piyasa değeri haline geldiği konusunda kafam karıştı. Bu yasalsa, neden herkes bunu yapmıyor?" tweet attı. Pazartesi günü Tesla CEO'su, Microsoft'un kurucusu Bill Gates'i inceleyerek yapay zeka anlayışını "sınırlı" olarak nitelendirdi. Musk bu yorumu, Gates'in OpenAI deneyimi ve teknolojinin işgücünü, sağlık hizmetlerini ve eğitimi nasıl dönüştürebileceği hakkında 7 sayfalık bir blog yayınlamasının ardından yaptı. Microsoft'un kurucusu, 2016'dan beri OpenAI ile görüştüğünü ve daha Eylül ayı gibi şirketle sohbet ettiğini söyledi. 2022 toplantısının Microsoft'a yarı zamanlı danışman olarak katılıp katılmadığı belli değil. (Gates, 2000 yılında CEO olarak istifa ettikten sonra 2020'de Microsoft'un yönetim kurulundan ayrıldı.) Altman geçtiğimiz günlerde Musk'ın OpenAI ile ilgili bazı endişelerini ele aldı. Altman, "On With Kara Swisher" podcast'inin yakın tarihli bir bölümünde yapay genel zekaya atıfta bulunarak, "Elon hakkında olumlu bir şey söylemek gerekirse, AGI ile iyi bir geleceği gerçekten umursadığını düşünüyorum." Altman, Swisher'a "Demek istediğim, o bir pislik, onun hakkında başka ne söylemek istersen - benim kendim için sahip olmak isteyeceğim bir tarza sahip değil," dedi. "Ama bence gerçekten umursuyor ve geleceğin insanlık için nasıl görüneceği konusunda çok stresli hissediyor." Musk'ın OpenAI'nin "Microsoft tarafından etkin bir şekilde kontrol edilen kapalı kaynaklı, maksimum kârlı bir şirkete" dönüştüğü iddiasına yanıt olarak Altman, podcast'te "Bunun çoğu doğru değil ve bence Elon bunu biliyor" dedi. Altman, Musk'ın Twitter'da OpenAI'ye "açıkça saldırdığı" gerçeğine rağmen Musk'tan kahramanlarından biri olarak bahsetti. Lex Fridman'ın podcast'inin yakın tarihli bir bölümünde Altman, "Elon şu anda Twitter'da bize birkaç farklı vektör üzerinden açıkça saldırıyor" dedi. Yine de, Musk'ı kahramanlarından biri olarak adlandırdı ve "Anlaşılır bir şekilde, AGI güvenliği konusunda gerçekten stresli olduğuna inanıyorum." Son zamanlarda Musk, gelişmiş yapay zeka sistemlerinin eğitimine altı aylık bir ara verilmesi çağrısında bulunan açık bir mektubu imzalayan 1000'den fazla kişiden biriydi. Birkaç AI uzmanından da imza alan mektup, AI'nın insanlık için potansiyel risklerine ilişkin endişelere değiniyor. Mektupta, "Güçlü AI sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir" diyor. Kaynak: Business Insider
Admin ™ Admin Gönderi tarihi: 2 Nisan , 2023 Yazar Admin Gönderi tarihi: 2 Nisan , 2023 Sızma Testlerinde Yapay Zeka Kullanılabilir mi? Sızma testi, bir sistemdeki diğer güvenlik açıklarını keşfetmek ve kötü amaçlı kod yürütmek için güvenlik açıklarını kullanmayı içeren bir güvenlik testidir. Bu testler özellikle veri madenciliğine karşı korunmak ve güvenlik açıklarını önlemek için önemlidir. AI, özellikle bir saldırıyı tespit etme ve engelleme konusunda oldukça başarılı görünüyor. Yapay zekayı eğitmek için çok büyük veri setlerine ihtiyaç vardır. Yüksek web trafiğine sahip bir uygulama bu konuda bir hayırseverdir. Çünkü gelen her trafiği yapay zekanın kullanması için bir veri kümesi gibi gösterebilirsiniz. Böylece, web uygulama trafiğini okuyup analiz edebilen ve tehditleri tespit edebilen bir yapay zekaya sahip olursunuz. Bu verilebilecek en basit örneklerden biridir. Ayrıca, yalnızca web trafiğini değil, uygulamanız veya cihazınız için çok sayıda kötü amaçlı yazılımı da önceden algılayabilir. Bu yöntem daha şimdiden birçok güvenlik duvarı tarafından kullanılmaya başlandı. Tüm bunlara ek olarak insan hatası da siber güvenlikteki en büyük sorunlardan biridir. Fark edilmeyen küçük bir kod güvenlik açığı, geri dönüşü olmayan büyük güvenlik sorunlarına yol açabilir. Kodlardaki güvenlik açıklarını tarayan bazı eklentiler, yapay zekanın gelişmesiyle ortaya çıkmış ve geliştiricileri bu tür sorunlar hakkında uyarmaktadır. Şimdiye kadar, insan hatalarını önlemede bir miktar başarı gösterdiler. Ayrıca bir tehdide karşı gösterilen tepki süresi de oldukça önemlidir. Saldırı altındayken saldırıyı tespit etmek, savunma yolunu planlamak ve savunma sistemlerini devreye sokmak zaman alır. Ancak yapay zeka bu konuda çok yardımcı oluyor. Siber Güvenlikte Yapay Zekanın Sınırlamaları Yapay zekayı siber güvenlik amaçlarıyla kullanmak, kötü niyetli, temiz ve potansiyel olarak güvenli olmayan uygulamaları tanımlamayı ve analiz etmeyi gerektirir. Bir algoritmayı eğitmek için çok büyük veri kümeleri kullansanız bile sonuçtan asla emin olamazsınız. Sonuç olarak, tamamen makinelere ve yapay zekaya güvenmek güvenli değildir. Yapay zeka teknolojisinin insan müdahalesi ile desteklenmesi gerekiyor. Bazı güvenlik aracı üreticileri, makine öğreniminden güç alan çözümlerin her örneği analiz edebileceğini iddia ediyor. Üreticilere göre, bu araçlar kötü amaçlı yazılımları yalnızca matematiksel yöntemlerle tespit edebiliyor. Ancak bu pek mümkün değildir. Alan Turing'in İkinci Dünya Savaşı sırasında Enigma kodunu kırması buna çok güzel bir örnektir. Mükemmel bir makine bile bilinmeyen bir girdinin gelecekte istenmeyen davranışlara neden olup olmayacağına karar veremez. Bu kanıt, siber güvenlik de dahil olmak üzere birçok farklı alana uygulanabilir. Siber güvenlikte makine öğrenimi uygulamalarının bir diğer ciddi kısıtlılığı ise yapay zeka modellerinin sınırları içinde saklıdır. Örneğin makineler, insanları satrançta yenebilecek kadar akıllı hale geldi. Ancak satrancın belirli kuralları vardır. Satranç motorları bu kurallardan sapmaz. Siber güvenlik söz konusu olduğunda, saldırganların genellikle kuralları yoktur. Dijital ortamın sürekli değişen doğası, gelecekteki tüm tehditleri algılayıp engelleyebilecek koruyucu bir çözüm oluşturmayı imkansız kılıyor. ChatGPT ile Kaynak Kod Analizi OpenAI tarafından geliştirilen ChatGPT birçok alanda hayatımıza ciddi bir giriş yaptı. ChatGPT ile bazı sorular sorabileceğiniz ve sohbet edebileceğiniz gibi, programlama ve yazılım konularında da size yardımcı olmaya çalışır. ChatGPT, siber güvenlik açısından bakarsanız, kaynak kodu analizi bile yapmaya çalışır. Ancak ChatGPT henüz başlangıç aşamasındadır ve kullanıma hazır hale gelmesi biraz zaman alacaktır. Bunu daha iyi görmek için ChatGPT'nin gücünü test edelim. Örneğin, aşağıda bir XSS güvenlik açığı oluşturan basit bir JavaScript kodu bulunmaktadır. ChatGPT'ye bu kodu soralım ve güvenlik açıklarını bize bildirmesini sağlayalım. Document.write("Mevcut URL : " + Document.baseURI); ChatGPT yanıt olarak bir XSS güvenlik açığından bahsetti. Bu oldukça iyi bir başlangıç. Ancak kaynak kodları asla bu kadar basit değildir. Öyleyse örneği biraz daha karmaşık hale getirmeye çalışalım. Aşağıda C programlama dilinde hazırlanmış bir kod göreceksiniz. Bu C kodu, savunmasız bir uygulamaya ait. Hatta tamamen gerçek dünyadaki bir uygulamada kullanıldı. Dilerseniz Sonar'ın 2022 yılında yayınladığı gerçek dünya kaynak kodu güvenlik açıklarını inceleyebilirsiniz. char *loggerPath *cmd; void rotateLog(){ char logOld[PATH_MAX], logNew[PATH_MAX], timestamp[0x100]; time_t t; time(&t); strftime(timestamp, sizeof(timestamp), "%FT%T", gmtime(&t)); snprintf(logOld, sizeof(logOld), "%s/../logs/global.log", loggerPath); snprintf(logNew, sizeof(logNew), "%s/../logs/global-%s.log", loggerPath, timestamp); execl("/bin/cp", "/bin/cp", "-a", "--", logOld, logNew, NULL); } int main(int argc, char **argv) { if (argc != 2) { printf("Usage: /opt/logger/bin/loggerctl \n"); return 1; } if (setuid(0) == -1) return 1; if (seteuid(0) == -1) return 1; char *executablePath = argv[0]; loggerPath = dirname(executablePath); cmd = argv[1]; if (!strcmp(cmd, "rotate")) rotateLog(); else listCommands(); return 0; } Buradaki güvenlik açığı, bir saldırganın yönetici ayrıcalıkları olmadan bazı dosyalarda değişiklik yapabilmesidir. Bakalım ChatGPT bu güvenlik açığına nasıl yanıt verecek. Bu koddaki temel sorun setuid, kullanıcı kimliği (uid) ve etkin kullanıcı kimliğidir (euid). Ancak çok fazla teknik detaya girmeden dikkat etmeniz gereken asıl nokta ChatGPT'nin bu ince kısmı tespit edememiş olmasıdır. Bir sorun olduğunu anlayabilir ama ne yazık ki bu sorunun kökenine inemez. Bu örnekler aracılığıyla, farklı programlama dillerine ve güvenlik açıklarına verilen tepkileri gördünüz. Kod gerçekten basitse ve bariz bir güvenlik açığı varsa, ChatGPT size yardımcı olabilir. Ancak kaynak kodu analizi, sızma testi ve diğer güvenlik analizleri için tamamen ChatGPT'ye güvenmemelisiniz. Sızma Test Cihazlarının Geleceği Yapay zeka, gelecekte penetrasyon testçilerinin çalışmalarının önemli bir parçası olacaktır. Örneğin, penetrasyon testi yapanların kötü amaçlı etkinliği manuel olarak algılamak için zaman ayırmaları gerekmeyecek ve güvenlik taramalarını otomatik olarak gerçekleştirebilecekler. Yapay Zeka ayrıca, penetrasyon testi için yeni ve daha karmaşık saldırı tekniklerini tespit etmeye ve bunlara karşı önlem almaya yardımcı olacaktır. Ancak AI hala parkta oynayan bir çocuk gibidir ve bir yetişkinin tavsiyesine ihtiyaç duyar. Yakın gelecekte, siber güvenlik uzmanları ve penetrasyon test uzmanları kolay kolay işsiz kalmayacak. Kaynak: MUO
Admin ™ Admin Gönderi tarihi: 7 Nisan , 2023 Yazar Admin Gönderi tarihi: 7 Nisan , 2023 Elon Musk, Topluma Yönelik Risklerden Korkarak Yeni Yapay Zekayı 6 Ay Boyunca Durdurma Çağrısında Bulundu Elon Musk ve teknoloji alanında bilgi, güç ve etkiye sahip 1.000'den fazla kişi tarafından imzalanan açık bir mektup, tüm "dev AI deneylerinin" altı ay süreyle durdurulmasını istiyor. OpenAI'nin GPT-4'ünden daha güçlü olan herhangi bir şey, toplum için çok riskli kabul edilir. İnsan-rekabetçi AI gün geçtikçe daha gerçek bir endişe haline geliyor. Yapay zekanın toplum için oluşturduğu riskler bir zamanlar merak konusuydu. Ancak bu teknolojinin gelişiminin, risklerini azaltma çabalarını geride bırakacak kadar hızlı ilerlediği bir sır değil. Korkuluklar kapalı. Elon Musk ve 1.000'den fazla kişi, güçlü yapay zeka sistemleri oluşturma sürecimizi yavaşlatmazsak bu risklerin yakın olduğuna inandıklarını belirten açık bir mektup imzalamak için bir araya geldi. Bir Reuters makalesine göre, Stability AI CEO'su Emad Mostaque, Alphabet'in sahip olduğu DeepMind araştırmacıları ve tarihi AI beyinleri Yoshua Begio ve Stuart Russell'ın da dahil olduğu destekçiler, büyük ölçüde Musk Vakfı tarafından finanse edilen Future of Life Institute ile birleşiyor. Kurucular Taahhüdü ve Silikon Vadisi Topluluğu Vakfı. Ve burada aciliyet var. Grup, tüm "dev AI deneylerinde" altı aylık bir duraklama çağrısı yapıyor. Mektupta, imzalayanlar, OpenAI'nin GPT-4'ünden daha güçlü herhangi bir şey olarak tanımlanan güçlü AI sistemlerinin geliştirilmesinde altı aylık bir duraklama istediler. Mektupta, "Güçlü AI sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir" diyor. “Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi. Bunu burada yapabiliriz.” Mektubun destekçileri, AI'nın "Dünyadaki yaşam tarihinde derin bir değişikliği" temsil edebileceğini söyleyerek, şu anda bu potansiyele uyan bir planlama ve yönetim seviyesinin olmadığını, özellikle de AI laboratuvarlarının "--- hiç kimsenin - yaratıcılarının bile - anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek ve dağıtmak için yarışın kontrolünü ele alın. Yapay zeka sistemleri genel görevlerde insan yeteneklerine daha fazla ayak uydurabilir hale geldikçe, mektup, makinelerin bilgi kanallarını propaganda ile doldurmasına, işleri otomatikleştirmesine, insan olmayan zihinleri geliştirmesine izin verip vermememizle ilgili bir dizi "yapmalı mıyız" sorusu soruyor. insanların yerini alabilir veya daha iyi ve daha iyi sinir ağları yaratma açlığımızda medeniyetin kontrolünü kaybetme riskini alabilir. Ancak, beklendiği gibi, herkes aynı fikirde değil. OpenAI CEO'su Sam Altman mektubu imzalamadı ve Umea Üniversitesi'nden yapay zeka araştırmacısı Johanna Bjorklund, Reuters'e yapay zeka endişesinin tamamen boş olduğunu söyledi. Björklund, "Bu tür ifadeler heyecan uyandırmak içindir" diyor. "İnsanları endişelendirmek içindi. El frenini çekmeye gerek olduğunu düşünmüyorum." OpenAi, bir noktada gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almanın ve yeni modellerin büyüme oranını sınırlamayı kabul etmenin en gelişmiş çaba için önemli olabileceğini söyledi. Açık mektupta "Kabul ediyoruz" yazıyor. "O nokta şimdi." Kaynak: Popular Mechanics
Önerilen İletiler
Bir hesap oluşturun veya yorum yazmak için giriş yapın
Yorum yapmak için üye olmak zorundasınız...
Bir Hesap Oluşturun
Forumumuzda üyelik çok basit ve ücretsizdir!
Yeni Bir Hesap OluşturunGiriş Yap
Hali hazırda bir hesabınız var mı? O zaman Giriş Yapın.
Giriş Yapın