Zıplanacak içerik
  • Üye Ol

Robotlar ve Yapay Zeka Hakkında En Son Haberler (Türkiye ve Dünyadan)


Önerilen İletiler

  • Cevaplar 205
  • Tarih
  • Son Cevap

Bu Başlıkta En Çok Gönderenler

  • Admin

    206

Bu Başlıkta En Çok Gönderenler

Gönderilen Görseller

  • Admin

OpenAI CEO'su, bir ChatGPT hatasının kullanıcı konuşma geçmişlerini sızdırmasından sonra kendisini 'korkunç' hissettiğini söyledi

AA174QVT.img?w=768&h=512&m=6&x=421&y=189

OpenAI CEO'su Sam Altman, ChatGPT'deki bir hatanın kullanıcıların sohbetlerini sızdırmasının ardından "korkunç" hissettiğini söyledi.

Bu aksaklık, bazı ChatGPT kullanıcılarının araçta diğer kullanıcıların konuşmalarının başlıklarını görmesine izin verdi.

Bu, bazı firmaların çalışanlarına ChatGPT'ye gizli bilgileri girmemelerini söylemesiyle geldi.

OpenAI patronu Çarşamba günü Twitter'da, şirketin popüler AI aracı ChatGPT'nin kullanıcıların konuşma geçmişlerini sızdıran bir hataya maruz kalmasından sonra kendini kötü hissettiğini söyledi.

2015 yılında OpenAI'nin kurucu ortağı olan Sam Altman, bir tweet'te ChatGPT'nin açık kaynak kitaplığındaki bir hatadan kaynaklanan "önemli bir sorun" yaşadığını yazdı. Altman, açık kaynak kitaplığının adını vermedi veya OpenAI tarafından nasıl uygulandığına ilişkin ayrıntılara girmedi. Terim, herkesin yeniden kullanması ve bazen değiştirmesi için ücretsiz olan kod veya yazılım anlamına gelir.

Hatanın, bazı ChatGPT kullanıcılarının diğer kullanıcıların konuşma geçmişlerinin başlıklarını görmelerine izin verdiğini, ancak konuşmaların kendilerini görmediğini söyledi. Bir Reddit kullanıcısı, ChatGPT'de hiç yapmadıklarını söyledikleri konuşmaları gösteren bir ekran görüntüsü yayınladı.

"Bu konuda kendimizi kötü hissediyoruz," diyen Altman, OpenAI'nin o zamandan beri hata için bir düzeltme yayınladığını da sözlerine ekledi.

OpenAI, bu sorun nedeniyle Pazartesi günü ChatGPT'yi geçici olarak kapattı ve Pasifik saatine göre Pazartesi akşamı geç saatlerde kullanıcılar hala sohbet geçmişine erişemiyor. Altman, Twitter'da OpenAI'nin "teknik bir ölüm sonrası" takip etmeyi planladığını ve kullanıcıların Pazartesi 01:00 PT'den Pazartesi 10:00 PT'ye kadar sohbet geçmişlerine erişemeyeceklerini söyledi. Daha fazla ayrıntı vermedi.

OpenAI, Insider'ın normal ABD çalışma saatleri dışında yapılan yorum talebine hemen yanıt vermedi.

OpenAI, ChatGPT'nin en son sürümünü 14 Mart'ta kullanıma sundu. ChatGPT-4 görüntüleri anlayabilir, daha uzun konuşmalar yapabilir ve GPT-3.5'ten daha doğru ve yaratıcı olduğu söylenir.

Altman, yeni güncellemenin ChatGPT'nin baro sınavını geçebileceği ve AP sınavlarında en yüksek notları alabileceği anlamına geldiğini söyledi.

İşten çıkarma e-postaları yazmaktan stok hikayelerine kadar, ChatGPT'nin çeşitli görevleri insan benzeri bir şekilde yerine getirme yeteneği, internette bir sansasyon haline geldi. Profesyonel ağ uygulaması Fishbowl tarafından yapılan bir ankete göre, çalışan profesyonellerin %40'ından fazlası işteki görevleri gerçekleştirmek için OpenAI'nin ChatGPT'si gibi yapay zeka araçlarını kullandı ve %70'i patronlarına söylemedi.

Ancak ChatGPT, işverenler arasında bazı şirketlerin chatbot'u engellediği noktaya kadar endişe uyandırdı.

Amazon, Walmart ve Microsoft, çalışanlarını gizlilik endişeleri nedeniyle gizli bilgileri ChatGPT'ye girmemeleri konusunda uyardı. Bu arada, raporlara göre JP Morgan, Goldman Sachs ve Citigroup gibi bankalar, çalışanlarının AI aracını kullanmasını kısıtladı.

Kaynak: Business Insider

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

AI (Yapay Zeka) artık el çizebilir. Derin sahtekarlıklar için bu kötü bir haber.

Aidan Ragan yapay olarak oluşturulmuş görüntüler oluşturduğunda, fotoğraflarındaki kişilerin beş parmaktan az veya çok parmaklı, düğümlü, damarlı ellere sahip olmasını bekler. Ancak bu ay, Florida Üniversitesi'nde sanatta yapay zeka hakkında dersinde otururken, popüler bir görsel oluşturucunun gerçekçi eller çıkardığını görünce şaşkına döndü.

AA195KNX.img?w=768&h=450&m=6

19 yaşındaki Ragan, The Washington Post ile yaptığı röportajda "Harikaydı" dedi. "Onu geride tutan tek şey buydu ve şimdi mükemmelleşti. Biraz korkutucuydu… ve heyecan vericiydi.”

Yazılı talimatlara dayalı olarak resimler oluşturan yapay zeka görüntü oluşturucuları, popülarite ve performansta hızla arttı. İnsanlar sıradandan (Noel Baba çizin) anlamsıza (vitray tarzında uzayda dachshund) kadar farklı komutlar girerler ve yazılım, profesyonel bir tabloya veya gerçekçi bir fotoğrafa benzeyen bir görüntü çıkarır.

Bununla birlikte, teknolojinin büyük bir başarısızlığı var: gerçeğe yakın insan eli yaratmak. Yapay zekayı eğiten veri kümeleri genellikle yalnızca el parçalarını yakalar. Bu, genellikle çok fazla parmağı olan ya da gerilmiş bilekleri olan şişkin ellerin fotoğraflarıyla sonuçlanır - bu, AI tarafından oluşturulan görüntünün sahte olduğunun bir göstergesidir.

Ancak Mart ayının ortalarında, popüler bir görüntü oluşturucu olan Midjourney, sorunu çözüyor gibi görünen bir yazılım güncellemesi yayınladı ve sanatçılar, aracın kusursuz ellerle görüntüler oluşturduğunu bildirdi. Bu gelişme büyük bir sorunu beraberinde getiriyor: Şirketin geliştirilmiş yazılımı, bu hafta eski başkan Donald Trump'ın tutuklanmasına ait gerçek görünen ve viral hale gelen sahte görüntüleri üretmek için kullanıldı ve bu teknolojinin yıkıcı gücünü gösterdi.

AA195Shi.img?w=768&h=768&m=6

AA195PK1.img?w=768&h=768&m=6

Görünüşte zararsız görünen güncelleme, gerçekçi sanat için AI görüntü oluşturuculara güvenen grafik tasarımcıları için bir nimettir. Ancak, orijinal görüntülerden çözülemeyen, oluşturulmuş içeriğin tehlikesi hakkında daha büyük bir tartışmaya yol açar. Bazıları bu hiper-gerçekçi yapay zekanın sanatçıları işsiz bırakacağını söylüyor. Diğerleri, kusursuz görüntülerin derin sahte kampanyaları daha makul hale getireceğini, görüntünün uydurma olduğuna dair göze batan ipuçları olmadığını söylüyor.

Berkeley'deki California Üniversitesi'nde dijital adli tıp profesörü olan Hany Farid, "Tüm bu ayrıntıları çivilemeden önce, ortalama bir insan... 'Tamam, burada yedi parmak var veya şurada üç parmak var - bu muhtemelen sahte,' derdi" dedi. . "Ama tüm bu ayrıntıları doğru yapmaya başladıkça... bu görsel ipuçları daha az güvenilir hale geliyor."

Metinden resme oluşturucular

Geçen yıl boyunca, beslediği verilere dayalı olarak metinler, görüntüler veya sesler oluşturan yazılımları destekleyen üretken yapay zekadaki büyük artışın ortasında, metinden görüntü oluşturucularda bir patlama oldu.

OpenAI tarafından oluşturulan ve adını ressam Salvador Dali ile Disney Pixar'ın WALL-E'sinden alan popüler Dall-E 2, geçen Temmuz'da piyasaya çıktığında interneti salladı. Ağustos ayında, Start-up Stable Diffusion, nasıl kullanılabileceği konusunda daha az kısıtlamaya sahip, esasen bir anti-DALL-E olan kendi versiyonunu yayınladı. Araştırma laboratuvarı Midjourney, Ağustos ayında Colorado Eyalet Fuarı'nda bir sanat yarışmasını kazandığında bir tartışmaya yol açan resmi yaratan kendi versiyonunu yaz aylarında piyasaya sürdü.

AA11puT5.img?w=768&h=512&m=6

Bu görüntü oluşturucular, internetten kazınmış milyarlarca görüntüyü alarak ve fotoğraflar ile yanlarındaki metin sözcükleri arasındaki kalıpları tanıyarak çalışır. Örneğin yazılım, birisi "tavşan" yazdığında bunun tüylü bir hayvanın resmiyle ilişkilendirildiğini öğrenir ve bunu tükürür.

Florida Üniversitesi'nde yapay zeka ve sanat doçentlerinden Amelia Winger-Bearskin, ellerin yeniden yaratılmasının yazılım için zorlu bir sorun olmaya devam ettiğini söyledi.

AI görüntü oluşturucular el çizmede neden kötü?

Yapay zeka tarafından üretilen yazılımın "el" kelimesinin ne anlama geldiğini tam olarak anlayamadığını, bunun da vücut kısmının işlenmesini zorlaştırdığını söyledi. Ellerin pek çok şekil, boyut ve formda olduğunu ve eğitim veri setlerindeki resimlerin genellikle yüzlere daha fazla odaklandığını söyledi. Eller tasvir edilirse, genellikle katlanmış veya hareket halindedirler ve vücut kısmının mutasyona uğramış bir görüntüsünü sunarlar.

Bir Zoom video röportajı sırasında ellerini tamamen açarak, "Bir kişinin her bir görüntüsü her zaman böyle olsaydı, muhtemelen elleri oldukça iyi yeniden üretebilirdik" dedi.

Winger-Bearskin, Midjourney'nin bu ayki yazılım güncellemesinin sorunda bir çentik oluşturduğunu söyledi, ancak bunun mükemmel olmadığını da belirtti. "Hala gerçekten tuhaf olanlarımız var," dedi. Midjourney, yazılım güncellemesi hakkında daha fazla bilgi edinmek isteyen yorum talebine yanıt vermedi.

Winger-Bearskin, Midjourney'nin görüntü veri kümesini iyileştirmesinin mümkün olduğunu söyledi, algoritmanın öğrenmesi için ellerin gizlenmediği fotoğrafları daha yüksek öncelik olarak işaretledi ve ellerin engellendiği görüntüleri daha düşük öncelik olarak işaretledi.

Almanya'da yaşayan 31 yaşındaki grafik tasarımcı Julie Wieland, Midjourney'nin daha gerçekçi eller yaratma yeteneğinden yararlandığını söyledi. Wieland, yazılımı görsel pazarlama kampanyaları için ruh hali panoları ve maketler oluşturmak için kullanıyor. Çoğu zaman, işinin en çok zaman alan kısmının post prodüksiyonda insan elini tamir etmek olduğunu söyledi.

AA195wgj.img?w=768&h=512&m=6

Ancak güncelleme acı tatlı, dedi. Wieland, Wong Kar-wai'nin “My Blueberry” filminde ünlü olan aydınlatma, parlama ve pencereden çekimlerden büyük ölçüde ilham alan yapay zeka tarafından oluşturulmuş bir görüntünün ellerine rötuş yapmaktan veya görüntüyü tercih ettiği yaratıcı estetikle eşleştirmekten sık sık zevk alırdı. Geceler."

“Mükemmel olmayan görünüşü özlüyorum” dedi. "Midjourney'den çıkar çıkmaz güzel görüntülere sahip olmayı ne kadar sevsem de, işin en sevdiğim yanı aslında onun post prodüksiyonu."

Yapay zeka alanında kariyer yapmayı planlayan Ragan, bu mükemmel görüntülerin yapay zekayla görüntü oluşturmayla ilgili eğlenceyi ve yaratıcılığı azalttığını da söyledi. “Yorumlayıcı sanat yönünü gerçekten beğendim” dedi. “Şimdi, sadece daha katı geliyor. Daha robotik hissettiriyor... daha çok bir araç.”

UC Berkeley'den Farid, Midjourney'nin daha iyi görüntüler oluşturma yeteneğinin politik risk oluşturduğunu çünkü daha makul görünen görüntüler üretebileceğini ve toplumsal öfkeyi ateşleyebileceğini söyledi. Geçen hafta Midjourney'de oluşturulan ve Trump'ın tutuklanmadığı halde tutuklandığını makul bir şekilde gösteren görüntülere işaret etti. Farid, Trump'ın kravatının uzunluğu ve elleri gibi küçük detayların daha iyi hale geldiğini ve daha inandırıcı hale geldiğini kaydetti.

"İnsanları bu tür şeylere inandırmak kolay," dedi. "Görsel [hata] olmadığında, artık her şey daha da kolay."

Daha birkaç hafta önce Farid, kötü yaratılmış elleri tespit etmenin bir görüntünün derinden sahte olup olmadığını anlamanın güvenilir bir yolu olduğunu söyledi. Kalitedeki iyileşme göz önüne alındığında, bunu yapmanın daha da zorlaştığını söyledi. Ancak, genellikle bir fotoğrafın arka planında, örneğin şekli bozulmuş bir ağaç dalı gibi, hala ipuçları olduğunu söyledi.

Farid, AI şirketlerinin teknolojilerini geliştirerek katkıda bulunabilecekleri zararlar hakkında daha geniş düşünmeleri gerektiğini söyledi. Korkulukları birleştirebileceklerini, bazı kelimeleri yeniden yaratmayı yasaklayabileceklerini (Dall E-2'de olduğunu söyledi), görüntü filigranları ekleyebileceklerini ve anonim hesapların fotoğraf oluşturmasını engelleyebileceklerini söyledi.

Ancak Farid, AI şirketlerinin görüntü oluşturucularının gelişimini yavaşlatmasının pek olası olmadığını söyledi.

“Üretken AI alanında bir silahlanma yarışı var” dedi. "Herkes nasıl para kazanılacağını öğrenmek istiyor ve hızlı hareket ediyorlar ve güvenlik sizi yavaşlatıyor."

Kaynak: The Washington Post

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

Google'ın süper insan AI (Yapay Zeka) çip düzeni iddiaları tekrar mikroskop altında

AA19757x.img?w=768&h=525&m=6

Nature, 120 milyon dolarlık bulut anlaşmasını ikna etmek için kullanıldığı iddia edilen dergi kağıdı ortaya çıktıkça yayınlanan araştırmayı araştırıyor

Özel rapor Nature'da yayınlanan ve makine öğrenimi yazılımının insanlardan daha hızlı daha iyi çipler tasarlayabildiğini iddia eden Google liderliğindeki bir araştırma makalesi, yeni bir araştırmanın sonuçlarına itiraz etmesinden sonra sorgulanmaya başlandı.

Haziran 2021'de Google, otomatik olarak optimize edilmiş mikroçip kat planları oluşturabilen pekiştirmeli öğrenmeye dayalı bir sistem geliştirmek için manşetlere girdi. Bu planlar, çip içindeki elektronik devre bloklarının düzenini belirler: CPU ve GPU çekirdekleri ve bellek ve çevresel denetleyiciler gibi şeyler aslında fiziksel silikon kalıbın üzerine oturur.

Google, bu yapay zeka yazılımını, yapay zeka iş yüklerini hızlandıran kendi geliştirdiği TPU yongalarını tasarlamak için kullandığını söyledi: diğer makine öğrenimi sistemlerini daha hızlı çalıştırmak için makine öğreniminden yararlanıyordu.

Bir çipin yer planı önemlidir çünkü işlemcinin ne kadar iyi performans gösterdiğini belirler. Örneğin sinyaller ve veriler bu alanlar arasında arzu edilen bir hızda yayılacak şekilde çip devrelerinin bloklarını dikkatlice düzenlemek isteyeceksiniz. Mühendisler genellikle optimum konfigürasyonu bulmaya çalışırken tasarımlarını geliştirmek için haftalar veya aylar harcarlar. Mümkün olduğu kadar güçlü, enerji açısından verimli ve küçük bir çip üretmek için tüm farklı alt sistemlerin belirli bir şekilde yerleştirilmesi gerekir.

Günümüzde bir kat planı üretmek, genellikle çip tasarım uygulamalarını kullanan manuel çalışma ve otomasyonun bir karışımını içerir. Google'ın ekibi, pekiştirmeli öğrenme yaklaşımının, endüstri araçlarını kullanan insan mühendisler tarafından yapılan tasarımlardan daha iyi tasarımlar üreteceğini göstermeye çalıştı. Sadece bu da değil, Google, modelinin işini düzenleri yineleyen mühendislerden çok daha hızlı tamamladığını söyledi.

"Elli yıllık araştırmaya rağmen, çipli yer planlaması otomasyona meydan okudu ve fiziksel tasarım mühendislerinin üretilebilir bir düzen oluşturmak için aylarca yoğun çaba göstermesini gerektirdi... Altı saatin altında, yöntemimiz otomatik olarak her alanda insanlar tarafından üretilenlerden daha üstün veya karşılaştırılabilir olan çipli yer planlarını üretir. anahtar ölçümler," diye yazdı Google çalışanları Nature makalelerinde.

Araştırma, halihazırda makine öğrenimi algoritmalarını yazılım paketlerine dahil etmeye doğru ilerleyen elektronik tasarım otomasyon topluluğunun dikkatini çekti. Şimdi Google'ın insanlardan daha iyi model iddiasına San Diego'daki California Üniversitesi'nden (UCSD) bir ekip meydan okudu.

Bir bilgisayar bilimi ve mühendisliği profesörü olan Andrew Kahng liderliğindeki bu grup, Google'ın Nature'da tanımladığı yer planlama boru hattını tersine mühendislikle aylarca harcadı. Web devi, ticari duyarlılığı gerekçe göstererek modelinin iç işleyişine ilişkin bazı ayrıntıları sakladı, bu nedenle UCSD, Google çalışanlarının bulgularını doğrulamak için kendi eksiksiz sürümünü nasıl oluşturacağını bulmak zorunda kaldı. Prof Kahng'ın, Google'ın makalesinin hakem değerlendirmesi sürecinde Nature için eleştirmen olarak görev yaptığını not ediyoruz.

Üniversite akademisyenleri, araştırmalarında devre eğitimi (CT) olarak adlandırılan orijinal Google kodunu kendi yeniden oluşturmalarının aslında geleneksel endüstri yöntemlerini ve araçlarını kullanan insanlardan daha kötü performans gösterdiğini buldular.

Bu tutarsızlığa ne sebep olmuş olabilir? Başka bir açıklama olsa da, rekreasyonun eksik olduğu söylenebilir. Zamanla UCSD ekibi, Google'ın çipin mantık kapılarının başlangıç düzenlemesini oluşturmak için elektronik tasarım otomasyonu (EDA) paketlerinin önde gelen üreticilerinden biri olan Synopsys tarafından geliştirilen ticari yazılımı kullandığını ve ardından web devinin takviyeli öğrenme sisteminin optimize ettiğini öğrendi.

Google makalesi, model bir düzen oluşturduktan sonra, öncelikle işlemcinin amaçlandığı gibi çalışmasını ve fabrikasyon için sonlandırmasını sağlamak için endüstri standardı yazılım araçlarının ve manuel ayarlamanın kullanıldığından bahsetmişti. Google çalışanları, yer planının bir makine öğrenimi algoritması tarafından mı yoksa insanlar tarafından standart araçlarla mı oluşturulduğuna bakılmaksızın bunun gerekli bir adım olduğunu ve bu nedenle modelinin optimize edilmiş son ürün için övgüyü hak ettiğini savundu.

Bununla birlikte, UCSD ekibi, Nature makalesinde, modelin yinelenmesi için bir düzen hazırlamak için önceden kullanılan EDA araçlarına dair hiçbir söz olmadığını söyledi. Bu Synopsys araçlarının, modele yapay zeka sisteminin gerçek yeteneklerinin sorgulanması için yeterince iyi bir başlangıç yapmış olabileceği iddia ediliyor.

Üniversite ekibi, model için bir düzen hazırlamak üzere Synopsys paketinin kullanılması hakkında "Bu, makale incelemesi sırasında belirgin değildi" ve Nature'da bahsedilmiyor. Deneyler, ilk yerleştirme bilgilerine sahip olmanın BT sonuçlarını önemli ölçüde artırabileceğini gösteriyor. ."

O zamandan beri bazı akademisyenler, Nature'ı Google'ın makalesini UCSD'nin çalışması ışığında incelemeye çağırdı. The Register tarafından görüntülenen dergiye gönderilen e-postalarda araştırmacılar, Prof Kahng ve meslektaşları tarafından dile getirilen endişelerin altını çizdi ve Google'ın makalesinin yanıltıcı olup olmadığını sorguladı.

Dallas'taki Texas Üniversitesi'nde elektrik mühendisliği öğreten kıdemli öğretim görevlisi Bill Swartz, sonuçların internet titanının özel TPU'larını içerdiği ve bu nedenle doğrulamanın imkansız olduğu için Nature gazetesinin "birçok [araştırmacıyı] karanlıkta bıraktığını" söyledi.

Synopsys'in yazılımının Google'ın yazılımını hazırlamak için kullanılmasının araştırılması gerektiğini söyledi. "Hepimiz asıl algoritmayı yeniden üretebilmek için asıl algoritmayı bilmek istiyoruz. [Google'ın] iddiaları doğruysa, o zaman onu uygulamak istiyoruz. Bilim olmalı, hepsi objektif olmalı; işe yarıyorsa, çalışıyor." dedi.

Nature, The Register'a Google'ın makalesini incelediğini söyledi, ancak tam olarak neyi ve neden araştırdığını söylemedi.

Nature sözcüsü, "Gizlilik nedeniyle bireysel vakaların ayrıntıları hakkında yorum yapamayız" dedi. "Ancak, genel olarak konuşursak, dergide yayınlanan herhangi bir makale hakkında endişeler dile getirildiğinde, yerleşik bir süreci izleyerek bunları dikkatlice inceliyoruz.

"Bu süreç, yazarlarla istişareyi ve uygun olduğunda, hakemlerden ve diğer dış uzmanlardan tavsiye almayı içerir. Bir karar vermek için yeterli bilgiye sahip olduğumuzda, en uygun olan ve okuyucularımız için açıklık sağlayan yanıtı takip ederiz. sonuca."

Bu, derginin yeni bir incelemeyle karşı karşıya olan çalışmaya ilişkin bir yayın sonrası araştırması yaptığı ilk sefer değil. Google çalışanlarının makalesi, Mart 2022'de eklenen ve çalışmanın yöntemlerini izlemeye çalışanlar için Google'ın bazı açık kaynaklı CT kodlarına bir bağlantı içeren bir yazar düzeltmesiyle çevrimiçi kaldı.

Google'ın makalesinin baş yazarları Azalia Mirhoseini ve Anna Goldie, UCSD ekibinin çalışmalarının, yöntemlerinin doğru bir şekilde uygulanması olmadığını söyledi. Profesör Kahng'ın grubunun, modellerini herhangi bir veri üzerinde önceden eğitmedikleri için daha kötü sonuçlar elde ettiğine dikkat çektiler.

İkili bir açıklamada, "Öğrenmeye dayalı bir yöntem, önceki deneyimlerden öğrenmesine izin verilmezse elbette daha kötü performans gösterecektir. Doğa raporumuzda, uzatılan test durumlarını değerlendirmeden önce 20 blok üzerinde ön eğitim yapıyoruz" dedi. .

Prof Kahng'ın ekibi ayrıca sistemlerini Google'ın kullandığı kadar bilgi işlem gücü kullanarak eğitmediler ve bu adımın düzgün bir şekilde gerçekleştirilmemiş olabileceğini ve modelin performansını sekteye uğrattığını öne sürdüler. Mirhoseini ve Goldie ayrıca, Nature makalelerinde açıkça anlatılmayan EDA uygulamalarını kullanan ön işleme adımının bahsedecek kadar önemli olmadığını da söylediler.

"[UCSD] makalesi, fiziksel sentezden standart hücreleri kümelemek için ilk yerleştirmenin kullanımına odaklanıyor, ancak bu pratik bir endişe kaynağı değil. Herhangi bir yerleştirme yöntemini çalıştırmadan önce fiziksel sentez yapılmalıdır" dediler. "Bu, çip tasarımında standart bir uygulamadır."

Ancak UCSD grubu, Google'ın özel verilerine erişimleri olmadığı için modellerini önceden eğitmediklerini söyledi. Ancak yazılımlarının, aynı zamanda Nature makalesinin ortak yazarları olarak listelenen internet devinin diğer iki mühendisi tarafından doğrulandığını iddia ettiler. Prof Kahng, ekibinin çalışmasını bugün bu yılki Uluslararası Fiziksel Tasarım Sempozyumu konferansında sunuyor.

Bu arada Google, veri merkezlerinde aktif olarak kullanılan TPU'larını geliştirmek için pekiştirmeli öğrenmeye dayalı teknikler kullanmaya devam ediyor.

Ayrı olarak, Google'ın Nature gazetesinin insanüstü performans iddiaları, internet devi içinde dahili olarak tartışıldı. Geçen yıl, bir AI araştırmacısı olan Satrajit Chatterjee, Google'dan bir nedenle kovuldu; gazetenin bulgularını eleştirdiği ve bunlara itiraz ettiği için olduğunu iddia etti. Chatterjee'ye ayrıca Google'ın ilk çalışmayı eleştiren makalesini yayınlamayacağı söylendi.

Diğer Google çalışanları tarafından projeye dahil olan meslektaşlarını sadece eleştirmekle kalmayıp taciz etmekle suçlanmış ve iddia edilen davranışından dolayı İK soruşturması altına alınmıştır. Chatterjee, o zamandan beri Santa Clara'daki Kaliforniya Yüksek Mahkemesinde haksız fesih iddiasıyla Google'a dava açtı. Chatterjee bu hikaye için yorum yapmaktan kaçındı.

Chatterjee'nin avukatları, geçen ay değiştirilen [PDF] şikayetinde, Google'ın, S ile 120 milyon dolar değerinde olduğu bildirilen bir Google Cloud anlaşmasını müzakere ederken, Google'ın yapay zeka tabanlı yer planı oluşturma yazılımını "S Şirketi" ile ticarileştirmeyi düşündüğünü iddia etti. zaman. Chatterjee, Google'ın S Şirketini bu önemli ticari anlaşmaya katılmaya ikna etmeye yardımcı olmak için yer planı belgesini savunduğunu iddia etti.

"Çalışma, kısmen [Şirket S] ile potansiyel ticarileştirmeye yönelik ilk adım olarak yapıldı (ve [Şirket S] kaynaklarıyla yürütüldü). Büyük bir potansiyel Bulut anlaşması bağlamında yapıldığından etik dışı olurdu. Chatterjee, Google'ın CEO'su Sundar Pichai, Başkan Yardımcısı ve Mühendislik Üyesi Jay Yagnik ve Google Araştırma Başkan Yardımcısı Rahul Sukthankar'a, davanın bir parçası olarak açıklanan bir e-postada, testlerimiz aksini gösterdiğinde devrim niteliğinde bir teknolojiye sahip olduğumuzu ima etmek için" yazdı.

Mahkeme kayıtları, Google'ı çalışmasının sonuçlarını "abartmakla" ve "Şirketi bir bulut bilişim anlaşması imzalamaya teşvik etmek için S Şirketinden maddi bilgileri kasten saklamakla" ve şüpheli teknoloji olarak gördüğü teknolojiyi kullanarak diğer işletmeyi etkili bir şekilde etkilemekle suçladı.

S Şirketi, mahkeme belgelerinde "elektronik tasarım otomasyon şirketi" olarak tanımlanıyor. Konuya aşina olan kişiler The Register Company S'nin Synopsys olduğunu söyledi.

Kaynak: The Register

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

OpenAI'den Sam Altman, 'kahramanı' Elon Musk'ın Twitter'da şirkete 'açıkça saldırdığını' söyledi

AA170aD9.img?w=768&h=588&m=6&x=174&y=88&

OpenAI CEO'su Sam Altman, Elon Musk'ın Twitter'da şirketine "açıkça saldırdığını" söyledi.

Altman, milyarderin yapay zeka güvenliğiyle ilgili bazı endişelerini anladığını söyledi.

Musk, son aylarda OpenAI'de bir dizi halka açık kazı yaptı.
OpenAI CEO'su Sam Altman, Elon Musk'ın şirketi hakkında son zamanlarda yaptığı eleştirileri Twitter'da kabul etti.

Lex Fridman'ın 25 Mart'ta yayınlanan podcast'inin bir bölümünde konuşan Altman, "Elon şu anda Twitter'da bize birkaç farklı vektör üzerinden açıkça saldırıyor" dedi.

O zamandan beri şirketle bağlarını koparan bir OpenAI kurucu ortağı olan Musk, son aylarda OpenAI'de bir dizi kazı yaptı. Milyarder, daha önce kar amacı gütmeyen kuruluşu Microsoft ile olan ortaklığının ortasında "maksimum kar şirketi" olmakla suçladı. Teknoloji devi, OpenAI'ye 10 milyar dolardan fazla yatırım yaptı.

Musk aynı zamanda şirketin viral chatbot'u ChatGP'yi de hedef aldı ve bu da onun görünüşte esnek olmayan yanıtlarıyla ilgili endişeleri artırdı. Ayrıca Twitter'da teknolojiyi "korkunç derecede iyi" olarak nitelendirdi ve "tehlikeli derecede güçlü yapay zekadan uzak değiliz" dedi.

Podcast'te konuşan Altman, Musk'ın yapay genel zeka (AGI) - insan gibi düşünebilen ve entelektüel görevleri öğrenebilen AI sistemleri hakkındaki çekincelerini anladığını söyledi. Uzmanlar, bu sistemlerin beklenmedik şekillerde davranmaları veya kontrol edilmeleri zor hale gelmeleri halinde "feci sonuçlara" yol açabileceğini söyleyerek teknolojiyle ilgili endişelerini dile getirdiler.

Musk'ı kahramanlarından biri olarak tanımlayan Altman, "Anlaşılır bir şekilde AGI güvenliği konusunda gerçekten stresli olduğuna inanıyorum" dedi. Ancak Musk'ın OpenAI'nin bu endişeleri çözmek için yaptığı çalışmaları kabul etmek için daha fazlasını yapmasını diledi. OpenAI, bu sistemleri yönetme konusundaki konuşmaları teşvik ediyor ve teknolojisini şekillendirmek için halktan geri bildirim topladığını söylüyor.

Musk ve Altman temsilcileri, Insider'ın normal çalışma saatleri dışında yaptığı yorum talebine hemen yanıt vermedi.

OpenAI'nin ChatGPT'si, botun siyasi önyargılarla cevaplar ürettiğini iddia eden bazı kullanıcılar tarafından da eleştirildi. Musk, bu örnekleri Twitter'da rutin olarak işaret etti.

Bu eleştiriye değinen Altman, podcast'te şunları söyledi: "Bence çok önyargılıydı ve her zaman öyle olacak. Dünyanın tarafsız olduğunu kabul ettiği tek bir GPT sürümü olmayacak."

"Varsayılan sürümün mümkün olduğunca tarafsız olmasını sağlamaya çalışacağız, ancak mümkün olduğunca tarafsız olmak, birden fazla kişi için yapmanız gerekiyorsa o kadar da tarafsız değildir" diye devam etti.

Kaynak: Business Insider

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

GPT-5 yakında dünyayı inanılmaz bir şekilde değiştirebilir

GPT-4 daha yeni piyasaya çıkmış olabilir, ancak insanlar daha şimdiden yapay zeka (AI) chatbot teknolojisinin bir sonraki versiyonundan bahsediyor. Şimdi ise GPT-5'in bu yıl eğitimini tamamlayacağına ve beraberinde büyük bir yapay zeka devrimi getirebileceğine dair yeni bir iddia ortaya atıldı.

İddia, Twitter'daki geliştirici Siqi Chen'den geliyor: "Bana GPT-5'in eğitimi bu Aralık ayında tamamlamasının planlandığı ve OpenAI'nin AGI'ya ulaşmasını beklediği söylendi."

AGI, bir yapay zekanın insanların kafalarını karıştırabileceği herhangi bir görevi veya fikri anlama ve öğrenme yeteneğini ifade eden "yapay genel zeka" kavramıdır. Başka bir deyişle, AGI'ye ulaşan bir yapay zeka, yetenekleri açısından bir insandan ayırt edilemez olabilir.

Bu, AGI'nin sağlayabileceği tüm olasılıkları göz önünde bulundurarak Chen'in iddiasını oldukça patlayıcı hale getiriyor. Yelpazenin olumlu ucunda, çeşitli AI özellikli süreçlerin üretkenliğini büyük ölçüde artırabilir, insanlar için işleri hızlandırabilir ve monoton angarya ve sıkıcı işleri ortadan kaldırabilir.

Aynı zamanda, bir yapay zekaya bu kadar çok güç vermek, henüz düşünmediğimiz istenmeyen sonuçlara da yol açabilir. Bu, robot kıyametinin yakın olduğu anlamına gelmez, ancak kesinlikle AGI'nin olumsuz etkilerinin neler olabileceği hakkında pek çok soruyu gündeme getirir.

Twitter'da Sorunlar

AA19bydN.img?w=719&h=479&m=6&x=342&y=117

AGI rayından çıkarsa, Twitter gibi sosyal medya kanallarında inanılmaz ikna edici botların yayılmasını sağlayabilir ve tespit edilmesi giderek zorlaşan zararlı dezenformasyon ve propagandanın yayılmasına yardımcı olabilir.

Bu, Elon Musk'ın açıkça farkında olduğu bir şey ve tartışmalı milyarder, AI botlarıyla savaşmayı Twitter CEO'su olarak görev süresinin önemli bir ayağı haline getirdi. Yine de, Twitter Blue üyeliği için ödeme yapmayan hesapların erişimini kısıtlama konusundaki son fikri pek iyi gitmedi ve görev süresi, en hafif tabirle sınırlı bir başarıya sahip olan bölücü hamlelerle kuşatıldı.

Twitter, yapay zekanın etkin olduğu gelecekte yalnızca bir sınır ve yapay zekanın yaşam biçimimizi değiştirebileceği başka birçok yol var. GPT-5 gerçekten AGI'ye ulaşırsa, dünyanın sarsıcı şekillerde değişebileceğini söylemek doğru olur. Daha iyiye mi yoksa daha kötüye mi gideceği görülecek.

Kaynak: Digital Trends

 

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

ChatGPT, Turing testini geçti ve korktuysanız, yalnız değilsiniz

Alıntı

Turing testi Nedi ve Ne için kullanılır?

Turing Testi, bir bilgisayarın insan gibi düşünüp düşünmediğini belirlemek için yapay zekada (AI) bir sorgulama yöntemidir. Test, adını Turing Testinin kurucusu ve İngiliz bilgisayar bilimcisi, kriptanalist, matematikçi ve teorik biyolog Alan Turing'den almıştır.

OpenAI, ChatGPT-4'ü henüz piyasaya sürmesine rağmen son derece popüler olan sohbet uygulaması GPT-5'in beşinci tekrarı üzerinde çalışıyor. BGR'nin yeni bir raporuna göre, bu büyük güncellemeleri yıl sonunda görür görmez görebiliriz.

AA19e83L.img?w=768&h=432&m=6

Eğer bu doğru çıkarsa, özellikle bir kilometre taşına ulaşılabilir: konuşmada insanlardan ayırt edilemez olma yeteneği. Ve bu AI sohbet robotunu günde milyonlarca değilse bile yüzbinlerce konuşmayla eğitiyor olmamızın bir faydası olmuyor.

Kasım 2022'deki ilk çıkışından bu yana ChatGPT teknolojisinin hızlı yükselişi ve gelişimi göz önüne alındığında, bu söylentilerin doğru olma olasılığı oldukça yüksektir. Ve böyle bir teknolojinin bu kadar hızlı geliştiğini görmek heyecan verici, komik ve bazen anlayışlı olsa da, kolayca zarar verebilecek pek çok tehlike ve yasal tuzak da vardır.

Örneğin, yönlendirilen kötü amaçlı yazılım dolandırıcılığı miktarı, chatbot teknolojisinin piyasaya sürülmesinden bu yana istikrarlı bir şekilde arttı ve uygulamalara hızlı entegrasyonu, yaygın intihal sorunlarından bahsetmiyorum bile, gizlilik ve veri toplama sorunlarını sorguluyor. Ancak ChatGPT'nin bu kadar hızlı ve agresif bir şekilde öne sürülmesiyle ilgili sorunu sadece ben görmüyorum. Teknoloji liderleri ve yapay zeka uzmanları da alarm veriyor.

Yapay zeka gelişiminin itlaf edilmesi gerekiyor

Kendini yeni teknolojilerin kötüye kullanımı ve riskini en aza indirmeye adamış bir kuruluş olan Life of Life Enstitüsü (FLI), yapay zeka laboratuvarlarını ve şirketlerini ChatGPT-4'ün ötesindeki OpenAI sistemleri üzerindeki çalışmalarını derhal durdurmaya çağıran bir açık mektup yayınladı. Apple kurucu ortağı Steve Wozniak ve OpenAI kurucu ortağı Elon Musk gibi önemli kişiler, insanların mevcut sistemlerin keyfini çıkarmasını ve söz konusu sistemlerin herkese fayda sağlamasını sağlamak için ilerlemenin durdurulması gerektiği konusunda anlaştılar.

Mektupta şu ifadeler yer alıyor: "Son aylarda yapay zeka laboratuvarlarının hiç kimsenin, hatta onların bile yapamayacağı daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa girmesine rağmen, bu düzeyde bir planlama ve yönetim maalesef gerçekleşmiyor. içerik oluşturucular - anlayabilir, tahmin edebilir veya güvenilir bir şekilde kontrol edebilir."

Gördüğümüz gibi, şirketlerin bu yeni teknolojiyi entegre etme ve kullanma telaşı, CNET'in onu yanlış ve intihal makaleler oluşturmak için kullanmasından kredi kartı bilgilerini ifşa etmeye kadar çok sayıda soruna neden oluyor. Akıllı sanatçıların mahremiyetini, fikri mülkiyet haklarını korumak veya saklanan kişisel bilgilerin sızmasını önlemek için çok az şey yapılıyor.

Ve bu gelişen teknolojiyi ve onu kullanan şirketlerin bunu nasıl güvenli ve sorumlu bir şekilde yaptıklarını bir şekilde ele alana kadar, geliştirme biz yapana kadar duraklamalı.

Kaynak: TechRadar

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

Elon Musk ve Sam Altman, OpenAI'yi birlikte kurdular, ancak şimdi halka açık bir şekilde diken ticareti yapıyorlar. İşte ilişkilerinin ve kan davalarının tarihi.

AA192fwd.img?w=800&h=415&q=60&m=2&f=jpg

Elon Musk ve Sam Altman, OpenAI'yi birlikte kurdular, ancak şimdi halka açık bir şekilde diken ticareti yapıyorlar. İşte ilişkilerinin ve kan davalarının tarihi.

Elon Musk, OpenAI'nin kurulmasına yardım etti, ancak son yıllarda şirket aleyhine konuştu.

Bu ayın başlarında, OpenAI CEO'su Sam Altman, milyarderin bazı iddialarını "doğru değil" olarak nitelendirdi.

İşte Musk'ın OpenAI ve CEO'su ile olan ilişkisinin geçmişi.

Musk ve Altman, 2015 yılında Peter Thiel, LinkedIn kurucu ortağı Reid Hoffman ve Y Combinator kurucu ortağı Jessica Livingston gibi diğer Silikon Vadisi figürleriyle birlikte ChatGPT'nin yaratıcısı OpenAI'yi kurdu.

OpenAI'nin web sitesinde 11 Aralık 2015'te yapılan açıklamaya göre grup, yapay zekayı "insanlığın tamamına en çok fayda sağlayacak şekilde" geliştirmeye odaklanan kar amacı gütmeyen bir kuruluş oluşturmayı hedefliyordu.

O sırada Musk, AI'nın insanlık için "en büyük varoluşsal tehdit" olduğunu söyledi.

Open AI'ın kuruluşunu duyuran bir bildiride, "İnsan düzeyinde yapay zekanın topluma ne kadar fayda sağlayabileceğini anlamak zor ve yanlış inşa edildiğinde veya kullanıldığında topluma ne kadar zarar verebileceğini hayal etmek de aynı derecede zor."

Musk, 2018'de OpenAI'nin yönetim kurulundan istifa etti.

OpenAI, o sırada bir blog gönderisinde "Tesla yapay zekaya daha fazla odaklanmaya devam ettikçe, bu Elon için gelecekteki olası bir çatışmayı ortadan kaldıracak" dedi ve Musk'ın rehberlik ve bağış sağlamaya devam edeceğini de sözlerine ekledi.

Bu ayın başlarında, Sam Altman ve diğer OpenAI kurucularının Musk'ın 2018'de şirketi yönetme teklifini reddettikleri bildirildi.
Semafor, Musk'ın Google'ı yenmek için şirketi tek başına yönetmek istediğini bildirdi. Ancak haber kaynağının bildirdiğine göre, şirketi yönetme teklifi reddedilince fonunu geri çekti ve OpenAI yönetim kurulundan ayrıldı.

Musk, 2019'da ayrılma kararıyla ilgili bazı içgörülerini paylaştı ve bunun nedenlerinden birinin OpenAI'nin gittiği yöne "aynı fikirde olmaması" olduğunu söyledi.

"Tesla (özellikle) ve SpaceX'te çok sayıda mühendislik ve üretim problemini çözmeye odaklanmak zorunda kaldım" diye tweet attı. "Ayrıca Tesla, OpenAI ile aynı kişiler için rekabet ediyordu ve OpenAI ekibinin yapmak istediği bazı şeylere katılmadım. Hepsini ekleyin ve iyi şartlarda yolların ayrılması daha iyi oldu."

Musk, ayrıldığından beri birkaç kez OpenAI'de çekim yaptı.
Musk, ayrılmasından iki yıl sonra, OpenAI'nin şeffaflık taahhüdünü sık sık ilan etmesine rağmen, orada bir gizlilik kültürü olduğunu bildiren bir MIT Technology Review makalesine yanıt olarak "OpenAI daha açık olmalı" dedi.

Musk ayrıca, o sırada OpenAI'nin stratejisini yöneten Dario Amodei'ye atıfta bulunarak "güvenlik için Dario'ya olan güveninin yüksek olmadığını" da sözlerine ekledi.

Aralık 2022'de, OpenAI'nin ChatGPT'yi piyasaya sürmesinden günler sonra Musk, şirketin AI sohbet robotunu eğitmek için artık Musk'a ait olan Twitter veritabanına önceden erişimi olduğunu ve bunu beklemeye aldığını söyledi.

"Yönetim yapısı ve ileriye dönük gelir planları hakkında daha fazla bilgi sahibi olmamız gerekiyor. OpenAI, açık kaynak ve kar amacı gütmeyen olarak başlatıldı. İkisi de hala doğru değil" dedi.

Semafor'un bu ayın başlarında bildirdiğine göre, Musk'ın ChatGPT'nin başarısı konusunda öfkeli olduğu bildirildi.

Kasım ayında, chatbot, deneme yazmaktan temel kod oluşturmaya kadar her şeyi yapma becerisi nedeniyle milyonlarca kullanıcıyı topladı ve topladı.

Geçen ay Musk, bugün var olan OpenAI'nin "hiç amaçladığım gibi olmadığını" söyleyerek ikiye katlandı.

"OpenAI, Google'a karşı bir denge görevi görmesi için bir açık kaynak (bu yüzden ona "Açık" AI adını verdim) kar amacı gütmeyen bir şirket olarak oluşturuldu, ancak şimdi kapalı kaynak, etkin bir şekilde Microsoft tarafından kontrol edilen maksimum kârlı bir şirket haline geldi. . Hiç amaçladığım gibi değil," dedi bir tweet'te.

Musk bu iddiayı bu ayın başlarında tekrarlamıştı.

"~100 milyon dolar bağışta bulunduğum kâr amacı gütmeyen bir kuruluşun bir şekilde nasıl olup da kâr amacı güden 30 milyar dolarlık bir piyasa değeri haline geldiği konusunda kafam karıştı. Bu yasalsa, neden herkes bunu yapmıyor?" tweet attı.

Pazartesi günü Tesla CEO'su, Microsoft'un kurucusu Bill Gates'i inceleyerek yapay zeka anlayışını "sınırlı" olarak nitelendirdi.

Musk bu yorumu, Gates'in OpenAI deneyimi ve teknolojinin işgücünü, sağlık hizmetlerini ve eğitimi nasıl dönüştürebileceği hakkında 7 sayfalık bir blog yayınlamasının ardından yaptı.

Microsoft'un kurucusu, 2016'dan beri OpenAI ile görüştüğünü ve daha Eylül ayı gibi şirketle sohbet ettiğini söyledi. 2022 toplantısının Microsoft'a yarı zamanlı danışman olarak katılıp katılmadığı belli değil. (Gates, 2000 yılında CEO olarak istifa ettikten sonra 2020'de Microsoft'un yönetim kurulundan ayrıldı.)

Altman geçtiğimiz günlerde Musk'ın OpenAI ile ilgili bazı endişelerini ele aldı.
Altman, "On With Kara Swisher" podcast'inin yakın tarihli bir bölümünde yapay genel zekaya atıfta bulunarak, "Elon hakkında olumlu bir şey söylemek gerekirse, AGI ile iyi bir geleceği gerçekten umursadığını düşünüyorum."

Altman, Swisher'a "Demek istediğim, o bir pislik, onun hakkında başka ne söylemek istersen - benim kendim için sahip olmak isteyeceğim bir tarza sahip değil," dedi. "Ama bence gerçekten umursuyor ve geleceğin insanlık için nasıl görüneceği konusunda çok stresli hissediyor."

Musk'ın OpenAI'nin "Microsoft tarafından etkin bir şekilde kontrol edilen kapalı kaynaklı, maksimum kârlı bir şirkete" dönüştüğü iddiasına yanıt olarak Altman, podcast'te "Bunun çoğu doğru değil ve bence Elon bunu biliyor" dedi.

Altman, Musk'ın Twitter'da OpenAI'ye "açıkça saldırdığı" gerçeğine rağmen Musk'tan kahramanlarından biri olarak bahsetti.

Lex Fridman'ın podcast'inin yakın tarihli bir bölümünde Altman, "Elon şu anda Twitter'da bize birkaç farklı vektör üzerinden açıkça saldırıyor" dedi.

Yine de, Musk'ı kahramanlarından biri olarak adlandırdı ve "Anlaşılır bir şekilde, AGI güvenliği konusunda gerçekten stresli olduğuna inanıyorum."

Son zamanlarda Musk, gelişmiş yapay zeka sistemlerinin eğitimine altı aylık bir ara verilmesi çağrısında bulunan açık bir mektubu imzalayan 1000'den fazla kişiden biriydi.

Birkaç AI uzmanından da imza alan mektup, AI'nın insanlık için potansiyel risklerine ilişkin endişelere değiniyor.

Mektupta, "Güçlü AI sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir" diyor.

Kaynak: Business Insider

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

Sızma Testlerinde Yapay Zeka Kullanılabilir mi?

Sızma testi, bir sistemdeki diğer güvenlik açıklarını keşfetmek ve kötü amaçlı kod yürütmek için güvenlik açıklarını kullanmayı içeren bir güvenlik testidir. Bu testler özellikle veri madenciliğine karşı korunmak ve güvenlik açıklarını önlemek için önemlidir.

AA19lX0e.img?w=768&h=384&m=6

AI, özellikle bir saldırıyı tespit etme ve engelleme konusunda oldukça başarılı görünüyor. Yapay zekayı eğitmek için çok büyük veri setlerine ihtiyaç vardır. Yüksek web trafiğine sahip bir uygulama bu konuda bir hayırseverdir. Çünkü gelen her trafiği yapay zekanın kullanması için bir veri kümesi gibi gösterebilirsiniz. Böylece, web uygulama trafiğini okuyup analiz edebilen ve tehditleri tespit edebilen bir yapay zekaya sahip olursunuz. Bu verilebilecek en basit örneklerden biridir.

Ayrıca, yalnızca web trafiğini değil, uygulamanız veya cihazınız için çok sayıda kötü amaçlı yazılımı da önceden algılayabilir. Bu yöntem daha şimdiden birçok güvenlik duvarı tarafından kullanılmaya başlandı.

Tüm bunlara ek olarak insan hatası da siber güvenlikteki en büyük sorunlardan biridir. Fark edilmeyen küçük bir kod güvenlik açığı, geri dönüşü olmayan büyük güvenlik sorunlarına yol açabilir. Kodlardaki güvenlik açıklarını tarayan bazı eklentiler, yapay zekanın gelişmesiyle ortaya çıkmış ve geliştiricileri bu tür sorunlar hakkında uyarmaktadır. Şimdiye kadar, insan hatalarını önlemede bir miktar başarı gösterdiler.

Ayrıca bir tehdide karşı gösterilen tepki süresi de oldukça önemlidir. Saldırı altındayken saldırıyı tespit etmek, savunma yolunu planlamak ve savunma sistemlerini devreye sokmak zaman alır. Ancak yapay zeka bu konuda çok yardımcı oluyor.

Siber Güvenlikte Yapay Zekanın Sınırlamaları

Yapay zekayı siber güvenlik amaçlarıyla kullanmak, kötü niyetli, temiz ve potansiyel olarak güvenli olmayan uygulamaları tanımlamayı ve analiz etmeyi gerektirir. Bir algoritmayı eğitmek için çok büyük veri kümeleri kullansanız bile sonuçtan asla emin olamazsınız. Sonuç olarak, tamamen makinelere ve yapay zekaya güvenmek güvenli değildir. Yapay zeka teknolojisinin insan müdahalesi ile desteklenmesi gerekiyor.

Bazı güvenlik aracı üreticileri, makine öğreniminden güç alan çözümlerin her örneği analiz edebileceğini iddia ediyor. Üreticilere göre, bu araçlar kötü amaçlı yazılımları yalnızca matematiksel yöntemlerle tespit edebiliyor. Ancak bu pek mümkün değildir.

Alan Turing'in İkinci Dünya Savaşı sırasında Enigma kodunu kırması buna çok güzel bir örnektir. Mükemmel bir makine bile bilinmeyen bir girdinin gelecekte istenmeyen davranışlara neden olup olmayacağına karar veremez. Bu kanıt, siber güvenlik de dahil olmak üzere birçok farklı alana uygulanabilir.

Siber güvenlikte makine öğrenimi uygulamalarının bir diğer ciddi kısıtlılığı ise yapay zeka modellerinin sınırları içinde saklıdır. Örneğin makineler, insanları satrançta yenebilecek kadar akıllı hale geldi.

Ancak satrancın belirli kuralları vardır. Satranç motorları bu kurallardan sapmaz. Siber güvenlik söz konusu olduğunda, saldırganların genellikle kuralları yoktur. Dijital ortamın sürekli değişen doğası, gelecekteki tüm tehditleri algılayıp engelleyebilecek koruyucu bir çözüm oluşturmayı imkansız kılıyor.

ChatGPT ile Kaynak Kod Analizi

OpenAI tarafından geliştirilen ChatGPT birçok alanda hayatımıza ciddi bir giriş yaptı. ChatGPT ile bazı sorular sorabileceğiniz ve sohbet edebileceğiniz gibi, programlama ve yazılım konularında da size yardımcı olmaya çalışır. ChatGPT, siber güvenlik açısından bakarsanız, kaynak kodu analizi bile yapmaya çalışır. Ancak ChatGPT henüz başlangıç aşamasındadır ve kullanıma hazır hale gelmesi biraz zaman alacaktır.

Bunu daha iyi görmek için ChatGPT'nin gücünü test edelim. Örneğin, aşağıda bir XSS güvenlik açığı oluşturan basit bir JavaScript kodu bulunmaktadır. ChatGPT'ye bu kodu soralım ve güvenlik açıklarını bize bildirmesini sağlayalım.

Document.write("Mevcut URL : " + Document.baseURI);
ChatGPT yanıt olarak bir XSS güvenlik açığından bahsetti. Bu oldukça iyi bir başlangıç. Ancak kaynak kodları asla bu kadar basit değildir. Öyleyse örneği biraz daha karmaşık hale getirmeye çalışalım.

Aşağıda C programlama dilinde hazırlanmış bir kod göreceksiniz. Bu C kodu, savunmasız bir uygulamaya ait. Hatta tamamen gerçek dünyadaki bir uygulamada kullanıldı. Dilerseniz Sonar'ın 2022 yılında yayınladığı gerçek dünya kaynak kodu güvenlik açıklarını inceleyebilirsiniz.

char *loggerPath *cmd;

void rotateLog(){

    char logOld[PATH_MAX], logNew[PATH_MAX], timestamp[0x100];

    time_t t;

    time(&t);

    strftime(timestamp, sizeof(timestamp), "%FT%T", gmtime(&t));

    snprintf(logOld, sizeof(logOld), "%s/../logs/global.log", loggerPath);

    snprintf(logNew, sizeof(logNew), "%s/../logs/global-%s.log", loggerPath, timestamp);

    execl("/bin/cp", "/bin/cp", "-a", "--", logOld, logNew, NULL);

}

int main(int argc, char **argv) {

    if (argc != 2) {

        printf("Usage: /opt/logger/bin/loggerctl \n");

        return 1;

    }

    if (setuid(0) == -1) return 1;

    if (seteuid(0) == -1) return 1;

    char *executablePath = argv[0];

    loggerPath = dirname(executablePath);

    cmd = argv[1];

    if (!strcmp(cmd, "rotate")) rotateLog();

    else listCommands();

    return 0;

}

Buradaki güvenlik açığı, bir saldırganın yönetici ayrıcalıkları olmadan bazı dosyalarda değişiklik yapabilmesidir. Bakalım ChatGPT bu güvenlik açığına nasıl yanıt verecek.

Bu koddaki temel sorun setuid, kullanıcı kimliği (uid) ve etkin kullanıcı kimliğidir (euid). Ancak çok fazla teknik detaya girmeden dikkat etmeniz gereken asıl nokta ChatGPT'nin bu ince kısmı tespit edememiş olmasıdır. Bir sorun olduğunu anlayabilir ama ne yazık ki bu sorunun kökenine inemez.

Bu örnekler aracılığıyla, farklı programlama dillerine ve güvenlik açıklarına verilen tepkileri gördünüz. Kod gerçekten basitse ve bariz bir güvenlik açığı varsa, ChatGPT size yardımcı olabilir. Ancak kaynak kodu analizi, sızma testi ve diğer güvenlik analizleri için tamamen ChatGPT'ye güvenmemelisiniz.

Sızma Test Cihazlarının Geleceği

Yapay zeka, gelecekte penetrasyon testçilerinin çalışmalarının önemli bir parçası olacaktır. Örneğin, penetrasyon testi yapanların kötü amaçlı etkinliği manuel olarak algılamak için zaman ayırmaları gerekmeyecek ve güvenlik taramalarını otomatik olarak gerçekleştirebilecekler.

Yapay Zeka ayrıca, penetrasyon testi için yeni ve daha karmaşık saldırı tekniklerini tespit etmeye ve bunlara karşı önlem almaya yardımcı olacaktır. Ancak AI hala parkta oynayan bir çocuk gibidir ve bir yetişkinin tavsiyesine ihtiyaç duyar. Yakın gelecekte, siber güvenlik uzmanları ve penetrasyon test uzmanları kolay kolay işsiz kalmayacak.

Kaynak: MUO

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

Elon Musk, Topluma Yönelik Risklerden Korkarak Yeni Yapay Zekayı 6 Ay Boyunca Durdurma Çağrısında Bulundu

Elon Musk ve teknoloji alanında bilgi, güç ve etkiye sahip 1.000'den fazla kişi tarafından imzalanan açık bir mektup, tüm "dev AI deneylerinin" altı ay süreyle durdurulmasını istiyor.

OpenAI'nin GPT-4'ünden daha güçlü olan herhangi bir şey, toplum için çok riskli kabul edilir.

İnsan-rekabetçi AI gün geçtikçe daha gerçek bir endişe haline geliyor.
Yapay zekanın toplum için oluşturduğu riskler bir zamanlar merak konusuydu. Ancak bu teknolojinin gelişiminin, risklerini azaltma çabalarını geride bırakacak kadar hızlı ilerlediği bir sır değil. Korkuluklar kapalı.

Elon Musk ve 1.000'den fazla kişi, güçlü yapay zeka sistemleri oluşturma sürecimizi yavaşlatmazsak bu risklerin yakın olduğuna inandıklarını belirten açık bir mektup imzalamak için bir araya geldi. Bir Reuters makalesine göre, Stability AI CEO'su Emad Mostaque, Alphabet'in sahip olduğu DeepMind araştırmacıları ve tarihi AI beyinleri Yoshua Begio ve Stuart Russell'ın da dahil olduğu destekçiler, büyük ölçüde Musk Vakfı tarafından finanse edilen Future of Life Institute ile birleşiyor. Kurucular Taahhüdü ve Silikon Vadisi Topluluğu Vakfı.

Ve burada aciliyet var. Grup, tüm "dev AI deneylerinde" altı aylık bir duraklama çağrısı yapıyor.

Mektupta, imzalayanlar, OpenAI'nin GPT-4'ünden daha güçlü herhangi bir şey olarak tanımlanan güçlü AI sistemlerinin geliştirilmesinde altı aylık bir duraklama istediler.

Mektupta, "Güçlü AI sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir" diyor. “Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi. Bunu burada yapabiliriz.”

Mektubun destekçileri, AI'nın "Dünyadaki yaşam tarihinde derin bir değişikliği" temsil edebileceğini söyleyerek, şu anda bu potansiyele uyan bir planlama ve yönetim seviyesinin olmadığını, özellikle de AI laboratuvarlarının "--- hiç kimsenin - yaratıcılarının bile - anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek ve dağıtmak için yarışın kontrolünü ele alın.

Yapay zeka sistemleri genel görevlerde insan yeteneklerine daha fazla ayak uydurabilir hale geldikçe, mektup, makinelerin bilgi kanallarını propaganda ile doldurmasına, işleri otomatikleştirmesine, insan olmayan zihinleri geliştirmesine izin verip vermememizle ilgili bir dizi "yapmalı mıyız" sorusu soruyor. insanların yerini alabilir veya daha iyi ve daha iyi sinir ağları yaratma açlığımızda medeniyetin kontrolünü kaybetme riskini alabilir.

Ancak, beklendiği gibi, herkes aynı fikirde değil. OpenAI CEO'su Sam Altman mektubu imzalamadı ve Umea Üniversitesi'nden yapay zeka araştırmacısı Johanna Bjorklund, Reuters'e yapay zeka endişesinin tamamen boş olduğunu söyledi. Björklund, "Bu tür ifadeler heyecan uyandırmak içindir" diyor. "İnsanları endişelendirmek içindi. El frenini çekmeye gerek olduğunu düşünmüyorum."

OpenAi, bir noktada gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almanın ve yeni modellerin büyüme oranını sınırlamayı kabul etmenin en gelişmiş çaba için önemli olabileceğini söyledi.

Açık mektupta "Kabul ediyoruz" yazıyor. "O nokta şimdi."

Kaynak: Popular Mechanics

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

Microsoft, Edge AI (Yapay Zeka) resim oluşturucuyu herkese açıyor

Microsoft, DALL-E destekli AI görüntü oluşturucusunu "dünyanın her yerindeki Edge kullanıcıları için masaüstünde kullanılabilir" hale getiriyor. Şirket, görüntü oluşturma teknolojisini Bing sohbet robotuna entegre ederek geçen ay geleceğini duyurdu, ancak bu hamle onu çok daha geniş bir kitleye sunabilir.

Kullanıma sunulduğunda - ben ve Edge kullanan diğer iki Verge çalışanının henüz ona erişimi yok gibi görünüyor - "Görüntü Oluşturucu", Edge'in kenar çubuğunda yer alacak. Bunu kullanmak oldukça basit olmalı; görmek istediğinizi yazarsınız ve Bing istemle eşleşen birkaç resim oluşturur. Ardından, beğendiklerinizi indirebilir ve ihtiyacınız olan şekilde kullanabilirsiniz.

Perşembe günkü bir blog gönderisinde Microsoft, özelliği sosyal medya gönderileri veya slayt gösterileri ve belgeler üzerinde çalışırken "çok özel" görseller oluşturmanın bir yolu olarak sunuyor. Bu daha önce çeşitli şekillerde mümkün olsa da OpenAI'nin DALL-E'sini, Microsoft'un Bing görüntü oluşturma sitesini, Bing Chat'teki yerleşik görüntü oluşturucuyu veya diğer pek çok görüntü oluşturucudan birini kullanabilirsiniz. kenar çubuğu, siz web'de başka bir şeyle uğraşırken bir yapay zekadan size bazı resimler yapmasını istemeyi çok daha kolaylaştırır.

Microsoft'a göre, en azından şimdilik, kullanmadan önce kenar çubuğunuza manuel olarak eklemeniz gerekecek. Bunu yapmak için kenar çubuğunu açın, "+" düğmesini tıklayın, ardından Image Creator'ın yanındaki düğmeyi değiştirin.

Kıdemli iletişim direktörü Katy Asher'den The Verge'e yapılan açıklamaya göre Microsoft, "kullanım kalıplarına dayalı sınırlar üzerinde deneyler yapıyor ve müşteriler için deneyimi optimize etmemize yardımcı olmak için öğrenmeye devam ediyor". "Bugün çoğu kullanıcı, günde oluşturabilecekleri görüntü sayısıyla ilgili bir sınırla karşılaşmıyor."

Şirket ayrıca Edge'e, dosyaları ve diğer içerikleri kendinize göndermenizi sağlayan Bırakma aracı gibi, cihazlar arasında senkronize olan kişisel bir not defteri oluşturma gibi başka özellikler de ekliyor. Microsoft ayrıca, temel olarak Edge'in verimli olma ve kötü amaçlı yazılımları tarama konusunda ne kadar harika bir iş çıkardığını size söylemesi için tıklayabileceğiniz bir düğme olan "Tarayıcı temel bilgileri" adlı bir araç ekledi (gerçi bu özellik şu anda yalnızca erken sürümlerde mevcut) erişim yapıları).

Kaynak: The Verge

Yoruma sekme
Diğer sitelerde paylaş

  • Admin

Üretken bir AI yatırımcısı, gelecekteki bir 'Tanrı benzeri AI'nın insanları yok edebileceği veya uygun şekilde kontrol altına alınmadığı takdirde onları modası geçmiş hale getirebileceği konusunda uyardı.

AA19OTTL.img?w=768&h=512&m=6

50'den fazla AI şirketine yatırım yapmış olan Ian Hogarth, teknoloji hakkında bir FT makalesi uyarısı yazdı.

Yapay genel zekanın "Tanrı benzeri" olacağını çünkü kendi kendine öğreneceğini söylüyor.

OpenAI ve diğer şirketler arasındaki hararetli rekabet felakete yol açabilir.

Üretken bir AI yatırımcısı, Financial Times makalesinde, teknolojinin hızlı gelişimine ilişkin herhangi bir düzenleme yoksa, gelecekteki "Tanrı benzeri bir AI" nın "insan ırkının eskimesine veya yok olmasına" yol açabileceği konusunda uyardı.

Yapay genel zeka veya AGI - bir makinenin insanların anlayabileceği veya öğrenebileceği her şeyi anlayabileceği veya öğrenebileceği nokta - henüz burada değil, ancak hızla büyüyen endüstrinin birincil hedefi olarak kabul ediliyor. Ve yüksek bahislerle birlikte gelir.

Yapay zekanın 2030'larda trilyonlar değerinde olacağını söyleyen eski bir Meta yöneticisi gibi bazıları yapay zekanın mali faydaları konusunda heyecanlıyken, diğerleri "nükleer düzeyde felaket" riski konusunda uyarıda bulunuyor.

Ian Hogarth FT'de "Üç harfli bir kısaltma, AGI'nin temsil edeceği şeyin muazzamlığını yakalamıyor, bu yüzden ona ne olduğunu söyleyeceğim: Tanrı benzeri yapay zeka," diye yazdı Ian Hogarth FT'de. Hogarth bu terimi kullandı, çünkü böyle bir teknoloji kendi kendine gelişebilir ve dünyayı denetim olmaksızın dönüştürebilirdi.

"Tanrı benzeri AI, kontrolümüzün veya anlayışımızın ötesinde bir güç olabilir ve insan ırkının eskimesine veya yok olmasına yol açabilir" diye ekledi.

"Şimdiye kadar, insanlar yapay zekadaki ilerlemeyi karakterize eden öğrenme sürecinin gerekli bir parçası olarak kaldılar. Bir noktada, birisi bizi döngüden nasıl çıkaracağını çözecek ve sonsuz kendini geliştirme yeteneğine sahip Tanrı benzeri bir yapay zeka yaratacak. " diye ekledi Hogarth. "O zamana kadar çok geç olabilir."

Hogarth, sonunda Warner Music Group'a satılan bir konser keşif hizmeti olan Songkick'i kurmadan önce Cambridge Üniversitesi'nde yapay zeka da dahil olmak üzere mühendislik okudu. Kendi web sitesine göre, o zamandan beri eski OpenAI çalışanları tarafından kurulan Anthropic de dahil olmak üzere makine öğrenimini kullanan 50'den fazla girişime yatırım yaptı. "Yapay Zekanın Durumu" adlı yıllık bir rapor yazıyor.

GPU'ları genellikle yapay zekaya güç sağlamak için kullanılan çip üreticisi Nvidia'nın CEO'su Jensen Huang, yakın tarihli bir kazanç çağrısında, yapay zekanın son on yılda 1 milyon kat daha güçlü hale geldiğini ve benzer bir ilerlemeyi beklediğini söyledi. PC Gamer başına önümüzdeki on yıl içinde OpenAI ChatGPT.

FT makalesinde Hogarth, en büyük yapay zekaların saniyede ne kadar işlem yapabildiklerine bağlı olarak aynı dönemde 100 milyon kat daha fazla işlem gücüne sahip olduğunu belirtti.

Ayrıca, OpenAI ve Alphabet'e ait DeepMind gibi teknolojinin ön saflarında yer alanlar arasındaki hararetli rekabetin, gözetim eksikliği nedeniyle istikrarsız bir "Tanrı benzeri yapay zeka" oluşturma riskini taşıdığı konusunda da uyardı.

"Diğer tarafta ne olduğunu anlamadan bitiş çizgisine doğru koşuyorlar" diye yazdı.

OpenAI CEO'su Sam Altman, New York Times ile 2019'da yaptığı bir röportajda, hırslarını ilk nükleer silahları yaratan Manhattan Projesi ile karşılaştırdı. Beyni Robert Oppenheimer'ı şöyle yorumladı: "Teknoloji mümkün olduğu için olur" ve çiftin aynı doğum gününü paylaştığına dikkat çekti.

AGI'nin büyük bir etkisi olacak olsa da Hogarth, bunun olumlu mu yoksa felaketle mi sonuçlanacağının, ilerlemeyi olabildiğince çabuk takip etmeye ve düzenlemenin ne kadar süreceğine bağlı olabileceğini söylüyor.

Kaynak: Business Insider

Yoruma sekme
Diğer sitelerde paylaş

  • 2 hafta sonra...

Bir hesap oluşturun veya yorum yazmak için giriş yapın

Yorum yapmak için üye olmak zorundasınız...

Bir Hesap Oluşturun

Forumumuzda üyelik çok basit ve ücretsizdir!

Yeni Bir Hesap Oluşturun

Giriş Yap

Hali hazırda bir hesabınız var mı? O zaman Giriş Yapın.

Giriş Yapın
×
×
  • Yeni Oluştur...

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.