Gönderi tarihi: 1 saat önce1 saat Admin Yapay zeka sessizce kendini zehirliyor ve modelleri çöküşe doğru itiyor - ama bir çözümü varYapay zeka büyük dil modelleri (LLM'ler) diğer yapay zekalardan "öğrendiğinde", sonuç GIGO (Çöp Girdi, Çöp Çıktı) oluyor.Yapay zeka yanıtlarına güvenmeden önce verilerinizi doğrulamanız gerekecek.Bu yaklaşım, şirketiniz genelinde özel bir çaba gerektiriyor.Teknoloji analisti Gartner'a göre, yapay zeka verileri hızla kullanıcılar için klasik bir Çöp Girdi/Çöp Çıktı (GIGO) sorununa dönüşüyor. Bunun nedeni, kuruluşların yapay zeka sistemlerinin ve büyük dil modellerinin (LLM'ler) güvenilemeyecek, doğrulanmamış, yapay zeka tarafından üretilen içerikle dolup taşmasıdır.Model çökmesiBunu daha çok yapay zeka saçmalığı olarak biliyorsunuz. Bizim için sinir bozucu olsa da, yapay zeka için ölümcül çünkü LLM'leri sahte verilerle zehirliyor. Sonuç, yapay zeka çevrelerinde "Model Çökmesi" olarak adlandırılan durumdur. Yapay zeka şirketi Aquant bu eğilimi şöyle tanımladı: "Daha basit bir ifadeyle, yapay zeka kendi çıktılarından eğitildiğinde, sonuçlar gerçeklikten daha da uzaklaşabilir."Ancak, bence bu tanım çok nazikçe ifade edilmiş. Bu bir "olabilir" durumu değil; kötü verilerle, yapay zeka sonuçları gerçeklikten "kesinlikle" uzaklaşacaktır.Sıfır güvenBu sorun zaten açıkça görülüyor. Gartner, 2028 yılına kadar kuruluşların %50'sinin veri yönetimi için sıfır güven yaklaşımını benimseyeceğini tahmin etti. Bu işletmelerin başka seçeneği olmayacak, çünkü doğrulanmamış yapay zeka tarafından üretilen veriler kurumsal sistemlerde ve kamu kaynaklarında hızla yayılıyor.Analist, işletmelerin artık verilerin varsayılan olarak insan tarafından üretildiğini veya güvenilir olduğunu varsayamayacaklarını ve bunun yerine iş ve finansal sonuçları korumak için verilerin kaynağını doğrulamaları, teyit etmeleri ve izlemeleri gerektiğini savundu.Yapay zekadan gelen verileri doğrulamayı ve teyit etmeyi hiç denediniz mi? Kolay değil. Yapılabilir, ancak yapay zeka okuryazarlığı yaygın bir beceri değil.IBM'in seçkin mühendisi Phaedra Boinodiris'in bana yakın zamanda söylediği gibi: "Sadece verilere sahip olmak yeterli değil. Verilerin bağlamını ve ilişkilerini anlamak çok önemli. Bu nedenle, hangi verilerin doğru olduğuna kimin karar vereceğine dair disiplinler arası bir yaklaşıma ihtiyacınız var. Hizmet etmemiz gereken tüm farklı toplulukları temsil ediyor mu? Bu verilerin nasıl toplandığına dair ilişkileri anlıyor muyuz?"Daha da kötüsü, GIGO artık yapay zeka ölçeğinde çalışıyor. Bu durum, kusurlu girdilerin otomatik iş akışları ve karar sistemleri aracılığıyla yayılmasına ve daha kötü sonuçlar üretmesine neden olabileceği anlamına geliyor. Evet, doğru, eğer yapay zeka sonuçlarındaki önyargıların, halüsinasyonların ve basit gerçek hatalarının bugün kötü olduğunu düşünüyorsanız, yarını bekleyin.Bu endişeyi gidermek için Gartner, işletmelerin sıfır güven yaklaşımını benimsemesi gerektiğini söyledi. Başlangıçta ağlar için geliştirilen sıfır güven, yapay zeka risklerine yanıt olarak artık veri yönetimine de uygulanıyor.Daha güçlü mekanizmalarGartner, birçok şirketin veri kaynaklarını doğrulamak, kaliteyi doğrulamak, yapay zeka tarafından üretilen içeriği etiketlemek ve sistemlerinin gerçekte ne tükettiğini bilmek için meta verileri sürekli olarak yönetmek için daha güçlü mekanizmalara ihtiyaç duyacağını öne sürdü. Analist şu adımları önerdi:Yapay zeka yönetimi lideri atayın: Sıfır güven politikaları, yapay zeka risk yönetimi ve uyumluluk operasyonları da dahil olmak üzere yapay zeka yönetiminden sorumlu özel bir rol oluşturun. Ancak bu kişi işi tek başına yapamaz. Yapay zekaya hazır verilerin ve sistemlerin yapay zeka tarafından üretilen içeriği işleyebildiğinden emin olmak için veri ve analitik ekipleriyle yakın işbirliği içinde çalışmalıdır.Çapraz fonksiyonlu işbirliğini teşvik edin: Kapsamlı veri risk değerlendirmeleri yapmak için çapraz fonksiyonlu ekiplerde güvenlik, veri, analitik ve diğer ilgili paydaşlar yer almalıdır. Şirketinizde yapay zeka kullanan herhangi bir departmanın temsilcilerini de eklemenizi öneririm. Sadece kullanıcılar yapay zekadan gerçekten neye ihtiyaç duyduklarını size söyleyebilirler. Bu ekibin görevi, yapay zeka tarafından üretilen iş risklerini belirlemek ve ele almaktır.Mevcut yönetim politikalarından yararlanın: Mevcut veri ve analitik yönetim çerçevelerinden yararlanın ve yapay zeka tarafından üretilen veri risklerini ele almak için güvenlik, meta veri yönetimi ve etik ile ilgili politikaları güncelleyin. Tekerleği yeniden icat etmeden de yeterince işiniz olacak.Aktif meta veri uygulamalarını benimseyin: Veriler eski olduğunda veya yeniden sertifikalandırma gerektirdiğinde gerçek zamanlı uyarılar etkinleştirin. Eski verilerin yanlış olduğu birçok örnek gördüm. Örneğin, geçen gün birkaç yapay zeka sohbet robotuna bugün Linux'ta varsayılan zamanlayıcının ne olduğunu sordum. Ortak cevap: Tamamen Adil Zamanlayıcı (CFS). Evet, CFS hala kullanılıyor, ancak 2023'ün 6.6 çekirdeğinden başlayarak, En Erken Uygun Sanal Son Tarih İlk (EEVDF) zamanlayıcısı lehine kullanımdan kaldırıldı. Demek istediğim, Linux'u oldukça iyi bilen benim gibi biri dışında hiç kimse yapay zekadan doğru cevabı alamazdı.Kaynak: ZDNET
Katılın Görüşlerinizi Paylaşın
Hemen ileti gönderebilir ve devamında kayıt olabilirsiniz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.