Zıplanacak içerik

Nvidia, dünyanın en güçlü AI donanımını piyasaya sürmeye hazırlanıyor

Featured Replies

Gönderi tarihi:
  • Admin

Nvidia, dünyanın en güçlü AI donanımını piyasaya sürmeye hazırlanıyor

AAVoQ4C.img?h=1080&w=1920&m=6&q=60&o=f&l

Nvidia, yapay zeka altyapısı ve yüksek performanslı bilgi işlem için tasarlanan yeni Grace CPU Superchip'i GTC 2022'de tanıttı.

Yeni 144 çekirdekli Arm Neoverse tabanlı ayrık veri merkezi CPU'su aslında şirketin yüksek hızlı, düşük gecikmeli, çipten çipe (C2C) ara bağlantısı NVLink üzerinden bağlanan iki CPU çipinden oluşuyor.

Nvidia'nın Grace CPU Superchip'i, geçen yıl duyurulan Grace Hopper Superchip'i tamamlıyor ve bir taşıyıcı kartta bir CPU ve bir GPU'ya sahip. Yapıları farklı olsa da, her iki süper çip de aynı temel CPU mimarisini ve NVLink-CNC ara bağlantısını paylaşır.

Nvidia'nın kurucusu ve CEO'su Jensen Huang, bir basın açıklamasında Grace CPU Superchip'in AI iş yükleri için nasıl ideal olduğunu açıkladı:

"Yeni bir veri merkezi türü ortaya çıktı - zeka üretmek için dağlarca veriyi işleyen ve iyileştiren yapay zeka fabrikaları. Grace CPU Superchip, en yüksek performansı, bellek bant genişliğini ve NVIDIA yazılım platformlarını tek bir yongada sunuyor ve dünyanın AI altyapısının CPU'su olarak parlayacak."

Nvidia H100 ve DGX H100

Bir sonraki AI veri merkezleri dalgasını güçlendirmek amacıyla Nvidia, şirketin iki yıl önce başlatılan Nvidia Ampere mimarisinin yerini alan Nvidia Hoppper mimarisine sahip yeni nesil hızlandırılmış bilgi işlem platformunu da duyurdu.

Yonga üreticisi, 80 milyar transistörle dolu ilk Hopper tabanlı GPU'sunu bile duyurdu. Nvidia H100, bugüne kadar dünyanın en büyük ve en güçlü hızlandırıcısıdır ve Grace CPU Superchip gibi, aynı zamanda devasa AI dil modellerini, derin öneri sistemlerini, genomikleri ve karmaşık dijital ikizleri geliştirmek için NVLink ara bağlantısına sahiptir.

Daha da fazla güç isteyen kurumsal işletmeler için Nvidia'nın DGX H100'ü (dördüncü nesil DGX sistemi) sekiz adet H100 GPU içerir ve yeni FP8 hassasiyetinde 32 petaflop yapay zeka performansı sunabilir. Bu, büyük dil modellerinin, öneri sistemlerinin, sağlık araştırmalarının ve iklim biliminin devasa bilgi işlem gereksinimlerini karşılayacak ölçeği sağlar. Nvidia'nın DGX H100 sistemlerindeki tüm GPU'ların 900GB/s bağlantı sağlamak için NVLink ile bağlı olduğunu belirtmekte fayda var.

Şirketin yeni Hopper mimarisi, önde gelen bulut bilişim sağlayıcılarından şimdiden geniş bir endüstri desteği aldı ve Alibaba Cloud, AWS, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud ve Tencent Cloud, H100 tabanlı örnekler sunmayı planlıyor. Aynı zamanda Cisco, Dell Technologies, HPE, Inspur, Lenovo ve diğer sistem üreticileri, H100 hızlandırıcılı sunucuları piyasaya sürmeyi planlıyor.

Nvidia'nın H100 GPU'sunun bu yıl içinde dünya çapında bulut hizmeti sağlayıcılarından, bilgisayar üreticilerinden ve doğrudan şirketin kendisinden temin edilmesi bekleniyor.

Kaynak: TechRadar

nvidia-1201077.jpg

Katılın Görüşlerinizi Paylaşın

Şu anda misafir olarak gönderiyorsunuz. Hesabınız varsa, hesabınızla gönderi paylaşmak için ŞİMDİ OTURUM AÇIN.
Eğer üye değilseniz hemen KAYIT OLUN.
Not: İletiniz gönderilmeden önce bir Moderatör kontrolünden geçirilecektir.

Misafir
Maalesef göndermek istediğiniz içerik izin vermediğimiz terimler içeriyor. Aşağıda belirginleştirdiğimiz terimleri lütfen tekrar düzenleyerek gönderiniz.
Bu başlığa cevap yaz

Önemli Bilgiler

Bu siteyi kullanmaya başladığınız anda kuralları kabul ediyorsunuz Kullanım Koşulu.