DOLAR 27,4757 0.51%
EURO 29,0702 0.04%
ALTIN 1.645,730,23
BITCOIN %
İstanbul
23°

AZ BULUTLU

02:00

İMSAK'A KALAN SÜRE

AMD, MI300x AI çipini ‘üretken AI hızlandırıcı’ olarak tanıttı

AMD, MI300x AI çipini ‘üretken AI hızlandırıcı’ olarak tanıttı

ABONE OL
Haziran 13, 2023 23:53
AMD, MI300x AI çipini ‘üretken AI hızlandırıcı’ olarak tanıttı
0

BEĞENDİM

ABONE OL

AMD’nin Instinct MI300X GPU’su birden fazla GPU “yongasına” ek olarak 192 gigabayt HBM3 DRAM bellek ve saniyede 5,2 terabayt bellek bant genişliği içerir. Şirket, bellekte 80 milyar parametreye kadar büyük dil modellerini işleyebilen tek çip olduğunu söyledi.

AMD

Advanced Micro Devices CEO’su Lisa Su, Salı günü San Francisco’da, şirketin yapay zeka bilgi işlemi stratejisinin en önemli parçası olan ve büyük dil modelleri gibi üretken yapay zeka görevleri olarak adlandırılan görevler için muazzam belleği ve veri hacmiyle övünen bir çipi tanıttı.

Parçanın bilindiği üzere Instinct MI300X, daha önce duyurulan MI300A’nın devamı niteliğinde. Çip gerçekten birden çok “yongacık”ın, paylaşılan bellek ve ağ bağlantılarıyla tek bir pakette birleştirilen ayrı ayrı yongaların bir kombinasyonudur.

Ayrıca: Üretken yapay zekanın iş yerinde kullanımını keşfetmenin 5 yolu

San Francisco şehir merkezindeki Fairmont Oteli’nde yalnızca davetlilerin katılabileceği bir seyirci için sahnede olan Su, parçadan “üretken yapay zeka hızlandırıcı” olarak söz etti ve içinde bulunan, CDNA 3 olarak bilinen bir aile olan GPU yongalarının “özel olarak tasarlandığını” söyledi. AI ve HPC için [high-performance computing] iş yükleri.”

MI300X, parçanın “yalnızca GPU” versiyonudur. MI300A, üç Zen4 CPU yongasının birden fazla GPU yongasıyla birleşimidir. Ancak MI300X’te, CPU’lar iki ek CDNA 3 yongası ile değiştirilir.

Ayrıca: Nvidia, AI için yeni Ethernet türü olan Grace Hopper ‘Superchip’i tam üretimde tanıttı

MI300X, transistör sayısını 146 milyar transistörden 153 milyara çıkarır ve paylaşılan DRAM belleği, MI300A’daki 128 gigabayttan 192 gigabayta yükseltilir.

Bellek bant genişliği saniyede 800 gigabayttan saniyede 5,2 terabayta yükseltildi.

Su, CPU veya GPU’yu değiştirerek farklı bilgi işlem türlerini karıştırıp eşleştirme yeteneği nedeniyle, “Bu üründe yonga kullanımımız çok ama çok stratejik,” dedi.

Su, MI300X’in Nvidia’nın H100 “Hopper” GPU’sunun 2,4 katı bellek yoğunluğu ve 1,6 katı bellek bant genişliği sunacağını söyledi.

amd-dc-ai-teknoloji-premier-keynote-for-basın-ve-analist-slaydı-62

AMD

Su, “Üretken AI, büyük dil modelleri manzarayı değiştirdi” dedi. “İster eğitimden ister çıkarımdan bahsediyor olun, daha fazla bilgi işlem ihtiyacı katlanarak artıyor.”

Sue, güçlü bilgi işlemin gerekliliğini göstermek için şu anda en popüler büyük dil modeli olduğunu söylediği açık kaynak Falcon-40B üzerinde çalışan kısmı gösterdi. Dil modelleri, sinir ağı “parametreleri” olarak adlandırılan daha fazla sayıda şeyle oluşturulduklarından daha fazla bilgi işlem gerektirir. Falcon-40B, 40 milyar parametreden oluşur.

Ayrıca: GPT-3.5 ve GPT-4: ChatGPT Plus abonelik ücretine değer mi?

MI300X’in, verileri harici bellek arasında ileri geri taşımak yerine, tamamen bellekte, bu boyutta bir sinir ağını çalıştıracak kadar güçlü olan ilk çip olduğunu söyledi.

Su, MI300X’in Falcon-40B kullanarak San Francisco hakkında bir şiir oluşturduğunu gösterdi.

“Tek bir MI300X, bellekte yaklaşık 80 milyar parametreye kadar modelleri çalıştırabilir” dedi.

“MI300X’i rakipleriyle karşılaştırdığınızda, MI300X 2,4 kat daha fazla bellek ve 1,6 kat daha fazla bellek bant genişliği sunuyor ve tüm bu ek bellek kapasitesiyle aslında büyük dil modelleri için bir avantajımız var çünkü daha büyük modelleri doğrudan bellekte çalıştırabiliyoruz. .”

Ayrıca: ChatGPT mevcut kodunuzu nasıl yeniden yazıp geliştirebilir?

Su, tüm modeli bellekte çalıştırabilmenin, “en büyük modeller için, aslında ihtiyacınız olan GPU sayısını azalttığı, özellikle çıkarım için performansı önemli ölçüde hızlandırdığı ve toplam maliyeti azalttığı” anlamına geldiğini söyledi. mülkiyet.”

Su, “Bu arada, bu çipi seviyorum,” dedi. “Bu çipi seviyoruz.”

amd-dc-ai-teknoloji-premier-keynote-for-basın-ve-analist-slaydı-63

AMD
amd-dc-ai-teknoloji-premier-keynote-for-basın-ve-analist-slaydı-64

AMD

“MI300X ile GPU sayısını azaltabilirsiniz ve model boyutları büyümeye devam ettikçe bu daha da önemli hale gelecektir.”

Su, “Daha fazla bellek, daha fazla bellek bant genişliği ve gereken daha az GPU ile, GPU başına daha önce yapabileceğinizden daha fazla çıkarım işi çalıştırabiliriz” dedi. Bunun, büyük dil modelleri için toplam sahip olma maliyetini azaltacağını ve teknolojiyi daha erişilebilir hale getireceğini söyledi.

Ayrıca: AI’nın ‘iPhone anı’ için Nvidia, büyük bir dil modeli çipini tanıttı

Su, Nvidia’nın DGX sistemleriyle rekabet edebilmek için bir AI bilgisayar ailesi olan “AMD Instinct Platform”u tanıttı. Bunun ilk örneği, sekiz MI300X’i 1,5 terabayt HMB3 bellekle birleştirecek. Sunucu, endüstri standardı Open Compute Platform spesifikasyonuna uygundur.

Su, “Müşteriler için, bellekteki tüm bu AI bilgi işlem kapasitesini, doğrudan mevcut altyapılarına düşen endüstri standardı bir platformda kullanabilirler” dedi.

amd-dc-ai-teknoloji-premier-keynote-for-basın-ve-analist-slaydı-66

AMD

Yalnızca bir GPU olan MI300X’in aksine, mevcut MI300A, Nvidia’nın Grace CPU’sunu ve şirketin geçen ay tam üretimde olduğunu duyurduğu Hopper GPU’sunu kullanan Nvidia’nın Grace Hopper kombo çipine karşı çıkıyor.

Su, MI300A’nın Enerji Bakanlığı Lawrence Livermore Ulusal Laboratuvarlarında yapım aşamasında olan El Capitan süper bilgisayarına yerleştirildiğini kaydetti.

Ayrıca: Bir uygulama oluşturmak için ChatGPT nasıl kullanılır?

Su, MI300A’nın şu anda AMD müşterilerine örnek olarak gösterildiğini ve MI300X’in bu yılın üçüncü çeyreğinde müşterilere örnek olarak sunulmaya başlayacağını söyledi. Her ikisinin de dördüncü çeyrekte seri üretime geçeceğini söyledi.

AMD’nin haber için kurduğu internet sitesinden sunumun tekrarını izleyebilirsiniz.

Bu yazı yorumlara kapatılmıştır.

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.