Samsung bugün, yeni HBM2 tabanlı belleÄŸinin, 1,2 TFLOPS gömülü bilgi iÅŸlem gücünü dışarı çıkarabilen ve belleÄŸin kendisinin genellikle CPU’lar, GPU’lar, ASIC’ler veya FPGA’lar için ayrılmış iÅŸlemleri gerçekleÅŸtirmesine izin veren entegre bir AI iÅŸlemcisine sahip olduÄŸunu duyurdu.
Yeni HBM-PIM (bellekte iÅŸleme) yongaları, her bellek bankasının içine bir AI motoru enjekte ediyor. Böylece iÅŸlemlerini HBM’nin kendisine aktarıyor. Bu yeni bellek sınıfı genellikle güç tüketimi ve zaman açısından gerçek hesaplama iÅŸlemlerinden daha pahalı olan bellek ve iÅŸlemciler arasında veri taşıma yükünü hafifletmek için tasarlandı.
Samsung, mevcut HBM2 Aquabolt belleÄŸine uygulandığında, teknolojinin enerji tüketimini %70’ten fazla azaltırken iki kat daha fazla sistem performansı saÄŸlayabileceÄŸini söylüyor. Åžirket ayrıca yeni belleÄŸin, bellek denetleyicileri de dahil olmak üzere yazılım veya donanımda herhangi bir deÄŸiÅŸiklik gerektirmediÄŸini ve böylece erken benimseyenler için daha hızlı pazarlama süresi saÄŸladığını iddia ediyor. Samsung, belleÄŸin zaten önde gelen AI çözüm saÄŸlayıcıları ile AI hızlandırıcılarda denemeler altında olduÄŸunu ve ÅŸirketin tüm doÄŸrulamaların bu yılın ilk yarısında tamamlanarak pazara hızlı bir giriÅŸ yapacağını söylüyor.
Ayrıca Samsung, bu hafta Uluslararası Katı Hal Devreleri Sanal Konferansı (ISSCC) sırasında yeni bellek mimarisinin daha ince ayrıntılarını sundu.
Yukarıdaki slaytlarda görebileceÄŸiniz gibi yeni bellekte, her bellek yuvasına gömülü 300 MHz’de çalışan bir Programlanabilir Hesaplama Birimi (PCU) bulunuyor. Bu birim, DRAM içi hesaplamaları etkinleÅŸtirmek için ana bilgisayardan gelen geleneksel bellek komutlarıyla kontrol edilip standart veya FIM (hesaplama) modunda çalışabiliyor.
Özellikle, yukarıdaki slaytlar teknolojiye Function-In Memory DRAM (FIMDRAM) olarak atıfta bulunuyor. Ancak bu HBM-PIM adını taşıyan teknolojinin dahili kod adıydı. Ne yazık ki, bu teknolojiyi en son çıkan GPU’larda en azından ÅŸimdilik göremeyeceÄŸiz. Samsung yeni belleÄŸin veri merkezlerinde, HPC sistemlerinde ve yapay zeka destekli mobil uygulamalardaki büyük ölçekli iÅŸleme gereksinimlerini karşılamaya yönelik olduÄŸunu belirtiyor.