ウィンボンド、パワフルなエッジAIデバイス向けのCUBEアーキテクチャを発表

半導体メモリソリューションの世界的リーディングサプライヤーである、ウィンボンド・エレクトロニクス株式会社は、主流のユースケースにおける手頃な価格のエッジAIコンピューティングを実現する、強力なテクノロジーを発表しました。ウィンボンドの新しいCustomized Ultra-Bandwidth Elements(CUBE)は、ハイブリッドエッジ/クラウドアプリケーション上で生成AIのシームレスなパフォーマンスを実現するメモリテクノロジー最適化を可能にします。

小さなフォームファクタに対応!コンパクトなサイズ

ウィンボンドの新しいCustomized Ultra-Bandwidth Elements(CUBE)は、ハイブリッドエッジ/クラウドアプリケーション上で生成AIのシームレスなパフォーマンスを実現するメモリテクノロジー最適化を可能にします。
これにより、より小さなフォームファクタに対応しています。
シリコン貫通ビア(Through-Silicon Vias / TSV)を導入することで、性能がさらに向上し、シグナルインテグリティ、パワーインテグリティが改善されます。
また、パッドピッチを小さくすることでIO面積が縮小し、トップダイにSoC、ボトムダイにCUBEを搭載した場合、放熱性も改善されます。

合計1K IOで最大2Gbpsを実現

卓越したコストパフォーマンスを実現するCUBEのIOは、合計1K IOで最大2Gbpsという驚異的な速度を誇ります。
28nm/22nm SoCのようなレガシーファンドリープロセスと組み合わせることで、32Gバイト/秒~256Gバイト/秒(HBM2帯域幅)という超高帯域幅能力を発揮し、これは4-32個*LP-DDR4×4266Mbps×16 IOの帯域幅に相当します。

関連記事