半導体メモリソリューションの世界的リーディングサプライヤーである、ウィンボンド・エレクトロニクス株式会社は、主流のユースケースにおける手頃な価格のエッジAIコンピューティングを実現する、強力なテクノロジーを発表しました。ウィンボンドの新しいCustomized Ultra-Bandwidth Elements(CUBE)は、ハイブリッドエッジ/クラウドアプリケーション上で生成AIのシームレスなパフォーマンスを実現するメモリテクノロジー最適化を可能にします。
小さなフォームファクタに対応!コンパクトなサイズ
ウィンボンドの新しいCustomized Ultra-Bandwidth Elements(CUBE)は、ハイブリッドエッジ/クラウドアプリケーション上で生成AIのシームレスなパフォーマンスを実現するメモリテクノロジー最適化を可能にします。これにより、より小さなフォームファクタに対応しています。
シリコン貫通ビア(Through-Silicon Vias / TSV)を導入することで、性能がさらに向上し、シグナルインテグリティ、パワーインテグリティが改善されます。
また、パッドピッチを小さくすることでIO面積が縮小し、トップダイにSoC、ボトムダイにCUBEを搭載した場合、放熱性も改善されます。
合計1K IOで最大2Gbpsを実現
卓越したコストパフォーマンスを実現するCUBEのIOは、合計1K IOで最大2Gbpsという驚異的な速度を誇ります。28nm/22nm SoCのようなレガシーファンドリープロセスと組み合わせることで、32Gバイト/秒~256Gバイト/秒(HBM2帯域幅)という超高帯域幅能力を発揮し、これは4-32個*LP-DDR4×4266Mbps×16 IOの帯域幅に相当します。