掲載済み (2025-10-04号)
#084 372文字 • 2分

## キオクシア、NVIDIAの要望でAIサーバー向け100倍速SSDを開発

掲載情報

概要

https://www.nikkei.com/article/DGXZQOUC124LU0S5A910C2000000/

詳細内容

## キオクシア、NVIDIAの要望でAIサーバー向け100倍速SSDを開発 https://www.nikkei.com/article/DGXZQOUC124LU0S5A910C2000000/ キオクシアはNVIDIAと協力し、AIサーバー向けにGPUのHBMを一部代替可能な100倍速のSSDを2027年までに開発すると発表しました。 **Content Type**: News & Announcements **Scores**: Signal:5/5 | Depth:3/5 | Unique:4/5 | Practical:4/5 | Anti-Hype:5/5 **Main Journal**: 89/100 | **Annex Potential**: 87/100 | **Overall**: 84/100 **Topics**: [[Kioxia, NVIDIA, SSD, AIサーバー, HBM]] キオクシアがNVIDIAと協業し、生成AIサーバー向けに従来比約100倍のデータ読み出し速度を持つソリッド・ステート・ドライブ(SSD)を2027年を目標に製品化する計画を発表しました。この画期的なSSDは、画像処理半導体(GPU)に接続し、GPUのメモリー容量を拡張するために使用される広帯域メモリー(HBM)の一部を置き換えることを目指しています。 この発表は、Webアプリケーションエンジニアにとって非常に重要な意味を持ちます。生成AIを活用したサービス開発において、AIサーバーの性能は直接的にアプリケーションの応答速度や処理能力に影響します。特に大規模なAIモデルの学習や推論では、大量のデータを高速に読み書きできるストレージが不可欠です。 現在、GPUはHBMを用いて高速なデータアクセスを実現していますが、HBMは高コストであり、容量拡張にも限界があります。キオクシアの新しいSSDがHBMの一部を代替できれば、AIサーバーにおけるストレージコストを大幅に削減し、より柔軟なメモリー拡張オプションを提供できる可能性があります。これにより、Webアプリケーションのバックエンドを支えるAIインフラのボトルネックが解消され、より大規模で複雑なAIモデルを効率的に運用できるようになります。結果として、我々エンジニアは、より高性能でコスト効率の良いAIサービスを構築し、提供することが可能になるでしょう。これは、AIを活用した新しいWebアプリケーションやサービスの創出を加速させる基盤技術として、今後の動向が注目されます。