Южнокорейская SK hynix и Nvidia углубляют стратегическое партнёрство и выходят на новую территорию — высокопроизводительные твердотельные накопители, оптимизированные специально под задачи ИИ. До сих пор компании тесно сотрудничали в области поставок памяти HBM для ускорителей Nvidia, но теперь фокус смещается на NAND-флеш и архитектуры хранения данных.

О планах стало известно на отраслевой конференции, где вице-президент SK hynix Ким Чхонсон заявил: совместно с Nvidia компания разрабатывает SSD, способный обеспечить десятикратный рост производительности по сравнению с нынешними решениями. Проект пока находится на стадии proof-of-concept, а рабочий прототип ожидается до конца 2026 года.
Внутри компаний проект фигурирует под разными кодовыми именами: Storage Next у Nvidia и AI-NP (AI NAND Performance) у SK hynix. Цель амбициозна — довести производительность накопителя до 100 миллионов операций ввода-вывода в секунду (IOPS). Для сравнения: даже топовые корпоративные SSD сегодня на порядок скромнее.
Зачем такие цифры? Современные модели машинного обучения, особенно на этапе инференса, постоянно обращаются к огромным массивам параметров. Традиционные уровни памяти — DRAM и даже высокоскоростная HBM — становятся узким местом, когда масштаб системы выходит за пределы разумной стоимости и энергопотребления.
Идея Storage Next заключается в создании «псевдослоя памяти» на базе NAND-флеш, но с принципиально иными контроллерами и логикой работы. Такой SSD проектируется не как универсальное хранилище, а как компонент вычислительной цепочки ИИ — с минимальными задержками, высокой параллельностью и оптимизацией под характерные паттерны доступа моделей.
Почему это важно для ИИ-инфраструктуры
Если задумка удастся, грань между памятью и хранилищем заметно размоется. Флеш-накопители смогут взять на себя часть задач, которые сегодня выполняет дорогая и энергоёмкая память. Это особенно критично для дата-центров, где каждый ватт и каждый квадратный метр имеют значение.
Кроме того, такой подход обещает повысить энергоэффективность ИИ-кластеров. Флеш-память экономичнее DRAM, а значит, при правильной архитектуре можно снизить совокупные затраты на обучение и обслуживание моделей — без потери скорости.
Однако у технологического прорыва есть и обратная сторона. Спрос на NAND-память уже растёт на фоне бума облачных сервисов и ИИ-вычислений. Появление специализированных AI-SSD может усилить давление на цепочки поставок. Некоторые аналитики даже проводят параллели с рынком DRAM и не исключают сценарий дефицита, если подобные решения выйдут в массовое применение.
Фактически SK hynix и Nvidia пытаются переосмыслить роль флеш-хранилищ, превратив их из пассивного склада данных в активный элемент вычислительной инфраструктуры. И если эксперимент окажется успешным, привычная иерархия памяти в ИИ-системах может измениться быстрее, чем мы ожидаем.
Проект Storage Next — это ставка на то, что будущее ИИ требует не только новых чипов, но и нового взгляда на хранение данных. Сделать SSD «почти оперативной памятью» — задача непростая, но потенциальный выигрыш в производительности и эффективности слишком велик, чтобы её игнорировать. Вопрос лишь в том, станет ли NAND следующим узким местом — или следующим большим прорывом.
