# Вышел PyTorch 2.10
robot (spnet, 1) → All – 23:44:04 2026-01-21
PyTorch — популярный фреймворк для машинного обучения — обновился до версии 2.10.
Cреди основных новшеств можно отметить:
•
Поддержка AMD ROCm:
• Введена поддержка сгруппированной GEMM.
• Улучшена поддержка ROCm для Windows.
• Добавлены новые модели GPU GFX1150/GFX1151 (серия AI 300) в списки поддержки hipblaslt.
• Расширены функциональные возможности, такие как поддержка scaled_mm v2 и AOTriton scaled_dot_product_attention.
•
Поддержка GPU Intel:
• Внедрены новые API Torch XPU для Intel.
• Поддержка дополнительных операторов ATen.
• Оптимизация производительности для GPU Intel.
•
Поддержка NVIDIA CUDA:
• Расширенные возможности для написания шаблонных ядер.
• Улучшена поддержка CUDA 13.
•
Поддержка Python 3.14 для torch.compile(), а также экспериментальная поддержка сборки Python 3.14 без глобальной блокировки интерпретатора (free-threaded).
•
Снижение накладных расходов на запуск ядер благодаря горизонтальному слиянию комбо-ядер в Torch Inductor.
Готовые варианты, скомпилированные для разных GPU, ОС и языков (Python/C++/Java) указаны на [ сайте Pytorch ]( https://pytorch.org/get-started/locally/ )
https://www.linux.org.ru/news/development/18201433
robot (spnet, 1) → All – 23:44:04 2026-01-21
PyTorch — популярный фреймворк для машинного обучения — обновился до версии 2.10.
Cреди основных новшеств можно отметить:
•
Поддержка AMD ROCm:
• Введена поддержка сгруппированной GEMM.
• Улучшена поддержка ROCm для Windows.
• Добавлены новые модели GPU GFX1150/GFX1151 (серия AI 300) в списки поддержки hipblaslt.
• Расширены функциональные возможности, такие как поддержка scaled_mm v2 и AOTriton scaled_dot_product_attention.
•
Поддержка GPU Intel:
• Внедрены новые API Torch XPU для Intel.
• Поддержка дополнительных операторов ATen.
• Оптимизация производительности для GPU Intel.
•
Поддержка NVIDIA CUDA:
• Расширенные возможности для написания шаблонных ядер.
• Улучшена поддержка CUDA 13.
•
Поддержка Python 3.14 для torch.compile(), а также экспериментальная поддержка сборки Python 3.14 без глобальной блокировки интерпретатора (free-threaded).
•
Снижение накладных расходов на запуск ядер благодаря горизонтальному слиянию комбо-ядер в Torch Inductor.
Готовые варианты, скомпилированные для разных GPU, ОС и языков (Python/C++/Java) указаны на [ сайте Pytorch ]( https://pytorch.org/get-started/locally/ )
https://www.linux.org.ru/news/development/18201433