🚀 Nvidia инвестирует до $1 млрд в Poolside - стартап, создающий инструменты автоматизации программирования. Раунд нацелен на $2 млрд при оценке $12 млрд.
Условия сделки:
- стартовый чек Nvidia - $500 млн, с ростом до $1 млрд при достижении целей по привлечению капитала;
- уже подтверждено более $1 млрд, ~**$700 млн** - от текущих инвесторов.
Что делает Poolside
- автоматизация разработки и генерирование кода;
- фокус на гос-сектор и оборону;
- долгосрочная цель — системы AGI.
Зачем деньги
- закупка кластеров Nvidia GB300 (Blackwell Ultra, 72 GPU + Grace CPU, оптимизировано под высокоскоростной инференс);
- масштабирование compute и R&D.
Контекст
- проект связан с Project Horizon - дата-центром на 2 ГВт в Техасе (CoreWeave), мощность которой сопоставима с энергией для 1.5 млн домов.
- Nvidia в 2025 уже проинвестировала 59+ AI-стартапов — растит спрос на свои чипы и усиливает позиции в AI-инфраструктуре.
Poolside получает доверие рынка и доступ к топовой вычислительной мощности. Nvidia укрепляет доминирование в AI-железе.
Автогенерация кода выходит из экспериментов в реальный продакшн-масштаб.
#Nvidia #AI #AGI #VC #DeepTech
bloomberg com/news/articles/2025-10-30/nvidia-to-invest-up-to-1-billion-in-ai-startup-poolside
Условия сделки:
- стартовый чек Nvidia - $500 млн, с ростом до $1 млрд при достижении целей по привлечению капитала;
- уже подтверждено более $1 млрд, ~**$700 млн** - от текущих инвесторов.
Что делает Poolside
- автоматизация разработки и генерирование кода;
- фокус на гос-сектор и оборону;
- долгосрочная цель — системы AGI.
Зачем деньги
- закупка кластеров Nvidia GB300 (Blackwell Ultra, 72 GPU + Grace CPU, оптимизировано под высокоскоростной инференс);
- масштабирование compute и R&D.
Контекст
- проект связан с Project Horizon - дата-центром на 2 ГВт в Техасе (CoreWeave), мощность которой сопоставима с энергией для 1.5 млн домов.
- Nvidia в 2025 уже проинвестировала 59+ AI-стартапов — растит спрос на свои чипы и усиливает позиции в AI-инфраструктуре.
Poolside получает доверие рынка и доступ к топовой вычислительной мощности. Nvidia укрепляет доминирование в AI-железе.
Автогенерация кода выходит из экспериментов в реальный продакшн-масштаб.
#Nvidia #AI #AGI #VC #DeepTech
bloomberg com/news/articles/2025-10-30/nvidia-to-invest-up-to-1-billion-in-ai-startup-poolside
🔥9❤4👍2
Forwarded from Machinelearning
Ключевые характеристики:
- MoE-архитектура: 30B параметров всего, ~3.5B активных
- Контекст до 1 миллиона токенов
- Гибридная архитектура:
- 23 слоя Mamba-2 + MoE
- 6 attention-слоёв
- Баланс между скоростью и качеством рассуждений
Требования:
- необходимо около 24 ГБ видеопамяти для локального запуска
Модель хорошо подходит для длинных диалогов, анализа документов и reasoning-задач
Интересный пример того, как MoE и Mamba начинают реально снижать требования к железу, сохраняя масштаб контекста и качество.
Для обучения Super и Ultra используется NVFP4 и новая архитектура Latent Mixture of Experts. Она позволяет задействовать в четыре раза больше экспертов при той же стоимости инференса. По сути, модель становится «умнее» за счёт более гибкого выбора экспертов, а не за счёт постоянной активации всех параметров.
Дополнительно применяется Multi-Token Prediction, что ускоряет обучение и улучшает качество рассуждений на длинных последовательностях. Это особенно важно для agentic и multi-agent сценариев, где модели работают с длинным контекстом и сложными цепочками решений.
NVIDIA публикует не только веса, но и данные для предобучения и постобучения, а также технические детали, которые объясняют, почему эти модели одновременно быстрые и сильные.
Такой уровень открытости - редкость для моделей этого масштаба и хороший сигнал для индустрии.@ai_machinelearning_big_data
#AI #LLM #NVIDIA #Nemotron3 #OpenSource #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤6👍5