Команда StepFun AI выпустила Step-Video-TI2V модель для генерации видео (до 102 кадров), производительностью SOTA.
Принимает на вход текстовые описания и изображенияъ 🖼️ + ✍️ = 🎬
На бенчмарке VBench-I2V, моделька показывает лучшие результаты по сравнению с другими современными открытыми моделями для генерации видео из изображения и текста, а также лидирует в публичном рейтинге.
Ключевые особенности:
▪ Контроль движения: Модель предлагает достойный баланс между стабильностью движения и гибкостью, позволяя управлять динамикой в кадре.
▪ Разнообразные движения камеры: Поддерживается имитация различных движений виртуальной камеры для создания более кинематографичных эффектов.
▪ Мастер аниме-стиля: Step-Video-TI2V особенно преуспевает в генерации видео в стиле аниме, открывая новые возможности для фанатов и создателей контента! ✨
▪ Поддержка разных разрешений: Модель может генерировать видео в нескольких вариантах размеров.
@ai_machinelearning_big_data
#AI #VideoGeneration #TextToVideo #ImageToVideo #GenerativeAI #MachineLearning #StepFunAI #ИИ #ГенерацияВидео #Нейросети #Аниме #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41❤11🔥5🤔2🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
Команда Tencent Hunyuan представила модель, способную создавать полноценные трёхмерные сцены всего по одному описанию — тексту или изображению.
— Генерация 3D-сред из текста или картинки
— Поддержка редактирования и симуляций в стандартных CG-пайплайнах (Blender, Unity, Unreal)
— Подходит для игр, VR, цифрового контента и прототипирования живых миров
Вы просто пишете: "Japanese garden at sunset" — и модель генерирует трёхмерную сцену с деревьями, прудом и мягким освещением.
Эта модель может серьёзно повлиять на будущее генеративного 3D — от геймдева до виртуальных миров.
@ai_machinelearning_big_data
#3DGeneration #GenerativeAI #TextTo3D #Hunyuan3D #TencentAI #GameDev #VirtualReality
Please open Telegram to view this post
VIEW IN TELEGRAM
👍107🔥27❤25👏7🥰4😁2👨💻2
This media is not supported in your browser
VIEW IN TELEGRAM
🎬 Alibaba опять в ударе, сегодня у нас релиз Wan2.2
Это первая в мире open-source модель генерации видео с архитектурой MoE и полным кинематографическим контролем!
🚀 Что внутри:
🔸 Первая MoE‑модель для видео — масштабируется без лишней нагрузки. Разные эксперты отвечают за этапы диффузии, работая в команде.
🔸 Кинематографический контроль — управляем светом, цветом, движением камеры и композицией прямо из prompt’а.
🔸 Полная open-source линейка:
-
-
-
📈 Умеет лучше всех генерировать *сложные движения* и выглядит уже почти как кино 🎥
🟢 GitHub: https://github.com/Wan-Video/Wan2.2
🟢 Hugging Face: https://huggingface.co/Wan-AI
🟢 ModelScope: https://modelscope.cn/organization/Wan-AI
@ai_machinelearning_big_data
#AI #VideoAI #GenerativeAI #OpenSource #Wan
Это первая в мире open-source модель генерации видео с архитектурой MoE и полным кинематографическим контролем!
🚀 Что внутри:
🔸 Первая MoE‑модель для видео — масштабируется без лишней нагрузки. Разные эксперты отвечают за этапы диффузии, работая в команде.
🔸 Кинематографический контроль — управляем светом, цветом, движением камеры и композицией прямо из prompt’а.
🔸 Полная open-source линейка:
-
Wan2.2-T2V-A14B
— текст → видео -
Wan2.2-I2V-A14B
— изображение → видео -
Wan2.2-TI2V-5B
— объединённая генерация 📈 Умеет лучше всех генерировать *сложные движения* и выглядит уже почти как кино 🎥
@ai_machinelearning_big_data
#AI #VideoAI #GenerativeAI #OpenSource #Wan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥92👍28❤25👌2👨💻1
🎮 Matrix-Game 2.0 — первая опенсорс модель, которая генерирует интерактивные 3D-миры из текста в реальном времени
Неделю назад DeepMind показала Genie 3, но код не был выложен в открытый доступ.
А сегодня Skywork выложили свой генератор
Matrix-Game 2.0 миров в опенсорс 🚀
Возможности:
🟢 25 кадров/с в реальном времени
🟢 Генерирует минуты непрерывного геймплея
🟢 Полная интерактивность: движение, повороты, исследование мира
Можно использовать несколько встроенных шаблонов: город, дикая природа, TempleRun, GTA и др.
Зачем это нужно:
🟠 Создание игровых движков
🟠 Тренировка AI-агентов
🟠 Создание виртуальных персонажей
Заявленые требования: GPU с памятью не менее 24 ГБ (A100 и H100 протестированы).
Как работает:
• Обучена на 1350 часах видео геймлея
• Управление: движок реагирует на нажатия клавиш и движение мыши на каждом кадре
• Модель: 1,3 млрд параметров
• KV-Cache хранит контекст, чтобы окружение генерировалось без ограничений по времени
🟡 Huggingface Model: https://huggingface.co/Skywork/Matrix-Game-2.0
🟡 Repo: https://matrix-game-v2.github.io
@ai_machinelearning_big_data
#AI #MatrixGame #OpenSource #DeepLearning #GameDev #InteractiveAI #WorldModel #GenerativeAI #RealtimeAI #MachineLearning
Неделю назад DeepMind показала Genie 3, но код не был выложен в открытый доступ.
А сегодня Skywork выложили свой генератор
Matrix-Game 2.0 миров в опенсорс 🚀
Возможности:
Можно использовать несколько встроенных шаблонов: город, дикая природа, TempleRun, GTA и др.
Зачем это нужно:
Заявленые требования: GPU с памятью не менее 24 ГБ (A100 и H100 протестированы).
Как работает:
• Обучена на 1350 часах видео геймлея
• Управление: движок реагирует на нажатия клавиш и движение мыши на каждом кадре
• Модель: 1,3 млрд параметров
• KV-Cache хранит контекст, чтобы окружение генерировалось без ограничений по времени
@ai_machinelearning_big_data
#AI #MatrixGame #OpenSource #DeepLearning #GameDev #InteractiveAI #WorldModel #GenerativeAI #RealtimeAI #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥89👍30❤24🥱5😐4
🍌Стало известно, что nano-banana — это модель от Google
Если вы пропустили, эта модель стала вирусной на Арене, благодаря своим возможностям редактирования изображений: меняет цвет волос, одежды, целые образы и фоны, сохраняя стиль и детали персонажа.
Nano-banana демонстрирует высокое качество и согласованность, по сравнению с другими моделями на рынке.
📌 Попробовать можно на арене.
@ai_machinelearning_big_data
#NANOBANANA #AI #GenerativeAI #AIart
Если вы пропустили, эта модель стала вирусной на Арене, благодаря своим возможностям редактирования изображений: меняет цвет волос, одежды, целые образы и фоны, сохраняя стиль и детали персонажа.
Nano-banana демонстрирует высокое качество и согласованность, по сравнению с другими моделями на рынке.
📌 Попробовать можно на арене.
@ai_machinelearning_big_data
#NANOBANANA #AI #GenerativeAI #AIart
👍69🔥22❤13😁4
🎥 Ray3 — новая модель генерации видео от Luma AI
Это первая reasoning-модель для видео: она не только генерирует контент, но и «понимает» задачи, анализирует, исправляет себя и создаёт генерации студийного уровня.
Можно попробовать бесплатно в Dream Machine.
🔥 Что умеет Ray3:
- Черновой режим (Draft Mode) - позволяет быстро создавай креативы и генерирвать сцены, а потом выводить их в 4K HDR.
- Reasoning — модель хорошо понимает промпты и визуальные команды, строит логику движения и компоновки, умеет «думать» о том, что генерирует.
- Визуальные пометки - можно нарисовать стрелку или кружок на кадре, и Ray3 поймёт, куда двигать камеру или объект.
- Физика и реализм — симуляции движения, толпы, анатомия, свет, отражения, размытость в движении.
- HDR-видео — вывод в 10, 12 и 16-бит HDR с яркими цветами, деталями в тенях и бликах, экспорт в EXR для пост-продакшна.
🟠 Подробнее:
http://lumalabs.ai/ray3
@ai_machinelearning_big_data
#Ray3 #LumaAI #AIVideo #GenerativeAI #ReasoningAI
Это первая reasoning-модель для видео: она не только генерирует контент, но и «понимает» задачи, анализирует, исправляет себя и создаёт генерации студийного уровня.
Можно попробовать бесплатно в Dream Machine.
🔥 Что умеет Ray3:
- Черновой режим (Draft Mode) - позволяет быстро создавай креативы и генерирвать сцены, а потом выводить их в 4K HDR.
- Reasoning — модель хорошо понимает промпты и визуальные команды, строит логику движения и компоновки, умеет «думать» о том, что генерирует.
- Визуальные пометки - можно нарисовать стрелку или кружок на кадре, и Ray3 поймёт, куда двигать камеру или объект.
- Физика и реализм — симуляции движения, толпы, анатомия, свет, отражения, размытость в движении.
- HDR-видео — вывод в 10, 12 и 16-бит HDR с яркими цветами, деталями в тенях и бликах, экспорт в EXR для пост-продакшна.
http://lumalabs.ai/ray3
@ai_machinelearning_big_data
#Ray3 #LumaAI #AIVideo #GenerativeAI #ReasoningAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍351🔥45😐34❤18🤔16👌13😍11👏9🎉8🤨6😴5
Media is too big
VIEW IN TELEGRAM
🔥 HunyuanImage 3.0 — свежая open-source модель для генерации изображений по тексту (text-to-image) от Hunyuan.
Размер 80B параметров, из которых 13B активируются на токен во время инференса.
Качество сопоставимо с флагманскими закрытыми моделями индустрии.
Что интересного:
- Основана на собственной мультимодальной LLM Tencent
- Постобучение заточено под text-to-image задачи
- Архитектура MoE + Transfusion объединяет Diffusion и LLM в единую систему
🚀 Возможности:
- Понимает сложные промпты длиной до тысячи слов
- Детализированные изображения с текстом
- Генерирует сложные иллюстрации и комиксы
👉 Попробовать: https://hunyuan.tencent.com/image
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0
@ai_machinelearning_big_data
#AI #GenerativeAI #Adobe #MorganStanley
Размер 80B параметров, из которых 13B активируются на токен во время инференса.
Качество сопоставимо с флагманскими закрытыми моделями индустрии.
Что интересного:
- Основана на собственной мультимодальной LLM Tencent
- Постобучение заточено под text-to-image задачи
- Архитектура MoE + Transfusion объединяет Diffusion и LLM в единую систему
🚀 Возможности:
- Понимает сложные промпты длиной до тысячи слов
- Детализированные изображения с текстом
- Генерирует сложные иллюстрации и комиксы
👉 Попробовать: https://hunyuan.tencent.com/image
🔗 GitHub: https://github.com/Tencent-Hunyuan/HunyuanImage-3.0
🤗 Hugging Face: https://huggingface.co/tencent/HunyuanImage-3.0
@ai_machinelearning_big_data
#AI #GenerativeAI #Adobe #MorganStanley
👍83❤33🔥27🦄4💘2
🔬 Учёные MIT представили SCIGEN - новый инструмент, который учит генеративные модели создавать реально полезные материалы, а не только «красивые картинки».
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
Обычно ИИ придумывает структуры, похожие на уже известные, и редко выходит за рамки. SCIGEN решает эту проблему: он накладывает строгие геометрические ограничения прямо на процесс генерации, заставляя модель искать нестандартные, но стабильные решения.
В экспериментах команда сгенерировала миллионы кандидатов и отфильтровала их по устойчивости и свойствам.
Итог - два ранее неизвестных соединения (**TiPdBi** и **TiPbSb**) удалось реально синтезировать в лаборатории, и они подтвердили предсказанные характеристики.
Это шаг к будущему, где материалы для электроники, квантовых технологий и энергетики будут не «искать годами», а проектировать целенаправленно с помощью ИИ.
https://news.mit.edu/2025/new-tool-makes-generative-ai-models-likely-create-breakthrough-materials-0922
@ai_machinelearning_big_data
#AI #MIT #GenerativeAI #MaterialsScience #SCIGEN
❤75🔥27👍23🥰3🍓2❤🔥1