RoboBrain 2.0 — это open-source модель способная к широкому спектру задач: от восприятия окружения до управления роботами.
Её уже называют фундаментом для следующего поколения гуманоидов.
🔹 Поддерживает планирование, восприятие и действия в реальном мире
🔹 Заточен на легкую интеграцию (под капотом 7B параметров) в реальные проекты и роботизированные системы
🔹 Полностью открытый код
Архитектура:
• Обрабатывает изображения, длинные видео и визуальные данные высокого разрешения
• Понимает сложные текстовые инструкции
• Входные данные:
— Визуальные — проходят через Vision Encoder + MLP Projector
— Текстовые — превращаются в унифицированный токен-поток
• Всё подаётся в LLM Decoder, который выполняет рассуждение, строит планы, определяет координаты и пространственные связи
С такими темпами более чем реально, что уже к 2027 году мы увидим массовое производство продвинутых гуманоидных роботов.
ИИ выходит в физический мир — и делает это уверено.
Запуск:
git clone https://github.com/FlagOpen/RoboBrain2.0.git
cd RoboBrain
# build conda env.
conda create -n robobrain2 python=3.10
conda activate robobrain2
pip install -r requirements.txt
▪Github: https://github.com/FlagOpen/RoboBrain2.0
▪Hugging face: https://huggingface.co/collections/BAAI/robobrain20-6841eeb1df55c207a4ea0036/
@ai_machinelearning_big_data
#ai #ml #robots #ComputerVision #BAAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64🔥20❤17🥰3
This media is not supported in your browser
VIEW IN TELEGRAM
Как сгенерировать миллиард демо-примеров для обучения роботов?
Проект Dex1B показывает, как это сделать просто — с помощью симуляции и генеративных моделей!
📌 Цель проекта: создать масштабный датасет для двух задач:
● Grasping — захват объектов🖐️
● Articulation — манипуляции с подвижными частями робота
Как это работает:
1. Создание Seed-датасета
Сначала используется оптимизационный алгоритм, чтобы вручную (или полуавтоматически) собрать небольшой, но точный набор демонстраций — так называемый *Seed Dataset*.
2. Обучение генеративной модели
На основе Seed-датасета обучается DexSimple— простая C-VAE модель (Conditional Variational Autoencoder). Она умеет порождать новые сцены, основываясь на контексте: тип объекта, поза руки, желаемое взаимодействие.
3. Масштабирование до 1 миллиарда
С помощью DexSimple создаются миллиарды новых демонстраций. При генерации учитывается разнообразие поз и объектов: используется преднамеренное «смешение» данных, чтобы не переобучаться на узком распределении.
4. Симуляция и проверка
Все демонстрации валидируются в физическом симуляторе ManiSkill/SAPIEN. Только успешные взаимодействия остаются в финальном наборе.
✔️ Что внутри:
- Grasping-сцены (1 млн штук): построены на базе ассетов из Objaverse
- Articulation-сцены: используют объекты из PartNet-Mobility — богатая коллекция с подвижными частями (двери, ящики, рычаги и т.п.)
- Каждая сцена содержит: 3D-модель объекта, позу руки, физику взаимодействия и результат
Почему это важно:
- Ручной сбор миллиардов примеров невозможен — здесь это решается генеративным путём
- Dex1B создаёт разнообразные и физически валидные примеры
- Это открывает путь к масштабному обучению роботов с использованием имитационного обучения
🟡 Сайт проекта: https://jianglongye.com/dex1b)
🟡 Статья : https://jianglongye.com/dex1b/static/dex1b.pdf
@ai_machinelearning_big_data
#ai #robots #ml
Проект Dex1B показывает, как это сделать просто — с помощью симуляции и генеративных моделей!
● Grasping — захват объектов
● Articulation — манипуляции с подвижными частями робота
Как это работает:
1. Создание Seed-датасета
Сначала используется оптимизационный алгоритм, чтобы вручную (или полуавтоматически) собрать небольшой, но точный набор демонстраций — так называемый *Seed Dataset*.
2. Обучение генеративной модели
На основе Seed-датасета обучается DexSimple— простая C-VAE модель (Conditional Variational Autoencoder). Она умеет порождать новые сцены, основываясь на контексте: тип объекта, поза руки, желаемое взаимодействие.
3. Масштабирование до 1 миллиарда
С помощью DexSimple создаются миллиарды новых демонстраций. При генерации учитывается разнообразие поз и объектов: используется преднамеренное «смешение» данных, чтобы не переобучаться на узком распределении.
4. Симуляция и проверка
Все демонстрации валидируются в физическом симуляторе ManiSkill/SAPIEN. Только успешные взаимодействия остаются в финальном наборе.
- Grasping-сцены (1 млн штук): построены на базе ассетов из Objaverse
- Articulation-сцены: используют объекты из PartNet-Mobility — богатая коллекция с подвижными частями (двери, ящики, рычаги и т.п.)
- Каждая сцена содержит: 3D-модель объекта, позу руки, физику взаимодействия и результат
Почему это важно:
- Ручной сбор миллиардов примеров невозможен — здесь это решается генеративным путём
- Dex1B создаёт разнообразные и физически валидные примеры
- Это открывает путь к масштабному обучению роботов с использованием имитационного обучения
@ai_machinelearning_big_data
#ai #robots #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤38🔥21👍12🥰5
Основная идея VLMgineer - путь к роботам, которые сами изобретают нужные приборы под конкретные задачи, экономя время инженеров и расширяя границы автоматизации.
Что это
● Фреймворк, объединяющий Vision-Language-модель и эволюционный поиск.
● Полностью автоматизирует два процесса:
1) проектирует физический инструмент;
2) пишет пошаговый план, как этим инструментом пользоваться.
Как это работает
1️⃣ VLM получает описание задачи («забей гвоздь», «разбей лёд») и создаёт начальный эскиз инструмента + набор движений робота.
2️⃣ Симуляция проверяет, насколько успешно связка «инструмент + действие» решает задачу.
3️⃣ Эволюционный алгоритм вносит правки (меняет форму, размеры, материалы), VLM уточняет план.
4️⃣ Цикл повторяется, пока не найден оптимальный дизайн.
Никаких шаблонов и ручной настройки — всю «физическую креативность» выполняет модель.
Исследователи протестировали возможности VLMgineer по созданию инструментов и планов действий в сравнении с тремя типами участников:
• специалист по LLM
• эксперт по робототехнике
• обычный человек без технического бэкграунда
📊 Результаты:
VLMgineer показал на 64,7% более высокий средний успех выполнения задач, чем решения, предложенные людьми, скоро обещают дропнуть код проекта.
@ai_machinelearning_big_data
#ai #robots #vlm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤45👍21🔥13⚡1🥰1🌭1
🤖 Gemini Robotics: автономный AI для роботов
Google представили Gemini Robotics On-Device — первую модель, объединяющую зрение, язык и действия, которая работает прямо на роботах, без постоянного подключения к интернету.
🔍 Что делает эту модель особенной:
🔹 Объединяет универсальность и точность Gemini, но работает локально
🔹 Моделька справляется со сложными задачами с двумя руками (манипуляции, сборка, перенос)
🔹 Обучается новым действиям всего по 50–100 демкам
Модель уже поддерживает разные типы роботов — от гуманоидов до промышленных двухруких манипуляторов. И это несмотря на то, что изначально она была обучена только на датасете ALOHA под управлением человеческих инструкций.
🛠 В догонку выпустили SDK Gemini Robotics — для разработчиков, которые хотят дообучить модель под свои нужды, включая тесты в физическом симуляторе MuJoCo.
🌐 Полностью автономная работа — идеально для кейсов с плохой связью или требованиями к высокой скорости отклика.
Gemini Robotics продолжает двигаться к будущему, где AI становится частью физического мира.
👉 Подробнее: https://goo.gle/gemini-robotics-on-device
@ai_machinelearning_big_data
#ai #robots #vlm #google #Gemini
Google представили Gemini Robotics On-Device — первую модель, объединяющую зрение, язык и действия, которая работает прямо на роботах, без постоянного подключения к интернету.
🔍 Что делает эту модель особенной:
🔹 Объединяет универсальность и точность Gemini, но работает локально
🔹 Моделька справляется со сложными задачами с двумя руками (манипуляции, сборка, перенос)
🔹 Обучается новым действиям всего по 50–100 демкам
Модель уже поддерживает разные типы роботов — от гуманоидов до промышленных двухруких манипуляторов. И это несмотря на то, что изначально она была обучена только на датасете ALOHA под управлением человеческих инструкций.
🛠 В догонку выпустили SDK Gemini Robotics — для разработчиков, которые хотят дообучить модель под свои нужды, включая тесты в физическом симуляторе MuJoCo.
🌐 Полностью автономная работа — идеально для кейсов с плохой связью или требованиями к высокой скорости отклика.
Gemini Robotics продолжает двигаться к будущему, где AI становится частью физического мира.
👉 Подробнее: https://goo.gle/gemini-robotics-on-device
@ai_machinelearning_big_data
#ai #robots #vlm #google #Gemini
❤41👍25🔥10🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🔋Робот, умеющий сам менять себе батарею
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
Китайская компания UBTech представила Walker S2 — гуманоидного робота нового поколения, способного автономно извлекать и заменять собственную батарею.
@ai_machinelearning_big_data
#ai #ml #robots
👍148❤46🔥19😢9😁5🤬4🦄2🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Новый четырёхногий робот весом всего 37 кг
Работа стал: Легче, Прочнее, Быстрее.
Разработан специально для промышленных задач, где важны автономность, манёвренность и надёжность.
Инженерная мощь нового поколения — в компактном корпусе.
@ai_machinelearning_big_data
#ai #robots #Unitree
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥67👍27❤17🥱4👾2🍾1😭1
Media is too big
VIEW IN TELEGRAM
🦾 Boston Dynamics показали впечатляющее видео своего робота.
Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.
Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.
Робот показывает, что может работать в реальном бардаке, где всё падает, двигается и мешает работе.
@ai_machinelearning_big_data
#ai #robots #BostonDynamics #atlas
Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.
Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.
Вместо того чтобы «прыгать» от точки к точке, система сразу строит короткую последовательность действий — примерно на полторы секунды вперёд.
Часть из них выполняется, а потом план обновляется, чтобы движения оставались точными и естественными.
Робот показывает, что может работать в реальном бардаке, где всё падает, двигается и мешает работе.
@ai_machinelearning_big_data
#ai #robots #BostonDynamics #atlas
🔥126❤42👍35😨7🦄3
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Демонстрация Unitree G1 прошла на UFC Shanghai
Президент UFC Дана Уайт столкнулся с неожиданным приемом робота на шоу в Шанхае.
В мае те же G1 участвовали в «Mecha Fighting Series» на World Robot Competition в Ханчжоу
Живые спорт-ивенты всё чаще становятся витриной для робототехники.
@ai_machinelearning_big_data
#Unitree #ufc #robots
Президент UFC Дана Уайт столкнулся с неожиданным приемом робота на шоу в Шанхае.
В мае те же G1 участвовали в «Mecha Fighting Series» на World Robot Competition в Ханчжоу
Живые спорт-ивенты всё чаще становятся витриной для робототехники.
@ai_machinelearning_big_data
#Unitree #ufc #robots
👍66😁25❤15🥰3🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
Инженеры показали гуманоида, играющего в настольный теннис и способного отбить 106 ударов подряд.
Работает полностью автономно, без телоуправления.
- Планировщик прогнозирует траекторию мяча и выбирает точку, время и скорость удара.
- Контроллер на основе RL превращает план в согласованные движения рук и ног, удерживая баланс при замахе.
- Обучение основано на видео с реальных матчей, поэтому удары выглядят естественно, а не «роботизировано».
- Контур управления работает быстрее секунды, что позволяет вести долгие розыгрыши без сбоев.
@ai_machinelearning_big_data
#Berkeley #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
👍45❤29🔥16🥰3💘2🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Вопрос только один: что вы сделаете, если встретите его на улице?
@ai_machinelearning_big_data
#UnitreeG1 #robots #ai
@ai_machinelearning_big_data
#UnitreeG1 #robots #ai
😁121❤11🔥9👍7👀5🥰2😨2💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Google DeepMind показала, как роботы учатся работать вместе с помощью обучения с подкреплением.
Учёные из UCL, Google DeepMind и Intrinsic представили новый AI-алгоритм RoboBallet — систему, которая позволяет нескольким роботизированным манипуляторам работать синхронно и без столкновений в сложной производственной среде,.
🔹 В эксперименте участвовали 8 роботов, каждый из которых мог выполнять 40 разных задач в одном общем пространстве.
🔹 Роботы могли брать любую задачу в любом порядке — система сама решала, кому что поручить и как построить безопасные траектории.
🔹 Алгоритм обучался в симуляции, а затем сразу работал в новых условиях без дообучения (*zero-shot*).
Пока решение работает только для задач перемещения (reaching), без учёта порядка выполнения или разных типов роботов.
Однако архитектура гибкая — в будущем возможно добавление сложных задач, зависимостей и разнообразных роботов.
Один алгоритм смог координировать целую команду, делая роботов гибкими и слаженными даже там, где они раньше не работали.
🟢 Подробнее: https://www.science.org/doi/10.1126/scirobotics.ads1204
@ai_machinelearning_big_data
#google #robots #ai #rl
Учёные из UCL, Google DeepMind и Intrinsic представили новый AI-алгоритм RoboBallet — систему, которая позволяет нескольким роботизированным манипуляторам работать синхронно и без столкновений в сложной производственной среде,.
Пока решение работает только для задач перемещения (reaching), без учёта порядка выполнения или разных типов роботов.
Однако архитектура гибкая — в будущем возможно добавление сложных задач, зависимостей и разнообразных роботов.
Один алгоритм смог координировать целую команду, делая роботов гибкими и слаженными даже там, где они раньше не работали.
@ai_machinelearning_big_data
#google #robots #ai #rl
Please open Telegram to view this post
VIEW IN TELEGRAM
❤64👍40🔥21🥱3🤔2🗿1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
Ant Group показала своего первого гуманоида - R1. Это двуручный робот на колёсах, созданный для реальной работы: от готовки до экскурсовода.
⚙️ Характеристики:
- вес — 110 кг
- рост — 1.6–1.75 м
- скорость — до 1.5 м/с
- 34 степени свободы
Ant не просто продаёт робота, а сразу упаковывает его в готовые сценарии для применения: «железо + софт + инструменты + сервисные команды». Это снижает сложности внедрения и обслуживания.
Разрабы показали демку, как R1 готовит еду и водит экскурсии. Первые внедрения — например, в историческом музее.
Обучение идёт в симуляции, а затем переносится в реальный мир.
Главная проблема таких роботов остаётся прежней: надёжный и безопасный embodied AI, который сможет справляться с хаотичными ситуациями - от грязной кухни до неожиданных взаимодействий с людьми.
Ant Group вошла в гонку за роботов нового поколения, где уже играют Unitree и Tesla.
@ai_machinelearning_big_data
#ai #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53❤24🔥14🤔7💘1🙊1
This media is not supported in your browser
VIEW IN TELEGRAM
🦾 Y-Hand M1 — универсальная рука для человекоподобных роботов
Компания Yuequan Bionic представила Y-Hand M1 - самую универсальную и ловкую антропоморфную руку с рекордной степенью свободы движений.
Что умеет:
- Вести ручку по бумаге
- Открывать бутылки
- Резать бумагу
- Выполнять мелкие бытовые задачи почти как человек
🔧 Технические характеристики:
- 38 степеней свободы, нагрузка до 28.7 кг
- Точность позиционирования кончика пальца — 0.04 мм
- Полное сжатие пяти пальцев за 0.2 секунды
- Репликация суставов пальцев с помощью собственных магнитоэлектрических искусственных мышц
⚡️ По сути, это шаг к тому, чтобы роботы получили руки, которые по ловкости максимально близки к человеческим.
@ai_machinelearning_big_data
#ai #robots
Компания Yuequan Bionic представила Y-Hand M1 - самую универсальную и ловкую антропоморфную руку с рекордной степенью свободы движений.
Что умеет:
- Вести ручку по бумаге
- Открывать бутылки
- Резать бумагу
- Выполнять мелкие бытовые задачи почти как человек
- 38 степеней свободы, нагрузка до 28.7 кг
- Точность позиционирования кончика пальца — 0.04 мм
- Полное сжатие пяти пальцев за 0.2 секунды
- Репликация суставов пальцев с помощью собственных магнитоэлектрических искусственных мышц
@ai_machinelearning_big_data
#ai #robots
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77❤33🔥15👏9😭1💘1