Media is too big
    VIEW IN TELEGRAM
  ⦿ Гуманойдные формы могут оказаться ключевыми для повседневного и персонального использования — там, где среда создана под людей.
А вот специализированные роботы будут незаменимы на производстве и в лабораториях.
⦿ В ближайшие пару лет нас ждёт «вау-момент» в робототехнике.
Но фундаментальные модели пока требуют доработки: надёжности и более глубокого понимания реального мира.
⦿ DeepMind работает сразу в двух направлениях:
- как с Android для роботов — универсальный слой ОС, совместимый с любым роботом;
- и с вертикальной интеграцией - разработка конкретных роботов «под ключ».
Идея проста: скоро роботы будут не только на заводах, но и рядом с нами — а управлять ими станет так же привычно, как смартфоном.
@ai_machinelearning_big_data
#DeepMind #Google #DemisHassabis #Robotics
Please open Telegram to view this post
    VIEW IN TELEGRAM
  1🤔90👍32❤17👀9🎉8🤬3👏2🔥1
  🦾 Google представил Gemini Robotics-ER 1.5 - новую модель для роботов, которая умеет видеть, рассуждать, планировать и действовать в реальном мире.  
Что она может:
- Понимать пространство и объекты вокруг.
- Разбивать задачу на шаги (например: «убери стол» → план действий).
- Подключать внешние инструменты - поиск, модели для анализа изображений и др.
- Балансировать скорость и точность: быстро реагировать или глубже анализировать.
- Работать безопаснее: учитывать вес предметов и физические ограничения.
Мир слишком сложен для роботов: окружение, сцены, объекты постоянно меняются.
Gemini Robotics-ER помогает роботам соединять понимание и действие.
📌 Пример: робот сортирует мусор.
Он узнаёт местные правила, распознаёт предметы, планирует действия и выполняет всё безопасно.
https://developers.googleblog.com/en/building-the-next-generation-of-physical-agents-with-gemini-robotics-er-15/
@ai_machinelearning_big_data
#Google #Gemini #Robotics #AI #PhysicalAgents
Что она может:
- Понимать пространство и объекты вокруг.
- Разбивать задачу на шаги (например: «убери стол» → план действий).
- Подключать внешние инструменты - поиск, модели для анализа изображений и др.
- Балансировать скорость и точность: быстро реагировать или глубже анализировать.
- Работать безопаснее: учитывать вес предметов и физические ограничения.
Мир слишком сложен для роботов: окружение, сцены, объекты постоянно меняются.
Gemini Robotics-ER помогает роботам соединять понимание и действие.
📌 Пример: робот сортирует мусор.
Он узнаёт местные правила, распознаёт предметы, планирует действия и выполняет всё безопасно.
https://developers.googleblog.com/en/building-the-next-generation-of-physical-agents-with-gemini-robotics-er-15/
@ai_machinelearning_big_data
#Google #Gemini #Robotics #AI #PhysicalAgents
🔥66👍23❤22🤔5💘2
  This media is not supported in your browser
    VIEW IN TELEGRAM
  Google выпустили LiteRT-LM - фреймворк для запуска LLM прямо на устройстве (offline), с минимальной задержкой и без API-вызовов.
Если вы пилите приложения, это полезная штука, потому что:
- Работает на устройстве: нет задержек от удалённых серверов
- Нет расходов на API
- Дает доступ к Локальному GenAI
🔍 Основное
- LiteRT-LM уже используется внутри Gemini Nano / Gemma в Chrome, Chromebook Plus и Pixel Watch.
- Открытый C++ интерфейс (preview) для интеграции в кастомные решения.
- Архитектура: Engine + Session
• Engine хранит базовую модель, ресурсы - общий для всех функций
• Session - контекст для отдельных задач, с возможностью клонирования, копирования “по записи” (Copy-on-Write) и лёгких переключений
- Поддержка аппаратного ускорения (CPU / GPU / NPU) и кроссплатформенность (Android, Linux, macOS, Windows и др.)
- Для Pixel Watch используется минимальный “pipeline” - только необходимые компоненты - чтобы уложиться в ограничения памяти и размера бинарей
Google опенсорснули целый стек для запуска GenAI на устройствах:
- LiteRT быстрый «движок», который запускает отдельные AI-модели на устройстве.
- LiteRT-LM - интерфейс C++ для работы с LLM. Он объединяет сразу несколько инстурментов : кэширование промптов, хранение контекста, клонирование сессий и т.д.
- LLM Inference API - готовые интерфейсы для разработчиков (Kotlin, Swift, JS). Работают поверх LiteRT-LM, чтобы можно было легко встраивать GenAI в приложения.
@ai_machinelearning_big_data
#AI #Google #LiteRT #LiteRTLM #GenAI #EdgeAI #OnDeviceAI #LLM
Please open Telegram to view this post
    VIEW IN TELEGRAM
  👍96❤31🔥19💘4
  This media is not supported in your browser
    VIEW IN TELEGRAM
  Jules - это ИИ, который умеет писать код, исправлять ошибки и создавать тесты для ваших проектов.
Он подключается к GitHub или другому репозиторию, анализирует кодовую базу и выполняет задачи, которые вы ему задаёте.
С помощью Jules Tools можно запускать и управлять этим агентом напрямую через терминал, без браузера.
Пример, вводите:
jules remote new --session "fix login bug"
После запуска команда создаёт виртуальную машину, клонирует репозиторий, решает задачу и отправляет pull request с готовым исправлением.
Что интересного:
- Командная строка и API для управления агентом
- Асинхронные задачи и параллельное выполнение
- Скрипты и автоматизация (через CI, cron, pipelines)
- Память и адаптация под ваш стиль кода
- Безопасное хранение ключей и токенов
- Интерактивный интерфейс в терминале (TUI) с отображением статуса задач в реальном времени
TUI-режим напоминает веб-панель, но работает прямо в консоли, позволяя быстро запускать, отслеживать и управлять сессиями.
Jules можно интегрировать с Slack или системами сборки - агент сам создаёт и выполняет задачи, пока вы занимаетесь другими делами.
Если агент сталкивается с проблемой, то приостанавливает работу и запрашивает помощь, а не «угадывает» решение.
Обе утилиты - Jules и Gemini CLI - работают на Gemini 2.5 Pro, но Jules ориентирован на короткие и точные задачи, а Gemini CLI - на длительную совместную работу.
Бесплатная версия позволяет запускать 15 задач в день (до 3 одновременно).
Платные тарифы - $19.99 и $124.99 - дают лимиты до 100 и 300 задач.
Google также планирует добавить поддержку GitLab, Bitbucket и локальных проектов без Git.
@ai_machinelearning_big_data
#Google #Jules #AI #CodingAgent #Gemini25Pro #Automation
Please open Telegram to view this post
    VIEW IN TELEGRAM
  🔥147❤27👍25🎉12👏7😁6🤩5🥰2🤣2🫡2
  🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI
Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».
Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.
Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.
🟠 Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.
Проще говоря:
1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.
2) Затем применяют обратные операции, как будто “перематывают” процесс назад.
3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.
4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.
Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.
Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.
«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.
*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.
🟢  Статья: https://www.nature.com/articles/s41586-025-09526-6
@ai_machinelearning_big_data
#QuantumComputing #Google #AI #Nature #Physics
Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».
Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.
Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.
Проще говоря:
1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.
2) Затем применяют обратные операции, как будто “перематывают” процесс назад.
3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.
4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.
Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.
Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.
«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.
*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.
@ai_machinelearning_big_data
#QuantumComputing #Google #AI #Nature #Physics
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  1🔥288👍254❤100🤔70👏53🥰31😐22🤩17🤗13👌6🤓6
  ⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю
Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.
Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.
Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.
В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.
Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.
Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».
Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».
Один из фаундеров пошутил:
Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116
@ai_machinelearning_big_data
#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.
Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.
Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.
В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.
Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.
Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».
Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».
Один из фаундеров пошутил:
«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».
Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116
@ai_machinelearning_big_data
#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google
👍62😨58🫡16❤14🏆6🔥5😁3🦄3