Media is too big
VIEW IN TELEGRAM
Китай стремительно превращается в мирового лидера по производству и внедрению гуманоидных роботов. В стране формируется полный цикл - от датчиков и приводов до готовых автономных систем.
По данным издания, только за прошлый год на китайских заводах установлено около 300 тысяч промышленных роботов, что больше, чем во всём остальном мире вместе взятом. И почти все они - китайского производства.
Компания Unitree уже выпустила гуманоидного робота R1 стоимостью менее 6 000 долларов, что в несколько раз дешевле предыдущих моделей. Это стало возможным благодаря высокой локализации производства и быстрой обратной связи между разработчиками и фабриками.
Демографический кризис и старение населения подталкивают Китай к автоматизации. Правительство активно поддерживает отрасль - создаёт тестовые полигоны, субсидирует стартапы и внедряет роботов в промышленность и сервис.
Если США не активизируют собственные программы в области робототехники, Китай может занять доминирующее положение в одной из ключевых технологий XXI века.
washingtonpost
Исследователи создали систему SwiReasoning, которая позволяет языковым моделям решать, когда говорить, а когда просто думать. Вместо того чтобы постоянно проговаривать свои шаги, как в Chain-of-Thought, модель теперь может рассуждать скрыто - в латентном пространстве.
Когда уверенность низкая, она «думает молча», обрабатывая идеи внутри в виде непрерывных векторов. Когда уверенность возрастает - «высказывает» выводы словами. Такой гибкий режим делает рассуждения в среднем на 56–79% эффективнее, а в пике - до 6.78 раза быстрее, без потери точности.
Исследователи называют это началом новой эры latent reasoning - когда ИИ размышляет не словами, а понятиями.
Paper
Для этого проекта xAI привлекла бывших специалистов Nvidia, которые будут работать над созданием ИИ, умеющего формировать реалистичные трёхмерные среды и взаимодействовать с ними.
Первым направлением применения таких моделей станет индустрия игр - xAI планирует использовать world models для генерации интерактивных 3D-миров с динамическим поведением объектов и физикой.
В будущем эти технологии могут применяться в робототехнике и других областях физического ИИ.
Согласно планам компании, первая игра, полностью созданная искусственным интеллектом xAI, должна выйти к концу следующего года.
X
Модель анализирует зрительные ритмы - микропаузы между кадрами, которые мозг воспринимает по-разному у людей с и без СДВГ. Точность диагностики - 91,8%, а различить, принимает ли человек стимуляторы, ИИ смог с точностью 91%.
Метод может стать новым способом диагностики без тестов и интервью - достаточно показать короткое видео и измерить, как мозг реагирует на световые ритмы.
psypost
Microsoft внедряет в свою корпоративную платформу Viva Insights новую функцию под названием Benchmarks - систему, которая позволяет менеджерам отслеживать, насколько активно сотрудники используют искусственный интеллект в рабочих приложениях. Benchmarks станет частью Copilot Dashboard, панели аналитики, которая собирает данные о взаимодействии сотрудников с инструментами Microsoft 365 - от Teams и Outlook до Word, Excel и PowerPoint.
Руководители смогут видеть процент «активных пользователей Copilot» в разных отделах, сравнивать показатели внутри компании и даже сопоставлять их с усреднёнными данными по отрасли. По официальному определению Microsoft, «активный пользователь Copilot» - это тот, кто совершил «намеренное действие с ИИ» в одном из поддерживаемых приложений.
То есть если ты хотя бы раз за месяц использовал Copilot для генерации письма, отчёта или кода - ты попадёшь в статистику
winbuzzer
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤49👍26🔥9🤨3🥰2💘2
Audio
Функция позволяет создавать аудиотреки напрямую из текстового описания:
▪️ настроение, жанр или сценарий задаются в промпте;
▪️ модель формирует готовый трек без внешних инструментов;
▪️ подходит для клипов, фильмов, поздравлений и других аудиопроектов.
▪️генерация соответствует описанному настроению;
▪️ скорость создания трека выше, чем при использовании внешних DAW;
▪️ инструмент полностью интегрирован в Гига Чат и доступен через веб и бота.
@ai_machinelearning_big_data
#news #ai #GigaChat
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤84🔥64🤣29👍17💘2
Новая архитектура Mamba-3 делает модели быстрее, стабильнее и эффективнее при работе с длинными контекстами.
Главная идея - не в слоях внимания, а в state-space моделях, где модель хранит и обновляет внутреннее состояние во времени.
📘 Краткие эускурс:
- Mamba-1 ввела непрерывную динамику и выборочное обновление памяти - помнила эффективно без высокой цены attention.
- Mamba-2 показала, что обновления состояния и attention - это две стороны одной математики, что ускорило вычисления на GPU.
- Mamba-3 довела концепцию до зрелости: теперь внутренняя память развивается плавнее и устойчивее за счёт перехода от простого шага Эйлера к трапецеидальному интегрированию.
Вместо простого шага Эйлера, как в Mamba-2, Mamba-3 аппроксимирует интеграл обновления состояния не только по правому концу интервала, но усреднением между началом и концом, с коэффициентом λ, зависящим от данных. Это даёт более точное приближение (второго порядка) и делает динамику состояния более выразительной.
🧠 Что изменилось под капотом:
- Память стала «ритмичной»: теперь модель может хранить повторяющиеся и периодические паттерны (например, структуры языка или музыки).
- Новый multi-input-multi-output дизайн позволяет обрабатывать несколько потоков параллельно — идеально для современных GPU.
⚙️ Что это даёт на практике:
- Эффективная работа с длинными последовательностями: документы, геномы, временные ряды.
- Линейное время выполнения и стабильная задержка делают её идеальной для реального времени: чат-ботов, перевода, речи.
- Энергоэффективность и масштабируемость открывают путь к on-device AI, где большие модели работают локально, без облака.
Mamba-3 - это не просто ускоренная альтернатива Transformers.
Это новая архитектура, которая объединяет глубокое понимание контекста, скорость и устойчивость, от серверных систем до умных устройств.
@ai_machinelearning_big_data
#ssm #mamba3 #llm,#architecture #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤91🔥47👍26🤔6🗿3💘2😁1
🔥 Сенсей Карпаты выложил новый репозиторий - полный пайплайн обучения LLM с нуля
В проекте есть всё, чтобы собрать свой ChatGPT-клон за $100 и 4 часа:
> • токенизатор (написан на Rust)
> • pretraining
> • SFT (supervised fine-tuning)
> • RL (reinforcement learning)
> • оценка модели (eval)
Всего 8 000 строк кода, без лишних зависимостей - идеальный учебный пример, чтобы понять, как реально устроено обучение больших языковых моделей.
💡 Это проект из его нового грядущего курса LLM101n, и отличная возможность прокачать свои ML-навыки на практике.
Можно арендовать GPU в облаке и запустить всё самому - код уже готов к запуску.
Если запустить обучение модели nanochat на облачном GPU-сервере (например, 8×H100), то примерно через 12 часов обучения (стоимость ~300–400 $) модель достигает уровня GPT-2 по качеству на тестовых наборах (CORE-score).
А если тренировать около 40 часов (затраты ~1000 $), решает простые задачи по математике и коду, набирая:
- 40+ на MMLU
- 70+ на ARC-Easy
- 20+ на GSM8K
🧠 Это бесплатная практика топ уровня от мастера, которую не стоит упускать.
🟠 GitHub:https://github.com/karpathy/nanochat
🟠 Технические детали: https://github.com/karpathy/nanochat/discussions/1
@ai_machinelearning_big_data
#LLM #nanochat #MachineLearning #DeepLearning #AI #GPT
В проекте есть всё, чтобы собрать свой ChatGPT-клон за $100 и 4 часа:
> • токенизатор (написан на Rust)
> • pretraining
> • SFT (supervised fine-tuning)
> • RL (reinforcement learning)
> • оценка модели (eval)
Всего 8 000 строк кода, без лишних зависимостей - идеальный учебный пример, чтобы понять, как реально устроено обучение больших языковых моделей.
💡 Это проект из его нового грядущего курса LLM101n, и отличная возможность прокачать свои ML-навыки на практике.
Можно арендовать GPU в облаке и запустить всё самому - код уже готов к запуску.
Если запустить обучение модели nanochat на облачном GPU-сервере (например, 8×H100), то примерно через 12 часов обучения (стоимость ~300–400 $) модель достигает уровня GPT-2 по качеству на тестовых наборах (CORE-score).
А если тренировать около 40 часов (затраты ~1000 $), решает простые задачи по математике и коду, набирая:
- 40+ на MMLU
- 70+ на ARC-Easy
- 20+ на GSM8K
🧠 Это бесплатная практика топ уровня от мастера, которую не стоит упускать.
@ai_machinelearning_big_data
#LLM #nanochat #MachineLearning #DeepLearning #AI #GPT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥167❤44👍24🗿8💘3
Он пишет: «То, с чем мы имеем дело, - это настоящее и загадочное существо, а не простая и предсказуемая машина».
Он сравнивает человечество 2025 года с ребёнком из старой истории: мы включаем свет в тёмной комнате и видим не груду одежды на стуле, а живые, мощные и во многом непредсказуемые существа — современные ИИ-системы и те, что ещё впереди.
Многие, по его словам, отчаянно хотят поверить, что это лишь иллюзия, что перед нами не новая форма разума, а просто набор инструментов для экономики. Некоторые даже тратят огромные деньги, чтобы убедить нас, будто «это не интеллект, готовящийся к стремительному взлёту, а всего лишь машина, которой мы управляем».
«Но не обманывайтесь, - пишет Кларк.Мы имеем дело с настоящим и загадочным существом, а не с простой и предсказуемой машиной».
Полное эссе
Благодаря этому обновлению инструмент теперь создаёт более выразительные и визуально насыщенные видео-саммари. Можно выбрать один из шести художественных стилей оформления - от акварели и бумажной аппликации до аниме, рисованной доски, ретро-печати и культурного оформления.
Кроме того, появились два формата генерации роликов: Explainer для подробных объяснений и Brief для коротких, лаконичных обзоров. Обновление уже начали получать владельцы Pro-подписки, а в ближайшее время функция станет доступна всем пользователям.
X
Ring-1T-FP8 - модель на архитектуре Ling 2.0, которая содержит 1 триллион параметров( 50 миллиардов активных).
Ring-1T обучалась с применением RLVR (reinforcement learning with verifiable rewards) - техники, направленной на повышение точности рассуждений и самопроверку ответов. В процессе использовались собственные методы ASystem и Icepop, уменьшающие разрыв между обучением и инференсом.
Модель решает задачи уровня математических олимпиад (IMO 2025), сохраняет контекст до 128 000 токенов, что вдвое больше предыдущей версии.
HF
При этом точность почти не теряется, а вычисления становятся в 2–3 раза быстрее, а потребление памяти снижается на 50%.
В эксперименте NVIDIA обучила 12-миллиардный Mamba Transformer на 10 триллионах токенов, и модель с 4-битным NVFP4 показала почти такую же точность, как и FP8:
на тесте MMLU Pro - 62.58% против 62.62%,
а по коду (MBPP+) - 55.91% против 59.11%.
NVFP4 группирует значения в блоки по 16 чисел. Для каждого блока хранится небольшой масштаб в 8 битах, а для всего тензора - глобальный масштаб в 32 битах. Такая структура сохраняет точность локальных и экстремальных значений, позволяя использовать сверхкомпактное 4-битное хранение без потери устойчивости обучения.
На GPU Blackwell операции FP4 выполняются в 2 раза быстрее на GB200 и в 3 раза 0 на GB300, по сравнению с FP8. Потери точности при валидации не превышают 1–1.5%.
Метод также использует стохастическое округление, чтобы избежать накопления ошибок, а переход на BF16 в последних итерациях обучения полностью убирает оставшуюся разницу.
Поддержка NVFP4 уже встроена в Transformer Engine и новое поколение GPU Blackwell.
arxiv
OpenAI будет отвечать за архитектуру и проектирование чипов, а Broadcom - за производство и развёртывание систем. Масштаб проекта колоссален: 10 ГВт — это примерно столько же энергии, сколько требуется, чтобы обеспечить электричеством 7–10 миллионов домов.
Главная цель - уменьшить зависимость от NVIDIA и создать собственную, независимую инфраструктуру.
OpenAi
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54👍23🤣10🤓6🔥5👻3💘2🍓1
Глава NVIDIA сегодня вручил Маску в штаб-квартире SpaceX самый маленький в мире ИИ-суперкомпьютер.
Ещё недавно такая производительность обеспечивалась целой комнатой серверов.
Теперь она помещается в коробку размером с рабочий ПК.
Такой компактный суперкомпьютер может использоваться для локального обучения и инференса нейросетей без дата-центров и облаков.
NVIDIA называет это началом новой эры персональных ИИ-ускорителей.
Мужчины честной судьбы встретились, в честь начала мировых поставок DGX Spark, которая начнется уже в эту среду.
Этот момент отсылает к истокам: в 2016 году именно Маск и его команда получили первый DGX-1 - тот самый суперкомпьютер, с которого началась эпоха ИИ-ускорителей NVIDIA.
Эх, нам бы такую коробочку)
Подробнее о первых поставках для разработчиков, исследователей, университетов в live-блоге Nvidia: https://blogs.nvidia.com/blog/live-dgx-spark-delivery/
@ai_machinelearning_big_data
#NVIDIA #JensenHuang #ElonMusk #SpaceX #AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤110👍46🔥25😁5😴4💘2🤔1
Media is too big
VIEW IN TELEGRAM
Она поддерживает контекст длиной 256k токенов, расширяемый до 1 миллиона, и способна работать с открытой лексикой, распознавая всё - от товаров до знаменитостей.
Внутри два режима: Instruct и Thinking, предназначенные для задач по математике, генерации кода и логическим рассуждениям. Улучшена система OCR - теперь модель поддерживает 32 языка даже при низком качестве сканов, а также понимает пространственные сцены в 2D и 3D.
По многим задачам модель показывает результаты лучше или почти на уровне Qwen2.5-VL-72B, что делает её одним из самых мощных открытых мультимодальных решений. Лицензия: Apache 2.0.
HF
Компания объясняет, что ранние версии ChatGPT были «достаточно ограниченными» из-за риска вреда при обсуждении психических тем. Теперь OpenAI утверждает, что им удалось снизить серьёзные риски вредных ответов и при этом сохранить защитные механизмы для кризисных ситуаций.
Обновление также добавит возможность включать более “человечный” стиль общения - с эмоциями, эмодзи и дружеской манерой, если пользователь сам этого хочет.
Все изменения будут привязаны к системе возрастной верификации, разделяющей взрослых и несовершеннолетних.
Теперь OpenAI делает ставку на контролируемое расширение свободы взрослых пользователей, сохраняя баланс между безопасностью и реализмом общения.
X
После топосещения Китая много СЕО, пишут, что заводы Китая настолько автоматизированные и эффективные, что западные производства выглядят невероятно устаревшими.
Китай больше не «дешёвая фабрика мира», а высокотехнологичная держава, которая двигает вперёд инновации в робототехнике, электромобилях и чистом производстве.
После таких поездок многие задаются вопросом - способен ли Запад ещё конкурировать в гонке, которую Китай теперь бежит быстрее и умнее.
telegraph
Всего 900 строк кода - и рабочая система готова. Модель выполняет задачу за 172 секунды, показывая уровень генерации интерфейсов, недостижимый для прежних LLM.
Код и демо уже опубликованы, а инсайдеры сообщают, что официальный релиз ожидается на этой неделе. Первые тестеры называют Gemini 3 Pro лучшим ИИ для кодинга на данный момент.
Демо и код.
Используя обычную антенну и приёмник, они обнаружили, что половина спутниковых каналов передаёт данные в открытом виде: звонки, SMS, интернет-трафик и даже военные сигналы.
С крыши лаборатории в Сан-Диего исследователи перехватили 2,7 тыс. телефонных номеров T-Mobile за 9 часов, а также части разговоров. На каналах AT&T Mexico и Telmex передавались контрольные сигналы и голосовые данные в чистом виде.
Даже военные и правительственные системы передавали телеметрию, координаты и внутренние команды без шифрования.
wired
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50❤23😨12🥰5
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Unitree G1 Kungfu Kid V6.0 — это уже не просто робот, а настоящий кунг-фу мастер.
Полтора года тренировок сделали своё дело: он стал быстрее, сильнее и умнее.
У робота 43 степени свободы, куча сенсоров и гибридная система управления, которая позволяет ему постоянно учиться и оттачивать движения.
Кажется, мы реально приближаемся к моменту, когда роботы начнут тренироваться, как люди.
Интересно, чему G1 научится следующим - паркуру или еще чему покруче?
@ai_machinelearning_big_data
#AI #Robotics #Humanoid #Unitree #FutureTech
Полтора года тренировок сделали своё дело: он стал быстрее, сильнее и умнее.
У робота 43 степени свободы, куча сенсоров и гибридная система управления, которая позволяет ему постоянно учиться и оттачивать движения.
Кажется, мы реально приближаемся к моменту, когда роботы начнут тренироваться, как люди.
Интересно, чему G1 научится следующим - паркуру или еще чему покруче?
@ai_machinelearning_big_data
#AI #Robotics #Humanoid #Unitree #FutureTech
👀72👍24🔥15❤8😁6🥰3🥱3💘3
🧬Gemma C2S-Scale 27B помогла учёным найти новый способ борьбы с раком
Исследователи из Google Research и Calico применили эту модель, чтобы анализировать активность генов в клетках и искать вещества, усиливающие иммунный отклик против опухолей.
В чем сложность: многие опухоли остаются «холодными» - иммунная система их «не замечает». Чтобы обратить это, нужно вызвать экспрессию антигенов (antigen presentation), но делать это точно, только там, где уже есть слабый иммунный сигнал, но не всем клеткам подряд.
Gemma смогла предсказать, что комбинация препарата silmitasertib (ингибитор CK2) и низкой дозы интерферона повышает экспрессию MHC-I - это делает “холодные” опухоли более заметными для иммунной системы.
🔬 Результаты лабораторных тестов подтвердили прогноз модели:
- совместное применение действительно усилило работу антигенов примерно на 50 % и это может стать основой для новых видов иммунотерапии.
Главное достижение: ИИ не просто ускорил анализ данных, а сформулировал новую научную гипотезу, которая нашла подтверждение в реальных экспериментах.
Это пример того, как большие модели выходят за рамки генерации текста - они начинают открывать новые лекарства и механизмы действия.
🟠 Подробнее: https://blog.google/technology/ai/google-gemma-ai-cancer-therapy-discovery
🟠 Статья: https://www.biorxiv.org/content/10.1101/2025.04.14.648850v2
🟠 Github: https://github.com/vandijklab/cell2sentence
@ai_machinelearning_big_data
#AI #GoogleDeepMind #BioTech
Исследователи из Google Research и Calico применили эту модель, чтобы анализировать активность генов в клетках и искать вещества, усиливающие иммунный отклик против опухолей.
В чем сложность: многие опухоли остаются «холодными» - иммунная система их «не замечает». Чтобы обратить это, нужно вызвать экспрессию антигенов (antigen presentation), но делать это точно, только там, где уже есть слабый иммунный сигнал, но не всем клеткам подряд.
Gemma смогла предсказать, что комбинация препарата silmitasertib (ингибитор CK2) и низкой дозы интерферона повышает экспрессию MHC-I - это делает “холодные” опухоли более заметными для иммунной системы.
🔬 Результаты лабораторных тестов подтвердили прогноз модели:
- совместное применение действительно усилило работу антигенов примерно на 50 % и это может стать основой для новых видов иммунотерапии.
Главное достижение: ИИ не просто ускорил анализ данных, а сформулировал новую научную гипотезу, которая нашла подтверждение в реальных экспериментах.
Это пример того, как большие модели выходят за рамки генерации текста - они начинают открывать новые лекарства и механизмы действия.
@ai_machinelearning_big_data
#AI #GoogleDeepMind #BioTech
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94❤47🔥20👏6💘5🤨2❤🔥1
Media is too big
VIEW IN TELEGRAM
Новая компактная модель Haiku 4.5 выдает уровень качества Sonnet 4, но при этом работает в два раза быстрее и стоит в три раза дешевле.
Она справляется с широким спектром задач - от написания кода до работы с компьютером и показывает отличные результаты как вспомогательный агент в связке с более мощной моделью Sonnet 4.5.
claude
Обновлённая нейросеть для генерации видео теперь создаёт кадры кинематографического уровня, с реалистичным светом, тенями, движением и деталями без артефактов.
Veo 3.1 научилась лучше понимать сюжет и контекст, генерировать целые истории и сиквелы, а также в разы лучше понимает русский язык.
Цензуру заметно ослабили - теперь творческая свобода почти не ограничена.
Главное новшество - стабильная ABI для libtorch, это позволяет создавать C++ и CUDA-расширения без риска поломок при обновлениях.
Также добавлена
symmetric memory
- технология для ускорения вычислений между несколькими GPU, упрощающая обмен данными между видеокартами.Платформа стала ещё более универсальной: теперь официально поддерживаются ROCm, XPU и CUDA 13, а также улучшена оптимизация под Intel, Arm и x86 процессоры.
В разработке приняли участие 452 контрибьютора, внесено более 3 тысяч коммитов - PyTorch продолжает задавать темп в мире open-source AI.
pytorch
Финансирование опирается на три ключевых направления: рост собственных доходов (AI-агенты, видео-модель Sora, реклама и встроенные покупки), выпуск долговых инструментов и партнёрские инвестиции через схему “чужих балансов” - когда инфраструктуру частично оплачивают крупные партнёры. Проект Stargate при этом позволяет OpenAI при необходимости продавать избыточные вычислительные мощности обратно на рынок.
Сейчас годовой доход компании оценивается в $13 млрд, при этом 70% приносит платная подписка ChatGPT. Из 800 млн пользователей платит только 5%, но OpenAI намерена удвоить этот показатель. В Индии уже появились дешёвые тарифы, а реклама тестируется с осторожностью.
При всём росте первая половина года принесла $8 млрд убытков, поэтому ставка делается на снижение себестоимости вычислений и масштабирование дата-центров. Около двух третей затрат приходятся на полупроводники, что вызывает критику за “круговое финансирование”, когда инвестиции возвращаются к поставщикам чипов.
Руководство уверено, что растущий спрос и падение стоимости оборудования позволят сделать проект реалистичным и укрепить доверие кредитных рынков.
ft
Команда представила Recursive Language Models (RLMs) - новый метод инференса, позволяющий моделям рекурсивно разбирать длинные промпты, как в среде REPL.
RLM делит огромный ввод на части и обрабатывает их пошагово, без ограничений по длине контекста. Для пользователя это выглядит как обычный вызов модели, но внутри она рекурсивно вызывает себя для промежуточных вычислений.
На тесте OOLONG RLM на базе GPT-5-mini превзошёл GPT-5 на 110% при 132k токенах и стоил дешевле.
На BrowseComp-Plus RLM-модели обработали до 10 млн токенов без потери качества, опередив схемы с поиском и ретривером.
Главная цель RLM - устранить “context rot”, когда модели “забывают” длинные диалоги.
Рекурсивный подход может стать ключом к практически бесконечному контексту без сложных обходных решений.
Github
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤56👍19🔥7🥰2💘2👌1👀1