Media is too big
VIEW IN TELEGRAM
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52❤29🔥6🦄3🥰2🙈2
Miles - фреймворк для RL-обучения от команды LMSYS ORG, ориентированный на энтерпрайз-уровень.
Если вы следите за опенсорс разработками, вы наверняка слышали о предшественнике этой системы, проекте slime. Это легкий инструмент, который используют во многих современных пайплайнов пост-трейна. На нем, кстати, запускали GLM-4.6.
Slime доказал, что легковесный дизайн работает, и Miles делает следующий шаг - масштабное обучение архитектур MoE и поддержка тяжелых промышленных нагрузок.
Miles предлагает то, что называют "True On-Policy". Раньше между тренировкой и инференсом часто возникало расхождение. Теперь же, благодаря инфраструктурному подходу, LMSYS добилась нулевой дивергенции. Это стало возможным благодаря использованию Flash Attention 3, библиотеки DeepGEMM и ядер от Thinking Machines Lab, работающих в связке с
torch.compile.Вторая особенность - в использовании спекулятивного декодирования. Обычно в RL черновая модель замораживается, что мешает ей следовать политике целевой модели. LMSYS добавили онлайн-обучение черновой модели.
Результаты на тестах положительные: ускорение генерации более чем на 25%, особенно на поздних стадиях обучения.
Для энтерпрайза память - это деньги. В Miles включили механизмы, предотвращающие падение системы при некритичных ошибках OOM и исправили чрезмерное потребление памяти в FSDP.
В дорожной карте проекта обещают поддержку мультимодального обучения, совместимость со SGLang v2 и расширенное спекулятивное декодирование.
@ai_machinelearning_big_data
#AI #ML #RL #Miles #LMSYS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍92❤🔥12❤11🔥9🦄4💋1💘1
Андрей Карпаты
Его идея в том, что вместо того, чтобы задавать вопрос одной LLM, вы можете объединить их в «Совет моделей».
LLM Council - это простое локальное веб-приложение, с интерфейсом как у ChatGPT, но с той разницей, что запрос отправляется через Openrouter нескольким LLM. Полученные ответы перекрестно оцениваются и ранжируются, и, наконец, «модель-председатель совета» формирует окончательный ответ.
Более подробно процесс выглядит так:
Запрос отправляется всем моделям по отдельности, и их ответы собираются. Ответы каждой модели отображаются в отдельной вкладке, чтобы можно было их посмотреть вручную.
Каждая модель получает ответы других моделей. При этом идентификаторы анонимизированы, чтобы исключить «игру в любимчиков» при оценке чужих результатов. На этом этапе ответы ранжируются их по точности и глубине анализа.
Модель-председатель принимает все ответы моделей и компилирует их в единый окончательный ответ.
⚠️ Для использования нужен API-ключ OpenRouter.
@ai_machinelearning_big_data
#AI #ML #LLMCouncil #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤67🔥33👍25🤣18🦄5
The Information опубликовала внутреннее письмо Сэма Альтмана, и его тон сильно отличается от привычного оптимизма OpenAI.
CEO прямо предупреждает команду: впереди могут быть серьёзные вызовы.
1. Google сделал резкий рывок
Альтман признаёт, что Google заметно ускорился в области ИИ.
Теперь OpenAI - не компания с комфортным отрывом от конкурентов, а участник гонки, которому снова нужно догонять.
2. Рост OpenAI может существенно замедлиться
По данным источников, к 2026 году рост выручки может уменьшится в разы.
Для компании, которая только что росла взрывными темпами, это серьёзный сигнал.
3. Внутри OPENAI ощущается напряжение
Атмосферу описывают как *«rough vibes»*: меньше уверенности в своих силах, больше осторожности.
Команда впервые за долгое время чувствует давление и неопределённость.
Фаза бурного роста заканчивается, начинается период конкуренции и стратегической выносливости.
OpenAI остаётся сильнейшим игроком, но теперь марафон важнее спринта.
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
@ai_machinelearning_big_data
#AI #OpenAI #Google #TechNews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍68❤21🤣17🔥7🗿6😁2🦄2😢1
Anthropic выпустила Claude Opus 4.5, которую назвала «лучшей в мире».
Модель по тестам выбивает топовые результаты в программировании и работе с агентами. Говорят, что она даже превзошла всех кандидатов-людей на внутреннем тесте.
Модель подешевела. Цена за 1 млн. токенов теперь составляет $5 на вход и $25 на выход.
Для разработчиков добавили новый параметр (low, high и medium), позволяющий балансировать между скоростью ответа и качеством генерации.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤56🔥32👍21🥰7🤣6🤬3🤔2👏1
Media is too big
VIEW IN TELEGRAM
Shanghai AI Lab натренировал семейство моделей P1 для решения сложнейших физических задач. Флагманская модель P1-235B-A22B добилась исторического результата, став первой открытой моделью, которая решила задачи Международной олимпиады по физике 2025 года на уровень золотой медали.
P1 сравнялась на физическом бенче HiPhO по количеству медалей с Gemini-2.5-Pro и обошла GPT-5. Основой успеха стала мультиагентная система PhysicsMinions, которая итеративно проверяет и улучшает решения, анализируя их логику и физическую состоятельность.
Весь проект P1, включая сами модели и бенчмарки, опубликован в открытом доступе.
prime-rl.github.io
Техногигант планирует в 1000 раз нарастить свои вычислительные мощности для ИИ в течение следующих 4-5 лет. По словам топ-менеджеров, Google уже вынуждена удваивать серверные емкости для ИИ каждые полгода, чтобы справляться с растущей нагрузкой.
Руководство Google считает, что риск недоинвестирования в инфраструктуру сейчас выше, чем риск перерасхода средств. План расширения опирается на три элемента: более тесную интеграцию аппаратного и программного обеспечения, повышение эффективности моделей и использование кастомных чипов.
cnbc.com
Сервис расширили функцией генерации слайдов на основе загруженных источников. Инструмент подойдет для быстрого структурирования информации и создания черновиков презентаций или визуально улучшения уже существующих материалов.
Слайды доступны для скачивания в формате PDF, экспорт в Google Slides и PowerPoint уже находится в разработке. За работу новой функции отвечает Nano Bana Pro.
Лимиты на использование зависят от типа аккаунта пользователя.
NotebookLM в сети Х
WorldGen — система генерации полностью интерактивных 3D-мирой на основе простых текстовых запросов. Технология использует процедурную логику и диффузионные модели для создания детализированных и стилистически выдержанных локаций размером до 50x50 метров.
Итоговые сцены WorldGen, согласно демо-роликам, не просто статичны, а готовы к навигации и взаимодействию. Созданные миры совместимы с игровыми движками Unity и Unreal и не требуют дополнительных конвертаций или сложной настройки рендеринга.
Проект находится на стадии исследования и пока недоступен для широкого использования.
roadtovr.com
Игровая студия анонсировала экспериментальный проект Teammates, который меняет взаимодействие с неигровыми персонажами. Технология на базе генеративного ИИ позволяет NPC понимать естественную речь и действовать как участники процесса, а не просто скриптовые боты.
В рамках прототипа, созданного на основе шутера от первого лица, игроку помогают два ИИ-напарника и голосовой ассистент Джаспар. Они способны реагировать на голосовые команды: подсвечивать цели, предоставлять информацию о сюжете, изменять игровые настройки или ставить игру на паузу. Система анализирует контекст и действия игрока, обеспечивая динамическую реакцию персонажей в реальном времени.
Ubisoft говорит, что проект уже прошел закрытое тестирование. По мнению CEO компании, ИИ станет для индустрии революцией, сравнимой с переходом игр от 2D к 3D.
news.ubisoft.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤41👍18🔥16🦄1
Задачи, которые у людей занимают около 90 минут и стоят примерно $55 труда, Claude выполняет на 80% быстрее человека.
У большинства пользователей экономия времени - в диапазоне 50–95%.
Вот самые впечатляющие цифры экономии времени:
• Преподаватели и методисты - до 96% быстрее при подготовке программ и учебных материалов
• Библиотекари - до 93%, когда нужно составлять подборки, списки источников и справки
• Научные ассистенты - 91%
• Секретари и администраторы - 87%, подготовка писем, документов, отчётов
• Преподаватели аграрных наук - 83%, создание методичек и рекомендаций
• Финансовые аналитики - 80%, интерпретация данных, рисков, экономических трендов
• Консультанты по образованию и карьере -75%, подготовка справочных материалов и рекомендаций
Это одно из самых масштабных эмпирических измерений влияния генеративного ИИ - и оно показывает, что выгода есть, но зависит от контекста и задач.
Полное исследование: https://www.anthropic.com/research/estimating-productivity-gains
@ai_machinelearning_big_data
#AI #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
❤86👍43🔥15🤣7🥰2
Новое семейство моделей от Яндекса Alice AI теперь доступно для бизнеса
✔️ Yandex B2B Tech открыла доступ к Alice AI — линейку генеративных моделей, которые лежат под капотом у Алисы. Первая модель, Alice AI LLM, уже доступна на платформе Yandex AI Studio и предназначена для корпоративных задач: анализа документов, работы с текстами, она также лучше поддерживает диалог и справляется с креативной генерацией.
По результатам тестов, Alice AI в 60% случаев показала более высокое качество ответов, чем DeepSeek V3.1 и Qwen3-235B. Модель прошла полный цикл обучения от претрейна до SFT. Благодаря оптимизированному под русский язык токенайзеру в один токен “помещается” 4-5 символов на кириллице, а в опенсорсных моделях в среднем – 2-3 символа. При равной тарификации стоимость работы с Alice AI LLM будет в 1,5-2 раза дешевле зарубежных.
@ai_machinelearning_big_data
#news #ai #ml
По результатам тестов, Alice AI в 60% случаев показала более высокое качество ответов, чем DeepSeek V3.1 и Qwen3-235B. Модель прошла полный цикл обучения от претрейна до SFT. Благодаря оптимизированному под русский язык токенайзеру в один токен “помещается” 4-5 символов на кириллице, а в опенсорсных моделях в среднем – 2-3 символа. При равной тарификации стоимость работы с Alice AI LLM будет в 1,5-2 раза дешевле зарубежных.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😁37🤣35❤16👍15🥱8🔥7🌚4
This media is not supported in your browser
VIEW IN TELEGRAM
Модель получила значительный апгрейд . Теперь она учитывает до десяти референсов сразу, лучше понимает свет, материалы и оптику, аккуратнее рендерит текст и выдаёт качество до 4k.
Генерации выглядят ровнее и реалистичнее, без пластикового блеска.
Можно генерировать, редактировать и совмещать изображения.
Веса открытые, так что при желании можно запускать локально (65 ГБ).
@ai_machinelearning_big_data
#AI #Flux2 #ImageGeneration #AIGraphics
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤46🔥28👍20👏2😁2🦄1
Media is too big
VIEW IN TELEGRAM
Президент США подписал указ о создании единой государственной ИИ-платформы. Проект, реализация которого поручена Министерству энергетики, должен радикально ускорить научные исследования и сократить циклы открытий в биотехнологиях и энергетике с нескольких лет до дней.
Инициатива мобилизует инфраструктуру 17 федеральных исследовательских центров. Их суперкомпьютеры и накопленные за десятилетия массивы научных данных будут использованы для обучения специализированных моделей. Новая платформа позволит ИИ-агентам автономно планировать эксперименты, проверять гипотезы и генерировать прогнозы в области химии, биологии и инженерии.
whitehouse.gov
ChatGPT получил обновление, которое устраняет барьер между способами ввода: голосовой чат теперь интегрирован непосредственно в основное окно переписки. Это позволяет пользователям бесшовно переключаться между речью и набором текста, не переходя в отдельный режим.
Теперь во время голосовой сессии можно свободно просматривать историю сообщений, сгенерированные изображения или карты, а ответы ассистента автоматически дублируются в текстовом виде.
Функция уже доступна в мобильных приложениях и веб-версии. Для тех, кто хочет пользоваться голосовым интерфейсом отдельно, OpenAI оставила возможность вернуть его через настройки в разделе Voice Mode.
OpenAi в сети Х
Fara-7B — компактная агентная модель от Microsoft Research на базе Qwen2.5-VL для автономной работы с интерфейсами. Модель умеет анализировать скриншоты, генерировать команды для мыши и клавиатуры, предсказывая точные пиксельные координаты.
В бенчмарках Fara-7B обошла существующие решения и выполняет задачи в разы дешевле крупных моделей - средняя стоимость сессии составляет меньше 3-х центов. Веса модели опубликованы на Hugging Face под лицензией MIT.
microsoft.com
Гарвардская медшкола представила popEVE - нейросеть, способную с высокой точностью выявлять патогенные мутации в геноме для решения проблем диагностики редких наследственных болезней, причины которых врачи зачастую не могут найти годами.
PopEVE объединяет генеративный ИИ с языковой моделью для белков и статистикой человеческих популяций. Система умеет корректно сравнивать опасность мутаций, расположенных в абсолютно разных генах, и выдавать унифицированный клинический рейтинг риска. Предыдущие модели не справлялись с такой кросс-генной калибровкой.
Эффективность системы подтвердили на выборке из 30 000 пациентов. Модель успешно определила причину болезни в трети случаев и попутно обнаружила 123 гена, ранее не связывавшихся с развитием патологий.
harvard.edu
Илон Маск анонсировал амбициозный эксперимент: в 2026 году следующая версия модели xAI бросит вызов сильнейшим киберспортивным командам мира. Матч планируется не просто как шоу, а как критический тест на пути к AGI.
Для чистоты эксперимента инженеры введут жесткие технические ограничения, уравнивающие шансы. Модель не будет подключаться к API игры — она должна «смотреть» на монитор через камеру с имитацией обычного человеческого зрения. Скорость реакции и частоту кликов также лимитируют до физических возможностей человека. Предполагается, что Grok 5 освоит сложные механики MOBA-стратегии с нуля, опираясь только на чтение документации и самостоятельные эксперименты в ходе игры.
Elon Musk в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤84👍26🔥9🥰6👏2🐳1🦄1
Есть устойчивое мнение, что серьезное обучение нейросетей возможно только на чипах одной известной компании.
В Zyphra решили доказать обратное, и, в сотрудничестве с AMD и IBM провели эксперимент, который на практике доказал, что есть альтернатива.
Стартап опубликовал техотчет и результат - модель ZAYA1. Это первая модель архитектуры MoE, обученная полностью на платформе AMD.
Сеттинг проекта был действительно "красным": графические процессоры AMD Instinct, сетевые интерфейсы AMD Pensando и программный стек ROCm.
ZAYA1 получилась довольно интересной. У неё 8.3 млрд. общих параметров, из которых активных всего 800 миллионов.
Несмотря на компактность, в тестах она выглядит бодро. В ризонинге, математике и программирование ZAYA1 обошла Llama-3-8B и OLMoE. А по общим показателям встала в один ряд с Qwen3-4B и гугловской Gemma3-12B.
Обучение проходило на кластере IBM Cloud, где модель переварила 14 трлн. токенов. Но дело не только в железе, в папйплайне использовали архитектурные инновации:
⚠️ Для запуска инференса потребуется ветка
zaya форка transformers из репозитория Zyphra.@ai_machinelearning_big_data
#AI #ML #LLM #MoE #Zyphra
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48❤22🔥13😁6🦄3
Media is too big
VIEW IN TELEGRAM
Университет Цинхуа опубликовал в Nature Machine Intelligence работу, декларирующую новый эмпирический закон развития ИИ - Densing Law. Согласно их данным, «плотность способностей» языковых моделей растет по экспоненте: количество параметров, необходимых для достижения фиксированного уровня качества, сокращается вдвое каждые 3,5 месяца.
Как следствие, стоимость инференса падает в 2 раза каждые 2,6 месяца, что подтверждается рыночной динамикой цен на API (падение в 266 раз за неполные 2 года).
Авторы прогнозируют скорый расцвет Edge AI: с учетом прогресса мобильных чипов, эффективная мощность моделей, способных работать локально на смартфонах и часах, теперь удваивается каждые 88 дней.
nature.com
Администрация киберпространства Китая заблокировала возможность использования ускорителей Nvidia при развертывании новых вычислительных мощностей ByteDance. По данным The Information, материнская компания TikTok, ставшая в этом году крупнейшим закупщиком оборудования Nvidia в регионе, теперь располагает внушительными складскими запасами железа, которое невозможно пустить в дело из-за регуляторных ограничений.
Этот запрет стал очередным шагом Пекина в кампании по снижению зависимости от американских технологий. Власти принудительно переориентируют техгигантов на использование отечественной продукции, продвигая решения от Huawei и Cambricon в качестве безальтернативной замены импортному кремнию.
theinformation.com
Столица ОАЭ стала четвертым городом в мире и первой локацией на Ближнем Востоке, где агрегатор начал массовую эксплуатацию роботакси. Технологическим партнером выступил китайский стартап WeRide: их автономные автомобили теперь курсируют в районе острова Яс и доступны для заказа в приложении через тарифы UberX и Uber Comfort.
Хотя в США Uber уже возит пассажиров без водителей в Остине, Финиксе и Атланте, запуск в Абу-Даби знаменует начало масштабной глобальной экспансии. В ближайшие пять лет партнеры планируют вывести беспилотные авто WeRide на улицы еще 15 городов, включая европейский рынок.
cnbc.com
Новая функция Retake в платформе LTX приносит точечный контроль в видео-продакшен, она умеет «переснимать» конкретные временные отрезки внутри ролика без потери общей целостности сцены.
Технически это работает как темпоральный инпэйнт: модель перегенерирует выделенный фрагмент (от 2 до 16 секунд), жестко привязываясь к контексту соседних кадров для сохранения освещения, динамики и стиля. Это дает возможность менять реплики персонажей, корректировать актерскую игру или переписывать концовку сцены, оставляя остальной футаж нетронутым.
Инструмент уже доступен всем пользователям платформы и через API.
ltx.studio
Google опубликовала на YouTube полную версию документальной ленты The Thinking Game. Картина, съемки которой заняли 5 лет, погружает зрителя во внутреннюю кухню лаборатории DeepMind и показывает эволюцию команды: от первых побед в стратегических играх до решения фундаментальной биологической проблемы с помощью AlphaFold.
В центре сюжета не только технические прорывы, но и личная история сооснователя DeepMind Демиса Хассабиса, посвятившего жизнь созданию AGI.
youtube.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56❤24🥰9🔥2🦄1
🚀 DeepSeek выпустили DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.
Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.
📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024
🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.
Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.
https://huggingface.co/deepseek-ai/DeepSeek-Math-V2
@ai_machinelearning_big_data
#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
❤68👍22🔥13🦄4⚡2🤔2❤🔥1
💡 Релиз Z-Image: быстрая 6B модель
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
Команда Tongyi-MAI представила новую text-to-image архитектуру на 6 миллиардов параметров.
Главное из отчета:
* Оптимизация: Это дистиллированная модель, которой достаточно 8 шагов (NFE) для качественной генерации.
* Скорость: Sub-second latency (менее 1 секунды) на H800.
* Требования: Спокойно запускается на 16GB VRAM. Модель доступна для локального инференса на старших картах 3090/4080/4090.
Моделька выделит высокий уровень фотореализма, точное следование инструкциям и рендеринг текста.
🔗 Демо: https://modelscope.cn/aigc/imageGeneration
🔗 Веса (Turbo): https://modelscope.cn/models/Tongyi-MAI/Z-Image-Turbo
@ai_machinelearning_big_data
#Tongyi #ai #genai #ml
❤33👍19🥰3🦄3😁2🔥1
Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.
Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.
Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.
Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.
@ai_machinelearning_big_data
#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤37👍15🔥10🥰5😁1🦄1
Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.
Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.
Основные темы интервью:
Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.
Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.
Приоритеты для улучшения в будущих версиях Gemini Pro:
Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.
Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.
Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤100👍30🔥18🥰5❤🔥1😁1🤩1😇1🦄1
Media is too big
VIEW IN TELEGRAM
OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.
OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com
Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».
Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com
Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.
Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com
Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.
В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.
Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io
Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.
Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤61👍16🔥8🦄2
NVIDIA совместно с Университетом Гонконга разработала ToolOrchestra - методику обучения дирижеров для ИИ-агентов, и выпустила на ее основе модель Orchestrator-8B.
Это модель, базирующаяся на архитектуре Qwen3 предназначена для оркестрации других моделей и инструментов. Вместо того чтобы решать задачу в одиночку, модель чередует этапы рассуждения с вызовом внешних инструментов.
В ее арсенале поисковые движки, интерпретаторы кода и другие LLM, от узкоспециализированных математических до универсальных гигантов Claude и Llama-Nemotron.
Обучение проводилось с помощью GRPO, который поощрял модель не только за точность, но и за экономическую эффективность.
В результате решение получилось в 2,5 раза быстрее и на 70% дешевле в эксплуатации, чем использование одной лишь флагманской модели для всех этапов задачи, а сама Orchestrator-8B набрала 37,1% в сложнейшем бенчмарке Humanity's Last Exam , обойдя GPT-5 (35,1%).
@ai_machinelearning_big_data
#AI #ML #LLM #Orchestrator #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤59👍31🔥11❤🔥1🤬1🦄1
Media is too big
VIEW IN TELEGRAM
В Школе анализа данных, где готовят специалистов по ИИ, началось обучение по применению ИИ в естественно-научных исследованиях. На программу подали заявки ученые из 37 регионов - больше всего запросов получили от экспертов в областях физики, медицины и химии. В итоге зачислили 50 молодых исследователей: от магистрантов до кандидатов наук из Москвы, Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга.
Участники изучают основы ИИ и сразу применяют инструменты в своих задачах. С каждой командой работает эксперт ШАДа: помогает выбрать методы и спланировать эксперимент. Если проекту нужны тяжелые вычисления, подключаются мощности Yandex Cloud.
Команда из Institute of Science Tokyo анонсировала фреймворк PianoKPM Net, способный с высокой точностью определять активность мышц рук без использования нательных датчиков. Обычно для этого требуется инвазивная и дорогая электромиография, но новая архитектура реконструирует паттерны мышечных сокращений, анализируя только видеозапись.
В основе системы - уникальный датасет, собранный на базе 12 часов игры профессиональных пианистов, где визуальные данные синхронизированы с реальными сигналами мышц. Технология превращает обычную камеру в диагностический инструмент, что важно для реабилитационной медицины, спортивной аналитики и создания продвинутых интерфейсов «человек-компьютер». Авторы планируют выложить датасет и модель в открытый доступ.
techxplore.com
Project Prometheus поглотил разработчика агентного ИИ General Agents. Сделка прошла в закрытом режиме еще летом и сопровождалась переходом команды инженеров из DeepMind и Tesla в структуру Prometheus. Цель Prometheus: создание ИИ-систем для поддержки сложных производств автомобилестроения и космической отрасли.
Главный актив General Agents - технология Ace для автономного управления интерфейсами и приложениями. Хотя изначально Ace создавался для автоматизации рутинны на ПК, в рамках Prometheus эти наработки, судя по всему, будут масштабированы для индустриальных сценариев.
wired.com
Глава направления Sora в OpenAI Билл Пиблз сообщил, что бесплатные аккаунты теперь ограничены всего 6 видеогенерациями в сутки, так как текущие графические процессоры буквально плавятся от запросов. Это ограничение не выглядит временным: компания прямо предлагает докупать генерации по мере необходимости, хотя условия для подписчиков ChatGPT Plus и Pro пока остались прежними.
Google приняла аналогичные меры, урезав бесплатный доступ к инструменту Nano Banana Pro до 2 изображений в день. Техгигант предупредил, что лимиты могут меняться динамически и без уведомлений. Кроме того, под ограничения попал и доступ бесплатных пользователей к модели Gemini 3 Pro.
theverge.com
ИИ-поисковик получил функцию "persistent memory", которая позволяет запоминать предпочтения, интересы и детали предыдущих диалогов. Теперь система автоматически создает "постоянный контекст" пользователя, а ответы становятся персонализированными и требуют меньше уточняющих запросов.
Perplexity извлекает факты из хранилища памяти и напрямую использует их при формировании ответа. Этот контекстный слой работает поверх любой выбранной модели без потери накопленных знаний о пользователе. Функция полностью управляема: сбор данных можно отключить в настройках, а в режиме инкогнито история не сохраняется.
perplexity.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤49👍22🔥8😁4🦄2
Ostris, разработчик популярного пакета для обучения диффузионных моделей добавил поддержку обучения для Z-Image Turbo с помощью De-Distill адаптера.
AI Toolkit — это универсальный набор инструментов для обучения диффузионных моделей на потребительском оборудовании. Он может запускаться как в GUI, так и в командной строке. Набор разработан так, чтобы быть простым в использовании, но при этом обладать всеми возможными функциями.
По первым тестам, обучение возможно на 12+ VRAM, а обучение персонажа на 17 изображениях длительностью 3000 шагов на RTX 5090 занимает примерно полтора часа.
Подробный гайд по процессу автор тулкита обещает выпустить в ближайшие дни.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤26🔥13🥰5🦄3