This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Stand-In (BowenXue) — лёгкий и plug-and-play фреймворк для генерации видео с сохранением личности
📌 Что делает:
- Генерирует видео, сохраняя лицо или стиль персонажа, обучив всего ~1 % новых параметров на базе модели генерации видео. Результат сопоставим с полным переобучением, но быстрее и легче.
- Поддерживает генерацию по тексту с контролем идентичности, смену стиля, pose-guidance, face-swap, стилизацию и даже генерацию не-людей.
- Лицензия Apache-2.0 — открытое использование и модификация.
Что нового:
- Версия v1.0 (153 M параметров) с весами на базе Wan2.1-14B-T2V и кодом для инференса.
- Интеграция с ComfyUI: выпущен preprocessing-нод для улучшенной поддержки, особенно после сторонней интеграции.
https://huggingface.co/BowenXue/Stand-In
#opensource #ai #ml
- Генерирует видео, сохраняя лицо или стиль персонажа, обучив всего ~1 % новых параметров на базе модели генерации видео. Результат сопоставим с полным переобучением, но быстрее и легче.
- Поддерживает генерацию по тексту с контролем идентичности, смену стиля, pose-guidance, face-swap, стилизацию и даже генерацию не-людей.
- Лицензия Apache-2.0 — открытое использование и модификация.
Что нового:
- Версия v1.0 (153 M параметров) с весами на базе Wan2.1-14B-T2V и кодом для инференса.
- Интеграция с ComfyUI: выпущен preprocessing-нод для улучшенной поддержки, особенно после сторонней интеграции.
https://huggingface.co/BowenXue/Stand-In
#opensource #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍7🔥3
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Anthropic добавила в Claude Opus 4 и 4.1 возможность принудительно завершать беседу. Эта функция предназначена для редких, крайних случаев постоянно враждебного или оскорбительного поведения со стороны пользователя.
Это крайняя мера, к которой чат-бот прибегнет только после многократных безуспешных попыток перенаправить разговор в продуктивное русло или по прямой просьбе пользователя. При этом система не будет использовать эту возможность, если есть риск, что пользователь может причинить вред себе или окружающим.
Когда Claude завершает диалог, пользователь не сможет отправлять новые сообщения в этой ветке, но сможет начать новый чат или отредактировать старые сообщения для создания новых ветвей.
anthropic.com
Согласно данным компании Appfigures, мобильное приложение ChatGPT сгенерировало 2 млрд. долларов потребительских расходов с момента запуска в мае 2023 года. В среднем каждый из 690 млн. пользователей потратил в приложении 2.91 доллара. Это говорит о готовности аудитории платить за ИИ-сервисы на мобильных устройствах.
Темпы роста выручки резко ускорились в этом году. С января по июль 2025 года пользователи потратили в приложении 1.35 млрд. долларов, на 673% больше, чем за аналогичный период прошлого года. Это эквивалентно примерно 193 млн. долларов в месяц. США лидируют по доходам (38%), а Индия — по количеству установок (14%).
Эти метрики показывают отрыв ChatGPT от конкурентов. Для сравнения, Grok заработал в этом году 25.6 млн., а доходы Claude и Copilot вместе взятых составляют лишь одну тридцатую от мобильной выручки OpenAI.
techcrunch.com
Tencent представила Hunyuan World Model 1.0-Lite оптимизированную версию своей модели для генерации трехмерных сцен, которая может работать на потребительских GPU. Разработчики снизили требования к видеопамяти на 35% (с 26 до 17 ГБ) благодаря динамическому FP8-квантованию.
За счет использования SageAttention и оптимизации кэширования удалось ускорить инференс более чем в 3 раза с потерей точности менее 1%.
Как и оригинальная версия, 1.0-Lite имеет открытый исходный код и уже доступна на GitHub, Hugging Face, а также в виде демо SceneTo3D.
Tencent Hunyuan в сети X
В подкасте на Youtube OpenAI рассказали о разработке нового класса моделей, ориентированных на долгосрочное мышление. Системы на их основе смогут планировать, рассуждать и экспериментировать над одной проблемой на протяжении длительного времени, от нескольких часов до нескольких дней.
По словам OpenAI , первые проблески этого подхода уже видны в моделях, которые недавно завоевали золото на международных олимпиадах по математике и информатике. Конечная цель - автоматизировать исследования, например, для поиска новых идей в медицине или в области безопасности самого ИИ.
В OpenAI признают, что реализация этой концепции потребует значительно больших вычислительных мощностей, чем доступны сегодня. Это объясняет готовность Сэма Альтмана инвестировать в строительство дата-центров в ближайшие годы.
OpenAI на платформе Youtube
Google запустил новый инструмент Flight Deals. Он использует ИИ для поиска выгодных перелетов по запросам на естественном языке, а не через стандартные фильтры. Пользователи могут описать свои пожелания в свободной форме, например, «недельная поездка этой зимой в город с хорошей едой, только прямые рейсы». Инструмент ориентирован на путешественников с гибкими планами, для которых приоритетом является цена.
По заявлению Google, система использует продвинутый ИИ для понимания нюансов запроса, а затем анализирует данные Google Flights в реальном времени, чтобы показать актуальные варианты. Сервис запускается в бета-режиме и в течение недели станет доступен пользователям в США, Канаде и Индии.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍4🤩2🌭2🥰1
Forwarded from Machinelearning
Ландшафт архитектур LLM превратился в настоящий зоопарк. Почти каждую неделю появляются новые методы, обещающие меньший расход памяти и более быстрый инференс. Разобраться в этом становится все сложнее.
Большая группа исследователей выпустила подробный обзор Speed Always Wins, чтобы систематизировать все ключевые инновации в области эффективных архитектур для LLM.
Это не просто очередная статья, а попытка упорядочить и структурировать актуальные подходы, которые решают главную проблему классического трансформера - его квадратичную вычислительную сложность.
Обзор описывает 7 основных направлений.
Здесь авторы разбирают все подходы, которые так или иначе сводят сложность самовнимания к линейной. В эту категорию попадают 3 большие ветви: линейное внимание; линейные RNN, вроде и, конечно, модели на основе пространства состояний (SSM).
Разреженное моделирование последовательностей основано на простом принципе: не каждый токен должен общаться с каждым. Здесь выделяются статические подходы (как в Longformer), где паттерны внимания заданы заранее, и динамические, где они определяются на лету в зависимости от контента.
Методика, которая уже стала мейнстримом. В МоЕ разреженность применяется не в механизме внимания, а в FFN-слоях, где для каждого токена активируется лишь небольшая часть экспертов, что позволяет наращивать число параметров без пропорционального роста вычислений.
В нем речь идет не об изменении асимптотической сложности, а об ее аппаратной оптимизации. Флагман - FlashAttention.
Есть детальный разбор, как за счет оптимизации обращений к памяти GPU удается кардинально ускорить вычисления, не прибегая к аппроксимациям. Сюда же относятся и групповые механизмы внимания: GQA и MQA.
Это, пожалуй, самый горячий тренд. Его идея в том, чтобы стратегически комбинировать быстрые слои с линейной сложностью и медленные, но мощные слои с полным вниманием.
В обзоре выделяют два типа гибридизации: межслойную, как в Jamba, где разные типы слоев чередуются, и внутрислойную, где в одном слое разные головы могут использовать разные механизмы внимания.
Это неавторегрессионные модели, которые генерируют текст, постепенно восстанавливая его из шума. Их главная фишка в параллельном декодировании, что дает ощутимое ускорение инференса.
В конце обзора есть анализ применения всех этих архитектур в разных модальностях - CV и аудио.
Так что, если хотите быстро разобраться в базовых методах, которые будут двигать дизайн LLM в ближайшее время,
@ai_machinelearning_big_data
#AI #ML #LLM #Architectures
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍6🔥6
Forwarded from Machinelearning
Институт искусственного интеллекта Аллена выпустил OLMoASR, семейство из 6 моделей для автоматического распознавания английской речи.
По результатам тестов на 21 датасете, модели OLMoASR показали производительность, сопоставимую с Whisper от OpenAI, а в некоторых случаях и превзошли ее, особенно при работе с длинными аудиозаписями.
Проект полностью открытый: опубликованы не только веса моделей, но и датасет, код для обработки данных, а также скрипты для обучения и оценки. Все компоненты, включая код и данные, доступны на GitHub и Hugging Face.
@ai_machinelearning_big_data
#AI #ML #ASR #OLMoASR #AI2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍5🔥5
🚀 Release: TimesFM 2.5
Google Research представила обновлённую версию TimesFM 2.5 на Hugging Face (скоро также в BigQuery и **Model Garden**).
TimesFM (Time Series Foundation Model) - модель от Google для прогнозирования временных рядов.
Что нового:
- Существенное повышение точности по сравнению с TimesFM 2.0
- Увеличенная максимальная длина контекста
- Лидерство на GiFT-Eval — TimesFM 2.5 занимает первое место по всем accuracy-метрикам среди zero-shot foundation-моделей
🟠 Репозиторий: https://github.com/google-research/timesfm)
🟠 HF: http://huggingface.co/google/timesfm-2.5-200m-pytorch
@data_analysis_ml
#AI #ML #TimesFM #forecasting #GoogleResearch
Google Research представила обновлённую версию TimesFM 2.5 на Hugging Face (скоро также в BigQuery и **Model Garden**).
TimesFM (Time Series Foundation Model) - модель от Google для прогнозирования временных рядов.
Что нового:
- Существенное повышение точности по сравнению с TimesFM 2.0
- Увеличенная максимальная длина контекста
- Лидерство на GiFT-Eval — TimesFM 2.5 занимает первое место по всем accuracy-метрикам среди zero-shot foundation-моделей
@data_analysis_ml
#AI #ML #TimesFM #forecasting #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥6👍4
Forwarded from Machinelearning
Физики Гарварда создали первый в мире квантовый компьютер, который работает непрерывно без перезапуска.
Ранее квантовые машины держались миллисекунды, максимум - около 13 секунд.
Новая установка работает более 2 часов и может функционировать бесконечно.
Ключевое новшество - решение проблемы потери атомов: система в реальном времени пополняет кубиты, впрыскивая 300 000 атомов в секунду с помощью оптических инструментов.
Учёные считают, что практические, постоянно работающие квантовые компьютеры могут появиться уже в течение 2 лет - с огромным влиянием на медицину, финансы и научные исследования.
thecrimson
По данным The Information, Anthropic продвигает свою модель Claude как основу для создания enterprise-замен привычных приложений вроде Slack. Компания делает ставку на обучение с подкреплением, чтобы улучшить способности модели к программированию.
Похожую стратегию развивает и xAI Илона Маска, но эксперты сомневаются, что крупные корпорации откажутся от укоренившихся систем вроде SAP или ServiceNow. Более вероятно, что первыми такие AI-first инструменты начнут использовать небольшие стартапы.
Тем временем JPMorgan и другие банки активно заявляют об интеграции решений OpenAI, Anthropic и Google, хотя реальные масштабы затрат пока не соответствуют публичному энтузиазму.
theinformation
Comet, запущенный в июле 2025 года, работает как встроенный ассистент: он умеет анализировать страницы, вытаскивать ключевые детали и сердить по ссылкам, проводя многошаговые исследования.
Perplexity также представила Comet Plus за $5 — партнёрскую подписку, которая открывает доступ к контенту от CNN, The Washington Post, Fortune, Los Angeles Times и Condé Nast (The New Yorker, Wired и др.).
Однако запуск совпал с продолжающимися исками от крупных издателей, включая Dow Jones (The Wall Street Journal) и New York Post, обвиняющих стартап в использовании их материалов для обучения ИИ.
Скачать Comet
TechCrunch пишет, что запуск нового соцприложения Sora 2 вызвал тревогу внутри самой OpenAI. Это TikTok-подобная лента, наполненная видео, созданными ИИ, включая дипфейки самого Сэма Альтмана.
Часть исследователей OpenAI считает, что компания уходит от своей миссии ради хайпового контента. Один из сотрудников прямо заявил: «AI-ленты - пугающие. Я был шокирован, узнав, что мы выпускаем Sora 2…»
Сторонники проекта объясняют, что такие продукты нужны, чтобы финансировать фундаментальные исследования и дать пользователям почувствовать силу технологий. В OpenAI утверждают, что хотят «показать людям что-то классное, чтобы они улыбнулись».
Но вместе с ростом Sora OpenAI рискует повторить судьбу классических соцсетей: зависимость, манипуляции c информацией, проблемы с дипфейками и давлением на метрики вовлечённости.
techcrunch
Китай в 2025 году вложит до 98 млрд долларов, но экспортные ограничения на топовые чипы Nvidia и AMD тормозят прогресс.
Huawei продвигает Ascend 910C, однако по памяти, пропускной способности и софту он уступает решениям Nvidia. США разрешили ограниченные продажи H20 и MI308 в Китай с 15% налогом, но топовые GPU недоступны китацы, и разрыв в производительности всё ещё в пользу американцев.
X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥2🥰2🤣1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Модель GPT-5 Pro заняла первое место среди всех проверенных frontier-LLM на закрытом бенчмарке ARC-AGI Semi-Private. Этот тест оценивает способность моделей к абстрактному рассуждению и решению сложных задач.
Интересно, что GPT-5 Pro всё ещё уступает результатам старого o3-preview, который OpenAI тестировал ещё в декабре прошлого года. Однако тот экспериментальный вариант был почти в 50 раз дороже в вычислительных затратах и никогда не был публично выпущен.
Версия o3-preview (high) достигала впечатляющих 87,5 % точности на ARC-AGI-1, но потребляла 172 раза ресурсов, чем версия (low). Из-за этого она не попала в официальный лидерборд - по правилам, тесты с compute-стоимостью выше $10 000 не публикуются.
GPT-5 Pro является самой мощной из доступных и подтверждённых моделей на Semi-Private ARC-AGI.
В список вошли достижения в самых разных областях: ИИ робототехника, медицина, экология, образование, энергетика и дизайн. Среди ключевых технологий - Claude Sonnet 4 от Anthropic, новая версия ИИ-модели, которая продемонстрировала более точные и безопасные ответы; NVIDIA DGX Spark - «настольный» AI-суперкомпьютер, делающий высокопроизводительные вычисления доступнее; UiPath Agentic Automation, объединяющая работу AI-агентов; и XReal One - компактные AR-очки, приближающие смешанную реальность к массовому использованию.
TIME отметили разработки в области биотехнологий, биопечати тканей, устойчивых источников энергии и переработки отходов. Эти изобретения демонстрируют, как технологии становятся не просто инструментами, а основой будущего образа жизни.
time
Google Cloud опубликовал обновлённый список из 321 корпоративного примера применения генеративного ИИ, что в 10 раз больше, чем годом ранее. Это показывает, что AI уже массово используется в продакшене по всему миру.
В банках и ритейле Commerzbank ИИ обрабатывает 2 млн клиентских чатов с 70% успешных решений, Best Buy ускоряет анализ отзывов, а Mercedes внедрил голосового ассистента на базе Gemini.
Внутри компаний ИИ автоматизирует рутину: Toyota экономит более 10 000 часов в год, Manipal Hospitals сократил передачу смен с 90 до 20 минут, Equifax - 97% сотрудников хотят сохранить AI-лицензии.
Wayfair ускорил настройку окружений на 55%, CME сэкономил 10,5 часов в месяц, а BMW и UPS используют цифровых двойников для моделирования логистики и производств.
Подробнее
Министр экономики Тайваня заявил, что TSMC сохранит свои самые передовые технологии и основное производство на острове, несмотря на предложение США сделать «50 на 50».
Компания вкладывает $165 млрд в шесть фабрик в США, но строит десять на Тайване и планирует новые - там останутся ведущие технологические узлы.
По словам министра, зарубежные заводы допустимы только при реальных заказах, прибыли и отсутствии рисков для безопасности.
Идея «50-50» возникла из-за стремления США увеличить долю внутренних чипов после кризиса поставок 2020–2021 годов.
Аналитики считают, что перенос производства в США слишком дорог и займёт годы, поэтому Вашингтон делает ставку на «friendshoring» - распределённые цепочки поставок между союзниками.
times
Microsoft представила новую модель UserLM-8B, созданную для симуляции поведения пользователя в диалоге. В отличие от обычных LLM, эта модель генерирует реплики от лица человека, включая уточнения, эмоции и ошибки, как в реальном общении.
Модель построена на базе Llama3.1 8B и дообучена на корпусе WildChat-1M, где она анализировала сотни тысяч реальных и синтетических диалогов. Такой подход позволяет создавать реалистичные сценарии общения для тестирования чат-ботов, обучения ассистентов и генерации синтетических данных.
HF
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4❤3