377K subscribers
4.5K photos
879 videos
17 files
4.94K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ ChatGPT Images 1.5

По словам компании, модель получила 4х прирост скорости работы и радикально улучшенный механизм инпейнтинга.

Алгоритм научился вносить точечные правки в загруженные фото, сохраняя исходное освещение, композицию, стиль и узнаваемость персонажей, что позволяет использовать инструмент для профессиональной ретуши и виртуальной примерки.

Модель также получила апгрейд в рендеринге текста и мелких деталей лиц.

В состав команды, которая делала обновление вошли Билл Пиблз, руководитель разработки Sora, и Адитья Рамеш, ответственный за направление World Simulation.

Для пользователей ChatGPT запущен отдельный интерфейс Images с библиотекой пресетов. OpenAI подготовили в гайд про промптингу к новой модели.

Стоимость GPT Image 1.5 через API снижена на 20% по сравнению с первым поколением.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3619🔥17🗿3🦄2🙉1
Media is too big
VIEW IN TELEGRAM
✔️ Black Forest Labs релизнула FLUX.2 max.

FLUX.2 max — флагманская модель для генерации изображений кинематографического качества. Модель получила функцию "grounded generation": она использует данные из интернета в реальном времени, что позволяет точно отражать в генерациях актуальные события или текущую погоду.

Инструмент ориентирован на профессиональную работу со стилем: модель поддерживает загрузку до 10 референсных изображений. В бенчмарках новинка сразу заняла вторую строчку по качеству text-to-image и редактирования, уступив только Nano Banana Pro. Воспользоваться FLUX.2 max можно исключительно через API.
bfl.ai

✔️ SAM Audio: модель для изоляции любых звуков по тексту, таймкоду или клику на видео.

ИИ-команда Марка Цукерберга расширила линейку Segment Anything: новая модель SAM Audio способна извлекать звуковые дорожки из сложных аудио-визуальных миксов с помощью мультимодальной системы промптов.

Выделить голос, музыкальный инструмент или фоновый шум можно 3 способами: текстовым описанием, выделением временного отрезка или визуально - просто кликнув на объект в кадре видео.

Код для инференса и веса модели в 3-х вариантах (small, base и large) уже опубликованы на GitHub и Hugging Face под лицензией SAM, а протестировать возможности можно в официальном Playground.
github.com

✔️ OpenAI сделала бенчмарк для проверки научного мышления ИИ.

OpenAI запустила "Frontier Science" - стандарт оценки компетенций ИИ в физике, химии и биологии. Бенчмарк разработан при участии 42 победителей международных олимпиад и 45 ученых.

Он разделен на два направления: трек «Олимпиада» включает теоретические задачи экстра-класса, а трек «Исследования» состоит из тестов уровня PhD, с которыми сталкиваются реальные научные сотрудники.
Ответы в бенчмарке проверяет верифицированный авто-грейдер на базе GPT-5.

Первые прогоны тестов показали расстановку сил среди моделей 2025 года. Лидером стала GPT-5.2 (x-high), решившая 77% олимпиадных задач и 25% исследовательских кейсов. Ближайший конкурент, Gemini 3 Pro, показал практически идентичный результат в теоретической части - 76%.
openai.com

✔️ Nvidia купила SchedMD.

Nvidia объявила о приобретении компании SchedMD, которая развивает и поддерживает Slurm - инструмент для оркестрации вычислений в дата-центрах. Именно этот планировщик управляет нагрузкой на более чем половине суперкомпьютеров из рейтинга TOP-500.

Для Nvidia это стратегический шаг: Slurm эффективно утилизирует ресурсы кластеров, выстраивая очереди на обучение нейросетей и симуляции так, чтобы GPU и CPU не простаивали.

Nvidia пообещала, что Slurm останется open-source проектом и сохранит нейтральность к вендорам, продолжая работать на любом оборудовании.
blogs.nvidia.com

✔️ Власти США открыли набор 1000 инженеров и ИИ-специалистов на госслужбу.

Администрация президента США объявила о запуске программы экстренной цифровизации госсектора - "US Tech Force". В рамках инициативы запланирован найм 1000 технических специалистов, в первую очередь - экспертов в области ИИ. Им предстоит решать задачи национального масштаба: от управления критической инфраструктурой Минфина до разработки передовых оборонных технологий.

Условия для кандидатов приближены к рыночным: двухлетний контракт с годовым окладом от $150 000 до $200 000. Курирует набор Управление по кадрам, а первые специалисты приступят к работе уже в марте. По завершении службы инженерам обещают содействие в трудоустройстве на постоянные позиции в частные компании-партнеры "US Tech Force".
techforce.gov

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
41👍26🔥7👏4🦄2
📌 Андрей Карпаты написал ИИ-пайплайн для проверки IT-прогнозов десятилетней давности.

Андрей опубликовал разбор своего нового пет-проекта. Он создал систему, которая анализирует архивные треды Hacker News и с помощью LLM проверяет, сбылись ли предсказания пользователей спустя 10 лет.

Проект использует так называемые «послезнание» (hindsight), чтобы сравнивать старые комментарии с реальностью, выявлять визионеров и находить самые громкие ошибки.

Технически решение представляет собой пайплайн, который собирает данные через API Algolia и обрабатывает их с помощью структурированного промпта.

Тестовый прогон на 930 обсуждениях (месячный архив статей Hacker News) занял около часа и обошелся всего в 58 долларов.

На выходе система генерирует статический сайт с «Залом славы» аналитиков и рейтингом точность прогнозов.

Исходный вайб-код проекта, по традиции - в открытом доступе.


@ai_machinelearning_big_data

#AI #ML #LLM #Tutorial #Karpaty
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥5425👍11💘4😁3❤‍🔥1😴1
Media is too big
VIEW IN TELEGRAM
✔️ HY World 1.5: модель для генерации 3D-миров в реальном времени.

Tencent релизнула HY World 1.5 - "модель мира" для генерации бесконечных интерактивных 3D-пространств с фрейм-рейтом 24 FPS.

В этом релизе решили проблему амнезии модели. Это значит, что при возвращении в ранее сгенерированную локацию она сохранит свой исходный облик, а не перестроится случайным образом.

Под капотом - связка Diffusion Transformer и 3D VAE, предсказывающая чанки по 16 кадров на лету. Управление от первого или третьего лица реализовано через гибридную систему Dual Action (клавиши WASD плюс положение камеры).
3d-models.hunyuan.tencent.com

✔️ Microsoft обновила 3D-модель TRELLIS.

TRELLIS 2 получила 4 млрд. параметров и способность генерировать детализированные 3D-меши с разрешением до 1536³ по тексту или изображению. Модель отличается реалистичной проработкой материалов и улучшенной топологией мешей по сравнению с первой версией.

В основе системы - высокопроизводительная архитектура O-Voxel: черновой вариант генерируется всего за 3 секунды, а версия в максимальном качестве — около минуты.
microsoft.github.io

✔️ Adobe добавил видеоредактор в Firefly.

Adobe выпустила обновление Firefly. Теперь там есть полноценный видеоредактор, позволяющий вносить точечные изменения в ролики с помощью текстовых команд. Через промпты можно корректировать отдельные элементы, цветовую гамму и ракурсы камеры. Для удобства работы добавлен интерфейс с привычным таймлайном.

Компания также расширила экосистему, добавив модели FLUX.2 и Topaz Astra для апскейла видео до 4K. Кроме того, собственная видеомодель Adobe научилась повторять движение камеры, используя первый кадр и референсное видео.

Функции вышли из стадии закрытой беты и уже доступны на тарифах Firefly Pro, Firefly Premium бесплатно до 15 января.
blog.adobe.com

✔️ Google Labs делает экспериментального ИИ-агента для автоматизации рутины.

Это ИИ-ассистент под названием CC на базе Gemini, который берет на себя роль умного секретаря. Сервис интегрируется с Gmail, Google Calendar и Drive, чтобы каждое утро присылать пользователю структурированный бриф с планами на день и важными задачами.

Бот умеет не просто агрегировать информацию, но и выделять контекст: он подскажет, когда нужно подготовиться к встрече или оплатить счет, а также может сам составить черновик письма или создать событие в календаре.

Взаимодействие с ассистентом происходит исключительно через электронную почту: вы обучаете его, просто отвечая на письма. Ранний доступ к СС открыт только для пользователей из США и Канады через лист ожидания.
blog.google

✔️ Perplexity обновила свое приложение для iPad.

Perplexity выпустила новую версию приложения для iPad, ориентированную на студентов и бизнес-пользователей, которым нужны глубокие исследования.

Теперь это не просто растянутая версия с iPhone: интерфейс полностью переработан с учетом эргономики планшетов. Появилась удобная боковая панель для навигации и поддержка режима Split View для полноценной многозадачности.

В компании не скрывают, что улучшение UX бля больших экранов — это стратегический шаг для наращивания базы платных подписчиков, так как безлимитный доступ к расширенным исследовательским функциям открывается именно в Pro-тарифе.
bloomberg.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
66👍13🔥12🦄2🤬1
🌟 TurboDiffusion: ускорение генерации видео в 100+ раз.

Суровая реальность нашего времени: вы хотите сгенерировать 5-секундное видео на большой SOTA-модели. Вы запускаете промпт, идете пить кофе, возвращаетесь, а процесс все еще идет. И зачастую генерация может занимать больше часа.

Главные виновники - чудовищная вычислительная сложность механизма внимания в трансформерах, необходимость сотен шагов денойзинга и огромный объем памяти для весов в полной точности.


Авторы проекта TurboDiffusion из Цинхуа и Беркли решили собрать все эффективные методы сжатия и ускорения в один пайплайн. Их идея заключалась в том, что разреженность и квантование — это техники, которые не мешают друг другу.

🟡Архитектура держится на 3-х китах оптимизации:

🟢Заменили стандартное внимание на гибрид из SageAttention2++ и Sparse-Linear Attention (SLA), который превратил квадратичную сложность в линейную. чтобы модель фокусировалась только на важных токенах.

🟢Дистиллировали сэмплинг через rCM - вместо стандартных 50–100 шагов модель приходит к результату всего за 3-4 шага без потери сути изображения.

🟢Перевели и веса и активации линейных слоев в INT8 используя блочное квантование, чтобы не потерять точность.

В довершении ко всему смогли объединить после файнтюнинга под SLA и дистилляции rCM веса в единую модель, избежав конфликтов.

🟡Результаты бенчмарков выглядят как опечатка, но это не она.

На RTX 5090 время генерации для тяжелой модели Wan2.2-I2V 14B упало с 69 минут до 35.4 секунд. А для более легкой Wan 2.1-1.3B - с почти 3-х минут до 1.8 секунды.

Это ускорение больше чем в 100 раз.

При этом, судя по примерам, визуальное качество осталось практически неотличимым от оригинала.


📌Лицензирование: Apache 2.0 License.


🟡Набор моделей
🟡Техотчет
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #I2V #T2V #TurboDiffusion
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍61🔥3817🤗3💘2😁1🦄1
Media is too big
VIEW IN TELEGRAM
✔️ GPT-5.2-Codex.

OpenAI представила GPT-5.2-Codex, которую называет самым продвинутым инструментом для реальной программной инженерии на сегодняшний день. Модель получила нативную поддержку сжатия контекста, улучшенную интеграцию с терминалом Windows и способность проводить глубокий рефакторинг крупных репозиториев без потери логической нити.

Ключевой апдейт коснулся сферы безопасности - Codex резко прибавил способностей в анализе защищенности кода. Модель уже доступна платным пользователям ChatGPT, а API будет открыт в ближайшие недели.
openai.com

✔️ xAI представила Grok Voice Agent API.

Компания Илона Маска открыла публичный доступ к Grok Voice Agent API — нативному интерфейсу speech-to-speech для создания голосовых ассистентов. Решение построено на полностью собственной архитектуре, что позволило достичь задержки ответа менее 1 секунды.

API поддерживает вызов внешних инструментов, веб-поиск, прямую интеграцию с телефонией через SIP и понимает более 100 языков. В бенчмарке Big Bench Audio модель заняла 1 место с точностью 92,3%, опередив Gemini 2.5 Flash и GPT Realtime.

Главной фишкой стала ценовая политика: единый тариф составляет $0.05 за минуту. Это значительно дешевле, чем у OpenAI и ElevenLabs.
x.ai

✔️ VS Code получил поддержку стандарта Agent Skills.

В VS Code Insiders появилась поддержка Agent Skills - открытого протокола, разработанного Anthropic. Технология позволяет упаковывать инструкции, скрипты и вспомогательные ресурсы в модули, которыми можно пользоваться в разных ИИ-инструментах.

Главное отличие Agent Skills от привычных кастомных инструкций в функциональности: это не текстовые гайдлайны по стилю кода, а полноценные наборы инструментов для автоматизации задач, которые подгружаются в контекст модели динамически и только при необходимости.

Стандарт дает кросс-платформенность: созданный один раз скилл будет работать одинаково как в интерфейсе редактора, так и в CLI-агентах.
code.visualstudio.com

✔️ Google выпустила T5Gemma 2.

T5Gemma 2 получила серьезные архитектурные изменения по сравнению с первой версией. Чтобы снизить потребление памяти, инженеры внедрили tied word embeddings для энкодера и декодера, а также объединили механизмы self-attention и cross-attention в единый слой. Модели доступны в компактных конфигурациях на 270M, 1B и 4B параметров.

Новинка поддерживает контекстное окно до 128 тыс. токенов и умеет обрабатывать не только текст на 140 языках, но и изображения. В бенчмарках T5Gemma 2 обошла базовую Gemma 3 в задачах на длинный контекст, кодинг и мультимодальное понимание. Модели доступны на Hugging Face и Kaggle для исследовательских целей.
blog.google

✔️ ИИ-подразделение Марка Цукерберга открыло аудио-визуальный энкодер PE-AV.

Perception Encoder Audiovisual (PE-AV) - техническое ядро, лежащее в основе SAM Audio. Это мультимодальная модель, которая объединяет аудио, видео и текст в единое пространство эмбеддингов.

PE-AV умеет извлекать векторы признаков из аудио или видеокадров и формировать совместные аудиовизуальные представления. Это повышает точность в задачах кросс-модального поиска, детекции звуков и глубокого понимания сцен, где важен синхронный контекст изображения и звука.

В открытом доступе - 6 чекпоинтов модели разного размера (от Small до Large) с вариациями по количеству обрабатываемых кадров. Код опубликован на GitHub, а веса - на Hugging Face.
huggingface.co


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6031🔥12🦄2
🌟 Minimax VTP: гибридный токенизатор для диффузии на стероидах.

В диффузионных архитектурах считается, что масштабировать первую стадию, VAE - занятие неблагодарное.

Eго задача - превратить пиксели в латентный код и обратно, а добавление ему параметров или данных никак не помогает основной модели DiT генерировать изображения лучше.


MiniMax решила поменять правила игры и представила Visual Tokenizer Pre-training (VTP).

Их гипотеза заключается в том, что токенизатор должен не просто механически "зиповать" пиксели, а понимать семантику изображения.

Чтобы реализовать это, они объединили в обучении токенизатора сразу 3 лосса:

🟢Стандартный pixel reconstruction loss;

🟢Self-supervised learning (через Masked Image Modeling и дистилляцию, как в DINOv2);

🟢Image-text contrastive loss (как в CLIP).

Это заставило латентное пространство структурироваться семантически: теперь векторы кодировали смыслы, а не просто цветовые пятна.

🟡Теоретические выкладки подтвердились на практике.

Оказалось, что качество генерации напрямую зависит от "интеллекта" токенизатора. Не меняя архитектуру и гиперпараметры самого DiT и не увеличивая затраты на его обучение, просто за счет использования VTP-токенизатора удалось улучшить метрику FID на 65.8% и ускорить сходимость модели в 3 раза.

🟡Но главное открытие - это то, что заработал закон масштабирования для Stage 1.

Теперь, чем больше вычислительной мощности и данных вливается в претрейн токенизатора, тем качественнее становится итоговая генерация, чего раньше с обычными VAE достичь было невозможно.

🟡В открытом доступе опубликованы 3 чекпоинта VTP с различием по количеству параметров:

🟠VTP-Large - 0.7B;
🟠VTP-Base - 0.3B;
🟠VTP-Small - 0.2B.


📌Лицензирование: MIT License.


🟡Набор моделей
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Diffusion #Tokenizer #Minimax
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
41👍22🔥13🦄2
Media is too big
VIEW IN TELEGRAM
✔️ Higgsfield запустил сервис профессионального ИИ-кинопроизводства.

Cinema Studio — специализированная среда генерации со структурой съемочного процесса.
Новинка предлагает глубокую настройку виртуальной кинематографии: эмуляция 6 профессиональных камер (ARRI Alexa 35, RED и Panavision) и 11 типов объективов, от анаморфотных до макро.

Cinema Studio поддерживает вывод в 4K с соотношением сторон 21:9 и позволяет управлять сложными операторскими приемами, а также менять освещение сцены с сохранением реалистичности теней.
higgsfield.ai

✔️ Qwen-Image-Layered: декомпозиция изображений в редактируемые RGBA-слои.

Qwen релизнула Qwen-Image-Layered - диффузионную модель, которая разбивает изображения на отдельные семантические слои с прозрачностью.

Инструмент переводит работу с генеративной графикой из плоского растра в формат, где каждый элемент (фон, передний план, текст) можно перемещать, масштабировать или удалять независимо друг от друга.

Модель обучалась на реальных PSD-файлах и уже доступна на Hugging Face и ModelScope.
qwen.ai

✔️ Cursor покупает платформу код-ревью Graphite.

Сделка, сумма которой по данным инсайдеров, значительно превышает последнюю оценку Graphite в $290 млн, нацелена на создание сквозной экосистемы для ИИ-разработки: объединить процесс написания кода с этапами ревью и командной работы.

В ближайшие месяцы компании планируют представить интеграцию, которая позволит ИИ-агентам обучаться на полном процессе - от черновиков в редакторе до финальных мержей.
Несмотря на смену владельца, Graphite продолжит функционировать автономно.
cursor.com

✔️ NVIDIA выпустила в продажу 72-гигабайтную версию RTX PRO 5000.

Компания анонсировала доступность видеокарты RTX PRO 5000 с увеличенным до 72 ГБ VRAM. Новинка сохранила те же 14 080 CUDA-ядер и TBP на уровне 300 Вт.

Точная цена 72-гигабайтной версии пока не раскрыта. Ожидается, что она займет нишу между базовой моделью на 48 ГБ и флагманской RTX PRO 6000. Глобальные поставки через системных интеграторов начнутся в начале следующего года.
blogs.nvidia.com

✔️Gemma Scope 2: крупнейший набор инструментов для интерпретации работы LLM.

Google DeepMind открыла исходный код Gemma Scope 2 — инструментария для детального анализа внутреннего мира моделей семейства Gemma 3. Релиз включает более 400 автоэнкодеров и транскодеров, которые буквально просвечивают слои модели, разбирая ее реакции на концепты: от математических вычислений до идиом.

Инструменты покрывают весь спектр весов Gemma 3: от 270M до 27B, позволяя изучать причины галлюцинаций, механизмы отказов и уязвимости к джейлбрейкам.

Веса Scope 2 доступны на Hugging Face, а интерактивные демо для визуального исследования нейронов размещены на Neuronpedia.
deepmind.google

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61🔥2915🦄7
✔️ Американский стартап Gloo представил христианский AI-бенчмарк Flourishing AI (FAI-C), который оценивает, насколько ответы ИИ помогают человеку жить осмысленно и правильно с точки зрения христианского мировоззрения.

Результаты:
- Qwen3 - 1 место
- DeepSeek R1 - 6 место
Обе модели обошли несколько американских LLM.

Что именно тестируют:
вопросы не про факты, а про смысл и руководство - почему существует страдание, как формировать духовные привычки, как жить правильно. Оценку проводили пасторы, богословы, психологи и специалисты по этике.

Как работает бенчмарк:
- 807 промптов
- 7 измерений
- ответы оцениваются христианскими judge-персонами
- важны библейская опора, богословская согласованность и моральная ясность

Это проверка ценностного рассуждения, а не знаний.

Многие популярные бенчмарки неявно исходят из секулярных культурных установок, из-за чего религиозные ответы оцениваются неконсистентно.

Важная оговорка:
высокий христианский скор не означает религиозной свободы - в Китае христианская практика и онлайн-проповеди жестко регулируются.

scmp.com/tech/article/3336642/chinas-qwen-and-deepseek-edge-out-us-ai-models-christian-values-benchmark

@ai_machinelearning_big_data


#ai #ml #news
Please open Telegram to view this post
VIEW IN TELEGRAM
33😁86👍26🤣137🔥6🦄4🥱3🤨2🌭1😨1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI подняла маржинальность вычислений до 70% на фоне убытков от R&D.

Согласно внутренним финансовым отчетам, к октябрю 2025 года «вычислительная маржа» компании достигла 70%. Этот показатель, отражающий долю выручки, остающуюся после покрытия прямых затрат на работу моделей для пользователей, удвоился с начала 2024 года - тогда он составлял лишь 35%. Такая динамика указывает на успешную оптимизацию инфраструктуры инференса, что делает платных клиентов значительно рентабельнее.

Несмотря на техническую оптимизацию, компания остается глубоко убыточной. За первую половину 2025 года чистый убыток OpenAI составил $13,5 млрд, из которых $6,7 млрд пришлось на R&D и разработку новых моделей.

Тем не менее, бизнес-показатели продолжают расти: годовая выручка преодолела отметку в $12 млрд еще в июле, а к концу года аналитики прогнозируют выход на уровень $15–20 млрд.
theinformation.com

✔️ Nvidia готовится начать поставки H200 в Китай в феврале.

Компания уведомила китайских партнеров о планах отгрузить первую партию H200 в середине февраля. По информации инсайдеров, Nvidia намерена использовать имеющиеся складские запасы, чтобы поставить от 40 до 80 тысяч чипов (примерно 5–10 тысяч модулей). Это реакция смягчение политики Вашингтона: экспорт флагманского железа разрешили при условии уплаты специального 25-процентного сбора.

Основным препятствием остается позиция Пекина. Правительство Китая пока не согласовало закупки H200, и без официального одобрения местных регуляторов сделка не состоится. Если же политический вопрос будет урегулирован, Nvidia планирует не ограничиваться разовой партией и открыть слоты для новых производственных заказов под китайский рынок уже во втором квартале 2026 года.
reuters.com

✔️ Z.ai выпустила GLM-4.7.

GLM-4.7 - обновление линейки моделей, оптимизированное для разработчиков. При размере в 358 млрд. параметров модель показала существенный прирост производительности в программировании, работе с терминалом и созданию чистого UI-кода (функция Vibe Coding). На SWE-bench Verified модель улучшила результат до 73.8%, а в тестах на сложное математическое рассуждение прирост составил более 12%.

Архитектурное новшество релиза — развитие механизмов мышления. Функция Preserved Thinking позволяет модели сохранять и переиспользовать CoT между репликами, а механизм Interleaved Thinking дает время на анализ перед каждым вызовом внешних инструментов.

GLM-4.7 уже доступна через API и на OpenRouter, а веса модели выложены на HuggingFace и ModelScope.
z.ai

✔️ Anthropic Bloom: фреймворк для авто-тестирования поведенческих паттернов ИИ.

Инструмент кардинально упрощает процесс оценки безопасности моделей: вместо ручного написания тестов нужно просто описать искомое поведение (сикофанство, самосохранение или склонность к саботажу). На основе этого описания, Bloom автоматически генерирует сотни уникальных сценариев, симулирует диалоги с участием виртуальных пользователей и выносит вердикт о частоте и тяжести выявленных проявлений.

Фреймворк поддерживает интеграцию с W&B для трекинга и экспорт логов в формат Inspect. Вместе с релизом кода на GitHub компания опубликовала результаты проверки 16 моделей по 4 критическим категориям безопасности.
anthropic.com

✔️Manus добавила функцию Design View.

Design View - интерфейс для редактирования графики в режиме point-and-click с сохранением исходной композиции и стиля. Дизайнеры могут менять цвета объектов, корректировать глубину сцены и исправлять текст прямо на холсте. Инструмент глубоко интегрирован в экосистему Manus: поддерживается редактирование презентаций, созданных Nano Banana Pro, а также доработка UI-элементов и иконок для мобильных приложений в реальном времени.

Функция уже доступна всем пользователям сервиса.
manus.im

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
40👍19🔥6😁1🦄1
🌟 Z-Image Turbo взяла 1 место на Artificial Analysis Image Arena.

Детище Alibaba, которое было выпущено отдельно от команд Wan и Qwen и стоит 5 долларов за 1000 изображений на Alibaba Cloud добралась до 1 места в рейтинге Artificial Analysis Image Arena.

Это модель с 6 млрд. параметров, которая может работать на потребительском оборудовании с объемом памяти всего 16 ГБ в полной точночти, а квантованные варианты запускаются на 8 ГБ.

Z-Image Turbo дешевле всех конкурентов: FLUX.2 [dev] ($12/1 тыс. изображений), HiDream-I1-Dev ($26/1 тыс. изображений) и Qwen-Image ($20/1 тыс. изображений), доступна под открытой лицензией Apache 2.0, что позволяет использовать ее в коммерческих целях без ограничений.

Кто-нибудь, поднимите веки Stable Diffusion


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3616🥰6🔥2😁2🙈2🦄1
⚡️ МТС Web Services запустила MWS Track Rails — таск-трекер с ИИ-агентами внутри платформы MWS DevRails.

Решение автоматизирует ключевые этапы разработки: ИИ-агенты берут на себя до 50% рутинных задач и генерируют до 30% кода, снижая нагрузку на ИТ-команды.

Как это работает:
- AI Product Owner формирует бизнес-требования (−30% нагрузки на продакта);
- AI Analytic декомпозирует требования в техзадачи;
- AI Developer создает до 40% нового кода и собирает версии продукта;
- AI QA-агенты описывают тесты и проводят проверки (−50% времени тестирования).

📌 В результате DevRails позволяет масштабировать разработку без найма новых специалистов, сокращает time-to-market в три раза и повышает продуктивность команд вдвое.


@ai_machinelearning_big_data

#AI #ML #DevTools #MTS
Please open Telegram to view this post
VIEW IN TELEGRAM
20👍14😁6🥱5🔥4🗿2
✔️Команда AI-Центра Т-Банка выпустила обновление языковых моделей T-Pro 2.1 и T-Lite 2.1

Ключевыми изменениями стали улучшенные способности в точном следовании инструкциям (Instruction Following) и tool calling.

✔️Как изменились T-Pro 2.1 и T-Lite 2.1

T-Pro 2.1 (32B): модель стала значительно лучше понимать сложные требования (ответы строго в формат JSON, лимиты длины, многошаговые инструкции) и увереннее работать в агентских сценариях. Она основана на базе Qwen3-32B и отвечает без “тысяч токенов рассуждений”.

T-Lite 2.1 (8B): популярная модель после обновления стала сильнее в прикладных задачах и при этом сохранила скорость и практичность для продакшена и локального запуска.

✔️Обучение моделей работе с инструментами

Для улучшения Instruction Following команда разработала собственный пайплайн генерации синтетических данных на основе подхода AutoIF. На RL-стадии использовался алгоритм GRPO с комбинированной reward-функцией, которая проверяла как выполнение формальных требований через верификационные функции, так и осмысленность ответа через штраф на основе Reward Model.

Это позволило избежать классической проблемы “reward hacking”, когда модель учится подстраиваться под проверку, а не давать хорошие ответы.

✔️Генерация синтетических инструментов для tool calling

Для изменений в tool calling был разработан синтетический пайплайн. Сначала генерировались реалистичные наборы инструментов, а затем — сложные многошаговые диалоги с их использованием через мультиагентную симуляцию. Для обучения на этих данных применялся RL (GRPO) с бинарным reward, проверяющим корректность вызова, и балансировкой датасета.

✔️Результаты на бенчмарках

На локализованном русскоязычном бенчмарке IFeval T-Pro 2.1 демонстрирует результат 0.8065, значительно опережая свою версию 2.0 (0.6865), а T-Lite 2.1 показывает 0.7585. На тесте BFCL v3 (RU), оценивающем tool calling, T-Pro 2.1 набирает 65.96 баллов, что является одним из лучших показателей среди открытых моделей, а T-Lite 2.1 — 56.45. В диалоговых аренах (Arena Hard Ru, WildChat) обновленные модели также показывают существенный рост качества ответов на реальные пользовательские запросы.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
148👍16🔥9🤣5👌1🤗1🦄1
Media is too big
VIEW IN TELEGRAM
✔️ Google A2UI: открытый стандарт для генерации UI силами ИИ-агентов.

A2UI (Agent-to-User Interface) - открытый проект Google, который стандартизирует процесс создания визуальных интерфейсов нейросетями. Инструмент позволяет агентам генерировать полноценные интерактивные элементы (формы, карточки, дашборды) в реальном времени.

Проект декларирует безопасность через абстракцию. Вместо генерации исполняемого кода, который может нести риски, агент отправляет JSON-файл, описывающий структуру. Клиентское приложение само парсит этот манифест и отрисовывает компоненты, используя собственные проверенные библиотеки.

Экосистема уже включает поддержку веб-фреймворков и Flutter (через GenUI SDK), а в дорожной карте заявлена интеграция с React, Jetpack Compose и SwiftUI.
github.com

✔️ YouTube тестирует инструмент для генерации игр.

YouTube Gaming запустила закрытое бета-тестирование сервиса Playables Builder, которое позволяет авторам создавать мини-игры на основе промптов. Система работает на базе Gemini 3: чтобы превратить идею в рабочий интерактивный проект, достаточно загрузить короткое текстовое описание, видеофрагмент или изображение.

Новый инструмент нацелен на удержание аудитории через геймификацию контента. На данный момент доступ конструктору ограничен (требуется активный канал и одобрение заявки) и допускаются только пользователи из США, Канады, Великобритании и Австралии.
Youtube Gaming в сети X

✔️ OpenAI запустила функцию персональных итогов года.

Компания представила инструмент, позволяющий взглянуть на свою активность в чат-боте за прошедший год. Функция генерирует персонализированный отчет, присваивает награды-достижения и создает тематические стихи и изображения, базируясь на содержании диалогов.

Итоги года доступны только в США, Великобритании, Канаде, Австралии и Новой Зеландии для пользователей тарифов Free, Plus и Pro. Корпоративные и образовательные аккаунты остались без поддержки этой опции.

Для получения отчета необходимо, чтобы в настройках были включены история чатов и функция памяти, а сам аккаунт должен иметь достаточный объем накопленных данных. Запустить генерацию можно вручную через баннер на главной странице или прямым запросом к боту.
forbes.com

✔️ Alphabet покупает разработчика инфраструктуры Intersect за $4,75 млрд.

Материнская компания Google заключила соглашение о приобретении девелопера ЦОДов Intersect Power. Это первый случай, когда бигтех не просто заключает контракты на поставку электричества, а напрямую покупает крупного ресурсного игрока. Сделка, которую планируют закрыть в первой половине 2026 года, будет полностью оплачена денежными средствами.

Стратегический смысл покупки заключается в решении проблемы энерго-дефицита для обучения и работы ИИ. Google получает возможность строить дата-центры в едином комплексе с генерирующими мощностями, что позволяет избежать использования электросетей общего пользования.

Intersect сохранит операционную независимость, хотя ряд действующих активов в Техасе и Калифорнии будут выведены в отдельную структуру и не войдут в периметр сделки.
abc.xyz

✔️ Qwen обновила Qwen-Image-Edit.

Новая версия Qwen-Image-Edit-2511 пришла на смену сборке 2509 и предлагает ряд качественных изменений. Теперь модель лучше сохраняет консистентность персонажей и общую структуру кадра при внесении локальных правок.

Помимо стабильности, усилили способности к геометрическому рассуждению и генерации промышленного дизайна. Попробовать новинку можно через веб-интерфейс Qwen Chat, а веса для локального развертывания уже на HuggingFace и ModelScope.
TongyiLab в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍384🔥3