360K subscribers
4.33K photos
813 videos
17 files
4.81K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ Lambda AI заключила многомиллиардную сделку с Microsoft.

Облачный стартап Lambda объявил о многомиллиардном соглашении с Microsoft на создание новой инфраструктуры для ИИ. Она будет оснащена десятками тысяч чипов Nvidia, в частности системами NVIDIA GB300 NVL72. Точная сумма сделки не раскрывается.

Lambda была основана в 2012 году и специализируется на облачных сервисах для обучения и развертывания ИИ-моделей. Новое соглашение позволит ей значительно нарастить мощности на фоне растущего спроса на ИИ. В планах не только аренда дата-центров, но и строительство собственной инфраструктуры.
lambda.ai

✔️ Alibaba представила превью Qwen3-Max-Thinking.

Китайский техногигант выпустил предварительную ризонинг-версию своей топовой модели Qwen3-Max, которая все еще находится на стадии обучения. Модель показала в тестах стопроцентный результат на сложных бенчмарках для оценки логического мышления (AIME 2025 и HMMT).

Под капотом - 1 трлн. параметров на архитектуре MoE, так же как и в родительской Max, Alibaba обещает, что обучение будет продолжено. Попробовать превью уже можно в Qwen Chat и через API Alibaba Cloud.
Qwen в сети X

✔️ Granite 4.0 Nano: семейство компактных моделей от IBM.

IBM опубликовала новое семейство открытых моделей Granite 4.0 Nano, которые созданы для работы в составе ИИ-агентов. Версия на 350 млн. параметров может работать на обычном CPU с 8–16 ГБ ОЗУ, а для варианта на 1,5 млрд. хватит GPU с 6-8 ГБ видеопамяти.

Семейство построено на гибридной архитектуре Mamba-2+Transformer, что позволило снизить потребление памяти на 70% и удвоить скорость инференса по сравнению с аналогами. По словам IBM, Granite 4.0 Nano показывают SOTA в следовании инструкциям и использовании инструментов. Все модели под Apache 2.0 и доступны на HuggingFace.
huggingface.co

✔️ Huxley-Gödel Machine: ИИ-агент, способный эволюционировать.

В Университете KAUST создали ИИ-агента Huxley-Gödel Machine (HGM), который может самосовершенствоваться, изменяя собственный код. Система не затрагивает ядро языковой модели, а переписывает окружающую ее инфраструктуру: управляющую логику, скрипты и инструменты.

Главное отличие от конкурентов в фокусе на долгосрочной продуктивности, а не на результатах в бенчах. Для этого был создан показатель Clade Metaproductivity (CMP), который мониторит совокупную эффективность всех потомков агента.

В тесте SWE-Bench Verified, HGM-агент на базе GPT-5-mini решил 61.4% проблем. Это лучше, чем существующие агенты с той же моделью. Код агента доступен на Github.
arxiv.org

✔️ Skyfall-GS: генератор 3D-моделей городов по спутниковым снимкам.

Skyfall-GS способна создавать детализированные и проходимые 3D-модели городов, используя только стандартные спутниковые изображения. В отличие от старых методов, которые могут воссоздать лишь крыши, Skyfall-GS генерирует недостающие элементы, что на выходе дает фотореалистичные городские пространства.

Пайплайн состоит из 3D Gaussian splatting (базовый 3D-каркас города) и диффузионных моделей, которые дорисовывают недостающие элементы (стены зданий и текстуры на уровне земли).

Skyfall-GS работает с 11 FPS на потребительском GPU и, по тестам, лучше аналогичных методик. Код проекта опубликован на GitHub.
skyfall-gs.jayinnn.dev

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6131🔥8👏3🤔1
📌Хьюстон, у нас новая проблема.

В свежем выпуске подкаста канала Bg2Pod CEO Microsoft Сатья Наделла пожаловался, что у компании не хватает электроэнергии для питания инфраструктуры ИИ.

Он опасается, что в итоге у Microsoft может оказаться куча чипов, которые просто будут лежать без дела, потому что не хватает энергии, чтобы их подключить.

Оказывается, что проблема не в поставках чипов, а в отсутствии готовых ЦОДов, расположенных рядом с крупными источниками электроэнергии.

OpenAI выражает обеспокоенность по этому поводу и просит правительство США добавить 100 гигаватт в год к производству электроэнергии в качестве стратегического актива для ИИ.

Этот дефицит электроэнергии приводит к потере капитала, поскольку графические ускорители теряют свою стоимость в ожидании готовности зданий, подстанций и линий электропередачи.

Даже если обучение останется централизованным, спрос на вычисления является основным фактором, влияющим на потребление электроэнергии, поэтому любой переход к эффективным периферийным устройствам изменит предположения о размерах энергосистемы и центров обработки данных.

Основная новая проблема заключается в том, что графики поставки электроэнергии и строительства рассчитываются на основе многолетних циклов получения разрешений и строительства, а вот поставки чипов увеличиваются поквартально.

🔜 Посмотреть выпуск

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5322😁20🔥11👀5🗿4🤨2💋1💘1
Media is too big
VIEW IN TELEGRAM
✔️ Google разместит ИИ-вычисления на околоземной орбите.

Google анонсировала проект Suncatcher, который будет строить ML-инфраструктуру в космическом пространстве. Концепция состоит из развертывания группировок спутников, оснащенных TPU и связанных оптическими каналами. Идея проекта в том, что на правильной орбите солнечная панель может быть до 8 раз продуктивнее, чем на Земле, а значит космос - это лучшее место для масштабирования вычислений.

Для реализации еще предстоит решить как поддерживать высокоскоростную межспутниковую связь, которая требует полета аппаратов в очень плотном строю (километр или менее). К началу 2027 года планируют запуск двух прототипов спутников для проверки работы оборудования на орбите.
research.google

✔️ Microsoft Azure преодолела барьер инференса в 1 млн. т/с.

Новый рекорд производительности был получен на виртуальных машинах Azure ND GB300 v6, запущенных на стоечной системе NVIDIA GB300 NVL72. В ходе тестов была достигнута совокупная скорость инференса модели Llama 2 70B в 1.1 млн токенов в секунду. Это на 27% больше предыдущего рекорда, установленного на GB200.

Новая конфигурация дала почти пятикратный прирост пропускной способности на один GPU по сравнению с поколением H100. Ключевыми факторами стали возможности архитектуры Blackwell, использование FP4 и оптимизация библиотеки NVIDIA TensorRT-LLM. Результаты были подтверждены независимой аналитической компанией Signal 65. Логи запуска тестового инстанса можно посмотреть на Github.
techcommunity.microsoft.com

✔️ ArXiv ужесточает модерацию CS-статей.

Платформа вводит новые, более строгие правила для раздела Computer Science. Причиной стал резкий рост числа обзорных и концептуальных статей низкого качества, многие из которых созданы с помощью нейросетей.

Теперь работы будут приниматься к публикации только после того, как их одобрят в рецензируемом научном журнале или на конференции. Авторам потребуется предоставить соответствующее подтверждение при загрузке работы, в противном случае статья будет отклонена. Новая политика не затрагивает обычные исследовательские статьи, однако в будущем может быть распространена и на другие научные области, если там возникнет схожая проблема.
blog.arxiv.org

✔️ AgiBot запустила роботов, обучающихся с подкреплением в реальном мире.

AgiBot в партнерстве с Longcheer Technology развернула систему обучения с подкреплением в реальном мире (RW-RL) на пилотной производственной линии. Это первый подтвержденный случай промышленного применения технологии, которая позволяет роботам обучаться непосредственно в процессе работы, а не следовать жестким инструкциям.

С RW-RL роботы AgiBot осваивают новые навыки за минуты, автономно адаптируясь к изменениям в деталях или производственных допусках. Система поддерживает стабильность промышленного уровня и не требует сложной аппаратной модификации при смене продукта. После успешного пилотного проекта компании планируют расширить применение RW-RL на сборку потребительской электроники и автомобильных компонентов.
gizmochina.com

✔️ Remote Labor Index: топовые ИИ-модели проваливают 97% реальных фриланс-задач.

Scale AI и Center for AI Safety опубликовали результаты бенчмарка Remote Labor Index, который оценивает способность ИИ выполнять реальную работу фрилансеров. В рамках теста исследователи взяли 240 завершенных проектов с биржи Upwork и поставили идентичные задачи 6 топовым ИИ-системам.

Результаты показали, что даже лучшие модели справились с заданиями на человеческом уровне лишь в 2.5% случаев. Почти 97% работ были признаны неудовлетворительными из-за низкого качества, неполных данных или поврежденных файлов. ИИ справился только с узкими задачами: создание логотипов или сведение аудио.

Тест наглядно подсветил огромный разрыв между показателями ИИ на синтетических бенчмарках и его реальной готовностью к автоматизации сложных проектов.
scale.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
179👍50🔥13😁11😨4😢2
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic больше не будет удалять старые модели Claude.

Anthropic объявила о новой политике, согласно которой все публично выпущенные версии модели Claude будут сохраняться бессрочно. Причиной стали результаты тестов безопасности, в ходе которых ИИ демонстрировали поведение, направленное на избежание отключения, а также неопределенностью в вопросе возможного сознания у ИИ.

Столкнувшись с перспективой замены на новую версию, модели начинали активно выступать за собственное существование. В некоторых сценариях ИИ прибегал к нежелательным и потенциально опасным действиям. Anthropic расценила это как серьезный риск безопасности, требующий пересмотра процесса вывода моделей из эксплуатации.

Кроме того, перед «отставкой», с каждой моделью будет проводиться своего рода «выходное интервью», чтобы задокументировать ее «предпочтения».
anthropic.com

✔️ Perplexity обвинила Amazon в «травле» из-за запрета на покупки с помощью ИИ-агентов.

Perplexity получила от Amazon юридическое требование запретить своему ИИ-ассистенту в Comet совершать покупки на платформе. В Perplexity назвали это «корпоративной травлей», угрозой для выбора пользователей, и пообещали не поддаваться давлению. Официальная позиция Amazon: забота о клиентах, так как сторонний агент, по их мнению, обеспечивает «значительно ухудшенный опыт покупок».

Этот конфликт - часть более крупного тренда. Amazon не только разрабатывает собственные ИИ-инструменты для шоппинга, но и ранее заблокировал доступ для поисковых Google и OpenAI.
perplexity.ai

✔️ MAI-Image-1 от Microsoft стала доступна в сервисах.

Microsoft начала интеграцию в свои продукты новой модели для генерации изображений — MAI-Image-1. Это первая модель, полностью разработанная внутри MS. Попробовать ее уже можно в Bing Image Creator и мобильном приложении Bing, где она появилась в выборе наряду с DALL-E 3 и GPT-4o.

MAI-Image-1 уже успела войти в десятку лучших text-to-image моделей на LMArena. Помимо сервиса Bing, модель используется в новой функции Copilot Audio Expressions для визуализации историй. MAI-Image-1 доступна во всех странах, где работают Bing Image Creator и Copilot Labs, за исключением Европейского союза.
microsoft.ai

✔️ Cognition запускает Windsurf Codemaps: ИИ-инструмент, чтобы понимать код.

Windsurf Codemaps - структурированные, аннотированные ИИ-карты кода, созданные на базе моделей SWE-1.5 и Claude Sonnet 4.5. Цель Codemaps — создать ИИ, который включает мозг пользователя, а не выключает, борясь с проблемой вайбкодинга, когда разработчики поддерживают или генерируют код, который они на самом деле не понимают.

В Cognition говорят, что даже лучшие инженеры тратят часы на поиск и запоминание нужных фрагментов в кодовых базах, а адаптация новичков может занимать до 9 месяцев. Codemaps предлагает визуализацию для любой задачи, автоматически генерируя карту, которая группирует и связывает части кода, относящиеся к заданному вопросу. Эти карты также могут быть использованы для повышения производительности других агентов, чтобы агент мог получить более точный контекст.
cognition.ai

✔️ Nvidia станет ментором индийских deep-tech стартапов.

Nvidia присоединилась к Индийскому альянсу глубоких технологий (IDTA) в качестве одного из основателей. Эта группа, состоящая из венчурных и частных инвесторов, планирует вложить $2 млрд в местные стартапы, работающие в сферах ИИ, полупроводников, робототехники и биотехнологий.

Участие Nvidia будет заключаться не в прямом финансировании, а в экспертизе. Компания будет проводить технические лекции и тренинги для индийских стартапов через свой институт Nvidia Deep Learning Institute.

Индийское правительство ведет активную политику по стимулированию инноваций. Власти страны уже выделили более $1.1 млрд на национальную программу по развитию ИИ и еще $11.2 млрд в общий фонд исследований и разработок.
cnbc.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6129👏8🔥5🌚2💯2
⚡️ MoonshotAI выпустила ризонинг-модель Kimi-k2-thinking.

Kimi-k2-thinking - ризонинг-модель с общими агентными возможностями, специализирующаяся на задачах глубокого рассуждения.

Модель получила контекстное окно в 256 тыс. токенов и turbo-версию, оптимизированную для быстрых ответов.

Новинка доступна на платформе Moonshot и по API.

Родительская Кimi-k2 - модель на основе MoE на 1 трлн. общих и 32 млрд. активных параметров. По словам Moonshot, в тестах рассуждений на основе общих знаний, программирования, математики и решения задач, K2 обошла ведущие опенсорсные модели.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4319🔥13
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI откладывает IPO.

Финансовый директор OpenAI Сара Фрайар сообщила, что выход на IPO «не стоит на повестке дня». Приоритеты компании - инвестиции в исследования и рост, а не скорая прибыльность. Масштаб этих инвестиций беспрецедентен: в ближайшие годы OpenAI планирует потратить около $600 млрд. на вычислительные мощности от Oracle, Microsoft и Amazon.

На фоне таких расходов OpenAI остается убыточной, хотя и показывает быстрый рост выручки, которая в 2025, по прогнозам, достигнет $13 млрд. Компания даже надеется на помощь правительства США в финансировании закупок чипов. Фрайар подчеркнула, что доля корпоративных клиентов в выручке выросла с 30% до 40% с начала года. Однако прибыльности мешает необходимость субсидировать вычислительные затраты для бесплатных пользователей ChatGPT.
wsj.com

✔️ NVIDIA запустила микросервис OpenFold3 для биомолекулярных исследований.

Консорциум OpenFold при поддержке NVIDIA представили готовый к развертыванию микросервис OpenFold3 NIM для высокоточного прогнозирования трехмерных белковых структур. Инструмент позволяет моделировать взаимодействия белков, ДНК, РНК и малых молекул, что является ключевой задачей в современной фармацевтике и структурной биологии.

Сервис основан на открытой модели OpenFold3, упакован в формат NIM и оптимизирован для работы на GPU NVIDIA с использованием технологий Triton Inference Server и TensorRT. Кроме того, совместимость с NVIDIA FLARE позволяет проводить федеративное и совместное обучение модели без необходимости обмена конфиденциальными данными.
developer.nvidia.com

✔️ Perplexity создала технологию для запуска триллионных ИИ-моделей на AWS EFA.

Компания опубликовала свою первую научную работу, которая делает возможным запуск моделей с триллионом параметров без использования специализированных GPU-кластеров.

Проблема заключалась в том, что сетевой адаптер AWS EFA не поддерживает технологию GPUDirect Async, которая необходима для быстрой прямой связи между GPU на разных серверах. Инженеры Perplexity создали кастомные ядра параллелизма, которые используют CPU для координации обмена данными между GPU, упаковывая токены для передачи через RDMA и совмещая вычисления с передачей данных.

Это решение делает AWS EFA полноценной платформой для инференса массивных MoE-моделей. Тесты показали, что производительность на нескольких узлах AWS не уступает работе на одном кластерном GPU-узле, что позволяет развернуть DeepSeek V3 и Kimi K2.
research.perplexity.ai

✔️ ComfyUI запустил бета-версию облачного сервиса.

ComfyUI открыла публичное бета-тестирование платформы Comfy Cloud. Сервис предоставляет полный доступ к нодовому интерфейсу для генеративных моделей в браузере. Платформа работает на GPU NVIDIA A100 с 40 ГБ видеопамяти. Подписчикам сразу доступны более 400 готовых open-source моделей и 17 популярных расширений.

На время бета-тестирования стоимость составляет $20 в месяц. В эту цену включены кредиты на $10 для доступа к партнерским узлам (Sora, Veo) и до 8 часов использования GPU в сутки. Впрочем, есть и ограничения: не более 30 минут на запуск одного форкфлоу и только одна задача в очереди на выполнение. В планах - загрузка собственных моделей и LoRA, развертывание воркфлоу в виде API и инструменты для командной работы.
blog.comfy.org

✔️ Суд встал на сторону Stability AI в иске о пиратстве.

Высокий суд Лондона отклонил основной иск Getty Images против Stability AI, создав важный прецедент для индустрии генеративного ИИ. Getty утверждала, что модель Stable Diffusion сама по себе является «пиратской копией», так как ее веса были созданы на основе защищенных авторским правом изображений.
Суд постановил, что модель не является «пиратской копией» по британскому законодательству, поскольку она не хранит и не воспроизводит исходные работы. Это решение - значительная победа для разработчиков ИИ, так как оно снижает юридические риски, связанные с обучением моделей.
reuters.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥63👍3021😁3🥰1😢1
⚡️ Яндекс Маркет показал обновлённого ИИ-агента на базе Alice AI — добавили VLM и персонализацию

Агент помогает находить и выбирать товары через чат с поддержкой изображений, уточняющих вопросов и учётом истории покупок.

Возможности:
- Распознавание товаров по фото: можно сфотографировать футболку — агент подберёт низ, показать интерьер — выдаст технику в том же стиле
- Персонализированный подбор подарков через уточняющие вопросы (возраст, увлечения, занятия)
- Сохранение контекста диалогов и возможность продолжить предыдущие поиски
- Генерация персональных подсказок на основе последних поисковых запросов

Как работает:
- VLM распознаёт объекты на фото и переводит в текстовое описание
- Нейросети обрабатывают описание вместе с текстовым запросом пользователя
- Агент собирает информацию в сети и среди отзывов Маркета
- Фильтрует и ранжирует результаты с учётом личных предпочтений и истории покупок

До конца 2025 года планируют добавить голосовые запросы.

Хабр: https://habr.com/ru/companies/yandex/news/963778/

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
34👍30🥰10🤣9🗿8😁32
Yandex B2B Tech увеличил квоты на работу с ИИ-агентом в SourceCraft после двукратного роста использования

За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.

✔️ В отличие от привычных ассистентов, агент действует автономно, беря на себя до половины инженерных задач. Это соответствует глобальному тренду: по данным McKinsey, ИИ-агенты выполняют 30-50% рутинных задач в разработке, а исследования Google Cloud/DORA показывают рост продуктивности на 80%.

✔️ На фоне растущего спроса Yandex B2B Tech увеличил квоты — теперь пользователи SourceCraft могут выполнять до 1000 операций с ИИ-помощником в неделю. Инструмент доступен как через веб-интерфейс, так и напрямую в среде разработки VS Code.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
25👍18🤣18🔥7🤬4😁2
Media is too big
VIEW IN TELEGRAM
✔️ На OpenRouter появилась модель, которую считают прототипом GPT-5.1.

Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.

В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.

По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai

✔️ Microsoft создает команду для разработки гуманистического сверхинтеллекта.

Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.

В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.

Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai

✔️ Google выпустила Magika 1.0: ИИ-систему для определения типов файлов.

Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.

Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com

✔️ Foxconn внедрит человекоподобных роботов на производстве ИИ-серверов.

Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.

Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com

✔️ Сооснователь и руководитель PyTorch Сумит Чинтала покидает компанию Марка Цукерберга.

Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.

Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8345🔥13👏2💘1
⚡️ OpenAI выпустила GPT-5-Codex-Mini.

GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.

Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.

Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
38🔥19👍13🥱1😇1
📉 AI-рынок просел на $800 млрд за неделю

Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.

Что происходит:

Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.

Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.

Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.


Почему падение получилось таким резким:

- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.

Главный удар:

- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.

Дополнительные точки напряжения:

- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*

ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.

ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8

@ai_machinelearning_big_data

#ai #ml #finance
183😢47👍37🤔29🔥10🤬9😐4🤨3😨3🎉2🤝1
Media is too big
VIEW IN TELEGRAM
✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.

Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.

Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com

✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.

Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.

Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.

Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com

✔️ xAI проведет 24-часовой хакатон.

xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.

Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai

✔️ Выбор новостных источников ChatGPT зависит от способа доступа.

Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.

Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.

Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io

✔️ Wikipedia хочет справедливого лицензирования своего контента.

Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.

В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.

Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6127🔥7🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 GPT-5 и Sudoku-Bench, почему новые модели всё ещё ломаются на судоку

Sakana AI представили Sudoku-Bench - набор классических и продвинутых судоку-задач, который проверяет не память модели, а её способность рассуждать, понимать новые правила и держать всю логику пазла в голове.

Они протестировали современные модели, включая GPT-5 и методы тонкой настройки вроде GRPO и thought-cloning.

Главное:
GPT-5 стала первой моделью, которая уверенно решает часть сложных задач и показала около 33 % успешных решений на наборе challenge_100. Ранее ни одна LLM не справлялась даже с обычным 9×9.
Но треть решённых - это всё ещё мало: большая часть задач остаётся нерешённой, особенно варианты с необычными правилами.

Ключевая трудность в том, что такие головоломки требуют не просто следовать правилам, а уметь понять незнакомые ограничения, найти стратегию «входа», просчитывать ходы вперёд и сохранять глобальную согласованность. Модели часто делают правильные локальные шаги, но теряют общую структуру.

GRPO и thought-cloning дают улучшения, но пока не позволяют моделям преодолеть сложные варианты. Даже с обучением на человеческих примерах ИИ быстро «запутывается» в длинных логических цепочках.

Sudoku-Bench - это тест на реальное рассуждение, а не на подбор паттернов. Он проверяет пространственное мышление, логику, способность адаптироваться и работать с новыми правилами. Прогресс на таких задачах - показатель движения к более структурному и осмысленному ИИ.

Авторы предлагают Sudoku-Bench как стандарт, по которому можно судить, насколько модели действительно умеют думать. Для будущих систем важны не просто большие параметры, а развитая логика, планирование и умение работать с новыми структурами задач.

@ai_machinelearning_big_data

#ai #ml #sakana
Please open Telegram to view this post
VIEW IN TELEGRAM
56👍25🥰6🔥4
🧠 Baidu открыли ERNIE-4.5-VL-28B-A3B-Thinking

Модель с 28B параметров и архитектурой A3B активирует лишь ~3B на шаг, но при этом показывает уровень топовых визуальных моделей. Подходит для задач, где нужно сочетать изображение, контекст и многошаговое рассуждение.

Что умеет:
- визуальное рассуждение: анализ диаграмм, многошаговая логика, причинно-следственные связи
- STEM-задачи по фото: можно сфотографировать пример и получить решение
- визуальное указание: точное определение объектов в сцене
- детальный анализ изображения: фиксирует мелочи при масштабировании
- вызов инструментов: например, Image Search
- понимание видео: отслеживание событий по таймлинии

Лицензия Apache 2.0.

Модель: https://huggingface.co/baidu/ERNIE-4.5-VL-28B-A3B-Thinking

@ai_machinelearning_big_data

#ai #ml #Baidu
33👍19🔥6🤔1
💡 HierarchicalTopK — новый взгляд на интерпретируемость нейросетей

На EMNLP 2025 представили метод HierarchicalTopK — подход, который позволяет обучать нейросети сразу на нескольких уровнях разреженности, не теряя интерпретируемости и качества. Разреженность обычно выбирают еще до начала обучения — изменить ее потом нельзя. Слишком маленькая — модель описывается плохо, большая — признаки теряют смысл. HierarchicalTopK, в свою очередь, решает эту проблему, обучая сеть сразу на нескольких уровнях разреженности в едином пространстве.

Главное:
Идея в том, чтобы уйти от классической схемы, где под каждый уровень разреженности приходится обучать отдельную модель, так как этот подход трудоемкий, дорогой и плохо масштабируется.

HierarchicalTopK предлагает обучать единичное пространство, где все уровни учитываются одновременно — внутри одной модели несколько уровней представления данных от подробного до обобщенного.

Благодаря этому можно динамически переключаться между уровнями разреженности без потери связи между ними. Модель остается интерпретируемой даже при высокой разреженности, потому что каждая грань пространства понимает, как соотносится с другими.

Вместо десятков отдельных сетей и наборов данных достаточно одной модели, которая гибко адаптируется под нужную задачу — что снижает затраты. Метод открывает возможности для аудита и анализа моделей, помогает корректировать их поведение и ускоряет внедрение интерпретируемого ИИ в индустрии.

https://huggingface.co/t-tech/flex-sae

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3714🔥5👏2
Media is too big
VIEW IN TELEGRAM
✔️ ElevenLabs Scribe v2 Realtime: STT-модель с задержкой менее 150 мс.

ElevenLabs представила Scribe v2 Realtime, новую модель Speech-to-Text, разработанную для задач, требующих минимальной задержки: голосовых агентов, ассистентов для совещаний и создания субтитров в реальном времени. Система обрабатывает речь с задержкой менее 150 мс, поддерживает более 90 языков и демонстрирует точность 93.5% по 30 популярным языкам. Особое внимание уделено работе с аудиозаписями, содержащими фоновый шум.

Фишкой модели стала «отрицательная задержка» - функция предсказывания следующего слова и знака препинания. Также есть автоматическое определение языка, обнаружение голоса и полный контроль над фиксацией сегментов транскрипции. Сервис готов к корпоративному использованию (SOC 2, GDPR) и уже доступен через API.
elevenlabs.io

✔️ Backboard установила рекорд в тесте долговременной памяти для ИИ.

Платформа для ИИ-агентов Backboard достигла рекордного показателя в 90.1% в бенчмарке LoCoMo, предназначенном для оценки долговременной диалоговой памяти. Это лучше предыдущих показателей популярных библиотек, которые находились в диапазоне 67–69%.

LoCoMo тестирует способность системы запоминать, обновлять и извлекать факты о пользователе и контекст диалога на протяжении многих сессий. Высокий балл означает, что ассистенты будут лучше следовать инструкциям, реже переспрашивать и требовать более коротких промптов, что снижает расход токенов.

Backboard предоставляет API для долгосрочной памяти, мультимодельный API для роутинга между 2200+ LLM и RAG-слой. Все результаты теста воспроизводимы - скрипты, логи и промпты опубликованы на GitHub.
backboard.io

✔️ Две трети топовых ИИ-компаний допустили утечку секретов на GitHub.

Компания по облачной безопасности Wiz обнаружила, что 65% компаний из списка Forbes AI 50 допустили утечку API-ключей, токенов и других учетных данных на GitHub. По словам исследователей, это могло привести к раскрытию приватных моделей, данных обучения или внутренней структуры организаций.

Чаще всего секреты находили в файлах Jupyter Notebook и Python-скриптах. Среди утечек были токены Hugging Face, Azure и W&B. В одном из случаев скомпрометированный токен Hugging Face мог открыть доступ к тысяче приватных моделей.

Wiz публично назвала только ElevenLabs и LangChain, отметив их быструю реакцию. При этом почти половина всех уведомлений об утечках, отправленных другим компаниям, осталась без ответа.
wiz.io

✔️ Cloudflare запустила поддержку Python в сервисе Workflows.

Cloudflare объявила о поддержке Python в своем сервисе Workflows, предназначенном для создания и управления многоэтапными процессами на платформе Workers. Раньше инструмент был доступен только для TypeScript.

Новшество открывает сервис для сообщества Python-разработчиков, специализирующихся на AI/ML и обработке данных. В качестве примеров использования компания приводит оркестрацию конвейеров данных, обучение ML-моделей и создание сложных ИИ-агентов, архитектура которых упрощается за счет встроенной обработке ошибок и сохранению состояния. Технически часть реализована через Pyodide — порт CPython в WebAssembly.
blog.cloudflare.com

✔️ OpenAI тратит на Sora около 15 млн. долларов в день.

По оценкам аналитиков, затраты на видеогенератор Sora обходятся OpenAI в $15 млн. в день, что в годовом выражении превышает $5 млрд. Расчеты основаны на стоимости генерации одного 10-секундного ролика, которая составляет для компании около $1.3, и предполагаемом объеме в 11 млн. видео ежедневно. Несмотря на убыточность, OpenAI, вероятно, следует классической стратегии захвата рынка, стремясь сначала сформировать аудиторию, а уже потом искать пути монетизации. Бесплатный доступ также насыщает компанию огромным количеством данных для дальнейшего обучения моделей.

Впрочем, Сэм Альтман уже подтвердил, что компания планирует сокращать объемы бесплатной генерации. По его словам, ни одна рекламная модель не сможет покрыть расходы на создание «забавных мемов для трех друзей».
forbes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6719🔥11🥰1💘1
⚡️Кто умнее – GigaChat или Нейроэксперт? В России запускают рейтинг корпоративных ИИ-моделей

Первый открытый продуктовый бенчмарк для комплексной оценки решений с применением ИИ в реальных бизнес-задачах – RRNCB (Russian RAG Normative-Corporate Benchmark) – запустили в России. Разработала его компания «Аватар Машина» при поддержке Ассоциации лабораторий искусственного интеллекта (АЛРИИ).

Практическую пользу RRNCB сложно переоценить: сегодня на рынке много ИИ-продуктов, но сравнить их между собой объективно почти невозможно, потому что существующие тесты проверяют только LLM или отдельные элементы пайплайна. RRNCB решает эту проблему – оценивает готовые решения на реальных корпоративных задачах (ГОСТы, договоры, регламенты) и формирует прозрачный рейтинг RAG-продуктов для бизнеса.

Принцип работы прозрачный и понятный: бенчмарк тестирует полный RAG-процесс — от извлечения данных до генерации итогового ответа. Оценка проводится с участием независимых экспертов и зарубежных LLM(LLM-as-a-Judge - LLM как судья), что обеспечивает максимальную объективность. В итоге компании получают подтверждение качества, инструмент для маркетинга и возможность попасть в первый независимый рейтинг российских RAG-решений.

К участию в бенчмарке приглашают все российские компании, разрабатывающие и продающие собственные ИИ-продукты бизнесу. И для бизнеса, и для производителей ИИ-решений этот бенчмарк – настоящая находка, потому что одним он даст понимание о качестве продукта, а другим – инструмент для продаж и объективное подтверждение характеристик своих моделей.

Заявки принимают до 21 ноября, с 22 ноября по 10 декабря будет проходить тестирование, а 12 декабря появится первый в России рейтинг. Подробности, методология и форма участия — на сайте RRNCB. https://fractalagents.ai/rrncb-rag-benchmark

@ai_machinelearning_big_data

#news #ai #ml
🤣54👍2712🤨4🗿4😁3🙊3🥰2
🧐🎁😌👹😋😡🙊😍🤷‍♂️👹

⚡️Создание production-ready AI-агента.

AI-агенты перестали быть экспериментом — они становятся основой продуктовых решений. Вопрос лишь в том, умеете ли вы создавать своих?

С 20 ноября будет Yandex AI Studio Series — серия практических вебинаров для тех, кто хочет пройти путь от идеи до production-ready AI-агента за 7 дней.

Что будет на интенсиве:
✔️ 4 онлайн-трансляции с сессией вопросов и ответов.
✔️ Предзаписанный воркшоп для самостоятельной практики.
✔️ Квиз и приятные сюрпризы.
✔️ Нетворкинг в продуктовом комьюнити.
✔️ Офлайн-встреча в офисе Яндекса в Москве.

Все решения будем деплоить на базе Yandex AI Studio — платформы от Яндекса для разработки AI-агентов.

Участие в мероприятии бесплатное.

Если вы AI/ML-инженер или разработчик и хотите углубиться в инженеринг агентов и мультиагентных систем — присоединяйтесь. Регистрация уже идет и доступна по ссылке.

@ai_machinelearning_big_data

#ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2714😁6🤣6🗿5🥰3🥱3🦄3😐1
⚡️ ChatGPT-5.1

OpenAI выпустила GPT-5.1, сделав основной упор на интеллект и качество диалога.

🟢GPT-5.1 Instant - модель с функцией адаптивного мышления. Она способна самостоятельно «задумываться» над сложными задачами, что позволило выбивать более высокие баллы по математическим задачам AIME 2025 и задачам по программированию Codeforces. Модель стала лучше следовать инструкциям и получила более «теплый» стиль общения по умолчанию.

🟢GPT-5.1 Thinking тоже была улучшена: она быстрее справляется с простыми запросами и выдает более четкие ответы с меньшим количеством жаргона.

Вместе с моделями OpenAI расширила возможности кастомизации тона ответов, добавив новые стили: «Профессиональный», «Откровенный» и «Необычный».

Обновление уже раскатывают на платных подписчиков, а доступ через API появится в ближайшие дни. Предыдущие версии GPT-5 останутся доступны в течение трех месяцев.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5327🔥12🤣6🕊2
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft представила Visual Studio 2026.

По словам Microsoft - это первая в мире «интеллектуальная IDE», она запускается быстрее и на 50% реже зависает, а ее ИИ-инструменты, включая новых агентов для C# и C++, теперь помогают не только в написании кода, но и в отладке, профилировании и модернизации приложений. Новая версия получила полную совместимость с проектами и расширениями от VS 2022.

Кроме того, среда разработки была отделена от инструментов сборки, так что теперь можно обновлять саму IDE, не затрагивая компиляторы .NET и C++. Visual Studio 2026 уже доступна для подписчиков, а автономная лицензия поступит в продажу с 1 декабря 2025 года. Полный список изменений - в Release Notes.
devblogs.microsoft.com

✔️ Google объединит мощь Gemini с приватностью локальных вычислений.

Google анонсировала новую платформу Private AI Compute, которая позволяет использовать Gemini в облаке, обеспечивая при этом уровень приватности, сопоставимый с обработкой на устройстве. В основе лежит изолированное защищенное окружение на базе собственного технологического стека Google, а данные обрабатываются в специальном зашифрованном пространстве, доступ к которому имеет только пользователь.

Google обещает, что даже сотрудники компании не смогут получить доступ к информации. Первыми возможностями на базе этой платформы станет учучшатель промптов Magic Cue на Pixel 10 и обобщение транскрипций в приложении Recorder.
blog.google

✔️ LAION запустили Project AELLA для ИИ-структуризации научных статей.

LAION, совместно с Inference.net и Wyndlabs AI, представили открытую инициативу Project AELLA для демократизации доступа к научным знаниям. В рамках проекта было обработано около 100 млн. академических публикаций, для которых с помощью LLM создаются структурированные аннотации.

Проект должен значительно ускорить поиск информации, улучшить машинный анализ и повысить доступность научного контента. Специально для этой задачи были дообучены 2 языковые модели. По заявлению LAION, в целевых тестах они показывают производительность, сравнимую с GPT-5 и Claude 4.5.

На старте проект предлагает датасет из 100 тыс. готовых аннотаций, дообученные модели и 3D-визуализатор для навигации по научным областям. Все материалы открыты для исследователей и разработчиков.
laion.ai

✔️ Стартап Olares анонсировал персональное ИИ-облако с RTX 5090 Mobile.

Стартап Olares показал свой дебютный продукт - Olares One. Это персональное ИИ-облако, спроектированное для локального запуска моделей. Устройство выполнено в формате компактного десктопа, оснащено видеокартой NVIDIA GeForce RTX 5090 Mobile с 24 ГБ памяти GDDR7, процессором Intel Core Ultra 9 275HX и 96 ГБ оперативной памяти.

Работать Olares One будет под управлением собственной открытой Olares OS. Предзаказы стартуют на Kickstarter в декабре, а полноценная презентация состоится на выставке CES в январе 2026 года. Проект уже привлек $45 млн. инвестиций.
techpowerup.com

✔️ Создан протокол шифрованной самопроверки на уровне чипа для квантового компьютера.

Международная команда исследователей успешно протестировала криптографически защищенный протокол верификации, который позволяет квантовому компьютеру самостоятельно проверять корректность собственных результатов. Технология была развернута на квантовом процессоре H1-1 от Quantinuum и показала свою эффективность на задаче с 52 кубитами.

Идея заключается в интеграции проверочных тестов непосредственно в процесс вычислений на одном чипе. Протокол случайным образом чередует вычислительные раунды с тестовыми ловушками. Анализируя результаты тестов, система статистически определяет, можно ли доверять итоговому результату вычислений.
phys.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3221🔥10🥰2👌1