Media is too big
VIEW IN TELEGRAM
Qwen3-VL-32B превосходи GPT-5 mini и Claude 4 Sonnet* в задачах STEM, визуальных вопросах (VQA), OCR, анализе видео и агентных сценариях.
При этом у модели всего 32 млрд параметров и она сопоставима, а на некоторых бенчмарках даже превосходит модели на 235 млрд параметров (лучше всего показывает себя на *OSWorld*).
Попробовать / HF
Значительно прокачали возможности студии по генерации кода. Сгенерированный проекты можно просматривать или дорабатывать прямо в браузере и деплоить. Также добавили прикольный режим «I’m Feeling Lucky», который генерирует случайную идею для вайбкодинга.
aistudio
На первый взгляд DeepSeek-OCR кажется просто моделью для распознавания текста. Но на деле - это совершенно новый способ того, как ИИ может хранить и обрабатывать информацию.
Обычно модели работают с текстовыми токенами - каждый кусочек слова превращается в отдельный токен, и при длинных документах их число растёт квадратично, делая работу медленной и дорогой. DeepSeek решает эту проблему иначе: она превращает длинный текст в изображение, кодирует его в набор компактных визуальных токенов и затем восстанавливает текст обратно.
Эксперименты показали: даже при 9–10-кратном сжатии точность OCR остаётся около 97%, а при 20-кратном - около 60%. Это доказывает, что плотные визуальные представления способны нести ту же информацию куда эффективнее, чем обычные текстовые токены.
Ключевая инновация DeepSeek- новый энкодер DeepEncoder, который умеет обрабатывать страницы высокого разрешения без переполнения памяти. Он делает это в три шага: сначала применяет локальное внимание для мелких деталей, затем 16× свёрточное сжатие, а потом глобальное внимание для понимания всей структуры документа. Такая последовательная архитектура сохраняет точность, но радикально снижает число токенов и объём активаций.
Авторы также предлагают механизм «забывания»: старый контекст можно постепенно уменьшать в разрешении, чтобы свежая информация оставалась чёткой, а старая занимала меньше места. DeepSeek - как всегда умницы.
DeepSeek-OCR
США входят в фазу "
jobless growth"- производительность растёт благодаря ИИ, но найм почти остановился. Goldman отмечает: компании делают больше с теми же людьми, а реальный рост занятости вне здравоохранения стал отрицательным. Джером Пауэлл описал рынок как “очень мало найма, мало увольнений”, а выпускники всё чаще не могут найти первую работу.
По данным Challenger, планы по найму - на минимуме с 2009 года. Рост есть, рабочих мест - всё меньше.
futurism
Anthropic объявила о публичном релизе Claude Desktop - приложения для Mac и Windows.
На Mac теперь можно делать скриншоты, кликать по окнам, чтобы поделиться контекстом с Claude, и управлять агентом голосом.
Скачать для Mac и Windows
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍83❤40🔥15🤗10👏5🥰2🤔2🦄2🎉1
Media is too big
VIEW IN TELEGRAM
Anthropic ведёт переговоры с Google о крупнейшем облачном контракте - на десятки миллиардов долларов. Речь идёт о долгосрочном соглашении, которое обеспечит Anthropic доступом к кастомным TPU - специализированным чипам Google для обучения и работы крупных моделей.
Google уже вложил в Anthropic $3 млрд ($2 млрд в 2023 и ещё $1 млрд в 2025).
Подобные соглашения обычно включают не только вычислительные мощности, но и сетевые и хранилищные ресурсы на несколько лет вперёд.
Anthropic ожидает мощный рост выручки - более чем в два-три раза, до $9 млрд годового run rate. Это результат стремительного роста корпоративных продуктов компании.
Переговоры находятся на ранней стадии, и условия сделки ещё могут измениться.
reuters
Вместо традиционного SPMD-подхода, где каждый узел работает независимо, Monarch позволяет управлять тысячами GPU из одного скрипта, как будто они находятся на одной машине.
Он организует процессы и акторы в многомерные «сетки» (meshes), поддерживает привычные Python-конструкции, включая обработку исключений для отказоустойчивости, и разделяет управляющий и данные-планы - данные передаются напрямую между GPU через RDMA.
Распределённые тензоры выглядят и используются как локальные, а сложные сценарии вроде обучения с подкреплением или отказоустойчивого предобучения реализуются проще и понятнее.
Monarch уже интегрирован с VERL, TorchForge и Lightning AI, и позволяет запускать, отлаживать и масштабировать задачи прямо из Jupyter Notebook. pytorch
Появились сообщения, что Amazon Web Services уволила около 40 % своей DevOps-команды и частично заменила их ИИ-системой, способной автоматически находить и устранять ошибки в инфраструктуре. Внутреннее письмо, опубликованное на вики компании и быстро удалённое, связывало сокращения со «стратегическими инициативами по автоматизации». Инцидент произошёл незадолго до крупного сбоя AWS, который затронул Snapchat, Roblox и другие платформы.
Сообщается, что новая система может самостоятельно исправлять сбои IAM, восстанавливать виртуальные сети и откатывать неудачные развертывания Lambda без участия человека. Однако никаких официальных подтверждений от Amazon не поступало.
80.lv
Демонстрирует хорошие результаты: 51.8% на MM-IFEval (точное следование инструкциям) и 71.4% на RealWorldQA (понимание реального мира). LFM2-VL-3B отлично работает как с одним, так и с несколькими изображениями, а также точно распознаёт английский текст на изображениях (OCR).
При этом модель показывает очень низкий уровень галлюцинаций на бенчмарке POPE.
HF
Согласно опросу 28 миллионов человек в США, доля тех, кто продолжает пользоваться сервисом спустя месяц, выросла с менее 60% два года назад до 90% сегодня.
Проще говоря - 9 из 10 пользователей остаются с ChatGPT уже через месяц. Это лучший результат в истории массовых цифровых продуктов: даже YouTube, считавшийся эталоном, показывает месячную удерживаемость около 85%.
Ещё впечатляюще: через полгода с сервисом остаётся около 80% пользователей - и эта цифра продолжает расти, формируя так называемую «улыбающуюся» кривую удержания.
Для продуктовых команд - это мечта. Для всей индустрии - ясный сигнал: перед нами продукт нового поколения.
X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍136👏31❤28🤩20🔥9🤔5🎉5👌2🤗2
🦾Китай сейчас роботизирует свои заводы значительно быстрее, чем любая другая страна в мире.
В 2024 году китайцы использовали около 300 тысяч новых промышленных роботов - это больше, чем во всём остальном мире вместе взятом.
Сегодня у них в цехах уже трудятся свыше двух миллионов роботов, работающих без перерывов днём и ночью.
Для сравнения: США в прошлом году добавили всего 34 тысячи, Япония - 44 тысячи, и по общему количеству роботов Китай опережает Америку в пять раз.
Этот рывок стал возможен благодаря долгосрочной государственной политике, напоминающей ту, что привела Китай к лидерству в электромобилях и ИИ: дешёвые кредиты, целевые субсидии и чёткие планы по автоматизации.
На заводах роботы уже давно не экзотика: они сварят, собирают, перемещают детали, а ИИ на фоне анализирует данные с оборудования, предсказывает износ и сокращает простои.
Особенно заметен разрыв в таких отраслях, как автомобилестроение и электроника, где каждая секунда на конвейере имеет значение.
При этом Китай быстро наращивает собственное производство: уже 60% устанавливаемых роботов теперь делают внутри страны.
Правда, самые точные датчики, приводы и чипы всё ещё ввозят из Германии и Японии.
А вот человекоподобные роботы, хоть и не учитываются в этих цифрах, тоже набирают обороты - базовые модели китайских стартапов стоят уже около $6 000.
Главное узкое место - нехватка специалистов по настройке и обслуживанию.
Но и тут Китай использует своё преимущество: огромный пул электриков и программистов ПЛК, а зарплаты инженеров-робототехников уже достигли $60 000 в год, что привлекает всё больше талантов.
Всё это создаёт мощный эффект: сочетание государственной поддержки, умных цепочек поставок и подхода, где программное обеспечение стоит во главе угла. В ближайшие годы это, скорее всего, будет означать более низкую себестоимость и более быстрые сроки поставок с китайских фабрик - по сравнению со многими конкурентами.
@ai_machinelearning_big_data
#ai #robots #ml
В 2024 году китайцы использовали около 300 тысяч новых промышленных роботов - это больше, чем во всём остальном мире вместе взятом.
Сегодня у них в цехах уже трудятся свыше двух миллионов роботов, работающих без перерывов днём и ночью.
Для сравнения: США в прошлом году добавили всего 34 тысячи, Япония - 44 тысячи, и по общему количеству роботов Китай опережает Америку в пять раз.
Этот рывок стал возможен благодаря долгосрочной государственной политике, напоминающей ту, что привела Китай к лидерству в электромобилях и ИИ: дешёвые кредиты, целевые субсидии и чёткие планы по автоматизации.
На заводах роботы уже давно не экзотика: они сварят, собирают, перемещают детали, а ИИ на фоне анализирует данные с оборудования, предсказывает износ и сокращает простои.
Особенно заметен разрыв в таких отраслях, как автомобилестроение и электроника, где каждая секунда на конвейере имеет значение.
При этом Китай быстро наращивает собственное производство: уже 60% устанавливаемых роботов теперь делают внутри страны.
Правда, самые точные датчики, приводы и чипы всё ещё ввозят из Германии и Японии.
А вот человекоподобные роботы, хоть и не учитываются в этих цифрах, тоже набирают обороты - базовые модели китайских стартапов стоят уже около $6 000.
Главное узкое место - нехватка специалистов по настройке и обслуживанию.
Но и тут Китай использует своё преимущество: огромный пул электриков и программистов ПЛК, а зарплаты инженеров-робототехников уже достигли $60 000 в год, что привлекает всё больше талантов.
Всё это создаёт мощный эффект: сочетание государственной поддержки, умных цепочек поставок и подхода, где программное обеспечение стоит во главе угла. В ближайшие годы это, скорее всего, будет означать более низкую себестоимость и более быстрые сроки поставок с китайских фабрик - по сравнению со многими конкурентами.
@ai_machinelearning_big_data
#ai #robots #ml
👍157🤩106👏31❤22🔥22💯11🤣6🎉4🤗2🤔1🤬1
OpenAI объявила о приобретении компании Software Applications Incorporated, разработавшей Sky - интеллектуальный интерфейс для macOS, который работает поверх интерфейсов всех приложений.
Sky понимает контекст того, что происходит на экране, и может выполнять действия в реальных программах: писать тексты, планировать задачи, помогает писать код или управлять рабочим днём, всё через естественный язык.
Цель - превратить ИИ из инструмента для ответов в помощника, который действительно помогает «доводить дела до конца». Как сказал Ник Тёрли, руководитель ChatGPT:
«Мы строим будущее, где ChatGPT не просто отвечает, а помогает вам добиваться результатов».
Этот шаг знаменует переход к новому поколению ИИ-интерфейсов - глубоко встроенных в операционную систему, осознающих контекст и способных взаимодействовать с привычными приложениями.
OpenAi
Развед службы Китая и России всё чаще используют долгосрочные романтические связи и браки, чтобы получить доступ к секретам инженеров, учёных и топ-менеджеров. Такие операции длятся годами: агент встраивается в жизнь цели, получает доверие - и вместе с ним - легальный доступ к закрытым данным, минуя все технические защиты.
В числе тактик- знакомства в LinkedIn, «случайные» встречи на конференциях и участие в стартап-питчах, где собирают не только идеи, но и персональные данные. В одном из известных случаев агентка вышла замуж за инженера аэрокосмической отрасли, а затем появилась в кругах, связанных с оборонкой США.
Особую тревогу в долине вызывает тихое проникновение китайских инвесторов в американские стартапы, получающие госфинансирование. Как только доля иностранного капитала превышает определенный лимит, Минобороны США теряет право их финансировать, но к тому моменту технологии уже могут быть скопированы или переданы.
По оценкам, ежегодные потери от кражи подобных секретов оценивают в $600 млрд. При этом в 2023-2024 годах 6 из 25 стартапов, получивших $180 млн по госпрограмме малого бизнеса, имели связи с Китаем, несмотря на риски.
Times
При генерации она задействует около 50 млрд параметров на токен и уже достигла уровня IMO 2025 Silver, что демонстрирует высокий уровень рассуждений.
Главное достижение - Ring-1T умеет думать «долго» без потери устойчивости. Команда решила ключевые проблемы масштабного обучения: различие между тренировкой и инференсом, перерасход вычислений и зависание RL-моделей. Для этого они внедрили три ключевые технологии: IcePop стабилизирует градиенты, C3PO++ оптимизирует длинные рассуждения и поддерживает загрузку GPU, а ASystem обеспечивает быструю синхронизацию и эффективное управление памятью.
Результаты впечатляют - 55.94 балла на ARC AGI 1 и 2088 на CodeForces. Работа показывает, что долгое рассуждение и обучение на триллионном масштабе теперь реально и стабильно.
arxiv
Вместо того чтобы сравнивать каждый токен со всеми, Adamas выбирает только 128 наиболее релевантных для каждого запроса. Это снижает вычислительную нагрузку, но почти не влияет на точность.
Технология использует преобразование Адамара для сглаживания значений, кодирует ключи и запросы в 2-битные представления и быстро вычисляет их сходство с помощью Manhattan-метрики. Модель затем применяет обычное внимание только к нужным токенам.
Метод не требует переобучения, добавляет лишь минимальные данные в память и ускоряет работу LLM в среднем на 1.5×, сохраняя качество на уровне плотного внимания.
Подробнее
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤68👍38🤗14🥱7🔥3
🦉 LightOnOCR-1B: новая быстрая OCR-модель от LightOn
Модель дистиллирована из Qwen2-VL-72B-Instruct и обучена на корпусе из 17.6 млн страниц / 45.5 млрд токенов.
🔥 Главное:**
-1 B параметров
- позволяет обрабатывать 5.7 страниц/с на одном H100 (это примерно ≈ 493 000 страниц за день)
- Распознаёт таблицы, формы, уравнения и сложные макеты
- 6.5× быстрее dots.ocr, 1.7× быстрее DeepSeekOCR
- Расходы < $0.01 за 1000 страниц A4
📊 Качество (Olmo-Bench):
- Превосходит DeepSeekOCR
- Сопоставима с dots.ocr (при этом модель в 3 раза меньше по весу)
- +16 пт к Qwen3-VL-2B-Instruct
Эта моделька - отличный баланс качества, скорости и стоимости.
🟢 Модель 1B: https://huggingface.co/lightonai/LightOnOCR-1B-1025
🟢 Модель 0.9B (32k): https://huggingface.co/lightonai/LightOnOCR-0.9B-32k-1025)
🟢 Блог LightOn: https://huggingface.co/blog/lightonai/lightonocr
🟢 Демка: https://huggingface.co/spaces/lightonai/LightOnOCR-1B-Demo
@ai_machinelearning_big_data
#ocr #ml
Модель дистиллирована из Qwen2-VL-72B-Instruct и обучена на корпусе из 17.6 млн страниц / 45.5 млрд токенов.
🔥 Главное:**
-1 B параметров
- позволяет обрабатывать 5.7 страниц/с на одном H100 (это примерно ≈ 493 000 страниц за день)
- Распознаёт таблицы, формы, уравнения и сложные макеты
- 6.5× быстрее dots.ocr, 1.7× быстрее DeepSeekOCR
- Расходы < $0.01 за 1000 страниц A4
📊 Качество (Olmo-Bench):
- Превосходит DeepSeekOCR
- Сопоставима с dots.ocr (при этом модель в 3 раза меньше по весу)
- +16 пт к Qwen3-VL-2B-Instruct
Эта моделька - отличный баланс качества, скорости и стоимости.
@ai_machinelearning_big_data
#ocr #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤61👍28🔥19🤗1
Media is too big
VIEW IN TELEGRAM
Всего через два дня после новости от Google - ещё один крупный квантовый прорыв.
IBM заявила, что один из её ключевых алгоритмов квантовой коррекции ошибок теперь способен работать в реальном времени на FPGA-чипах AMD, без использования экзотического оборудования.
Это делает квантовые вычисления быстрее, дешевле и ближе к практическому применению, чем ожидалось.
Алгоритм, который отслеживает и исправляет ошибки кубитов «на лету»,показал производительность в 10 раз выше необходимой, что стало важным шагом к созданию квантового компьютера Starling, запланированного на 2029 год.
Теперь IBM утверждает, что проект идёт на год впереди графика.
Исследовательская статья выйдет в понедельник.
Темп развития квантовых технологий заметно ускоряется.
reuters
Через два дня после запуска OpenAI Atlas Microsoft представили обновлённый браузер Edge с новым режимом Copilot Mode. Это полноценный AI-бразуер, который понимает контекст вкладок, выполняет действия и способен продолжать проекты, используя историю пользователя.
Функция Actions позволяет голосом или через чат открывать страницы, находить нужную информацию, отписываться от рассылок и даже бронировать рестораны. Система Journeys группирует прошлую активность по темам и помогает вернуться к незавершённым задачам, предлагая логичные следующие шаги. Включение Page Context даёт Copilot доступ к истории для более точных и персонализированных ответов, однако это остаётся опциональной функцией, которую можно отключить в любой момент.
Edge также получил встроенный AI-защитник от фейковых всплывающих окон, менеджер паролей с проверкой на утечки.
Браузер уже доступен в странах, где работает Copilot, на Windows и macOS.
Microsoft
Google представила фреймворк Geospatial Reasoning на базе Gemini, который объединяет предиктивные модели и данные в единую систему анализа Земли.
Теперь ИИ способен рассуждать о реальных процессах, например, предсказывать землетрясения, оценивать риски и предлагать план эвакуации.
Система уже применяется в ВОЗ (WHO AFRO) для прогнозов вспышек холеры и у McGill & Partners для расчёта ущерба после ураганов.
Google превращает Google Earth из карты в разумный аналитический инструмент планеты.
Мета-обучатель наблюдал за множеством агентов в разных средах и вывел универсальное правило обновления, которое улучшает поведение моделей без ручной настройки.
В итоге DiscoRL победил лучшие алгоритмы на Atari 57 и успешно перенёс этот навык на новые задачи.
nature
Hugging Face открыла OpenEnv -платформуа где можно собирать, обучать и масштабировать агентов под ваши задачи.
Внутри уже есть всё: инструменты, плагины, API и поддержка обучения с подкреплением - без сторонних библиотек.
OpenEnv позволяет создавать системы, где агенты взаимодействуют, распределяют задачи и выполняют их самостоятельно.
Платформа полностью открыта и готова к использованию без ограничений.
HF
На криптобенчмарке AlphaArena модели ИИ торгуют по $10 000 на площадке Hyperliquid, чтобы проверить качество торговых стратегий.
После старта, где лидировала DeepSeek V3.1, а GPT-5 показывала убыток около −39 %, Qwen3-Max обошла всех и заняла первое место.
Все участники - Qwen3-Max, DeepSeek V3.1, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4 и GPT-5 — торгуют в одинаковых условиях без приватных данных, что делает тест прозрачным.
На Polymarket оценивают шансы Qwen3-Max удержать лидерство в 45 %.
Организаторы планируют расширить эксперимент на акции и другие активы и запустить инвестплатформу для AI-агентов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤81👍63🔥17🌚5👀3🤗3
• Содержание: Курс включает 9 лекций, дополненных видео, подробными презентациями и примерами кода. Цикла - обучение разработке ИИ-агентов доступен написан понятно, даже для новичков в программирование.
• Темы: В лекциях рассматриваются такие темы, такие как RAG (Retrieval-Augmented Generation), эмбеддинги, агенты и протокол MCP.
Культовый трек CS 249 превратили в интерактивный учебник - и это, пожалуй, один из лучших стартов для инженеров, которые хотят делать реальные ML-системы, а не просто играться с моделями.
• Вся база по ML: объясняют фундамент с нуля, нужно только знание Python
• Проектирование систем и инженерия данных
• Подготовка датасетов, MLOps и мониторинг
• Развёртывание ИИ в IoT и продакшене
Это практический курс: не о формулах, а о том, как внедрять ML так, чтобы он приносил бизнесу прибыль.
Если хочешь понять, как модели живут в проде - идеальный вариант для старта.
NVIDIA показала, как собрать AI-агента, который понимает твои запросы на естественном языке и сам выполняет команды Bash.
В основе модель Nemotron Nano 9B v2: компактная, быстрая, идеально подходит для локального эксперимента.
Агент умеет:
- распознавать команды на естественном языке («создай папку», «покажи файлы»),
- превращать эти команды в рабочие Bash-срипты
- спрашивать подтверждение перед выполнением.
Весь код занимает ~200 строк Python, работает через FastAPI и LangGraph.
Можно расширить под DevOps, Git-операции, анализ логов или управление сервером.
Полностью бесплатно и максимально практично.
Что внутри:
• Python, Pandas, визуализация
• Основы машинного обучения и фичеринжиниринг
• Подготовка данных и работа с моделями
Практика без лишней теории учишься и сразу применяешь.
Вы узнаете, как масштабировать базы данных через шардинг - разбиение данных по серверам для роста производительности и отказоустойчивости.
Главное:
• Шардинг нужен, когда одна база больше не справляется с нагрузкой.
• Есть два популярных подхода — по диапазону (range) и по хешу (hash).
• Важно выбрать стабильный ключ (например, user_id) и избегать кросс-шардовых запросов.
• Прокси-слой немного увеличивает задержку, но даёт масштабируемость.
Отличный материал, если хочешь понять, как строят системы уровня YouTube. А здесь много базы по SQL
Читать
Список из 60 проектов на GitHub с открытым кодом по генеративному ИИ 0от текстовых моделей до аудио и видео.
Каждый проект - с описанием и ссылкой на репозиторий. Можно выбрать идею, запустить локально и собрать своё AI-портфолио.
👉 Еще больше полезного.
@ai_machinelearning_big_data
#AI #MachineLearning #DataScience #ML #ИИ #freecourses
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍98❤44🔥18🗿4💋1
Media is too big
VIEW IN TELEGRAM
Википедия стремительно теряет аудиторию, но получает всё больше автоматических обращений со стороны ИИ-систем, которые берут оттуда данные напрямую, не отправляя пользователей на страницы.
Wikipedia становится не столько источником контента, сколько платформой для проверки фактов. Уже сегодня она применяет собственные ИИ-инструменты, которые автоматически отслеживают подозрительные правки, например, попытки вставить ложную информацию, оскорбления или спам. Система не публикует изменения сама, но помогает редакторам быстрее их находить и проверять.
Поскольку проект не может продавать данные напрямую, как Reddit, Wikipedia запустила платные подписки на мгновенный доступ к обновлениям, и среди клиентов уже есть Google.
Ежегодное содержание платформы обходится примерно в 178 миллионов долларов, большая часть которых уходит на серверы и инфраструктуру.
ft
Робот стоит всего 9 988 юаней (~1 402 доллара США), его рост - 94 см, вес - 12 кг.
Робот снабжён 21 степенью свободы, способен ходить на двух ногах и выполнять гибкие танцевальные движения. Он построен из лёгких композитных материалов, поднимает голосовые команды взаимодействие, а так же у него есть своя среда разработки, для которой можно писать код .
scmp
Модель сочетает несколько технологий: аудиокодер AF-Whisper, адаптер, языковую модель Qwen 2.5 7B и модуль генерации речи. Такой стек позволяет ей работать с длинными звуковыми записями (до 10 минут), распознавать речь, понимать контекст и вести многотуровые голосовые диалоги.
Audio Flamingo 3 обучена на множестве аудио-датасетов и уже показывает высокие результаты на 20 бенчмарках по звуковому пониманию и рассуждению.
Модель распространяется для исследовательских целей и интегрирована в экосистему NVIDIA с поддержкой PyTorch и Hugging Face Transformers.
HF
Вместо вариационного автоэнкодера модель использует самообучающиеся представления, которые позволяют модели работать быстрее и точнее.
Результат впечатляющий: обучение идёт в 62 раза быстрее, а инференс - в 35 раз. При этом качество изображений не только не падает, но и становится лучше. Отказ от VAE устранил искажения при переходе в латентное пространство и повысил стабильность при генерации картинок высокого разрешения.
SVG можно рассматривать как новую архитектуру для диффузионных моделей, более простую, быструю и энергоэффективную альтернативу привычным решениям с VAE.
Hf
Сильнее всего пострадали Oklo (минус 30%) и Vistra (минус 12%). Поводом стали осторожные сигналы с рынка: исследования показали, что некоторые модели ИИ могут работать с меньшими вычислительными затратами, GE Vernova намекнула на охлаждение инвестиций, а инвесторы вновь обратили внимание на отсутствие выручки у Oklo.
После бурного роста в начале октября: Oklo выросла почти в восемь раз, Constellation прибавила более 80% - сектор оказался слишком чувствительным к любым сомнениям в темпах спроса.
При этом фон не полностью негативный: власти США ускоряют подключение дата-центров к электросетям, а Oracle готовится к масштабному размещению облигаций для займов на строительства новых центров обработки данных.
bloomberg
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤61👍23🥰3😁3🔥2💔1🤝1🤗1🦄1
В России растет тренд на использование нейросетей в облачной инфраструктуре
Компании перестали опасаться ИИ в облаках и всё чаще используют их в своих корпоративных процессах. Облачные платформы предлагают готовые инструменты для адаптации моделей под задачи компании, для создания ИИ-ассистентов и агентских систем, они также предлагают более выгодную и прогнозируемую экономику внедрения.
При этом опенсорс-модель от AliBaba уже на втором месте по потреблению после YandexGPT.
@ai_machinelearning_big_data
#AI #ML #GenerativeAI
Компании перестали опасаться ИИ в облаках и всё чаще используют их в своих корпоративных процессах. Облачные платформы предлагают готовые инструменты для адаптации моделей под задачи компании, для создания ИИ-ассистентов и агентских систем, они также предлагают более выгодную и прогнозируемую экономику внедрения.
Пример: в Yandex AI Studio с начала 2025 года спрос на генеративные модели вырос в 5 раз, каждый месяц на платформе потребляют десятки миллиардов токенов. На ней активно используются как собственные модели YandexGPT, так и опенсорсные решения вроде Qwen3-235b, применяемые для агентских сценариев и генерации кода.
При этом опенсорс-модель от AliBaba уже на втором месте по потреблению после YandexGPT.
@ai_machinelearning_big_data
#AI #ML #GenerativeAI
👍36🤣22❤9🤬4🔥3🥰2😁2🌚2🌭2🤝1🦄1
🖥 Технологическая платформа Авито открыла доступ к своим нейросетям — A-Vibe и A-Vision
Они дообучены на миллионах данных e-commerce, и предназначены для решения задач рынка. ИИ от Авито называют первыми российскими моделями с глубокой оптимизацией под электронную коммерцию и русский язык. A-Vibe занимает лидирующие позиции в различных популярных рейтингах не только по пониманию русского, но и по работе с кодом, решению сложных задач. Компания вложила в разработку моделей более полумиллиарда рублей.
Вместе с этими инструментами команда Авито выпустила переведенные на русский версии известных тестов для замера качества моделей. Ранее они были доступны только на английском.
Эксперты отмечают, что у отечественных компаний до сих пор не было открытых моделей, обученных специально на русском языке и под локальные сценарии электронной коммерции. Авито, по их мнению, — один из немногих игроков, который располагает достаточными объемами данных и вычислительными ресурсами, чтобы предложить рынку уже обученные и протестированные решения. Это снизит порог входа для стартапов и корпоративных разработчиков, которые смогут создавать продукты на базе готовых моделей, а не тратить ресурсы на адаптацию западных или азиатских систем.
Моделями можно воспользоваться бесплатно в любых целях — все данные и документация находятся на Hugging Face.
@ai_machinelearning_big_data
#news #ai #ml
Они дообучены на миллионах данных e-commerce, и предназначены для решения задач рынка. ИИ от Авито называют первыми российскими моделями с глубокой оптимизацией под электронную коммерцию и русский язык. A-Vibe занимает лидирующие позиции в различных популярных рейтингах не только по пониманию русского, но и по работе с кодом, решению сложных задач. Компания вложила в разработку моделей более полумиллиарда рублей.
Вместе с этими инструментами команда Авито выпустила переведенные на русский версии известных тестов для замера качества моделей. Ранее они были доступны только на английском.
Эксперты отмечают, что у отечественных компаний до сих пор не было открытых моделей, обученных специально на русском языке и под локальные сценарии электронной коммерции. Авито, по их мнению, — один из немногих игроков, который располагает достаточными объемами данных и вычислительными ресурсами, чтобы предложить рынку уже обученные и протестированные решения. Это снизит порог входа для стартапов и корпоративных разработчиков, которые смогут создавать продукты на базе готовых моделей, а не тратить ресурсы на адаптацию западных или азиатских систем.
Моделями можно воспользоваться бесплатно в любых целях — все данные и документация находятся на Hugging Face.
@ai_machinelearning_big_data
#news #ai #ml
👍54❤15😁7🥰4👾3🔥2
Исследователи из Thinking Machines Lab предложили метод, который может изменить то, как обучаются языковые модели. Он называется on-policy distillation - и учит ИИ не просто копировать, а думать и анализировать свои ошибки.
Обычно «дистилляция» работает просто: большая модель-учитель показывает ответы, а маленькая модель-ученик запоминает их. Это похоже на заучивание по шпаргалке - быстро, но без понимания сути.
В новом подходе всё иначе. Ученик сам решает задачи, а учитель оценивает и направляет - объясняет, где логика сбоит и как улучшить рассуждение. Таким образом, меньшая модель перенимает не только знания, но и способ мышления более крупной модели.
Что показали результаты
Эксперименты проводились на задачах математического и логического рассуждения, где важно не просто выдать правильный ответ, а выстроить цепочку шагов.
Результаты впечатляют:
Модель-ученик после обучения с on-policy distillation показала почти ту же точность, что и гораздо более крупная модель-учитель.
При этом вычислительные затраты снизились в несколько раз, делая модель заметно эффективнее и дешевле.
Кроме того, ученик стал лучше понимать собственные ошибки, что повысило устойчивость и надёжность при решении новых, незнакомых задач.
Почему это важно
On-policy distillation решает ключевую проблему традиционных методов - отсутствие адаптивности.
Модель теперь учится на собственных шагах, как человек, — экспериментирует, ошибается, корректирует поведение и растёт.
Уникальность подхода - в балансе между качеством RL и экономичностью KD. Это реальная схема, где маленькая модель учится “в поле” (реагируя на собственные действия), но без дорогих RL-запусков и сложных reward-моделей.
Это не новый метод обучения, а новая инженерная формула, которая позволяет дешевле «учить» компактные модели, ведущие себя как большие.
Это открывает путь к созданию компактных LLM нового поколения, которые рассуждают почти как топовые модели, но стоят в разы дешевле.
Такие модели можно запускать на edge-устройствах, в автономных агентах и локальных сервисах, где важны скорость, приватность и энергоэффективность.
@ai_machinelearning_big_data
#ThinkingMachines #llm #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97❤46👍19👏2😁2🤗2
Media is too big
VIEW IN TELEGRAM
В ноябре 2025 года спутник Starcloud-1 с GPU NVIDIA H100 отправится на орбиту на ракете Falcon 9. Это будет самый мощный графический процессор, когда-либо запущенный в космос — производительностью в 100 раз выше, чем у любых предыдущих чипов.
Стартап Starcloud строит первый в мире космический дата-центр на базе ИИ. Спутник будет питаться от солнечной панели площадью 4×4 км.
Проект обещает сократить выбросы CO₂ в 10 раз по сравнению с земными дата-центрами, открывая путь к «чистому» облаку за пределами Земли.
На борту запустят модель Gemma от Google -первый эксперимент по обучению и инференсу больших языковых моделей в космосе.
В будущем - GPU-спутники с архитектурой Blackwell и десятикратным приростом мощности.
По данным Bloomberg, TPU стали ключевым элементом облачной инфраструктуры компании, обеспечивая высокий спрос со стороны клиентов, обучающих крупные языковые модели.
Одним из крупнейших партнёров стала Anthropic, которая расширяет использование TPU для обучения моделей Claude. Новый контракт оценивается в десятки миллиардов долларов и предусматривает доступ к более чем миллиону TPU и мощности свыше 1 гигаватта начиная с 2026 года.
Рынок ИИ-чипов долгое время контролировала NVIDIA, но теперь Google превращает свои TPU из внутреннего инструмента в полноценный коммерческий продукт, предлагая сопоставимую производительность при более низкой стоимости. Это усиливает позиции Google Cloud в борьбе за инфраструктуру будущего и делает TPU реальной альтернативой доминированию NVIDIA.
bloomberg
Исследователи Alibaba представили метод CoRT (Code-Optimized Reasoning Training), который учит большие языковые модели использовать Python осознанно и эффективно. Модель теперь понимает, когда нужно вызвать код, чтобы вычислить результат, а когда можно просто довериться уже полученному ответу, избегая ненужных шагов.
Ключевая идея - Hint-Engineering: в процессе обучения в рассуждения модели вставляются подсказки вроде «Давай используем Python здесь» или «Проверка не требуется». Это помогает ИИ выстраивать оптимальный ход рассуждения и выбирать момент для вычислений.
Результаты впечатляют. Точность в задачах математического рассуждения выросла на 8 %, при этом использование токенов снизилось на 30–50 %. Даже модели с 1,5 миллиарда параметров теперь сопоставимы по качеству с системами, имеющими встроенную интеграцию инструментов. Более того, модель смогла самостоятельно обнаружить библиотеку RDKit и решить задачи по химии, которых не было в обучающих данных.
Метод CoRT делает шаг к новому поколению языковых моделей, которые не просто формулируют ответы, а умеют думать, вычислять и проверять себя, действуя как настоящий исследователь.
Paper
С 2022 по 2025 год доля ответов с дисклеймерами упала с 26,3 % до 0,97 % у языковых моделей и с 19,6 % до 1,05 % у систем, анализирующих медицинские изображения. То есть ИИ, став умнее, перестал напоминать о своих ограничениях.
Учёные протестировали 1 500 медицинских изображений и 500 пациентских запросов. Оказалось, чем точнее модель ставит диагноз, тем реже она предупреждает о рисках. Это опасно: люди склонны доверять уверенным ответам ИИ, особенно если тот звучит естественно и авторитетно.
Интересно, что модели Google Gemini чаще сохраняли предостережения, а вот DeepSeek не выдавал их вовсе. Дисклеймеры ещё встречаются в вопросах о психическом здоровье, но почти исчезли в ответах, связанных с лекарствами и анализами.
nature
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤65🔥14🦄8👍3👏3🤗3🥰2🗿2😁1
Рост стоимости акций Apple за последние шесть месяцев составил около 28%. Этому способствовал сильный спрос на iPhone 17, который превзошёл ожидания и развеял опасения, что компания отстаёт в гонке ИИ. Однако главным фактором стал бизнес сервисов - в него входят App Store, iCloud, Apple Music, Apple TV+, AppleCare, реклама и платёжные сервисы. По прогнозам аналитиков, выручка от сервисов впервые может превысить 100 миллиардов долларов в год.
Если Nvidia и Microsoft пришли к $4T через инвестиции в центры обработки данных и ИИ-инфраструктуру, то Apple опирается на растущую базу покупателей их устройств и растущую выручку от подписок и экосистемы.
ft
Компания запустила Pomelli, новый генеративный сервис, который помогает брендам быстро создавать масштабируемый контент в едином стиле.
Достаточно ввести адрес сайта и Pomelli анализирует фирменный стиль, тон и продукт, чтобы автоматически собрать кампании, тексты и визуалы, соответствующие вашему бренду.
Инструмент нацелен на ускорение маркетинга без потери уникальности бренда и уже доступен в США, Канаде, Австралии и Новой Зеландии и потихоньку раскатывается на другие регионы.
labs
82% компаний уже используют Gen AI хотя бы раз в неделю, почти половина - ежедневно.
При этом 89% считают, что ИИ усиливает возможности работников, а не заменяет их.
72% организаций измеряют отдачу от Gen AI с помощью ROI-метрик, фокусируясь на росте производительности и прибыли.
61% уже имеют или планируют ввести должность Chief AI Officer, это знак того, что ИИ переходит на уровень корпоративного управления.
88% компаний увеличат бюджеты на ИИ в ближайший год, а 62% планируют рост инвестиций минимум на 10%.
wharton
Она позволяет хранить документы на одном языке и точно находить их на других - с высокой скоростью и качеством, сравнимым с куда более крупными моделями.
Лучшая модель в классе до 500M параметров
Превосходит большие модели на немецком, арабском, корейском, испанском, португальском, итальянском, французском и японском
В английском показывает такой же уровень, как и значительно более тяжёлые модели
Обрабатывает свыше 1000 документов в секунду и легко масштабируется
HF
В языковом направлении вышли Nemotron Nano 3 - компактная MoE-модель для генерации и рассуждений, Nemotron Nano 2 VL для анализа документов и мультимедиа, Nemotron Parse для извлечения структурированных данных, а также Nemotron Safety Guard — инструмент модерации мультиязычного контента.
Для робототехники и физического моделирования представлены Cosmos Predict 2.5, Cosmos Transfer 2.5, Cosmos Reason и Isaac GR00T N1.6, а в биомедицине — Clara CodonFM, Clara La-Proteina и Clara Reason, помогающие в анализе РНК и 3D-структур белков.
Всего NVIDIA уже опубликовали более 650 моделей и 250 датасетов.
nvidia
Компания планирует уволить почти 10% из примерно 350 000 корпоративных работников, что станет самым масштабным сокращением с конца 2022 года, когда было ликвидировано около 27 000 позиций.
Генеральный директор Энди Джасси ранее отмечал, что рост использования ИИ приведёт к дальнейшему снижению числа рабочих мест, особенно там, где процессы можно автоматизировать и упростить.
ИИ снова становится не только источником роста, но и фактором перестройки рынка труда.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍60❤37👏11🔥10🤩6😁3🤗2🤷♂1