💸 Apple будет платить Google около $1 млрд в год, чтобы новая Siri работала на Gemini AI.
Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.
Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»
Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.
Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.
https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri
@ai_machinelearning_big_data
#Google #Apple #Gemini
Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.
Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»
Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.
Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.
https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri
@ai_machinelearning_big_data
#Google #Apple #Gemini
1🔥74🤣47❤27👍10🤝6😁3🎉1🌭1😨1🤷1
Media is too big
VIEW IN TELEGRAM
Финансовый директор OpenAI Сара Фрайар сообщила, что выход на IPO «не стоит на повестке дня». Приоритеты компании - инвестиции в исследования и рост, а не скорая прибыльность. Масштаб этих инвестиций беспрецедентен: в ближайшие годы OpenAI планирует потратить около $600 млрд. на вычислительные мощности от Oracle, Microsoft и Amazon.
На фоне таких расходов OpenAI остается убыточной, хотя и показывает быстрый рост выручки, которая в 2025, по прогнозам, достигнет $13 млрд. Компания даже надеется на помощь правительства США в финансировании закупок чипов. Фрайар подчеркнула, что доля корпоративных клиентов в выручке выросла с 30% до 40% с начала года. Однако прибыльности мешает необходимость субсидировать вычислительные затраты для бесплатных пользователей ChatGPT.
wsj.com
Консорциум OpenFold при поддержке NVIDIA представили готовый к развертыванию микросервис OpenFold3 NIM для высокоточного прогнозирования трехмерных белковых структур. Инструмент позволяет моделировать взаимодействия белков, ДНК, РНК и малых молекул, что является ключевой задачей в современной фармацевтике и структурной биологии.
Сервис основан на открытой модели OpenFold3, упакован в формат NIM и оптимизирован для работы на GPU NVIDIA с использованием технологий Triton Inference Server и TensorRT. Кроме того, совместимость с NVIDIA FLARE позволяет проводить федеративное и совместное обучение модели без необходимости обмена конфиденциальными данными.
developer.nvidia.com
Компания опубликовала свою первую научную работу, которая делает возможным запуск моделей с триллионом параметров без использования специализированных GPU-кластеров.
Проблема заключалась в том, что сетевой адаптер AWS EFA не поддерживает технологию GPUDirect Async, которая необходима для быстрой прямой связи между GPU на разных серверах. Инженеры Perplexity создали кастомные ядра параллелизма, которые используют CPU для координации обмена данными между GPU, упаковывая токены для передачи через RDMA и совмещая вычисления с передачей данных.
Это решение делает AWS EFA полноценной платформой для инференса массивных MoE-моделей. Тесты показали, что производительность на нескольких узлах AWS не уступает работе на одном кластерном GPU-узле, что позволяет развернуть DeepSeek V3 и Kimi K2.
research.perplexity.ai
ComfyUI открыла публичное бета-тестирование платформы Comfy Cloud. Сервис предоставляет полный доступ к нодовому интерфейсу для генеративных моделей в браузере. Платформа работает на GPU NVIDIA A100 с 40 ГБ видеопамяти. Подписчикам сразу доступны более 400 готовых open-source моделей и 17 популярных расширений.
На время бета-тестирования стоимость составляет $20 в месяц. В эту цену включены кредиты на $10 для доступа к партнерским узлам (Sora, Veo) и до 8 часов использования GPU в сутки. Впрочем, есть и ограничения: не более 30 минут на запуск одного форкфлоу и только одна задача в очереди на выполнение. В планах - загрузка собственных моделей и LoRA, развертывание воркфлоу в виде API и инструменты для командной работы.
blog.comfy.org
Высокий суд Лондона отклонил основной иск Getty Images против Stability AI, создав важный прецедент для индустрии генеративного ИИ. Getty утверждала, что модель Stable Diffusion сама по себе является «пиратской копией», так как ее веса были созданы на основе защищенных авторским правом изображений.
Суд постановил, что модель не является «пиратской копией» по британскому законодательству, поскольку она не хранит и не воспроизводит исходные работы. Это решение - значительная победа для разработчиков ИИ, так как оно снижает юридические риски, связанные с обучением моделей.
reuters.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥63👍32❤22😁3😢2🥰1
Forwarded from .ml
Многие компании сёрвят LLM
Кто-то использует готовые инструменты, которые предоставляют OpenAI-compatible эндпоинты: например, DeepSeek, развёрнутый через vllm serve. Кому-то не хватает OpenAI-compatible протокола. А кому-то хочется и того, и другого — например, нам в Точке.
Это непростая инженерная задача, которую нам пришлось решать. Вот мы и написали статью о том, как поднимали свою LLM-инфраструктуру. Текст исключительно инженерный и больше про дизайн всей системы целиком, чем про, например, наши внутренние патчи в популярный фреймворк vllm.
Читайте, комментируйте и рассказывайте, как у вас дела с LLM!
Кто-то использует готовые инструменты, которые предоставляют OpenAI-compatible эндпоинты: например, DeepSeek, развёрнутый через vllm serve. Кому-то не хватает OpenAI-compatible протокола. А кому-то хочется и того, и другого — например, нам в Точке.
С одной стороны, мы хотим уметь ходить в LLM-провайдеры, которые поддерживают общепринятый формат. А с другой стороны у нас есть внутренняя LLM, которую нельзя полностью совместить с OpenAI-протоколом, потому что она поддерживает дополнительные виды контента внутри сообщений и ещё много других плюшек(про них тоже как-нибудь расскажем 👀) .
Это непростая инженерная задача, которую нам пришлось решать. Вот мы и написали статью о том, как поднимали свою LLM-инфраструктуру. Текст исключительно инженерный и больше про дизайн всей системы целиком, чем про, например, наши внутренние патчи в популярный фреймворк vllm.
Читайте, комментируйте и рассказывайте, как у вас дела с LLM!
👍26❤12⚡4🫡3
.ml
Многие компании сёрвят LLM Кто-то использует готовые инструменты, которые предоставляют OpenAI-compatible эндпоинты: например, DeepSeek, развёрнутый через vllm serve. Кому-то не хватает OpenAI-compatible протокола. А кому-то хочется и того, и другого — например…
⚡️ Когда в продакшне нужно сервить несколько LLM - быстро выясняется, что одной совместимости с OpenAI-форматом мало. Требуется гибкость: поддержка кастомных типов сообщений, роутинг между моделями, адаптеры под разные форматы.
Команда Точка Банк столкнулась с этим, объединяя OpenAI-совместимого провайдера и свою модель с расширенными сообщениями.
Интересный кейс про дизайн мульти-LLM сервинга: протоколы, адаптация payload'ов, архитектура без бесконечного if-else.
Сейчас ключевой навык ML-инфраструктуры - строить расширяемые системы, а не завязываться на один API.
Советую почитать подробный разбор - ссылка ниже.
А если хотите разобраться в других сложностях ML-проектов, подписывайтесь на канал .ml!
Команда Точка Банк столкнулась с этим, объединяя OpenAI-совместимого провайдера и свою модель с расширенными сообщениями.
Интересный кейс про дизайн мульти-LLM сервинга: протоколы, адаптация payload'ов, архитектура без бесконечного if-else.
Сейчас ключевой навык ML-инфраструктуры - строить расширяемые системы, а не завязываться на один API.
Советую почитать подробный разбор - ссылка ниже.
А если хотите разобраться в других сложностях ML-проектов, подписывайтесь на канал .ml!
1🤣22👍10❤6👌6🔥3👾2🤗1
Агент помогает находить и выбирать товары через чат с поддержкой изображений, уточняющих вопросов и учётом истории покупок.
Возможности:
- Распознавание товаров по фото: можно сфотографировать футболку — агент подберёт низ, показать интерьер — выдаст технику в том же стиле
- Персонализированный подбор подарков через уточняющие вопросы (возраст, увлечения, занятия)
- Сохранение контекста диалогов и возможность продолжить предыдущие поиски
- Генерация персональных подсказок на основе последних поисковых запросов
Как работает:
- VLM распознаёт объекты на фото и переводит в текстовое описание
- Нейросети обрабатывают описание вместе с текстовым запросом пользователя
- Агент собирает информацию в сети и среди отзывов Маркета
- Фильтрует и ранжирует результаты с учётом личных предпочтений и истории покупок
До конца 2025 года планируют добавить голосовые запросы.
Хабр: https://habr.com/ru/companies/yandex/news/963778/
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤35👍31🥰10🤣9🗿8😁3☃2
⚡️ Google впервые открывает доступ к TPU седьмого поколения - Ironwood.
Это самый агрессивный шаг компании в попытке привлечь AI-компании в свою экосистему кастомных чипов.
Ironwood более чем в четыре раза быстрее предыдущего поколения и масштабируется до 9 216 чипов в одном поде, позволяя тренировать и разворачивать модели экстремальных размеров.
Google явно рассчитывает, что доступ к этому железу станет аргументом в гонке сверхмощных AI-кластеров.
https://www.cnbc.com/2025/11/06/google-unveils-ironwood-seventh-generation-tpu-competing-with-nvidia.html
@ai_machinelearning_big_data
Это самый агрессивный шаг компании в попытке привлечь AI-компании в свою экосистему кастомных чипов.
Ironwood более чем в четыре раза быстрее предыдущего поколения и масштабируется до 9 216 чипов в одном поде, позволяя тренировать и разворачивать модели экстремальных размеров.
Google явно рассчитывает, что доступ к этому железу станет аргументом в гонке сверхмощных AI-кластеров.
https://www.cnbc.com/2025/11/06/google-unveils-ironwood-seventh-generation-tpu-competing-with-nvidia.html
@ai_machinelearning_big_data
1🔥52👍15❤11👌2❤🔥1🎃1
Yandex B2B Tech увеличил квоты на работу с ИИ-агентом в SourceCraft после двукратного роста использования
За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.
✔️ В отличие от привычных ассистентов, агент действует автономно, беря на себя до половины инженерных задач. Это соответствует глобальному тренду: по данным McKinsey, ИИ-агенты выполняют 30-50% рутинных задач в разработке, а исследования Google Cloud/DORA показывают рост продуктивности на 80%.
✔️ На фоне растущего спроса Yandex B2B Tech увеличил квоты — теперь пользователи SourceCraft могут выполнять до 1000 операций с ИИ-помощником в неделю. Инструмент доступен как через веб-интерфейс, так и напрямую в среде разработки VS Code.
@ai_machinelearning_big_data
#news #ai #ml
За последний месяц частота обращений к ИИ-агенту на платформе SourceCraft выросла в 2 раза. 60% запросов приходится на генерацию кода, 15% — на проектирование архитектуры, еще 15% на документацию и поиск информации.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤26👍19🤣18🔥7🤬4😁3
По данным источников, некоторые образцы уже попали к отдельным клиентам, но дальнейшие экспортные разрешения ведомствам теперь запрещено выдавать.
Параллельно Китай обязал государственные дата-центры полностью перейти на отечественные процессоры.
Если в Китае строится новый государственный дата-центр (финансируется государством или связан с госструктурами), и проект пока реализован меньше чем на 30%, то процессоры должны быть китайскими.
B30A задумывался как компромисс: примерно половина мощности B300, один AI-кристалл, четыре стека HBM3e и поддержка NVLink, чтобы всё ещё можно было строить LLM-кластеры. Фактически это позиционировалось как «наследник H20, но на архитектуре Blackwell». Однако теперь поставки запрещены.
Сразу два решения: американское и китайское - сузили рынок до минимума.
Китайские компании сталкиваются с рисками для уже запланированных кластеров, сложной миграцией с CUDA на местные экосистемы и неопределённостью в производительности собственных чипов.
Nvidia фактически теряет один из своих крупнейших исторических рынков.
AI-железо становится не вопросом производительности, а вопросом политических решений, что меняет динамику всей индустрии.
https://www.reuters.com/world/china/us-block-nvidias-sale-scaled-back-ai-chips-china-information-says-2025-11-07/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55❤29🤔26👍15🤣11🤨4🤝3🥱2🗿1
Media is too big
VIEW IN TELEGRAM
Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.
В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.
По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai
Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.
В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.
Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai
Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.
Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com
Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.
Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com
Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.
Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍84❤48🔥13👏2💘2
GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.
Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.
Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤39🔥19👍13🥱1😇1
Прокачайте технические скиллы и создайте реальное ИИ-решение для бизнеса на хакатоне «Альфа-Будущее» с призовым фондом в 1 000 000 ₽!
Для кого: студентов вузов и колледжей по направлениям Data Science, NLP, AI, ML, Frontend, Backend и Fullstack.
А еще вас ждет:
— возможность получить фаст-трек в команду Альфы;
— поддержка от экспертов Альфа-Банка и шанс улучшить свой код вместе с ними;
— обмен опытом и встреча лучших команд на офлайн-финале в Москве;
— возможность решить задачу в одном из двух актуальных треков: настройка RAG-системы для ответов на вопросы или разработка copilot-приложения для клиентов микробизнеса.
Больше полезного в Changellenge >>
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36❤28🔥23🤣13🤔8
В швейцарской сети супермаркетов Migros продается печенье с пятиногим оленем. Принт на коробке явно сгенерирован ИИ, но на самом деле недочётов гораздо больше.
Пользователи реддита насчитали как минимум еще 11 косяков этой генерации. А сколько видите вы?
1. У оленя пять ног
2. У оленя либо три рога, либо два, но они очень странной формы
3. Обе задние ноги оленя не касаются земли
4. У саней пять опор: три справа и две слева
5. На задней части саней неразборчивый символ, похожий на буквы XX
6. Ноги Санты очень короткие или он стоит на коленях.
7. Вожжи в руках Санты частично отсоединены, а та часть, которая соединена, прикреплена к ремню, тянущему сани, а не к самому оленю, что делает их практически бесполезными.
8. Вожжи как бы превращаются в его пояс.
9. Руки Санты странные, особенно та, которая держит вожжи.
10. Подарки на санях упадут, если сани ускорятся. (возможно нет, и это просто магия Санты)
11. Ветка в левом верхнем углу слишком толстая и просто заканчивается
12. На елке все шары красные, кроме одного желтого.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁179❤42👍18😐9🔥7👨💻5👻4🌭3
Forwarded from Анализ данных (Data analysis)
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
#google
@data_analysis_ml
Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.
Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.
Это позволяет модели:
- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает
Что это даёт?
1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.
2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.
3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.
📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
@data_analysis_ml
👍176👏117❤66🔥32🥰20🤩19😁7🎉7🤔3💯3🤣2
📉 AI-рынок просел на $800 млрд за неделю
Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.
Что происходит:
— Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.
— Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.
— Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.
Почему падение получилось таким резким:
- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.
Главный удар:
- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.
Дополнительные точки напряжения:
- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*
ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.
ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8
@ai_machinelearning_big_data
#ai #ml #finance
Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.
Что происходит:
— Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.
— Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.
— Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.
Почему падение получилось таким резким:
- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.
Главный удар:
- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.
Дополнительные точки напряжения:
- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*
ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.
ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8
@ai_machinelearning_big_data
#ai #ml #finance
1❤87😢47👍41🤔29🔥11🤬9😐4🤨3😨3🎉2🤝1
🧠 ByteDance показывает: моделям для рассуждений нужны не только слова, но и картинки
MIRA - Multimodal Imagination for Reasoning Assessment, тест, который измеряет, как модели рассуждают, если им дать промежуточные визуальные шаги.
Суть очень простая и понятная:
- Там, где текст не помогает, картинки резко улучшают мышление модели.
- Если дать модели рисунки промежуточных шагов, точность в среднем растёт на 33.7%.
- Бенчмарк включает 546 задач в 20 категориях, где нужно «видеть», а не просто читать: кубики, зеркала, траектории, силы и тд.
Как устроена проверка:
- прямой вопрос
- рассуждение текстом
- рассуждение с визуальными шагами (скетчами)
Что выяснилось:
- Только текст часто делает хуже, потому что слова плохо описывают пространство.
- Если дать модели картинки - результат сильно улучшается, особенно в точных науках.
В бенчмарке: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Режимы тестирования:
• Direct - модель отвечает напрямую
• Text-CoT - текстовый chain-of-thought
• Visual-CoT - модель рассуждает через рисунки и визуальные шаги
Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике
Главный вывод:
Моделям нужен *визуальный способ думать*.
Им нужно уметь читать простые схемы, понимать их и использовать в рассуждениях, иначе многие задачи просто остаются нерешаемыми.
Статья: arxiv.org/abs/2511.02779
@ai_machinelearning_big_data
#ByteDance
MIRA - Multimodal Imagination for Reasoning Assessment, тест, который измеряет, как модели рассуждают, если им дать промежуточные визуальные шаги.
Суть очень простая и понятная:
- Там, где текст не помогает, картинки резко улучшают мышление модели.
- Если дать модели рисунки промежуточных шагов, точность в среднем растёт на 33.7%.
- Бенчмарк включает 546 задач в 20 категориях, где нужно «видеть», а не просто читать: кубики, зеркала, траектории, силы и тд.
Как устроена проверка:
- прямой вопрос
- рассуждение текстом
- рассуждение с визуальными шагами (скетчами)
Что выяснилось:
- Только текст часто делает хуже, потому что слова плохо описывают пространство.
- Если дать модели картинки - результат сильно улучшается, особенно в точных науках.
В бенчмарке: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.
Режимы тестирования:
• Direct - модель отвечает напрямую
• Text-CoT - текстовый chain-of-thought
• Visual-CoT - модель рассуждает через рисунки и визуальные шаги
Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике
Главный вывод:
Моделям нужен *визуальный способ думать*.
Им нужно уметь читать простые схемы, понимать их и использовать в рассуждениях, иначе многие задачи просто остаются нерешаемыми.
Статья: arxiv.org/abs/2511.02779
@ai_machinelearning_big_data
#ByteDance
🤔52👍42❤16🔥5👏4👨💻2
🔎 Upscale-LoRA мощный инструмент для восстановления изображений
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler
❤62👍39💘5🥰4🔥3😁2🤩2👌2⚡1🕊1