Физики Гарварда создали первый в мире квантовый компьютер, который работает непрерывно без перезапуска.
Ранее квантовые машины держались миллисекунды, максимум - около 13 секунд.
Новая установка работает более 2 часов и может функционировать бесконечно.
Ключевое новшество - решение проблемы потери атомов: система в реальном времени пополняет кубиты, впрыскивая 300 000 атомов в секунду с помощью оптических инструментов.
Учёные считают, что практические, постоянно работающие квантовые компьютеры могут появиться уже в течение 2 лет - с огромным влиянием на медицину, финансы и научные исследования.
thecrimson
По данным The Information, Anthropic продвигает свою модель Claude как основу для создания enterprise-замен привычных приложений вроде Slack. Компания делает ставку на обучение с подкреплением, чтобы улучшить способности модели к программированию.
Похожую стратегию развивает и xAI Илона Маска, но эксперты сомневаются, что крупные корпорации откажутся от укоренившихся систем вроде SAP или ServiceNow. Более вероятно, что первыми такие AI-first инструменты начнут использовать небольшие стартапы.
Тем временем JPMorgan и другие банки активно заявляют об интеграции решений OpenAI, Anthropic и Google, хотя реальные масштабы затрат пока не соответствуют публичному энтузиазму.
theinformation
Comet, запущенный в июле 2025 года, работает как встроенный ассистент: он умеет анализировать страницы, вытаскивать ключевые детали и серфить по ссылкам, проводя многошаговые исследования.
Perplexity также представила Comet Plus за $5 — партнёрскую подписку, которая открывает доступ к контенту от CNN, The Washington Post, Fortune, Los Angeles Times и Condé Nast (The New Yorker, Wired и др.).
Однако запуск совпал с продолжающимися исками от крупных издателей, включая Dow Jones (The Wall Street Journal) и New York Post, обвиняющих стартап в использовании их материалов для обучения ИИ.
Скачать Comet
TechCrunch пишет, что запуск нового соцприложения Sora 2 вызвал тревогу внутри самой OpenAI. Это TikTok-подобная лента, наполненная видео, созданными ИИ, включая дипфейки самого Сэма Альтмана.
Часть исследователей OpenAI считает, что компания уходит от своей миссии ради хайпового контента. Один из сотрудников прямо заявил: «AI-ленты - пугающие. Я был шокирован, узнав, что мы выпускаем Sora 2…»
Сторонники проекта объясняют, что такие продукты нужны, чтобы финансировать фундаментальные исследования и дать пользователям почувствовать силу технологий. В OpenAI утверждают, что хотят «показать людям что-то классное, чтобы они улыбнулись».
Но вместе с ростом Sora OpenAI рискует повторить судьбу классических соцсетей: зависимость, манипуляции c информацией, проблемы с дипфейками и давлением на метрики вовлечённости.
techcrunch
Китай в 2025 году вложит до 98 млрд долларов, но экспортные ограничения на топовые чипы Nvidia и AMD тормозят прогресс.
Huawei продвигает Ascend 910C, однако по памяти, пропускной способности и софту он уступает решениям Nvidia. США разрешили ограниченные продажи H20 и MI308 в Китай с 15% налогом, но топовые GPU недоступны китацы, и разрыв в производительности всё ещё в пользу американцев.
X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍89❤41🔥9❤🔥3💘3😁2⚡1👏1🎉1
Модель объединяет понимание, генерацию и редактирование аудио без привязки к таймстампам. Основой стал новый токенайзер MingTok-Audio, на котором построен единый Speech LLM. Одновременно выпущен бенчмарк для свободного редактирования речи.
GitHub / Tokenizer / Model / Benchmark
Основатель Coursera Эндрю Ын выпустил бесплатный курс по нейросетям.
В курсе: базовые основы Deep Learning, практические задания и советы по построению карьеры в AI.
Первая лекция уже доступна, все материалы и расписание — открыты. Отличный шанс провести выходные с пользой и глубже разобраться в мире нейросетей.
Первая лекция / Расписание
Почти 40% роста ВВП США за последний квартал обеспечили капитальные вложения в технологии, главным образом связанные с AI.
UBS прогнозирует, что расходы компаний на AI-инфраструктуру достигнут $375 млрд в 2025 году и вырастут до $500 млрд в 2026-м. Но основной рост идёт не от самого AI, а от строительства «фабрик мощности» - дата-центров и инфраструктуры. По оценке Brookfield Asset Management, за ближайшие 10 лет в эту сферу уйдёт $7 трлн.
По данным Минторга США, инвестиции в софт и компьютерное оборудование (без учёта зданий дата-центров) дали четверть всего экономического роста за квартал.
Этот всплеск трат меняет и фондовый рынок: как отмечает Deutsche Bank, индекс S&P 500 вырос на 13.81% с начала года, тогда как равновзвешенный вариант прибавил лишь 7.65%. То есть рост обеспечивают в основном «Великолепная семёрка» технологических гигантов.
X
Дети 4–5 классов учатся два часа утром по индивидуальным программам в науке, математике и чтении, а после обеда занимаются проектами и жизненными навыками.
Учителей здесь называют «гидами» - они мотивируют, а не преподают, получая шестизначные зарплаты. Школа утверждает, что её ученики входят в топ-1% по тестам, хотя педагоги скептически относятся к роли ИИ.
Обучение стоит от $40 000 в год, но основатели считают модель примером будущего образования.
cbsnews
Один из величайших математиков современности, Теренс Тао, использовал искусственный интеллект, чтобы решить задачу на MathOverflow о последовательности наименьших общих кратных.
У него было теоретическое подозрение, что ответ отрицательный, но требовались конкретные числовые параметры для построения контрпримера. Сначала Тао просил ИИ сгенерировать Python-код для поиска, но из-за неверных параметров и долгого времени выполнения этот путь оказался неэффективным.
Затем он перешёл к пошаговому алгоритму: ИИ выполнял эвристические расчёты, помогая сузить диапазон параметров. В итоге удалось получить рабочие значения, которые Тао проверил самостоятельно с помощью короткого Python-скрипта, также созданного ИИ.
Такая стратегия позволила сэкономить часы ручного кодирования и отладки: ИИ не только ускорил поиск, но и выявил несколько ошибок в начальных рассуждениях. Этот случай показывает, как современные системы могут становиться реальными ассистентами даже в фундаментальной математике.
mathstodon
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥73❤42👍21🌭2💘1
Media is too big
VIEW IN TELEGRAM
По слухам, OpenAI разрабатывает Agent Builder - нативную no-code-платформу для создания автономных ИИ-агентов. Если информация подтвердится, этот инструмент сможет заменить целый стек сервисов вроде Zapier, n8n и Vapi, объединив всё в единую экосистему OpenAI.
Первые отзывы называют интерфейс одним из самых плавных и интуитивных среди всех agent-canvas решений.ентов прямо внутри платформы.
testingcatalog
Польский стартап Pathway представил новую ИИ архитектуру под названием Dragon Hatchling (BDH), которая может решить одну из самых сложных проблем ИИ - генерализацию во времени, то есть способность модели учиться из опыта и делать прогнозы, как это делает человек.
Модель строит структуру, похожую на нейронные сети человеческого мозга, которая формируется спонтанно во время обучения и действует как неокортекс, отвечающий за обучение, память и принятие решений.
В отличие от классических трансформеров, BDH использует локальные нейронные связи и геббовское обучение, что делает её более интерпретируемой и устойчивой к изменению данных. При этом она демонстрирует производительность, сопоставимую с моделями GPT-уровня, но требует меньше вычислительных ресурсов.
Разработчики отмечают, что такая архитектура может приблизить ИИ к человеко-подобному мышлению и пониманию, открывая путь к созданию систем, способных на адаптацию и обучение в реальном времени.
arxiv
Всего 3 млрд активных параметров, но по бенчмарками модель не уступает GPT-5-Mini и Claude 4 Sonnet, обгоняя их в задачах STEM, VQA, OCR, Video и Agent-тестах.
Плюс теперь доступны FP8-версии не только 30B, но и гиганта Qwen3-VL-235B-A22B.
API / Github / Попробовать
Исследователи представили небольшую модель с 7 миллиардами параметров, обученную специально для работы с формами и документами. Несмотря на компактный размер и низкую стоимость обучения - всего $196, модель смогла превзойти GPT-4.1 на тысяче задач по извлечению структурированных данных.
Команда использовала синтетические данные, позволяющие модели сохранять «память» между разными частями длинных файлов и правильно связывать имена, даты и значения, находящиеся далеко друг от друга.
Для обучения применялась Low-Rank Adaptation (LoRA) - изменено всего 0,53% весов, и Group Relative Policy Optimization с семантическим вознаграждением и строгой проверкой JSON-ответов.
Результат - 0,573 среднее вознаграждение, 89% корректных JSON-ответов и производительность выше GPT-4.1, при затратах в сотни раз меньших.
arxiv
WSJ сообщает: Nvidia инвестирует $100 млрд в строительство 10 ГВт дата-центров для OpenAI. Это не благотворительность - компания фактически финансирует собственный спрос.
По расчётам аналитиков, на каждые $10 млрд инвестиций OpenAI обязуется купить GPU Nvidia на $35 млрд. Так Nvidia даёт OpenAI дешёвый капитал и гарантирует себе заказы на годы вперёд.
Это часть большой стратегии: компания уже выкупает простаивающие мощности CoreWeave, инвестирует в Intel и xAI, формируя замкнутую экосистему вокруг своих чипов.
Так Nvidia снижает маржу, но получает главное - контроль над всей энергией и инфраструктурой ИИ-мира.
Wsj
Стартап Neuphonic представил новую систему синтеза речи NeuTTS Air - компактную модель, работающую прямо на устройствах без подключения к облаку.
NeuTTS Air способна реалистично воспроизводить речь и клонировать голос по трёхсекундной записи, оставаясь лёгкой и быстрой. Модель выпускается в формате GGML, что позволяет запускать её на компьютерах, смартфонах и даже на Raspberry Pi.
GitHub
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤70👍24🔥13🥱3❤🔥2💘2💋1
Позволяет создать нативные приложенийяпрямо внутри ChatGPT.
Идея простая: теперь не нужно выходить из ChatGPT, чтобы делать привычные вещи.
Можно прямо в чате работать с дизайном в Figma, создавать презентации в Canva, искать жильё на Booking или смотреть курсы на Coursera — всё в одном окне.
Платформа поддерживает авторизацию, оплату и подключение внешних сервисов,
а значит, ChatGPT становится центром, где совмещаются ИИ, приложения и автоматизация задач.
Скоро разработчики (вайбкодеры) смогут добавлять свои приложения и зарабатывать на них через ChatGPT SDK.
По сути это убийца n8n и Zapier.
Это интуитивно понятный**визуальный конструктор**, где можно создавать своих ИИ-агентов без единой строчки кода.
Просто перетаскиваешь блоки, подключаешь MCP и ChatKit — и агент сам ищет файлы, анализирует данные и выполняет задачи.
Инструмент уже доступен всем.
OpenAi умеют в дизайн, должно быть удобно.
Можно уже попробовать: https://platform.openai.com/agent-builder
Вышел из беты, получил интеграцию со Slack и собственный SDK.
На демо агент управлял светом и экраном голосом - без кода.
На презентации заявили, что теперь почти весь их код пишется с помощью Codex
Благодаря Codex разработчики OpenAI стали отправлять на 70% больше pull-request’ов в неделю, чем раньше.
Теперь у кодекса появляется интеграция со Slack и SDK, чтобы разработчики могли встраивать его в свои рабочие процессы.
Прямо в эфире Codex написал код для управления камерой, сам собрал интерфейс и **запустил готовое при
$15 за ввод и $120 за вывод за 1M токенов
Gpt-realtime-mini - на 70% дешевле, подходит для мгновенных ответов и потоковых задач
Можно будет генерировать видео прямо из кода
PS: Agent Builder выглядит действительно интересно - интуитивный, гибкий, инструмент с большим потенциало
м.
А вот насколько полезными окажутся приложения внутри ChatGPT, не особо понятно.
OpenAI не боится экспериментировать.
Они развивают ChatGPT как платформу, ищут
новые варианты захвата рынка и пробуют смелые идеи. Это дорогого стоит.
Их интерфейс просто топ: минимализм, аккуратность, почти в духе Apple. UX - на уровне искусства.
У OpenAI уже более 800 млн активных пользователей в неделю и они обрабатывают 6 миллиардов токенов в минуту!
К концу года число пользователей, похоже, вплотную подойдёт к 1 миллиарду.
Но гонка только начинается.
Google явно готовит ответ - Gemini 3 обещает быть топом. Другие игроки тоже не дремлют.
@ai_machinelearning_big_data
#openai #chatgpt #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍659🔥300❤206🎉178👏104😁77🤔52🤩41🤣15👌13🙈13
Google объявил о запуске новой модели EmbeddingGemma, созданной для работы прямо на устройствах - без подключения к интернету. Модель на 308 миллионов параметров, поддерживает более 100 языков и показывает лучшие результаты среди всех открытых моделей размером до 500 млн параметров по тесту MTEB.
После квантования модель кушает менее 200 МБ оперативной памяти, а генерация эмбеддингов занимает всего около 20 миллисекунд на устройствах с EdgeTPU.
Google внедрил технологию Matryoshka Representation Learning, позволяющую использовать разные размеры векторов - от 768 до 128 - в зависимости от задач и ресурсов устройства. Контекстное окно достигает 2000 токенов.
EmbeddingGemma уже интегрируется с популярными инструментами вроде SentenceTransformers, Llama.cpp, LangChain и Transformers.js, а её веса открыты для использования и коммерческой адаптации.
googleblog
Вышла новая open-source модель Kani-TTS-370M, создающая естественное и выразительное звучание при крайне высокой скорости работы. Модель насчитывает 370 миллионов параметров и оптимизирована под потребительские GPU, включая RTX 3060, где она обеспечивает реальное время генерации речи.
Kani-TTS построена на сочетании NanoCodec и LFM2-350M, что обеспечивает компактность и качество, сравнимое с крупными нейронными TTS-системами. Разработчики использовали современные нейросетевые методы синтеза речи, чтобы добиться максимально естественной интонации и чистоты звучания.
Главный акцент сделан на эффективности и универсальности - модель легко разворачивается локально, подходит для встраивания в ассистентов, игровых персонажей и офлайн-озвучку, не требуя облачных вычислений.
HF
По оценкам Adobe Analytics, объем онлайн-продаж в США в праздничный сезон 2025 года достигнет $253,4 млрд, что на 5,3 % больше, чем в прошлом году. AI-трафик при этом вырастет на 520 %, особенно в последние 10 дней перед Днём благодарения.
Почти половина американцев намерены воспользоваться AI-инструментами: 53 % - для поиска товаров, 40 %- для рекомендаций, 36 % — для поиска выгодных предложений, 30 % — чтобы вдохновиться идеями подарков.
Мобильные устройства останутся доминирующей платформой - 56,1 % транзакций пройдут с телефона. Среди драйверов роста - скидки (среднее снижение цен до 28 %), сервисы «купи сейчас, заплати позже» и активность в соцсетях, чья рекламная отдача вырастет на 51 %.
techcrunch
Модель обучается не на 3D-структурах, а чисто на видео и многовидовых данных, что делает её универсальной и масштабируемой.
Kaleido превосходит все предыдущие генеративные модели в задачах с малым числом видов и впервые достигает качества рендеринга уровня InstantNGP в zero-shot режиме. Это шаг к гибкому world modeling, способному как точно реконструировать реальность, так и дорисовывать недостающие детали.
shikun
OpenAI и AMD объявили масштабное сотрудничество: по условиям соглашения OpenAI развернёт 6 гигаватт графических процессоров AMD, начиная с первой волны - 1 гигаватт Instinct MI450 во второй половине 2026 года.
AMD, чтобы выровнять интересы, выдала OpenAI варрант на 160 млн своих акций, который будет реализован по мере достижения этапов развертывания и роста стоимости компании, что может превратить его в ~10 % долю.
Соглашение может принести AMD десятки миллиардов долларов дохода, а также усилить её позиции на рынке чипов для искусственного интеллекта.
Этот шаг позволяет OpenAI диверсифицировать аппаратные поставки и снизить зависимость от одного производителя, а также закладывает мощную основу для масштабных AI-инфраструктур следующих лет.
openai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍156🔥35❤25🤩13👏7🎉5💘2
Модель умеет рассуждать на основе изображений, понимать сложные визуально-текстовые задачи и поддерживает мультиязычные кейсы.
Ключевые особенности:
- Visual Reasoning - глубокое понимание изображений и сцен
- Multilingual Support - работа с несколькими языками
- Visual Dialogue - позволяет весть диалог на основе изображения и текста
- Thinking-on-Image - рассуждение на уровне визуальных деталей
HunyuanVision-1.5 демонстрирует продвинутые способности в задачах анализа, генерации и рассуждения. Работает шустро, русский понимает, но не без косяков.
Модель доступна для использования через Tencent Cloud API и LMArena (Direct Chat).
Полный технический отчёт и веса обещают к релизу позже в октябре. Ждемс.
@ai_machinelearning_big_data
#Tencent #llm #ml #Hunyuan #vlm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍193🎉145❤35🔥20👏16😁12🤩12🥰3👌3💘2
Media is too big
VIEW IN TELEGRAM
Мишель Деворе (Michel Devoret), главный научный сотрудник команды Google Quantum AI, стал лауреатом Нобелевской премии по физике 2025 года.
Он разделил награду с Джоном Мартинесом (бывшим сотрудником Google Quantum AI) и Джоном Кларком из Калифорнийского университета в Беркли.
Премия присуждена за исследования макроскопических квантовых эффектов, которые стали фундаментом для создания сверхпроводящих кубитов - ключевой технологии в квантовых компьютерах.
Для Google это исторический момент: теперь в числе сотрудников и выпускников компании уже пять лауреатов Нобелевской премии, включая Демиса Хассабиса и Джеффри Хинтона, отмеченных в 2024 году.
По данным *The Information*, Oracle понесла убытки около $100 млн за прошлый квартал из-за аренды чипов Blackwell.
Маржа серверного проката составила всего около 16%.
Бизнес по аренде GPU оказывается сложным:
скорее всего, дело не в падении спроса, а в сильном давлении на маржу - клиенты активно торгуются и сбивают цены.
theinformation
Модель содержит 8.3 млрд параметров, из которых активно только 1.5 млрд на токен, что даёт качество уровня 3–4B плотных моделей, но при этом она быстрее Qwen3-1.7B.
Модель показала себя отлично на 16 банчмарках:
она обгоняет LFM2-2.6B и модели аналогичного размера, особенно в задачах математики, кода и творческого письма.
huggingface
Deloitte объявила о крупнейшем корпоративном внедрении AI в истории Anthropic - Claude теперь станет рабочим инструментом для 470 000 сотрудников по всему миру.
Компания создаёт отраслевые версии Claude для бухгалтеров и разработчиков, а также откроет Claude Center of Excellence и сертифицирует 15 000 специалистов. В фокусе - прозрачность и соответствие нормам, с опорой на фреймворк Trustworthy AI.
Любопытно, что накануне Deloitte признала, что использовала ИИ в официальном отчёте правительства Австралии, где оказались поддельные цитаты и ссылки, и согласилась вернуть часть контракта на $440 000.
TechCrunch
Пациент Nick Wray стал первым, кто с помощью Neuralink PRIME BCI смог управлять роботизированной рукой напрямую с помощью мозга. Он рассказал, что впервые за многие годы смог сам надеть шляпу, разогреть еду и поесть без помощи.
В проекте участвует и xAI Илонa Маска: система Grok помогает Neuralink усиливать нейроинтерфейс — от преобразования мыслей в текст и ускоренной коммуникации до синтезированного голоса и долгосрочной цели — когнитивного соединения человека и ИИ на бинарном уровне.
Многие задаются вопросом: станет ли Grok 5 шагом к слиянию человеческого сознания и искусственного интеллекта?
Это одно из самых вдохновляющих достижений в истории нейротехнологий — шаг к возвращению физической независимости людям и, возможно, к новой эре взаимодействия человека и ИИ.
Видео
Компания ElevenLabs представила Agent Workflows - инструмент, который позволяет визуально проектировать логику диалогов и взаимодействие агентов на платформе Agents.
Теперь вместо громоздкого единого агента можно создавать Subagents - специализированных подзадачных агентов с собственными промптами, базами знаний и инструментами.
С помощью Workflows можно задавать, когда агент передаёт управление подагенту, а когда подключает человеческого оператора. Это делает систему более гибкой и безопасной.
Кроме того, Workflows обеспечивают надёжное подключение к корпоративным системам, управление бизнес-логикой и умную маршрутизацию диалогов, что помогает снизить затраты, задержки и повысить точность ответов.
elevenlabs
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👏150❤29👍28🎉15🤔6🤩6🙏2🏆2💘1
Модель на 1 трлн, из них ≈ 50 млрд активны на токен (MoE-архитектура).
Она обучена на 20 трлн+ токенов, специально отобранных для задач логического мышления и рассуждений. Контекст: 128 000 токенов.
Построена на базе Evo-CoT (Evolutionary Chain of Thought) и Linguistics-Unit RL - нового метода обучения для масштабируемых рассуждений. При помощи Evo-CoT модель постепенно улучшает баланс между точностью рассуждений и вычислительной эффективностью. То есть с каждым шагом она пытается делать рассуждения «глубже», но не слишком дорого по ресурсам.
Моделька демонстрирует сильные результаты в задачах кода, математики, логики и фронтенд-генерации.
В архитектуре задействованы Mixture-of-Experts (1/32 активация), MTP слои и маршрутизация экспертов.
Ling-1T показывает, что огромные модели можно сделать не только мощными, но и экономичными.
https://huggingface.co/inclusionAI/Ling-1T
@ai_machinelearning_big_data
#Ling1T #AI #ML #OpenSource #Reasoning #TrillionScale #FP8
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍813🤔179❤159🔥146💯121👏97😁69🥰64😐16😢12🤩9
Google готовит полный редизайн Gemini AI: вместо обычного чата появится вертикальная лента, где можно листать визуальные ответы, видео и карточки - как в TikTok.
Аналитики считают, что новый формат повысит вовлечённость пользователей и откроет новые каналы дохода - от подписок до встроенной рекламы.
Bank of America называет обновление «ключевым катализатором роста» и прогнозирует дальнейший рост акций Alphabet.
Gemini уже становится центральным продуктом Google в ИИ, а после мультимодальных функций и визуального интерфейса может догнать или даже обойти ChatGPT.
marketwatch
Финансирование разделено на $7,5 млрд в акциях и до $12,5 млрд долга, оформленных через специальную структуру (SPV), которая будет использоваться для закупки чипов Nvidia.
Сама Nvidia участвует в раунде, инвестируя до $2 млрд в долевую часть сделки - по сути, поставщик чипов финансирует покупателя своих же процессоров.
xAI укрепляет позиции в гонке за вычислительные мощности, а Nvidia ещё глубже встраивается в экономику будущего ИИ.
reuters
Вместо этого они восстановили работу гематоэнцефалического барьера - защитного фильтра между мозгом и кровеносной системой, который обычно разрушается при нейродегенеративных заболеваниях.
Эти наночастицы представляют собой так называемые «супрамолекулярные лекарства», они не просто доставляют действующее вещество, а сами выполняют терапевтическую функцию. Учёные запрограммировали их так, чтобы они имитировали белок LRP1, отвечающий за выведение токсичных амилоидных бета-пептидов (Aβ) из мозга. Когда наночастицы связываются с этим белком, запускается процесс самоочищения и восстановления барьера.
Эксперименты показали, что уже через один час после введения уровень амилоида в мозге животных снизился на 50–60 %. После трёх доз у 12-месячных мышей (эквивалентно людям около 60 лет) к 18-месячному возрасту (примерно 90 лет у человека) полностью восстановились поведенческие функции и животные снова вели себя как молодые.
Пока метод протестирован только на животных, и для применения на людях потребуются дополнительные исследования безопасности и эффективности.
interesting
Новая модель Sora 2 от OpenAI столкнулась с ошибками в работе **guardrails - механизмов, отвечающих за блокировку нежелательного контента.
Модель в некоторых случаях пропускает запрещённые или неуместные материалы, а также ошибочно помечает безопасные запросы как нарушения. Это вызывает вопросы к её готовности для широкого коммерческого использования.
OpenAI уже расследует проблему и уточняет, что сбой связан с «непредвиденными взаимодействиями между мультимодальными фильтрами».
Контроль безопасности для генеративных видео-моделей - куда сложнее, чем для текста. И Sora 2 сейчас становится главным испытанием этой технологии.
404
💰 OpenAI, Nvidia и AMD заключили сделки почти на $1 триллион - создавая замкнутый цикл инвестиций
OpenAI выстраивает сеть сделок с ключевыми игроками индустрии - Nvidia, AMD и Oracle - общим объёмом свыше $1 трлн.
Что происходит:
- Nvidia инвестирует $100 млрд в OpenAI и строит 10 ГВт серверов для её инфраструктуры.
- В ответ OpenAI закупает у AMD 6 ГВт GPU и получает право купить до 10 % акций AMD по символической цене.
- Также OpenAI подписала контракт с Oracle на $300 млрд вычислительных мощностей в рамках проекта Stargate, который развернёт ещё 7 ГВт дата-центров в США.
- Посредник CoreWeave удерживает центр системы: контракты с OpenAI на $22,4 млрд и соглашение с Nvidia на $6,3 млрд облачных мощностей до 2032 года.
Компании фактически создают «замкнутую экосистему», где деньги и поставки ходят по кругу - Nvidia финансирует OpenAI, OpenAI закупает у AMD и Oracle, а те - у Nvidia.
bloomberg
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤48👍19🔥10🗿7😁2🤔2💘2💋1
Media is too big
VIEW IN TELEGRAM
Модель GPT-5 Pro заняла первое место среди всех проверенных frontier-LLM на закрытом бенчмарке ARC-AGI Semi-Private. Этот тест оценивает способность моделей к абстрактному рассуждению и решению сложных задач.
Интересно, что GPT-5 Pro всё ещё уступает результатам старого o3-preview, который OpenAI тестировал ещё в декабре прошлого года. Однако тот экспериментальный вариант был почти в 50 раз дороже в вычислительных затратах и никогда не был публично выпущен.
Версия o3-preview (high) достигала впечатляющих 87,5 % точности на ARC-AGI-1, но потребляла 172 раза ресурсов, чем версия (low). Из-за этого она не попала в официальный лидерборд - по правилам, тесты с compute-стоимостью выше $10 000 не публикуются.
GPT-5 Pro является самой мощной из доступных и подтверждённых моделей на Semi-Private ARC-AGI.
В список вошли достижения в самых разных областях: ИИ робототехника, медицина, экология, образование, энергетика и дизайн. Среди ключевых технологий - Claude Sonnet 4 от Anthropic, новая версия ИИ-модели, которая продемонстрировала более точные и безопасные ответы; NVIDIA DGX Spark - «настольный» AI-суперкомпьютер, делающий высокопроизводительные вычисления доступнее; UiPath Agentic Automation, объединяющая работу AI-агентов; и XReal One - компактные AR-очки, приближающие смешанную реальность к массовому использованию.
TIME отметили разработки в области биотехнологий, биопечати тканей, устойчивых источников энергии и переработки отходов. Эти изобретения демонстрируют, как технологии становятся не просто инструментами, а основой будущего образа жизни.
time
Google Cloud опубликовал обновлённый список из корпоративных примеров применения генеративного ИИ, что в 10 раз больше, чем годом ранее. Это показывает, что AI уже массово используется в продакшене по всему миру.
В банках и ритейле Commerzbank ИИ обрабатывает 2 млн клиентских чатов с 70% успешных решений, Best Buy ускоряет анализ отзывов, а Mercedes внедрил голосового ассистента на базе Gemini.
Внутри компаний ИИ автоматизирует рутину: Toyota экономит более 10 000 часов в год, Manipal Hospitals сократил передачу смен с 90 до 20 минут, Equifax - 97% сотрудников хотят сохранить AI-лицензии.
Wayfair ускорил настройку окружений на 55%, CME сэкономил 10,5 часов в месяц, а BMW и UPS используют цифровых двойников для моделирования логистики и производств.
Подробнее
Министр экономики Тайваня заявил, что TSMC сохранит свои самые передовые технологии и основное производство на острове, несмотря на предложение США сделать «50 на 50».
Компания вкладывает $165 млрд в шесть фабрик в США, но строит десять на Тайване и планирует новые - там останутся ведущие технологические узлы.
По словам министра, зарубежные заводы допустимы только при реальных заказах, прибыли и отсутствии рисков для безопасности.
Идея «50-50» возникла из-за стремления США увеличить долю внутренних чипов после кризиса поставок 2020–2021 годов.
Аналитики считают, что перенос производства в США слишком дорог и займёт годы, поэтому Вашингтон делает ставку на «friendshoring» - распределённые цепочки поставок между союзниками.
times
Microsoft представила новую модель UserLM-8B, созданную для симуляции поведения пользователя в диалоге. В отличие от обычных LLM, эта модель генерирует реплики от лица человека, включая уточнения, эмоции и ошибки, как в реальном общении.
Модель построена на базе Llama3.1 8B и дообучена на корпусе WildChat-1M, где она анализировала сотни тысяч реальных и синтетических диалогов. Такой подход позволяет создавать реалистичные сценарии общения для тестирования чат-ботов, обучения ассистентов и генерации синтетических данных.
HF
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤51👏16👍9🔥7
В эпоху, когда сами нейросети уже перестали удивлять, конкуренция смещается в сторону платформ, сервисов и инструментов, которые помогают работать с ИИ на практике. Всё чаще ценность определяется не параметрами модели, а тулингом вокруг нее и тем, как нейросеть встроена в продукты и решает конкретные бизнес-задачи.
Подробнее — в свежем интервью: https://mltimes.ai/rukovoditel-platformy-ai-studio-v-yandex-b2b-tech-artur-samigullin-o-konkurenczii-s-inostrannymi-modelyami-i-kak-yandeks-prodaet-svoi-i-opensorsnye-nejroseti/
@ai_machinelearning_big_data
#news #ai #ml
Подробнее — в свежем интервью: https://mltimes.ai/rukovoditel-platformy-ai-studio-v-yandex-b2b-tech-artur-samigullin-o-konkurenczii-s-inostrannymi-modelyami-i-kak-yandeks-prodaet-svoi-i-opensorsnye-nejroseti/
@ai_machinelearning_big_data
#news #ai #ml
❤34👍19🔥9😁2
Media is too big
VIEW IN TELEGRAM
Вместо традиционного fine-tuning, где обновляются веса модели, ACE позволяет ей становиться умнее без переобучения.
Метод основан на идее, что модель может сама улучшать свои подсказки - переписывать их, анализировать ошибки и извлекать уроки из прошлых попыток. В процессе формируется постоянный контекстный «ноутбук»я, накопленная база знаний, в которой сохраняются успешные решения и примеры.
По данным авторов, ACE показывает результаты выше, чем у агентов на основе GPT-4: на 10,6% лучше в тестах AppWorld и на 8,6% лучше в задачах финансового рассуждения. При этом затраты и задержка снижаются на 86,9%, а для обучения не требуется размеченных данных.
Главный вывод работы в том, что ACE опровергает идею минимализма в промптах. Вместо коротких и простых инструкций этот подход делает ставку на богатый контекст и постоянное самоулучшение модели.
arxiv
Система обеспечивает до 5 раз выше производительность на GPU, обладает 37 ТБ объединённой памяти и вычислительной мощностью 1,44 экзафлопса.
Проект демонстрирует, что ставка Microsoft на развитие облачной инфраструктуры Azure для ИИ приносит ощутимые результаты.
microsoft
В Китае молодёжь массово обращается к ИИ-компаньонам вроде DeepSeek и Doubao, заменяя ими дорогие и труднодоступные сеансы терапии.
Проблема системная — 80% больниц не имеют психиатрических отделений, а консультация в больших городах стоит до 800 юаней ($110) в час.
ИИ-чаты дают мгновенный и анонимный отклик, но несут и риски: универсальные модели могут поддерживать опасные мысли вместо того, чтобы оспаривать их.
Соцсети заполняют истории о «разговорах со слезами на глазах» - поисковые запросы вроде «плакал после общения с ИИ» превысили миллион упоминаний. Опросы показывают, что всё больше молодых пользователей обращаются к чат-ботам при тревоге, депрессии или проблемах в отношениях — их привлекает анонимность и круглосуточная доступность.
restofworld
MoonshotAI обновила инструмент K2 Vendor Verifier
- теперь можно визуально сравнивать точность выполнения вызова инструментов (tool calls) у разных провайдеров.
Github
Компания объявила о крупном достижении в области long-context AI-моделей, где вычислительная сложность растёт линейно, а не квадратично, что решает одну из ключевых проблем современных LLM - баланс между эффективностью и точностью при обработке длинных последовательностей.
Модель вдохновлена биологической памятью и сочетает два типа запоминания: точное краткосрочное и сжатое долговременное.
Свежие токены удерживаются в скользящем окне внимания (аналог кратковременной памяти), а более старые - сжимаются “гиппокампом” в компактное состояние фиксированного размера, которое обновляется и передаётся дальше.
Результаты впечатляют: на тестах с контекстом 128k вычисления (FLOPs) сократились на 40,5 %, объём KV-кеша — на 74 %, при этом точность выросла, а параметры увеличились лишь на 0,4 %.
На этапе вывода каждый новый токен обращается и к точному окну, и к сжатому состоянию, что сохраняет локальную точность и обеспечивает понимание длинного контекста без взрыва памяти и вычислений.
arxiv.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤29🔥28🥰3
Media is too big
VIEW IN TELEGRAM
По данным The Wall Street Journal, Microsoft и Anthropic наняли Риши Сунака в качестве старшего консультанта на неполный рабочий день.
В Anthropic он будет заниматься вопросами глобальной стратегии и геополитических тенденций, не затрагивая внутреннюю политику Великобритании. Microsoft уточнила, что Сунак даст внутренние стратегические консультации и будет выступать на корпоративных мероприятиях.
Ранее, в июле 2025 года, Сунак также стал советником Goldman Sachs.
Его опыт в сфере ИИ включает проведение саммита AI Safety Summit в ноябре 2023 года и запуск AI Safety Institute, что дало ему непосредственное понимание международной координации и тестирования безопасности ИИ.
wsj
Adobe представила метод RL-ZVP: обучение даже на “бесполезных” промптах
Новая р описывает способ обучения моделей, который использует промпты с нулевой дисперсией ответов - то есть случаи, где все сэмплированные ответы одинаково хороши или одинаково плохи. Раньше такие данные считались «пустыми» и отбрасывались, но теперь превращаются в сигнал для обучения.
Метод RL-ZVP (Reinforcement Learning with Zero Variance Prompts) заменяет “молчание” градиента на активное обновление: если все ответы верны — считается положительный пример, если все ошибочны — отрицательный. Обновления масштабируются по энтропии, чтобы неуверенные токены корректировались сильнее, а очевидные - слабее.
Такой подход повышает точность до +8.6 пунктов и pass rate до +7.8 пунктов по сравнению с популярным методом GRPO, не требуя дополнительных вычислений.
Главная идея - не выбрасывать 50% обучающих шагов, а извлекать из них пользу, превращая “пустые” выборки в источник стабильности и точности.
arxiv
Модель точно сохраняет персонажа и окружение.
Достаточно начать запрос со слов «next scene», чтобы ИИ продолжил историю, с плавными переходами, продуманной композицией и даже собственным сюжетом.
HF
По данным The Wall Street Journal, Эндрю Таллок, сооснователь Thinking Machines Lab и один из ведущих исследователей в области ИИ, покинул компанию и присоединился к команде Цукерберга.
Этот шаг примечателен тем, что ранее Таллок отклонил предложение компании рука на сумму $1 млрд, но теперь возвращается в компанию, где уже проработал 11 лет до перехода в OpenAI, а затем - к созданию Thinking Machines вместе с Мирой Мурати в начале этого года.
wsj
Впервые искусственный интеллект не просто прошёл академическое испытание, а занял места в топ-2 среди 200–300 лучших школьников планеты.
Модели GPT-5 и Gemini 2.5 Pro показали результаты 85,6 % и 84,2 % соответственно - это уровень золотой медали.
Такие олимпиады считаются одними из самых сложных в мире: участники решают задачи по нейтронным звёздам, магнитным полям, аккреционным потокам и орбитальной механике, нередко по нескольку часов каждая.
В новом отчёте “Neuralink, AI in your brAIn” аналитики Morgan Stanley заявили, что интерфейсы мозг-компьютер (BCI) переходят из научной фантастики в реальную экономику — и Neuralink стоит в центре этого сдвига.
Neuralink уже имплантировали чипы 12 пациентам, а 10 000 человек ждут своей очереди. Один из пользователей проводит с устройством по 100 часов в неделю. Текущие проекты — Telepathy (управление компьютером мыслями) и Blindsight (восстановление зрения через зрительную кору).
Morgan Stanley оценивает рынок в $400 млрд только в США, прежде чем технология выйдет в гейминг, оборонку и потребительские устройства.
Эксперты предупреждают: ИИ ускорит развитие BCI, но скорость человеческой мысли может не поспевать за AGI.
thedebrief
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥49❤40👍19😁5🌭5🙉3💘2🤔1🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
На видео - 19-летний студент Стэнфорда, который бросил университет, чтобы запустить свой первый стартап Loopt.
Loopt был геолокационным приложением - своего рода предшественником Find My Friends и функции геометок в соцсетях. В приложении можно было смотреть, какие места посещают ваши друзья, какие отзывы оставляют.
Loopt продали в 2012 году за $43,4 млн. После этого Сэм Альтман создал свой венчурный фонд Hydrazine, начал инвестировать в стартапы, затем стал главой акселератора Y Combinator — программы, которая помогает молодым компаниям расти и получать инвестиции.
А уже в 2015 году он соосновал OpenAI.
@ai_machinelearning_big_data
#openai #ml #ai #chatgpt #SamAltman
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨57🔥39👍21⚡10❤7😨6🗿3🥰1🤬1💘1