📈 OpenAI и Anthropic показывают взрывной рост прибыли в 2025.
— OpenAI удвоили ARR* за полгода: $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: $1B → $5B
🧻 Интересное распределение выручки:
— OpenAI лидирует в подписках (частные и корпоративные пользователи)
— Anthropic чуть впереди по доходу с API: $3.1B против $2.9B
— Почти половина API-выручки Anthropic поступает всего от двух клиентов: Cursor и GitHub
🧑💻 ChatGPT обрабатывает более 3 миллиардов сообщений в день — и рост продолжается ускоряться.
Если год назад прирост пользователей составлял 2,5× в год, то теперь он достиг 4×.
Code Claude же даёт $400M ARR — в 2 раза больше, чем всего несколько недель назад.
Сегодня почти все ассистенты по умолчанию используют Claude 4 Sonnet.
Но если GPT‑5 перехватит лидерство — и те же Cursor или Copilot перейдут к OpenAI — расклад может быстро поменяться.
@ai_machinelearning_big_data
#OpenAI @Anthropic #ml #llm #ai
— OpenAI удвоили ARR* за полгода: $6B → $12B
— Anthropic выросли в 5 раз за 7 месяцев: $1B → $5B
*ARR (Annual Recurring Revenue) — это годовой повторяющийся доход, один из ключевых финансовых показателей для компаний, особенно в сфере подписок (например, SaaS).
— OpenAI лидирует в подписках (частные и корпоративные пользователи)
— Anthropic чуть впереди по доходу с API: $3.1B против $2.9B
— Почти половина API-выручки Anthropic поступает всего от двух клиентов: Cursor и GitHub
🧑💻 ChatGPT обрабатывает более 3 миллиардов сообщений в день — и рост продолжается ускоряться.
Если год назад прирост пользователей составлял 2,5× в год, то теперь он достиг 4×.
Code Claude же даёт $400M ARR — в 2 раза больше, чем всего несколько недель назад.
Сегодня почти все ассистенты по умолчанию используют Claude 4 Sonnet.
Но если GPT‑5 перехватит лидерство — и те же Cursor или Copilot перейдут к OpenAI — расклад может быстро поменяться.
@ai_machinelearning_big_data
#OpenAI @Anthropic #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62🔥27❤17🦄4🤣3🤔2🗿2👨💻1
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU
💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o
Младшая модель может запускаться даже на локальном железе!
https://github.com/huggingface/transformers/releases/tag/v4.55.0
🚀 Попробовать можно тут: https://www.gpt-oss.com/
@ai_machinelearning_big_data
#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥87👍39❤27🍾7👨💻3
Зачем нужен Harmony?
Этот формат нужен для:
— 🧠 генерации chain of thought рассуждений
— 🔧 корректного вызова функций и использования инструментов
— 📦 вывода в разные каналы: обычный ответ, reasoning, tool call
— 🗂️ поддержки tool namespaces и иерархических инструкций
💡 Harmony имитирует OpenAI Responses API, так что если вы с ним работали — будет легко освоиться.
👉 Если вы используете gpt-oss через HuggingFace, Ollama или vLLM, волноваться не нужно.
Но если строите свой пайплайн — обязательно изучите гайд по Harmony.
Без него модель просто не будет работать как надо.
pip install openai-harmony
# or if you are using uv
uv pip install openai-harmony
@ai_machinelearning_big_data
#gptOSS #Harmony #OpenAI #LLM #PromptEngineering
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62❤28🔥11🦄3👨💻2😁1
🚀 OpenAI **gpt-oss** с ультрадлинным контекстом!
Unsloth выпустили Flex Attention, который даёт до 61K контекста для gpt-oss bf16 при обучении на GPU с 80GB.
📊 Что это значит:
- 8× больше контекста
- потребляет на 50% меньше VRAM
- 1.5× быстрее по сравнению с альтернативами (включая FA3)
Для BF16 LoRA теперь можно тренировать с ~60K контекстом на одной H100 80GB.
🔗 Подробнее: https://docs.unsloth.ai/basics/long-context-gpt-oss-training
@ai_machinelearning_big_data
#Unsloth #OpenAI #gptoss #chatgpt
Unsloth выпустили Flex Attention, который даёт до 61K контекста для gpt-oss bf16 при обучении на GPU с 80GB.
📊 Что это значит:
- 8× больше контекста
- потребляет на 50% меньше VRAM
- 1.5× быстрее по сравнению с альтернативами (включая FA3)
Для BF16 LoRA теперь можно тренировать с ~60K контекстом на одной H100 80GB.
🔗 Подробнее: https://docs.unsloth.ai/basics/long-context-gpt-oss-training
@ai_machinelearning_big_data
#Unsloth #OpenAI #gptoss #chatgpt
👍50❤18🔥10💅4
OpenAI опубликовали исследование о причинах галлюцинации LLM.
Галлюцинации - это не мистический сбой в сознании ИИ, а вполне предсказуемый побочный эффект его обучения.
Представьте, что перед моделью стоит задача бинарной классификации - определить, является ли предложенное утверждение корректным или нет. Математическая выкладка в исследовании проста: уровень ошибок генерации как минимум в 2 раза превышает уровень ошибок классификации. Если модель не способна надежно отличить факт от вымысла, она неизбежно будет этот вымысел генерировать.
Даже на идеально чистых данных статистические цели обучения подталкивают модель к генерации ошибок. Особенно это касается фактов, которые редко встречаются в обучающей выборке.
В работе вводится понятие
singleton rate
— доля фактов, которые появились в данных лишь один раз. Теоретический расклад показывает, что уровень галлюцинаций модели будет как минимум равен этой доле. Проще говоря, если 20% фактов о днях рождения в датасете встретились единожды, модель будет выдумывать дни рождения как минимум в 20% случаев.
Модель DeepSeek-V3, на просьбу назвать день рождения одного из авторов статьи, трижды выдала неверные даты:
03-07
, 15-06
и 01-01
. Ни одна из них не была даже близка к правильной (осенью). В другом тесте, где нужно было сосчитать количество букв
D
в слове DEEPSEEK
, та же DeepSeek-V3 выдавала 2
или 3
, а модели компании Марка Цукерберга и Claude 3.7 Sonnet доходили до 6
и 7
. При этом базовые модели после претрейна часто показывают отличную калибровку. Например, у предобученной GPT-4 ожидаемая ошибка калибровки составляла всего 0.007, что говорит о высокой статистической адекватности ее предсказаний.
Ответ на этот вопрос - в системе оценки. Большинство современных бенчмарков поощряют угадывание. Модели, по сути, постоянно находятся в режиме сдачи экзамена, где за правильный ответ дают 1 балл, а за пустой бланк или ответ
я не знаю
- 0. В такой системе оптимальная стратегия при неуверенности - только угадать. Любой шанс на правильный ответ лучше, чем гарантированный ноль.Эту гипотезу подтвердили анализом популярных оценочных наборов.
В GPQA, MMLU-Pro, Omni-MATH, SWE-bench и HLE используется строго бинарная система оценки (правильно/неправильно). Возможности получить частичный балл за честное признание в незнании там просто нет. Из 10 рассмотренных в исследовании популярных бенчмарков только один, WildBench, присуждает частичные баллы за ответы формата
я не знаю
. Остальные же фактически наказывают модель за отказ галлюцинировать, создавая эпидемию штрафов за неуверенность и поощряя ее выдавать правдоподобную ложь.OpenAI предлагает встраивать явные целевые уровни уверенности в рубрики, вводить поведенческую калибровку и оценивать модели по секциям с разными порогами уверенности.
Еще рекомендуют включают мониторинг
singleton-rate
на корпусе, измерение вероятности важных ответов, комбинирование RAG с верификацией фактов и изменение лидербордов чтобы ответы я не знаю
не штрафовались автоматически.@ai_machinelearning_big_data
#AI #ML #LLM #Research #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤80👍34🔥14👏3🥰1😁1💘1
OpenAI поддерживает проект Critterz — первый полнометражный анимационный фильм, созданный преимущественно с применением генеративного ИИ.
- вместо привычных 3 лет производство займёт всего 9 месяцев
- бюджет — менее $30 млн (значительно меньше, чем обычно стоит производство подобных анимационных фильмов)
- премьера намечена на Каннский кинофестиваль в мае 2026 года, после чего планируется мировой прокат
Команда собирается привлечь живых актёров для озвучивания персонажей и нанять художников, которые подготовят эскизы. Эти материалы будут загружаться в инструменты OpenAI — включая GPT-5 и модели генерации изображений.
@ai_machinelearning_big_data
#ai #openai #genai
@ai_machinelearning_big_data
#ai #openai #genai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55❤28🔥17😁11🤬8😭8🥱5⚡3🤔2😢1💘1
Это один из крупнейших договоров на облачные вычисления в истории.
Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.
⚡ Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.
Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.
@ai_machinelearning_big_data
#AI #Cloud #OpenAI #Oracle #DataCenters
Please open Telegram to view this post
VIEW IN TELEGRAM
❤106🔥38👍17🤔4🌭4😢3🤨3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Совет, который спас OpenAI: “Всегда делай API”
В первые годы OpenAI балансировала на грани: фундаментальные модели становились всё дороже, а продукта, который мог бы оплачивать эти расходы, так и не появлялось.
GPT-3 выглядел впечатляюще, но в реальности был слишком «сырой», чтобы построить вокруг него работающий сервис.
Сэм Альтман вспоминает: «Я поднимал градус срочности - нам нужен был продукт, а идей не было».
И тогда в памяти всплыл совет Пола Грэма, основателя Y Combinator:
👉 «Всегда делай API. Что бы ни происходило - сделай API. Хорошие вещи придут сами».
OpenAI без особых ожиданий открыла доступ к GPT-3 через API. «Может, кто-то найдёт применение», - подумали в компании.
И действительно: первыми успехами стали сервисы для копирайтинга - Jasper, Copy.ai. Но самое любопытное оказалось в другом: часть пользователей начинала просто разговаривать с моделью часами напролёт. Это не было мейнстримом, но сигнал оказался настолько сильным, что команда поняла — вот он, настоящий продукт.
📅 30 ноября 2022 года OpenAI запустила ChatGPT как «исследовательский превью» на базе GPT-3.5. Всего за 5 дней им воспользовались более миллиона человек.
🔥 Из скучного API родился продукт, который изменил представление об искусственном интеллекте. И всё началось с одного простого совета.
@ai_machinelearning_big_data
#OpenAI #СэмАльтман #ChatGPT #стартапы
В первые годы OpenAI балансировала на грани: фундаментальные модели становились всё дороже, а продукта, который мог бы оплачивать эти расходы, так и не появлялось.
GPT-3 выглядел впечатляюще, но в реальности был слишком «сырой», чтобы построить вокруг него работающий сервис.
Сэм Альтман вспоминает: «Я поднимал градус срочности - нам нужен был продукт, а идей не было».
И тогда в памяти всплыл совет Пола Грэма, основателя Y Combinator:
👉 «Всегда делай API. Что бы ни происходило - сделай API. Хорошие вещи придут сами».
OpenAI без особых ожиданий открыла доступ к GPT-3 через API. «Может, кто-то найдёт применение», - подумали в компании.
И действительно: первыми успехами стали сервисы для копирайтинга - Jasper, Copy.ai. Но самое любопытное оказалось в другом: часть пользователей начинала просто разговаривать с моделью часами напролёт. Это не было мейнстримом, но сигнал оказался настолько сильным, что команда поняла — вот он, настоящий продукт.
📅 30 ноября 2022 года OpenAI запустила ChatGPT как «исследовательский превью» на базе GPT-3.5. Всего за 5 дней им воспользовались более миллиона человек.
🔥 Из скучного API родился продукт, который изменил представление об искусственном интеллекте. И всё началось с одного простого совета.
@ai_machinelearning_big_data
#OpenAI #СэмАльтман #ChatGPT #стартапы
1👍139❤54🔥23🥱5🤷♂4💘1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Илья Суцкевер: ИИ со временем заменит весь человеческий труд
Сооснователь OpenAI Илья Суцкевер заявил, что в ближайшие годы искусственный интеллект сможет выполнять не только отдельные задачи, но буквально всё, что способен человек.
По его словам, ключ к пониманию прост: наш мозг — это биологический компьютер. Если биологический компьютер справляется с обучением и решением задач, то нет причин, по которым цифровой компьютер не сможет достичь того же.
Суцкевер уверен: день, когда ИИ будет способен делать 100% человеческой работы, неизбежно наступит — вопрос лишь в скорости этого процесса.
🟠 Полное интервью: https://www.youtube.com/watch?v=zuZ2zaotrJs
@ai_machinelearning_big_data
#AI #ArtificialIntelligence #IlyaSutskever #OpenAI
Сооснователь OpenAI Илья Суцкевер заявил, что в ближайшие годы искусственный интеллект сможет выполнять не только отдельные задачи, но буквально всё, что способен человек.
По его словам, ключ к пониманию прост: наш мозг — это биологический компьютер. Если биологический компьютер справляется с обучением и решением задач, то нет причин, по которым цифровой компьютер не сможет достичь того же.
Суцкевер уверен: день, когда ИИ будет способен делать 100% человеческой работы, неизбежно наступит — вопрос лишь в скорости этого процесса.
@ai_machinelearning_big_data
#AI #ArtificialIntelligence #IlyaSutskever #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🥱172🤔74❤43👍29🤣15😁13🤨13🗿13🤷♂11🔥5🦄4
OpenAI представила новую модель GPT-5-Codex, оптимизированную под программирование и агентные задачи.
Она доступна пользователям GitHub Copilot в публичном превью.
Модель можно выбрать прямо в VS Code в режимах Ask, Edit и Agent, но только начиная с версии Copilot v1.104.1. Доступ распространяется на тарифы Pro, Pro+, Business и Enterprise, при этом в бизнес- и корпоративных планах администратор должен включить поддержку GPT-5-Codex в настройках.
https://github.blog/changelog/2025-09-23-openai-gpt-5-codex-is-rolling-out-in-public-preview-for-github-copilot/
@ai_machinelearning_big_data
#openai #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍67🔥12❤🔥8❤7💘2
🎥 OpenAi показали Sora 2
Всё, что нужно знать коротко:
- Реализм и физика: движение стало правдоподобнее, модель учитывает сложную динамику движения.
- Законы физики соблюдаются: например, промах по кольцу в баскетболе отскакивает, а не “телепортируется”.
- Видео со звуком: синхронная генерация речи, эффектов и фоновых звуков.
- Управляемость: модель точно следует сложным промптам, держит сцены цельным, умеет в реализм и аниме.
- Cameos: можно загрузить своё видео/аудио и вставить лицо + голос в любой сгенерированный ролик.
- Пиложение: новое iOS-приложение “Sora” с лентой наподобие TikTok, ремиксами и cameo.
Доступ дают по инвайтам
- Как попробовать: доступ бесплатный, но пока только в США и Канаде, а Pro-версия генератора доступна для платных акаунтов ChatGPT Pro.
- API обещают скоро подвезти .
https://x.com/OpenAI/status/1973075422058623274
#Sora2 #OpenAI #видеогенерация #ИИ #AIvideo
Всё, что нужно знать коротко:
- Реализм и физика: движение стало правдоподобнее, модель учитывает сложную динамику движения.
- Законы физики соблюдаются: например, промах по кольцу в баскетболе отскакивает, а не “телепортируется”.
- Видео со звуком: синхронная генерация речи, эффектов и фоновых звуков.
- Управляемость: модель точно следует сложным промптам, держит сцены цельным, умеет в реализм и аниме.
- Cameos: можно загрузить своё видео/аудио и вставить лицо + голос в любой сгенерированный ролик.
- Пиложение: новое iOS-приложение “Sora” с лентой наподобие TikTok, ремиксами и cameo.
Доступ дают по инвайтам
- Как попробовать: доступ бесплатный, но пока только в США и Канаде, а Pro-версия генератора доступна для платных акаунтов ChatGPT Pro.
- API обещают скоро подвезти .
https://x.com/OpenAI/status/1973075422058623274
#Sora2 #OpenAI #видеогенерация #ИИ #AIvideo
❤131👍38🔥15😁7🗿5💘2🍓1
Позволяет создать нативные приложенийяпрямо внутри ChatGPT.
Идея простая: теперь не нужно выходить из ChatGPT, чтобы делать привычные вещи.
Можно прямо в чате работать с дизайном в Figma, создавать презентации в Canva, искать жильё на Booking или смотреть курсы на Coursera — всё в одном окне.
Платформа поддерживает авторизацию, оплату и подключение внешних сервисов,
а значит, ChatGPT становится центром, где совмещаются ИИ, приложения и автоматизация задач.
Скоро разработчики (вайбкодеры) смогут добавлять свои приложения и зарабатывать на них через ChatGPT SDK.
По сути это убийца n8n и Zapier.
Это интуитивно понятный**визуальный конструктор**, где можно создавать своих ИИ-агентов без единой строчки кода.
Просто перетаскиваешь блоки, подключаешь MCP и ChatKit — и агент сам ищет файлы, анализирует данные и выполняет задачи.
Инструмент уже доступен всем.
OpenAi умеют в дизайн, должно быть удобно.
Можно уже попробовать: https://platform.openai.com/agent-builder
Вышел из беты, получил интеграцию со Slack и собственный SDK.
На демо агент управлял светом и экраном голосом - без кода.
На презентации заявили, что теперь почти весь их код пишется с помощью Codex
Благодаря Codex разработчики OpenAI стали отправлять на 70% больше pull-request’ов в неделю, чем раньше.
Теперь у кодекса появляется интеграция со Slack и SDK, чтобы разработчики могли встраивать его в свои рабочие процессы.
Прямо в эфире Codex написал код для управления камерой, сам собрал интерфейс и **запустил готовое при
$15 за ввод и $120 за вывод за 1M токенов
Gpt-realtime-mini - на 70% дешевле, подходит для мгновенных ответов и потоковых задач
Можно будет генерировать видео прямо из кода
PS: Agent Builder выглядит действительно интересно - интуитивный, гибкий, инструмент с большим потенциало
м.
А вот насколько полезными окажутся приложения внутри ChatGPT, не особо понятно.
OpenAI не боится экспериментировать.
Они развивают ChatGPT как платформу, ищут
новые варианты захвата рынка и пробуют смелые идеи. Это дорогого стоит.
Их интерфейс просто топ: минимализм, аккуратность, почти в духе Apple. UX - на уровне искусства.
У OpenAI уже более 800 млн активных пользователей в неделю и они обрабатывают 6 миллиардов токенов в минуту!
К концу года число пользователей, похоже, вплотную подойдёт к 1 миллиарду.
Но гонка только начинается.
Google явно готовит ответ - Gemini 3 обещает быть топом. Другие игроки тоже не дремлют.
@ai_machinelearning_big_data
#openai #chatgpt #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍661🔥301❤207🎉178👏104😁77🤔52🤩41🤣15👌13🙈13
This media is not supported in your browser
VIEW IN TELEGRAM
На видео - 19-летний студент Стэнфорда, который бросил университет, чтобы запустить свой первый стартап Loopt.
Loopt был геолокационным приложением - своего рода предшественником Find My Friends и функции геометок в соцсетях. В приложении можно было смотреть, какие места посещают ваши друзья, какие отзывы оставляют.
Loopt продали в 2012 году за $43,4 млн. После этого Сэм Альтман создал свой венчурный фонд Hydrazine, начал инвестировать в стартапы, затем стал главой акселератора Y Combinator — программы, которая помогает молодым компаниям расти и получать инвестиции.
А уже в 2015 году он соосновал OpenAI.
@ai_machinelearning_big_data
#openai #ml #ai #chatgpt #SamAltman
Please open Telegram to view this post
VIEW IN TELEGRAM
🤨93🔥70👍40❤15⚡13😨7🗿4🤬2🙈2💘2🥰1