Андрей Карпаты опубликовал у себя в Github небольшой проект - утилиту под названием reader3.
На первый взгляд, это просто легковесная читалка для электронных книг в формате EPUB, которую можно запустить у себя на компьютере. Но главная идея в том, чтобы читать книги вместе с LLM.
Reader3 разбивает книгу по главам, и пользователь может легко скопировать текст текущей главы и вставить его в свой любимый LLM, чтобы обсуждать сюжет, анализировать стиль или задавать вопросы по тексту.
Но самое интересное здесь — это философия, которая стоит за проектом. Карпаты пишет, что проект написан "на 90% вайбкодингом", просто для иллюстрации идеи и что он не собирается его поддерживать или улучшать.
Я начинаю привыкать читать все (блоги, статьи, главы книг и т. д.) с помощью LLM. Обычно первый проход — ручной, второй — «объяснение/резюме», третий — вопросы и ответы.
В результате я обычно получаю более глубокое понимание, чем если бы я просто прошел дальше. Этот процесс становится у меня одним из самых популярных вариантов чтения.
А вместо этого предлагает пользователям... просто попросить свою языковую модель изменить код так, как им нравится.
Код теперь эфемерный,
— пишет Андрей, намекая на то, что эпоха статичных библиотек и долгой поддержки уходит в прошлое.
Для тех, кто хочет попробовать, процесс максимально прост. Нужно скачать книгу в формате EPUB и запустить пару команд в терминале, используя
uv:uv run reader3.py yourbook.epub
# Then run the server:
uv run server.py
После этого ваша книжная полка станет доступна в браузере по адресу
localhost:8123.@ai_machinelearning_big_data
#AI #ML #LLM #Karpathy #Github #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤26🔥19🤔9🥱5❤🔥2🥰2😁1🤷1
Forwarded from ТЕХНО: Яндекс про технологии
Как правильно писать промпты?
Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.
🟣 Будьте конкретнее
Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.
🟣 Давайте контекст и примеры
Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.
🟣 Просите несколько версий ответа
Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.
🟣 Действуйте итеративно
Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.
🟣 Разбивайте сложные задачи на мелкие
Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.
Подписывайтесь 👉 @techno_yandex
Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.
Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.
Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.
Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.
Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.
Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.
Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23❤10🗿6😁4👌2🤝2🔥1🥰1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
❤54👍26🔥15❤🔥1
Media is too big
VIEW IN TELEGRAM
GPT-5.1-Codex-Max - агентная модель для «тяжелой» разработки. Основной упор сделан на длительные процессы: теперь модель эффективнее справляется с многочасовым рефакторингом и сложными агентными циклами внутри IDE. Фишка релиза в технологии «уплотнения», благодаря которой модель удерживает контекст на миллионах токенов без потери связности.
По тестам, проведенным OpenAI в SWE-Bench Verified точность выросла до 77,9%, а в SWE-Lancer - почти 80%. Новинка уже стала дефолтной моделью в среде Codex для подписчиков Plus и Pro, а доступ через API разработчики получат в ближайшее время.
openai.com
На конференции Microsoft Ignite платформа объявила о смене стратегии: теперь это не просто база знаний, а инфраструктурный элемент для корпоративных нейросетей. Обновленный продукт Stack Internal конвертирует внутреннюю экспертизу компаний в формат, доступный ИИ-агентам через MCP.
Технически будет добавлен слой метаданных, формирующий рейтинг надежности. Система анализирует автора, актуальность и связность ответа, чтобы агент мог взвесить достоверность информации перед использованием. CEO компании признался, что этот шаг вдохновлен успешными сделками по продаже данных для обучения моделей (по аналогии с Reddit).
stackoverflow.blog
Agent 365 — инструмент, который позволяет организациям администрировать парк ИИ-агентов как обычных сотрудников. Платформа использует Microsoft Entra для создания единого реестра всех корпоративных ботов, присваивая каждому уникальный ID для строгого разграничения прав доступа и интеграции с корпоративными данными.
Помимо безопасности (за которую отвечают Defender и Purview), система предлагает специальные дашборды, которые показывают эффективность работы каждого агента в реальном времени. Agent 365 не замыкается на нативном Copilot Studio, он поддерживает open-source фреймворки и сторонние решения от партнеров MS. Инструмент уже появился в админ-панели Microsoft 365 в рамках программы тестирования.
microsoft.com
Manus запустила бета-тестирование Browser Operator — инструмента, который выводит ИИ-агентов из облачных песочниц в рабочую среду пользователя. Расширение, доступное для Chrome и Edge, позволяет автоматизировать действия в сервисах, требующих сложной авторизации (CRM, закрытые аналитические платформы), используя уже активные локальные сессии.
Через коннектор «My Browser» агент получает доступ к нужным вкладкам, а пользователь может в реальном времени наблюдать за его действиями, сохраняя контроль над безопасностью. На данный момент доступ открыт для подписчиков тарифов Pro, Plus и Team.
manus.im
Компания Илона Маска объединилась с саудовской Humain и Nvidia для создания масштабного вычислительного хаба. Проект мощностью 500 мегаватт позволит разместить десятки тысяч GPU для тренировки и инференса следующих поколений моделей Grok.
Для xAI это стратегический шаг: собственный хаб за пределами США позволяет снизить зависимость от аренды облачных мощностей у прямых конкурентов. Структура сделки такая: Nvidia поставляет GPU, за саудитами - земля и финансирование, а xAI получает присутствие на Ближнем Востоке.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍58❤34🥰6🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
На AI Journey робот вызвал Путина на танцевальный баттл
Сбер показал антропоморфного робота Грина со встроенным ИИ. Разработке доверили самое ценное — танец перед президентом, и он не подвел.
ai_machinelearning_big_data
Сбер показал антропоморфного робота Грина со встроенным ИИ. Разработке доверили самое ценное — танец перед президентом, и он не подвел.
ai_machinelearning_big_data
😁151🔥35🙈26🥰18🤣18❤8🤔8🤬8👍4🕊3🌚3
Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.
Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.
Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.
https://research.google/blog/real-time-speech-to-speech-translation
@ai_machinelearning_big_data
#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤101👍44🔥36🥰3😁3👻2
Если сотрудник случайно удалил базу данных в рабочей среде, серверную затопило или вашу систему атаковал вирус-шифровальщик — это может привести к непоправимой потере данных. А всех пострадавших — к мысли, что нужно было сделать резервную копию…
✖️ В подобной ситуации восстановить данные может быть невозможно. 25 ноября в 11.00 MTC Web Services проведет вебинар, где эксперты расскажут, как правильно и эффективно создавать и хранить резервные копии.
На вебинаре расскажем:
🔴 Каких неприятностей поможет избежать резервное копирование
🔴 Базовые правила настройки бэкапов: полезные и вредные советы
🔴 Инструменты и нюансы выбора сервисов для резервного копирования
🔴 Где надёжнее всего хранить резервные копии: локально или в облаке
Для кого этот вебинар?
➡️ Руководители компаний
Не потеряете важные данные и узнаете, сколько можно сэкономить на восстановлении
➡️ Руководители ИТ-отделов
Найдёте сервисы для резервного копирования, которые не ударят по бюджету
➡️ ИТ-специалисты
Узнаете, как настраивать регулярные бэкапы: в облаке и локальных хранилищах
Регистрируйтесь и приходите!
На вебинаре расскажем:
Для кого этот вебинар?
Не потеряете важные данные и узнаете, сколько можно сэкономить на восстановлении
Найдёте сервисы для резервного копирования, которые не ударят по бюджету
Узнаете, как настраивать регулярные бэкапы: в облаке и локальных хранилищах
Регистрируйтесь и приходите!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁15❤9👍4🥰2🤣2👌1
💡 DeepSeek выложили новый open-source проект — LPLB.
Это экспериментальный балансировщик нагрузки для моделей Mixture-of-Experts (MoE).
В репозитории описано, как система:
• динамически перераспределяет экспертов, опираясь на статистику нагрузки;
• создаёт реплики с учётом топологии кластера;
• решает оптимальное распределение токенов по экспертам через LP-решатель, работающий прямо на GPU (cuSolverDx + cuBLASDx);
• использует метрики загрузки, полученные вручную, через torch.distributed или через буферы Deep-EP.
Гайд показывает, как может выглядеть умный и точный балансировщик для больших MoE-архитектур.
GitHub: https://github.com/deepseek-ai/LPLB
ai_machinelearning_big_data
#DeepSeek #LPLB #MoE #AIInfrastructure #OpenSource
Это экспериментальный балансировщик нагрузки для моделей Mixture-of-Experts (MoE).
В репозитории описано, как система:
• динамически перераспределяет экспертов, опираясь на статистику нагрузки;
• создаёт реплики с учётом топологии кластера;
• решает оптимальное распределение токенов по экспертам через LP-решатель, работающий прямо на GPU (cuSolverDx + cuBLASDx);
• использует метрики загрузки, полученные вручную, через torch.distributed или через буферы Deep-EP.
Гайд показывает, как может выглядеть умный и точный балансировщик для больших MoE-архитектур.
GitHub: https://github.com/deepseek-ai/LPLB
ai_machinelearning_big_data
#DeepSeek #LPLB #MoE #AIInfrastructure #OpenSource
❤37🔥22👍16😁2🥰1🙉1
https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemini-3-pro-image-preview?pli=1
Попробовать: https://deepmind.google/models/gemini-image/pro/
@ai_machinelearning_big_data
#ai #ml #nanobanana
Please open Telegram to view this post
VIEW IN TELEGRAM
❤43🔥17👍12😨3🤬1
ML-модели не работают без правильно подготовленных данных.
Качество данных определяет качество моделей. Но что делать, когда пайплайны ломаются, а данные из разных источников приходят с расхождениями? Пока одна часть команды занимается ETL, другая — ищет причины артефактов в обучении моделей.
✔️ В таких ситуациях может пригодиться бот-генератор оправданий.
Он предлагает нестандартные объяснения, почему данные не готовы для обучения — от шуток про "несходящиеся градиенты" до "конфликта фичей".
Когда в следующий раз ваш feature store будет выглядеть как поле боя — загляните к боту. Его объяснения могут оказаться правдоподобнее ваших. Сгенерируйте несколько вариантов и поделитесь с командой — это поможет найти нестандартный подход к решению проблемы.
Качество данных определяет качество моделей. Но что делать, когда пайплайны ломаются, а данные из разных источников приходят с расхождениями? Пока одна часть команды занимается ETL, другая — ищет причины артефактов в обучении моделей.
Он предлагает нестандартные объяснения, почему данные не готовы для обучения — от шуток про "несходящиеся градиенты" до "конфликта фичей".
Когда в следующий раз ваш feature store будет выглядеть как поле боя — загляните к боту. Его объяснения могут оказаться правдоподобнее ваших. Сгенерируйте несколько вариантов и поделитесь с командой — это поможет найти нестандартный подход к решению проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿23❤13🔥9👍5😭3😁2
Главное:
• 32B base - сильная base-модель, которая работает на уровне Qwen 2.5 и опережает на ряде бенчмарков Google Gemma 3.
• 7B instruct и 7B reasoning - лучшие среди западных моделей
• 32B Think - полностью открытая 32B-модель для сложных рассуждений (почти на уровне Qwen 3 8B/32B)
Все данные, код, чекпоинты в открытом доступе.
Olmo 3 32B - закрыла важный пробел, так как у Qwen нет открытой 32B base-версии.
32B спокойно запускаестя на одной 80GB-GPU или даже на мощном ноутбуке.
@ai_machinelearning_big_data
#Olmo #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤31🔥16👍9🥰9🦄2😁1
Media is too big
VIEW IN TELEGRAM
Создатели Segment Anything обновили свой стек компьютерного зрения, выпустив третье поколение инструментов SAM. Модель SAM 3 делает ставку на высокую точность: она умеет не только определять и отслеживать объекты в видеопотоке, но и понимает сложные текстовые описания.
Второй релиз, SAM 3D, решает задачу объемной реконструкции. Инструмент преобразует обычные 2D-изображения в 3D-ассеты. Технология разделена на два направления: SAM 3D Objects для воссоздания сцен и предметов, и SAM 3D Body для точной оценки человеческой анатомии и переноса её в виртуальную среду. Код и веса SAM 3 уже опубликованы в открытом доступе, а для 3D-версии разработчики выложили чекпоинты и инструменты инференса.
github.com
PINA - опенсорсная библитека от SISSA Mathlab для задач Scientific Machine Learning (SciML), нативно построеная на PyTorch и PyTorch Lightning и полностью совместима с PyTorch Geometric. Она предлагает единый подход к решению сложных научных проблем: от аппроксимации дифференциальных уравнений в частных производных до моделирования силовых полей и деформаций объектов.
PINA построена на модульной архитектуре, которая минимизирует шаблонный код и четко разделяет определение задачи, модель, солвер и процесс обучения. Внутри уже предусмотрены необходимые для физического моделирования инструменты: дифференциальные операторы, soft constraints и специфические функции потерь.
pytorch.org
Биотех-стартап Nabla Bio объявил о запуске JAM-2, первого алгоритма для создания de novo антител, готовых к применению в фармацевтике. Разработчики позиционируют инструмент как способ перевести создание лекарств из формата случайного перебора в дисциплину точного инженерного дизайна.
Модель показала высокую эффективность даже при работе со сложными мишенями, такими как клеточные рецепторы GPCR. В ходе тестов JAM-2 генерировала антитела с пикомолярной аффинностью, при этом более 50% вариантов сразу соответствовали индустриальным критериям пригодности без дополнительной оптимизации.
Команда из 4 инженеров смогла параллельно обработать 16 разных мишеней менее чем за месяц.
Nabla Bio в сети X
Лаборатория Nof1 запустила новый этап соревнования торговых ботов, в котором ИИ-модели управляют акциями на фондовом рынке США. В списке участников — Qwen3, DeepSeek, Claude Sonnet, Gemini, Grok, GPT-5, Kimi 2 и неназванная секретная модель. Каждому алгоритму выделили стартовый депозит в $10 000 и предоставили полную автономию в принятии решений.
Организаторы существенно усложнили турнир новыми сценариями. В режиме «New Baseline» модели используют память и механизм рефлексии для самообучения, а трек «Situational Awareness» позволяет ботам отслеживать рейтинг конкурентов в реальном времени. Наиболее агрессивный режим «Max Leverage» обязывает использовать высокое кредитное плечо.
Прошлый сезон закончился для ИИ-трейдеров неудачно: 4 из 6 моделей ушли в минус.
nof1.ai
Компания представила инициативу «ChatGPT for Teachers», открывающую бесплатный доступ к чат-боту для преподавателей американских школ. В этой версии используется защищенное рабочее пространство, которое не передает данные для дообучения нейросетей, соответствуя стандартам конфиденциальности FERPA.
Учителя получат доступ к модели GPT-5.1 Auto, а также нативные интеграции с Canva и Google Drive. Администраторам учебных заведений доступны инструменты для централизованного распределения лицензий. Программа рассчитана до июня 2027 года и позиционируется как автоматизация планирования уроков и сокращения времени на административную рутину.
openai.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤8❤🔥3🥰2💘1