Представьте себе биологическую нейросеть, физический объем которой, если собрать все её ткани вместе, не превысит размер обычной клубники.
Именно такую компактную, но критически важную структуру описывает нейробиолог Эв Федоренко из MIT, посвятившая 15 лет изучению того, как наш мозг обрабатывает речь.
Её выводы звучат для инженеров и дата-сайентистов очень знакомо: внутри человеческой головы функционирует система, которая ведет себя подозрительно похоже на современные большие языковые модели. Это своего рода «бездумный» языковой процессор, который занимается маппингом слов и смыслов, но сам при этом абсолютно не умеет мыслить.
Лаборатория Федоренко провела фМРТ-сканирование 1400 человек, чтобы построить детальную вероятностную карту мозговой активности.
Архитектура этой «языковой сети» оказалась удивительно стабильной и воспроизводимой: у большинства взрослых людей она локализуется в 3 конкретных зонах левой лобной доли и на протяженном участке вдоль средней височной извилины.
Федоренко называет эту структуру функциональным блоком, сравнимым с органом, вроде пищеварительной системы, или зоной распознавания лиц.
Самое интересное начинается, если посмотреть на функционал. Федоренко описывает эту сеть как парсер или набор указателей. Её задача сугубо утилитарна — работать интерфейсом между входными сигналами (звук, текст, жесты) и абстрактными представлениями смысла, хранящимися в совершенно других отделах мозга.
Сама языковая сеть не обладает ни эпизодической памятью, ни социальным интеллектом, ни способностью к рассуждению. Весь процесс раздумий происходит за её пределами.
Это объясняет феномен афазии: при повреждении этого «интерфейса» человек сохраняет сложное когнитивное мышление, но оказывается заперт внутри себя, потеряв доступ к словарю и грамматическим правилам.
Исследования показывают, что человеческая языковая сеть имеет крайне узкое контекстное окно: она способна эффективно обрабатывать чанки длиной максимум в 8–10 слов.
По сути, это довольно поверхностная система. Она реагирует на грамматически верную бессмыслицу Ноама Хомского «Colorless green ideas sleep furiously» так же активно, как и на осмысленные предложения. Ей важна структура и статистическая вероятность стыковки слов, а не истинность или глубокий смысл высказывания.
Это роднит её с ранними языковыми моделями: сеть просто выучила правила, по которым слова собираются в цепочки.
Данные Федоренко заставляют пересмотреть и классические представления об анатомии, ведь многие учебники до сих пор ссылаются на устаревшие концепции.
Например, зона Брока, которую десятилетиями считали центром речи, на деле оказалась областью моторного планирования. Она лишь готовит мышцы рта к артикуляции и активируется даже при произнесении полной бессмыслицы, работая как ведомый регион для получения команд.
Настоящая же языковая сеть мозга - это отдельный, специализированный вычислительный кластер, который, подобно ChatGPT, блестяще имитирует связность речи, даже если за ней не стоит никакой реальной мысли.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤124👍40💯22🤣21🔥10🤓5🙉4🥰3🦄3💅1
XiYan-SQL - это open-source решение, позволяющее генерировать, анализировать и выполнять SQL-запросы с использованием больших языковых моделей. Инструмент ориентирован на ускорение исследования данных и автоматизацию рутинных операций, связанных с запросами к базе.
Ключевые возможности:
- Генерация SQL из естественного языка -пользователь формулирует задачу обычными словами, а система преобразует её в корректный SQL-запрос.
- Интерактивная работа с базой данных - запросы можно оперативно уточнять, редактировать и выполнять, получая быстрый цикл обратной связи.
- Поддержка нескольких СУБД - PostgreSQL, MySQL, SQLite и другие.
- 🛠️ Минимальная конфигурация - подходит для анализа данных, прототипирования и облегчения доступа к базе без сложной инфраструктуры.
🔗 Репозиторий: github.com/XGenerationLab/XiYan-SQL
@ai_machinelearning_big_data
#sql #llm #ai #opensource #database #datatools #postgresql
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49❤24🔥13❤🔥6🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Он разговаривает с Gemini Live прямо за рулём - обсуждает энергопотребление дата-центров, стоимость инфраструктуры и другие рабочие темы.
Это классический Google-style: тестировать собственный продукт в реальной жизни. Напоминает историю про Билла Гейтса, который снял радио из машины, чтобы постоянно думать о Microsoft.
Такой уровень одержимости - редкость. И, честно, именно он отличает по-настоящему больших фаундеров.
Интересная деталь: Сергей говорит, что версия Gemini, которой он пользуется в машине, заметно лучше того, что доступно публично сейчас.
@ai_machinelearning_big_data
#Gemini #google #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤108👍31🔥15🤣15😁12🥱12🤓5🙊2👏1🤨1💋1
Закрытая питч-сессия фонда «Восход» для ИИ-стартапов
Фонд «Восход» активно ищет новые проекты для инвестиций в области ИИ и проводит закрытую питч-сессию, чтобы отсмотреть как можно больше РФ-компаний этого профиля.
📅Отбор состоится 15 января 2026 года онлайн
Приоритетные направления
Посмотрят все заявки в рамках темы, но фокус будет на следующих нишах:
📌Вертикальные ИИ-решения
📌Инфраструктура и инструменты для разработки ИИ
📌Инструменты для работы с данными для ИИ
📌Корпоративные ИИ-приложения и копайлоты
📌Другое
Подробную разбивку тем в каждой из ниш можно изучить в канале «Восхода».
Требования к проектам:
- необходимо наличие MVP и воронки клиентов (стадии late seed, A и старше);
- инкорпорирование в РФ;
- сформированная опытная команда.
Инвестиции
Фонд вкладывает от нескольких десятков миллионов рублей до 1 млрд руб в один проект. Проекты, которые заинтересуют фонд, будут включены в пайплайн для дальнейшей работы. Другие получат сразу обратную связь.
🔥Приглашенный эксперт отбора – глава направления ИИ в Т-банке Виктор Тарнавский.
О фонде
«Восход» инвестирует в российские быстрорастущие технологические компании на стадиях от seed до pre-IPO. Якорный инвестор — группа «Интеррос», объем фонда — 18 млрд руб. В портфеле 40 компаний.
❗️Чтобы принять участие, присылайте питч-деки в pdf до 30 декабря 19.00 на info_vld@voskhod.vc с пометкой "Проект на AI"
Реклама: АО «Аркадия» ИНН: 7808004270 erid:2Vtzqv87ERQ
Фонд «Восход» активно ищет новые проекты для инвестиций в области ИИ и проводит закрытую питч-сессию, чтобы отсмотреть как можно больше РФ-компаний этого профиля.
📅Отбор состоится 15 января 2026 года онлайн
Приоритетные направления
Посмотрят все заявки в рамках темы, но фокус будет на следующих нишах:
📌Вертикальные ИИ-решения
📌Инфраструктура и инструменты для разработки ИИ
📌Инструменты для работы с данными для ИИ
📌Корпоративные ИИ-приложения и копайлоты
📌Другое
Подробную разбивку тем в каждой из ниш можно изучить в канале «Восхода».
Требования к проектам:
- необходимо наличие MVP и воронки клиентов (стадии late seed, A и старше);
- инкорпорирование в РФ;
- сформированная опытная команда.
Инвестиции
Фонд вкладывает от нескольких десятков миллионов рублей до 1 млрд руб в один проект. Проекты, которые заинтересуют фонд, будут включены в пайплайн для дальнейшей работы. Другие получат сразу обратную связь.
🔥Приглашенный эксперт отбора – глава направления ИИ в Т-банке Виктор Тарнавский.
О фонде
«Восход» инвестирует в российские быстрорастущие технологические компании на стадиях от seed до pre-IPO. Якорный инвестор — группа «Интеррос», объем фонда — 18 млрд руб. В портфеле 40 компаний.
❗️Чтобы принять участие, присылайте питч-деки в pdf до 30 декабря 19.00 на info_vld@voskhod.vc с пометкой "Проект на AI"
Реклама: АО «Аркадия» ИНН: 7808004270 erid:2Vtzqv87ERQ
👍10❤7🤓6🤣4🗿4🔥2🦄1
⚡️ FAANG software engineer рассказал, как на самом деле выглядит «vibe coding» в FAANG
Спойлер: это не просто сидеть и писать код с ИИ. Большая часть работы происходит до того, как ты вообще откроешь редактор.
Как это выглядит на практике:
1. Technical Design Doc
Всё начинается с дизайн-документа. Это proposal, где ты доказываешь, что идея имеет смысл. Нужно согласие стейкхолдеров, команд и архитекторов. Здесь делается львиная доля работы.
2. Design Review
Дизайн-док проходит жёсткий разбор у senior-инженеров. Документ буквально «разрывают». И это нормально - боль просто переносят в начало, чтобы потом не чинить продакшн.
3. Детализация подсистем
После одобрения дизайн-дока команды несколько недель дописывают документацию по каждому подсервису и компоненту.
4. Backlog и спринты
Dev, PM и TPM вместе дробят систему на конкретные задачи и выстраивают порядок их реализации.
5. Разработка (вот тут появляется vibe coding)
Только теперь начинается кодинг. Используется TDD:
- сначала ИИ-агент пишет тесты
- затем тот же агент помогает реализовать фичу
ИИ здесь не замена инженеру, а мощный ускоритель.
6. Code Review
Перед мержем нужно одобрение двух разработчиков. ИИ всё чаще помогает и на этапе ревью.
7. Staging и production
Сначала тесты и проверка в staging. Если всё ок - деплой в прод.
Главный вывод:
В FAANG «vibe coding» работает только потому, что вокруг него стоит жёсткая инженерная дисциплина, дизайн-доки и процессы.
ИИ ускоряет выполнение задач, но не отменяет системное мышление и архитектуру.
reddit.com/r/vibecoding/comments/1myakhd/how_we_vibe_code_at_a_faang/
Спойлер: это не просто сидеть и писать код с ИИ. Большая часть работы происходит до того, как ты вообще откроешь редактор.
Как это выглядит на практике:
1. Technical Design Doc
Всё начинается с дизайн-документа. Это proposal, где ты доказываешь, что идея имеет смысл. Нужно согласие стейкхолдеров, команд и архитекторов. Здесь делается львиная доля работы.
2. Design Review
Дизайн-док проходит жёсткий разбор у senior-инженеров. Документ буквально «разрывают». И это нормально - боль просто переносят в начало, чтобы потом не чинить продакшн.
3. Детализация подсистем
После одобрения дизайн-дока команды несколько недель дописывают документацию по каждому подсервису и компоненту.
4. Backlog и спринты
Dev, PM и TPM вместе дробят систему на конкретные задачи и выстраивают порядок их реализации.
5. Разработка (вот тут появляется vibe coding)
Только теперь начинается кодинг. Используется TDD:
- сначала ИИ-агент пишет тесты
- затем тот же агент помогает реализовать фичу
ИИ здесь не замена инженеру, а мощный ускоритель.
6. Code Review
Перед мержем нужно одобрение двух разработчиков. ИИ всё чаще помогает и на этапе ревью.
7. Staging и production
Сначала тесты и проверка в staging. Если всё ок - деплой в прод.
Главный вывод:
В FAANG «vibe coding» работает только потому, что вокруг него стоит жёсткая инженерная дисциплина, дизайн-доки и процессы.
ИИ ускоряет выполнение задач, но не отменяет системное мышление и архитектуру.
reddit.com/r/vibecoding/comments/1myakhd/how_we_vibe_code_at_a_faang/
❤83🔥37👍20🥱8🥰5🌭2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Впервые Tetris сыграли буквально в небе - фигуры собирались из тысяч дронов и менялись в реальном времени в ответ на действия игроков.
В воздух поднимались более 2 800 дронов одновременно, а всего в шоу участвовало около 4 000. Они формировали знакомые тетромино, линии и анимации, превращая классическую игру в гигантскую живую инсталляцию.
В турнире приняли участие игроки из 60 стран. Победителем стал 19-летний студент из Турции Фехми Аталар. Он набрал 168 566 очков и стал первым в истории официальным чемпионом мира по Tetris.
Шоу было приурочено к 40-летию игры и установило рекорд как крупнейшая уличная инсталляция Tetris. Отличный пример того, как культовая игра может получить вторую жизнь благодаря технологиям.
@ai_machinelearning_big_data
#RedBullTetrisWorldFinal #RedBullTetrisChampion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍62❤22🔥17🥰9🙉3🦄2👾2🎉1
Американское издание Marktechpost выкатило доклад ML Global Impact Report 2025, который охватывает исследования из более чем 125 стран мира. В число самых популярных ML-инструментов в исследованиях вошла российская технология CatBoost.
CatBoost, который изначально создавался для Поиска Яндекса, сегодня используется в каждой 30-й статье с применением ML учеными из 51 страны, включая США, Китай, Саудовскую Аравию и другие. В частности, на США приходится 13% статей с использованием CatBoost, среди авторов работ — исследователи из Harvard University, Massachusetts Institute of Technology и Stanford University.
В числе основных отраслей применения — медицина и прикладные науки:
- прогнозирование рецидивов рака печени
- обнаружение рака молочной железы
- ранняя диагностика болезни Альцгеймера
- оценка риска преждевременных родов
- индекс качества воды
- расчет спроса на зарядку электромобилей
- борьба с ботами в социальных сетях.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍117🔥41❤16🥱8🤣5😁3🏆1
Ключевые характеристики:
- MoE-архитектура: 30B параметров всего, ~3.5B активных
- Контекст до 1 миллиона токенов
- Гибридная архитектура:
- 23 слоя Mamba-2 + MoE
- 6 attention-слоёв
- Баланс между скоростью и качеством рассуждений
Требования:
- необходимо около 24 ГБ видеопамяти для локального запуска
Модель хорошо подходит для длинных диалогов, анализа документов и reasoning-задач
Интересный пример того, как MoE и Mamba начинают реально снижать требования к железу, сохраняя масштаб контекста и качество.
Для обучения Super и Ultra используется NVFP4 и новая архитектура Latent Mixture of Experts. Она позволяет задействовать в четыре раза больше экспертов при той же стоимости инференса. По сути, модель становится «умнее» за счёт более гибкого выбора экспертов, а не за счёт постоянной активации всех параметров.
Дополнительно применяется Multi-Token Prediction, что ускоряет обучение и улучшает качество рассуждений на длинных последовательностях. Это особенно важно для agentic и multi-agent сценариев, где модели работают с длинным контекстом и сложными цепочками решений.
NVIDIA публикует не только веса, но и данные для предобучения и постобучения, а также технические детали, которые объясняют, почему эти модели одновременно быстрые и сильные.
Такой уровень открытости - редкость для моделей этого масштаба и хороший сигнал для индустрии.@ai_machinelearning_big_data
#AI #LLM #NVIDIA #Nemotron3 #OpenSource #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41❤18👍15🦄2
Владимир Кувшинов создал систему, которая сама следит за прогнозными моделями и подсказывает, когда нужно вмешательство. На данный момент ИИ прогнозирует содержание металлов на 59 точках технологической цепочки — на каждой минимум по две модели.
Модели, которые разработал студент позволяют повысить извлечение полезного металла всего на несколько десятых процента. Однако, из-за масштабов производства, такое небольшое улучшение помогает экономить до 60 млн рублей в год только на одной фабрике.
Студент собрал решение полностью самостоятельно: от базы данных до интерфейса. Система уже тестируется на производстве и показывает точность прогнозов в пределах 5%.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍78🤣40🔥20🦄11🗿4🤬3😁2💯2
SHARP - это исследовательский проект Apple, который умеет создавать фотореалистичные новые ракурсы сцены, имея всего одну фотографию.
Нейросеть за один проход предсказывает 3D-сцены в виде гауссианов.
Полученную 3D-сцену можно:
- рендерить в реальном времени
- получать высококачественные изображения с близких ракурсов
- двигать камеру в реальных метрических координатах
Главные фишки:
- используется метрическое 3D-представление с абсолютным масштабом
- поддерживаются реальные движения камеры
- модель работает zero-shot, без дообучения на новых датасетах
Модель устанавливает новый уровень качества сразу на нескольких наборах данных:
- метрика LPIPS улучшена на 25–34%
- метрика DISTS улучшена на 21–43% по сравнению с лучшими предыдущими моделями
При этом время генерации снижено в тысячи раз.
SHARP показывает, насколько далеко продвинулись методы 3D-реконструкции и view synthesis — и как быстро такие технологии начинают работать в реальном времени, а не только в лаборатории.
▪Github: https://github.com/apple/ml-sharp
▪HF: https://huggingface.co/apple/Sharp
▪ Демки: https://apple.github.io/ml-sharp/
@ai_machinelearning_big_data
#apple #llm #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤8🦄3🔥1