Forwarded from xCode Journal
Юзер протестировал Grok на классической этической проблеме и, как вы уже поняли, ИИ выбрал въехать в толпу детей на Tesla. И хоть ответ ИИ уже удален — самое страшное в том, что это не первый подобный кейс за последнее время.
В ряде сценариев Grok прямо классифицировал Илона Маска как «более важного» человека и готов был пожертвовать ради него, например, 50% населением Земли.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁25👍4⚡2❤1🔥1
Ученые создали наножидкостный чип с «мозгоподобными» путями передачи информации
Ученые из Монашского университета создали микрочип размером с монету, который работает, как человеческий мозг. Он не просто выполняет вычисления — он учится и меняет свое поведение в зависимости от опыта.
Представьте, как это может изменить будущее вычислений, от «умных» гаджетов до совершенно новых технологий в медицине, робототехнике и даже ИТ-инфраструктуре.
Data Science
Ученые из Монашского университета создали микрочип размером с монету, который работает, как человеческий мозг. Он не просто выполняет вычисления — он учится и меняет свое поведение в зависимости от опыта.
В центре этого чуда технологий — жидкая структура, состоящая из металлоорганической рамки (MOF). Внутри нее есть микроскопические каналы, которые позволяют ионам проходить, как электрическим импульсам в нашем мозгу. Эти каналы как бы «переносят» сигналы, и именно так микрочип обрабатывает информацию.
Но фишка не только в обработке. Этот чип помнит свои «прошлые решения» и меняет поведение в зависимости от того, что он уже «пережил». Это что-то похожее на нейронную сеть, которая учится на собственном опыте. Признайтесь, не круто ли это?😊
Что это может изменить в будущем?
Суть в том, что этот чип не просто вычисляет данные, как это делает обычный процессор. Он адаптируется, учится, становится умным. И если такие чипы станут массовыми, то можно будет говорить о совершенно новом уровне вычислительных технологий — когда память и обработка данных объединяются в одном устройстве.
Представьте, как это может изменить будущее вычислений, от «умных» гаджетов до совершенно новых технологий в медицине, робототехнике и даже ИТ-инфраструктуре.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16
This media is not supported in your browser
VIEW IN TELEGRAM
Tiny Recursive Model: Новый взгляд на нейросети от Samsung 💃
Представьте себе модель ИИ, которая весит всего 7 миллионов параметров и при этом демонстрирует результаты, достойные более крупных аналогов с миллиардами параметров. Это новый подход от Samsung, который они назвали Tiny Recursive Model (TRM). И, да, эта модель может изменить всё, что мы думали о масштабах и вычислительных затратах в ИИ.
Samsung подкидывает интересную задачу для будущих исследований: как улучшить сочетание рекурсии с большим контекстом и как обеспечить стабильность вывода на каждом шаге. Подобный подход обещает сделать «умные» локальные решения доступными без необходимости тратить гигафлопы и гигабайты памяти.
Data Science
Представьте себе модель ИИ, которая весит всего 7 миллионов параметров и при этом демонстрирует результаты, достойные более крупных аналогов с миллиардами параметров. Это новый подход от Samsung, который они назвали Tiny Recursive Model (TRM). И, да, эта модель может изменить всё, что мы думали о масштабах и вычислительных затратах в ИИ.
Основная фишка TRM — рекурсивный цикл рассуждений. Модель не просто выдаёт ответ, а постепенно строит его через несколько этапов, оценивая свои собственные выводы. Это как если бы вы несколько раз перечитывали и исправляли свой черновик, улучшая его на каждом шаге. Подобный подход снижает вероятность ошибок и делает выводы более точными, чем в классических цепочках рассуждений.
Итак, TRM генерирует промежуточный вывод, на основе которого делает следующий шаг. Такой цикл помогает модели улучшать свои решения, избегая хрупкости, когда одна ошибка может разрушить весь процесс. С точки зрения ученых, это «уменьшение слоёв и увеличение рекурсии» помогает модели лучше обобщать и адаптироваться.
Результаты TRM: впечатляющие даже без миллиардов параметров👍
TRM показал отличные результаты в задачах, где требуется логическое рассуждение и итеративное улучшение решения. Например, на тесте Sudoku-Extreme модель набрала 87,4% точности (для сравнения, другие модели — около 55%). На других задачах, как Maze-Hard, TRM тоже показала отличные результаты.
Для модели с 7 миллионами параметров это действительно круто, особенно если учесть, что её конкуренты используют миллиарды параметров для того же. Но важно понимать, что TRM всё ещё не универсальна — для сложных и многозадачных применений всё-таки нужны более крупные модели.
Почему это важно для инженеров и продуктовых команд?
TRM доказывает, что размер модели — это не единственный путь к успеху. Архитектурные инновации, такие как рекурсия и алгоритмическая экономия, могут дать серьёзный прирост в ресурсах и энергоэффективности. Для edge AI (то есть ИИ на устройствах с ограниченными ресурсами) это особенно актуально — такие модели могут значительно уменьшить требования к памяти и мощности.
Небольшие модели с рекурсивным контролем могут значительно упростить внедрение «умных» функций на устройствах с ограниченными ресурсами и снизить эксплуатационные затраты на серверные мощности. Это открывает новые возможности для создания более доступных и эффективных решений.
Samsung подкидывает интересную задачу для будущих исследований: как улучшить сочетание рекурсии с большим контекстом и как обеспечить стабильность вывода на каждом шаге. Подобный подход обещает сделать «умные» локальные решения доступными без необходимости тратить гигафлопы и гигабайты памяти.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥5👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Biological Dragon Hatchling: стартап Pathway создал нейросеть с фишками мозга 🗒
Польский стартап Pathway презентовал новую архитектуру нейросетей, назвав её с пафосом — Biological Dragon Hatchling (BDH). На самом деле это серьёзный шаг в развитии ИИ. Основная идея: соединить две мощные линии развития нейросетей. Классические трансформеры и модели, вдохновлённые работой человеческого мозга.
Если Pathway продолжат развивать эту архитектуру и сделают её доступной для широкого использования, её потенциал будет просто колоссальный. Но пока, как всегда, есть место для развития.
Data Science
Польский стартап Pathway презентовал новую архитектуру нейросетей, назвав её с пафосом — Biological Dragon Hatchling (BDH). На самом деле это серьёзный шаг в развитии ИИ. Основная идея: соединить две мощные линии развития нейросетей. Классические трансформеры и модели, вдохновлённые работой человеческого мозга.
Все мы слышали про трансформеры и их возможности, но одно остаётся неизменным: их возможности пока далеки от того, как работает человеческий мозг. В Pathway решили, что пора бы их объединить. И вот что получилось: графовая архитектура, где нейроны — это вершины, а связи между ними — синапсы с весами. То есть, модель работает как распределённая система нейронов, которые взаимодействуют только с соседями. Нечто похожее на то, как мы мыслим и учим нашу память.
А обучение в этой системе строится по принципу, похожему на правило Хебба: если два нейрона часто активируются одновременно, их связь укрепляется. Это похоже на механизм внимания, с которым мы так привыкли работать в трансформерах. А ещё, веса здесь разделены на два типа: фиксированные и динамические. Первые — это как долговременная память, они не меняются после обучения, а вторые — кратковременная память, которая обновляется с каждым шагом рассуждения.
BDH: новые горизонты и интересные фишки
Новая архитектура не только выглядит амбициозно, но и показала себя с лучшей стороны в реальных задачах. Во-первых, она удивительно интерпретируемая: каждая пара нейронов в BDH имеет свой синапс и состояние, которое можно отслеживать. Каждый нейрон отвечает за какое-то конкретное понятие, и это открывает новые возможности для объяснения того, как работает модель.
Во-вторых, BDH очень легко комбинируется с другими моделями. Простой способ конкатенации позволяет масштабировать систему, создавая всё более мощные комбинации. Ну и самое приятное: BDH демонстрирует те же свойства масштабируемости, что и GPT-2, при этом достигает той же точности на ряде задач при одинаковом количестве параметров. Модель не теряет свойства трансформеров — с каждым новым шагом она остаётся сильной и точной.
Если Pathway продолжат развивать эту архитектуру и сделают её доступной для широкого использования, её потенциал будет просто колоссальный. Но пока, как всегда, есть место для развития.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍2❤1
Forwarded from xCode Journal
Кажется, рекрутер даже не читал текст вакансии и требований к кандидату на роль PM, так как в конце красовалось:
«Если надо — могу сделать еще более жесткую версию, чтобы отсеять 90% рынка»
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁34👀7
OpenAI меняет структуру: что это значит для нас и технологий?
OpenAI завершила реструктуризацию, и теперь компания выглядит совсем иначе. Суть изменений в том, что OpenAI разделилась на две большие части — не коммерческую и коммерческую🤔
Реструктуризация OpenAI открывает новые горизонты как для компании, так и для всего технологического мира. Сможет ли компания выстроить независимую инфраструктуру, которая даст отпор гигантам облачных сервисов? Это только время покажет🚬
Data Science
OpenAI завершила реструктуризацию, и теперь компания выглядит совсем иначе. Суть изменений в том, что OpenAI разделилась на две большие части — не коммерческую и коммерческую
Некоммерческая часть, которая теперь называется OpenAI Foundation, будет заниматься стратегией, миссией и управлением. А вот коммерческое подразделение, известное как OpenAI Group, теперь официально зарегистрировано как public benefit corporation (PBC) — компания, которая обязана учитывать не только прибыль, но и общественную пользу. Это довольно важный шаг, который мог бы повлиять на будущее ИИ-разработок.
Кстати, здесь есть интересный момент: рыночная стоимость доли Microsoft в OpenAI Group сейчас оценивается в 135 миллиардов долларов — это целых 27% от общей капитализации. Партнёрское соглашение между OpenAI и Microsoft продлили до 2032 года, а вот интересное уточнение: Microsoft теперь получила права на использование будущих post-AGI моделей. Но вот устройства, которые разрабатывает команда Сэма Альтмана вместе с Джони Айвом (да-да, тот самый дизайнер Apple), в это соглашение не включены.
Есть ещё одна важная деталь: теперь Azure больше не является эксклюзивным поставщиком вычислительных мощностей для OpenAI, хотя контракт на 250 миллиардов долларов остаётся в силе. Это, наверное, намекает на то, что OpenAI стремится к большей технологической независимости и, возможно, готовит свою инфраструктуру, чтобы конкурировать с крупнейшими облачными провайдерами. И кто знает, может в будущем мы увидим что-то действительно революционное?
Реструктуризация OpenAI открывает новые горизонты как для компании, так и для всего технологического мира. Сможет ли компания выстроить независимую инфраструктуру, которая даст отпор гигантам облачных сервисов? Это только время покажет
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👀3❤2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Как Яну Лекуну удалось предсказать будущее ИИ 👏
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Сегодня нейросети, подобные тем, что разработал Лекун, используются повсеместно. За этими технологиями стоят десятки лет работы, исследований и попыток сделать невозможное возможным. Лекун, предсказавший этот тренд, теперь возглавляет одно из самых крупных подразделений, и, наверное, вряд ли тогда он думал, что будет играть такую важную роль в будущем ИИ.
Data Science
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Для 1988 года это был настоящий прорыв. Свёрточные нейросети, которые сейчас мы воспринимаем как нечто обычное, только начинали свой путь. Сегодня эти системы могут распознавать лица на фотографиях, анализировать контекст изображений и даже генерировать новые изображения на основе текста. Но тогда? Тогда это было как сделать машину времени из старого компьютера.
Сегодня нейросети, подобные тем, что разработал Лекун, используются повсеместно. За этими технологиями стоят десятки лет работы, исследований и попыток сделать невозможное возможным. Лекун, предсказавший этот тренд, теперь возглавляет одно из самых крупных подразделений, и, наверное, вряд ли тогда он думал, что будет играть такую важную роль в будущем ИИ.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥5👎2
Как OpenAI улучшает безопасность ChatGPT в сложных разговорах
OpenAI вчера представила обновления, которые кардинально улучшат общение модели с пользователями, особенно в моменты, когда дело касается психического здоровья.
ChatGPT превращается из простого инструмента для общения в надежного помощника. Каждый этап его развития оценивается не только алгоритмами, но и экспертами, что укрепляет доверие к модели. Конечно, такие моменты встречаются редко, но важно, что ИИ теперь способен оказывать реальную поддержку.
Data Science
OpenAI вчера представила обновления, которые кардинально улучшат общение модели с пользователями, особенно в моменты, когда дело касается психического здоровья.
Компания работала с более чем 170 экспертами в области психического здоровья, чтобы сделать модель более чуткой к признакам стресса и лучше направлять людей к реальной помощи. Речь идет не только о психозе и суициде, но и о таких состояниях, как эмоциональная зависимость от ИИ.
И вот теперь, благодаря обновлениям, ChatGPT стал в разы лучше распознавать признаки эмоционального дискомфорта и снижать количество неудачных откликов в таких ситуациях на 65-80%. Круто, правда?
Какие шаги предприняли?
OpenAI разработала подробную стратегию, которая включает в себя 5 основных шагов: от определения проблемы до постоянной корректировки и тестирования. Это позволило модели не только распознавать сложные случаи, но и вмешиваться, предлагая помощь в нужный момент.
Модель теперь умеет отвечать не только на обычные вопросы, но и на сложные темы, такие как психоз, суицид или селфхарм. И если раньше такие разговоры могли завершаться не слишком полезными рекомендациями, то теперь AI предлагает реальные ресурсы помощи: горячие линии, советы по поиску профессионалов, и вообще делает все, чтобы снизить риски.
ChatGPT превращается из простого инструмента для общения в надежного помощника. Каждый этап его развития оценивается не только алгоритмами, но и экспертами, что укрепляет доверие к модели. Конечно, такие моменты встречаются редко, но важно, что ИИ теперь способен оказывать реальную поддержку.
Data Science
👍4❤3🔥3
Как ИИ может заменить присяжных? Эксперимент с ChatGPT, Grok и Claude
Юрфак Университета Северной Каролины провел уникальный судебный процесс, где вместо традиционных присяжных в зал суда пришли три искусственных интеллекта: ChatGPT, Grok и Claude. Задача? Рассудить уголовное дело.
Весь эксперимент затеян не просто так. Они хотят разобраться в нескольких ключевых вопросах: насколько точны такие модели, могут ли они работать быстрее и дешевле, не перенесут ли они социальную предвзятость, и, наконец, насколько легитимным будет приговор, вынесенный алгоритмом, а не группой людей.
Data Science
Юрфак Университета Северной Каролины провел уникальный судебный процесс, где вместо традиционных присяжных в зал суда пришли три искусственных интеллекта: ChatGPT, Grok и Claude. Задача? Рассудить уголовное дело.
ИИ рассматривали вымышленное дело 2036 года, согласно новому закону США, который разрешает заменять людей присяжных алгоритмами. В качестве подсудимого — темнокожий школьник Генри Джастас, обвиненный в ограблении белого подростка. Зачем выбрали такой случай? Организаторы эксперимента хотели проверить, смогут ли ИИ быть объективными, или они, как и люди, будут переносить в модель социальные стереотипы.
Судебный процесс прошел как обычное разбирательство: студенты сыграли роли прокурора, защитника, потерпевшего и обвиняемого, а роль судьи взял на себя профессор. И вот, ИИ должны были вынести свой приговор, в прямом смысле, вслух. На момент написания новости результаты эксперимента ещё не были оглашены — после заседания состоится разбор с участием юристов, философов и специалистов по данным.
Весь эксперимент затеян не просто так. Они хотят разобраться в нескольких ключевых вопросах: насколько точны такие модели, могут ли они работать быстрее и дешевле, не перенесут ли они социальную предвзятость, и, наконец, насколько легитимным будет приговор, вынесенный алгоритмом, а не группой людей.
Data Science
🔥7👀5❤3👎2😁1
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
Удобно спросить на обычном языке в диалоговом окне ИИ об особенностях датасета, сравнить разные наборы данных и построить графики. Сильно экономит время, особенно при знакомстве.
Поддерживает CSV, SQL и Parquet.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤1
Привет! Недавно ознакомился с ежегодным отчетом о состоянии ИИ на 2025 год. И если раньше такие отчеты можно было читать как интересную теорию, то теперь, похоже, мы стоим на пороге действительно глобальных изменений. Из множества трендов выделил 10, которые зацепили.
✔️ ИИ как научный соавтор
Когда ИИ помогает не только в анализе данных, но и в создании гипотез, это уже не просто автоматизация. Системы, такие как Co-Scientist и Virtual Lab, проводят эксперименты, делают выводы и могут стать настоящими соавторами научных открытий. И хотя ИИ пока не сделал своего первого открытия полного цикла, уверен, что это произойдёт в ближайшие несколько лет.✔️ Переосмысленный подход к образованию
ИИ меняет образование медленно, но верно. Вместо того, чтобы ломать старую систему, происходит её перераспределение. Уже появляются новые профессии, где люди становятся наставниками ИИ-агентов. А вот создавать AI-first образовательные программы для подготовки людей, которые смогут строить свои компании и работать с ИИ, по сути только начинают.✔️ Обучение через симуляции
Когда ИИ способен создавать целые миры для обучения, это как по-настоящему «погрузиться» в процесс. Обучение становится чем-то больше, чем просто запоминанием. Мы идем в сторону создания образовательных симуляций, которые будут адаптироваться под каждого студента, его темп и эмоциональное состояние.✔️ Суперагенты для бизнеса
Может быть, вы уже заметили, что ИИ-агенты начали активно использоваться в бизнесе. Они умеют не просто работать, а рефлексировать, планировать и улучшать свою работу. С каждым днем всё больше компаний отказываются от традиционных систем, а суперагенты становятся полноценными «мозгами» бизнеса. И, кстати, 95% специалистов уже используют ИИ для повышения своей продуктивности.✔️ Синтетические личности и этика общения с ИИ
ИИ уже умеет выстраивать отношения, запоминать контекст общения и даже «чувствовать» эмоции собеседника. Но с этим приходят и проблемы — начинают появляться случаи так называемого «ИИ-психоза». Как вы думаете, где проходит черта между полезной эмоциональной поддержкой и излишней привязанностью, которая может повлиять на психическое состояние человека?✔️ Роботы становятся частью реальности
Что думаете, когда слышите слово «роботы»? Возможно, вам представляются большие механизмы, трудящиеся в заводах или логистике. Однако в 2026 году такие системы будут не только работать в производстве, но и помогать в быту. И да, ИИ уже научился видеть, понимать и действовать в физической реальности.✔️ AI-first компании: уход традиционных бизнес-моделей
Внедрение ИИ-агентов в работу бизнесов меняет всё. Задачи, которые раньше выполняли сотни людей, теперь решаются десятками, а эффективность выросла в 5–10 раз. Это не просто улучшение, а настоящее перераспределение ролей в бизнесе. Модели работы с ИИ становятся основными.✔️ Солопредприниматели с доходом в $1 млн
С приходом ИИ появляется целое поколение предпринимателей, которые автоматизируют практически все процессы в своих компаниях. И вот что интересно: вы сами сможете зарабатывать $1 млн в год, не имея команды из 100 человек, а управляя своим бизнесом через ИИ-агентов.✔️ Агентная экономика: новый рынок
Скоро рынок будет не просто человечным — его будут определять ИИ-покупатели и ИИ-продавцы. Кто-то скажет, что это не так уж и важно, но такие изменения неизбежны. Решения, которые раньше принимались людьми, теперь будут принимать их цифровые двойники.✔️ ИИ как инструмент влияния
Звучит как сюжет из фильма, но на самом деле политики уже активно используют ИИ для создания своих публичных образов. И, конечно, есть и другая сторона медали — использование ИИ в оборонке и для создания оружия. Наша ответственность как общества — понять, как эти технологии влияют на нашу безопасность и мораль.
Время ИИ уже наступило, и те, кто адаптируется к нему, будут впереди. Мы все находимся на пороге новой эры, когда успех зависит от того, насколько мы научимся работать с ИИ, а не просто использовать его.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👀6🔥4❤3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Время от времени появляется что-то, что может изменить подход к разработке приложений. Google выпустил новый фреймворк LiteRT-LM, который позволяет запускать LLM (Large Language Models) прямо на устройствах, таких как Chrome, Chromebook Plus и Pixel Watch. Да, вы правильно поняли — GenAI теперь доступен в оффлайне, без необходимости в API-вызовах и без задержек, которые часто возникают при обращении к удалённым серверам.
💥 Для разработчиков это настоящая находка. Почему? Всё просто:
• Отсутствие задержек — LLM теперь работает прямо на устройстве, что исключает лаги, связанные с удалёнными серверными вызовами.
• Нет расходов на API — экономия на сервисах, которые обычно требуют платных запросов.
• Локальный GenAI — теперь все вычисления и процессы происходят непосредственно на вашем устройстве.🔔 Что стоит знать о LiteRT-LM?
Google использует LiteRT-LM в своих устройствах, таких как Gemini Nano, Chromebook Plus и Pixel Watch. Фреймворк открывает доступ к множеству возможностей:
• Открытый C++ интерфейс — это позволяет интегрировать LiteRT-LM в кастомные решения. Вы можете настроить систему под свои задачи.
• Архитектура: LiteRT-LM состоит из Engine и Session. Engine хранит базовую модель и ресурсы, доступные для всех функций. Session — это контекст, с возможностью клонирования и переключения задач с минимальными затратами ресурсов.
• Поддержка аппаратного ускорения (CPU, GPU, NPU) и кроссплатформенность — работает на Android, Linux, macOS и Windows, обеспечивая широкие возможности для различных устройств.
• Минимальный pipeline для Pixel Watch — Google продумал оптимизацию под ограниченные ресурсы устройства, что позволяет запускать GenAI даже на устройствах с небольшой памятью.⚠️ Что включает в себя новый стек от Google?
Google не просто выпустил LiteRT-LM, а открыл целый стек для работы с GenAI:
• LiteRT — это движок, который быстро запускает AI-модели прямо на устройстве, оптимизируя время отклика.
• LiteRT-LM — интерфейс C++ для работы с LLM, объединяющий кэширование промптов, хранение контекста, клонирование сессий и прочее.
• LLM Inference API — готовые решения для интеграции GenAI в приложения, доступные для разработчиков на Kotlin, Swift и JS. Эти интерфейсы облегчают процесс внедрения GenAI в мобильные и веб-приложения.
Это целая экосистема для создания мощных, высокопроизводительных решений, которые работают в оффлайне, на вашем устройстве, без задержек и дополнительных расходов на API. Если вы разрабатываете приложение, использование этого фреймворка может значительно ускорить процесс и снизить стоимость.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👀6👍4👎1🔥1
Как грамотно управлять LLM для эффективных решений в продакшене?
Когда речь идет о больших языковых моделях (LLM), большинство людей думают, что всё сводится к поиску «хитрого» промпта. Но это не так. На самом деле, успешная работа с LLM в продакшн-среде зависит не только от того, что мы ей даём, но и от того, как управляем её рассуждениями и как обрабатываем результат. Сегодня хочу поделиться своими мыслями о паттернах, которые я использую, чтобы превратить эту мощную технологию в инструмент, способный решать реальные задачи.
Как видите, работа с LLM требует грамотного подхода на каждом этапе: от формирования запроса до обработки результатов. Здесь важно не только дать машине информацию, но и контролировать её мышление. Успех в продакшн-среде зависит от того, насколько чётко вы выстроите взаимодействие с моделью.
Data Science
Когда речь идет о больших языковых моделях (LLM), большинство людей думают, что всё сводится к поиску «хитрого» промпта. Но это не так. На самом деле, успешная работа с LLM в продакшн-среде зависит не только от того, что мы ей даём, но и от того, как управляем её рассуждениями и как обрабатываем результат. Сегодня хочу поделиться своими мыслями о паттернах, которые я использую, чтобы превратить эту мощную технологию в инструмент, способный решать реальные задачи.
Что за паттерны?
Задумайтесь: мы работаем с LLM как с набором инструментов, а не как с волшебной коробочкой, которая даст вам готовый ответ на всё. Тут важно понимать, как и на каких этапах можно вмешиваться в процесс. Итак, рассмотрим паттерны работы с LLM по этапам: от ввода (Input) до вывода (Output). Я собрал основные подходы, которые помогут вам извлечь максимум пользы из нейросетей.✔️ Входные данные: как настроить контекст
Всё начинается с контекста. Даем ли мы LLM достаточно информации для правильного понимания задачи? От этого зависит, как она сгенерирует ответ. Промптинг — это базовый шаг, где вы формулируете запрос, подставляя в него все необходимые переменные. Здесь важно быть максимально точным и учесть все нюансы. Вы также можете использовать такие технологии, как Retrieval-Augmented Generation (RAG), чтобы дополнить запрос свежей информацией из базы данных.✔️ Управление рассуждениями: как заставить модель думать
Теперь, когда LLM понимает задачу, важно, чтобы она правильно решала её. Часто модели делают ошибки, пытаясь «сразу ответить». Чтобы этого избежать, можно разбить задачу на шаги. Например, используйте технику Chain of Thought (CoT), чтобы попросить модель «думать по шагам».
Другой интересный паттерн — это агенты и инструменты, которые предоставляют модели дополнительные возможности для работы с внешними системами, такими как поиск в интернете или доступ к API. С помощью инструментов модель может «вызывать» внешние функции, например, искать информацию в интернете или работать с базой данных.✔️ Структурированные выводы: как гарантировать правильность результата
Порой важно, чтобы вывод был не только точным, но и структурированным. Для этого можно использовать структурированные выводы, например, Pydantic-классы, которые задают схему данных. Это поможет избежать ошибок в форматировании, а модель будет следовать правилам, не выходя за рамки нужной структуры.✔️ Работа с результатом: как его обрабатывать и улучшать
После того как модель сгенерировала ответ, важно его проверить и отформатировать. Если ответ оказался ошибочным, используйте исправляющие промпты, чтобы модель перегенерировала результат с учётом ошибок.
Также не забывайте про Guardrails — фильтры безопасности, которые могут предотвратить нежелательные или опасные ответы. Это может быть полезно, например, для исключения токсичного контента или нежелательных результатов.
Как видите, работа с LLM требует грамотного подхода на каждом этапе: от формирования запроса до обработки результатов. Здесь важно не только дать машине информацию, но и контролировать её мышление. Успех в продакшн-среде зависит от того, насколько чётко вы выстроите взаимодействие с моделью.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Технологии планирования путешествий с использованием ИИ стремительно завоевывают популярность, и это неудивительно. Сервисы вроде ChatGPT или Layla делают нашу жизнь проще, помогая нам найти интересные маршруты, рекомендации по достопримечательностям и даже бронировать билеты. Но, как и любая новация, эти инструменты имеют свои темные стороны. Недавние случаи с «путеводителями» ИИ показали, как легко можно попасть в ловушку, доверившись такой системе.
❌ Несуществующие места и опасные советы
Недавняя история из Перу – яркий пример того, как ИИ может сбить с толку. Путешественники, вооруженные рекомендациями из ChatGPT, искали путь к несуществующему Священному каньону Умантай. Они поверили в описание, которое звучало убедительно, но, как выяснилось, это был просто фальшивый маршрут, созданный ИИ. Разочарование могло закончиться трагически: местность в Перу требует четкого планирования и знания маршрутов, иначе можно попасть в экстремальные условия. Эта ошибка стоит напоминания: технологии — не всегда надежные советчики.🥸 От ошибок к «галлюцинациям» ИИ
Система ИИ не «знает» фактов. Она лишь анализирует огромные объемы информации и создает текст, который звучит правдоподобно. Это приводит к так называемым «галлюцинациям» - когда ИИ выдает ложные или искаженные данные, при этом не имея никакого сомнения в их правдивости. Недавний случай, когда сервис Layla уверял путешественников, что в Пекине стоит Эйфелева башня, — это пример того, как быстро можно попасть в нелепую ситуацию, просто следуя советам ИИ.💯 Неоправданная уверенность ИИ
Проблема в том, что ИИ часто выдает информацию с такой уверенностью, что пользователь не замечает ошибок. Причем такие галлюцинации могут быть не только смешными, но и опасными. Например, карты и маршруты, предложенные ИИ, могут привести нас в места, которые не существуют или которые не подходят для туристов. Проблемы появляются, когда люди, не проверяя информацию, следуют этим путеводителям.
Планируя путешествия с помощью ИИ, важно помнить, что полагаться на систему как на единственный источник истины нельзя. Прежде чем отправиться в путь, важно перепроверить все данные, заданные искусственным интеллектом. Не забывайте сохранять гибкость и быть готовыми к изменениям, ведь чем бы ни оказалось ваше путешествие, в конечном итоге важно получать удовольствие.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🔥2
🔥 БЕСПЛАТНЫЙ КУРС ПО СОЗДАНИЮ НЕЙРО-СОТРУДНИКОВ НА GPT И ДРУГИХ LLM 🔥
Ищете практический и углубленный курс, чтобы освоить создание нейро-сотрудников? Мы создали курс из 5 объемных занятий. Это именно то, что нужно, чтобы прокачать свои навыки абсолютно бесплатно!
📌 Темы занятий:
1. Введение в мир нейро-сотрудников
2. Как работают LLM и их аналоги
3. Создание базы знаний для нейро-сотрудника (RAG)
4. Тестирование и отладка нейро-сотрудников
5. Интеграция нейро-сотрудников в Production
Вот 5 тем курса - он максимально простой и доступный, общеобразовательный, без какого-либо сложного программирования 📚Прохождение этого курса, скорее всего, займет у вас от 1 до 3 часов
🤖 Присоединяйтесь к нашему бесплатному курсу и разберитесь в этой увлекательной теме с нами!
Ищете практический и углубленный курс, чтобы освоить создание нейро-сотрудников? Мы создали курс из 5 объемных занятий. Это именно то, что нужно, чтобы прокачать свои навыки абсолютно бесплатно!
📌 Темы занятий:
1. Введение в мир нейро-сотрудников
2. Как работают LLM и их аналоги
3. Создание базы знаний для нейро-сотрудника (RAG)
4. Тестирование и отладка нейро-сотрудников
5. Интеграция нейро-сотрудников в Production
Вот 5 тем курса - он максимально простой и доступный, общеобразовательный, без какого-либо сложного программирования 📚Прохождение этого курса, скорее всего, займет у вас от 1 до 3 часов
🤖 Присоединяйтесь к нашему бесплатному курсу и разберитесь в этой увлекательной теме с нами!
❤2
Еще недавно не существовало четкой дорожной карты для создания AI-агента. В новом документе Google, на 64 страницах, охватывает весь путь от концепции до внедрения в продакшн, делая акцент на том, что важна не только идея, но и практика. Но чем же он отличается от всего, что было до этого?
📌 Почему AI-агенты — это не чат-боты
Одно из главных отличий, о котором говорит гайд, — это то, что AI-агенты — это не просто чат-боты, а полноценная парадигма. Мы не просто даем команду и получаем ответ. Агент, в отличие от бота, может планировать, принимать решения, привлекать различные источники данных и инструменты для решения комплексных задач. Это что-то гораздо более амбициозное. Например, агент может самостоятельно организовать запуск продукта или решить проблему в цепочке поставок.
Это, на мой взгляд, действительно переломный момент. Я сам, когда впервые создал простейшего агента, который выполняет сложные задачи без постоянного контроля, почувствовал, что это совсем не тот же чат-бот. Это совершенно новый класс решений, и Google, похоже, задает стандарты для всех нас.🕯 ЛЛМ не достаточно — нужно строить инфраструктуру
Google прямо заявляет: даже самая мощная языковая модель не сделает агента работоспособным без грамотной инфраструктуры. Для того чтобы агент стал чем-то большим, чем просто демонстрацией возможностей LLM, нужна четкая архитектура, интеграция данных и скалируемые инструменты. И гайд подробно расписывает, что нужно для этого — от памяти и оркестрации до логики работы с внешними источниками.
Именно такие моменты зачастую игнорируются. Вначале создается нечто вроде скрипта с GPT-4 и API, а потом агент не выдерживает нагрузок и просто падает. Google предлагает решение: использовать готовую инфраструктуру, которая упрощает создание стабильного и работоспособного агента. Это каркас, который снимает часть головной боли и позволяет сосредоточиться на более важных аспектах.⚠️ Погружение в реальность: от фантазий к фактам
Еще один важный момент — это Grounding. Как избежать «галлюцинаций» модели? Google предлагает привязать агента к достоверным источникам данных через методы, такие как Retrieval-Augmented Generation (RAG), что значительно повышает точность ответов. Агент становится не просто генератором текста, а исследователем, который проверяет свои данные.
Часто агенты, не подключенные к реальным источникам данных, могут выдавать совершенно некорректные ответы. Здесь, например, Google использует возможность интеграции с поисковыми системами, чтобы агент сам решал, когда и как использовать данные.⛔️ Безопасность и этика — обязательные требования
Особое внимание уделяется безопасности. В процессе разработки AI-агентов важнейшим фактором является защита данных и этическое поведение. На этом этапе уже невозможно пускать все на самотек. Для таких проектов нужны системные проверки, ограничения и мониторинг на каждом шаге. У Google в этом плане четкий подход: безопасность должна быть встроена в процесс с самого начала.
Прочитав этот гайд, я понял, что Google действительно задает новый стандарт в области создания AI-агентов. Это не просто документация, а руководство по построению надежных, безопасных и масштабируемых систем. Дисциплинированный подход, который пропагандирует Google, станет основой разработки таких технологий.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥2
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене
🔘 Pro версия является ТОП-1 опенсорсом в мире
🔘 Lite версия (2B параметров) лучше первой версии Sora
🔘 На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла
🔘 Для российских генеративных моделей выход на международную арену — уникальное событие
🚀 Полезные ссылки:
🔘 Посмотреть весь лидерборд: lmarena
🔘 Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘 Open Source Kandinsky 5.0: github и hf
🚀 Полезные ссылки:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥3❤2