Говорим о Claude Code
Лёша Берёзка, техлид iOS в Додо Пицце и автор канала о разработке, показал в онлайне, как работать с памятью Claude и как построить целую фабрику, где агенты сами подхватывают работу друг за другом.
В течение 2 лекций обсудили:
➡️ наполнение памяти в CLAUDE.md;
➡️ разнесение памяти по разным файлам;
➡️ подключение файлов друг к другу;
➡️ решение проблем при обогащении памяти через субагентов;
➡️ выстраивание цепочек из агентов;
➡️ передачу данных между ними.
Предлагаем посмотреть их в записи☺️
🎥 🎥 🎥 Контекст в Claude Code
YouTube
RuTube
ВКонтакте
ЯндексМузыка
🎥 🎥 🎥 Чейнинг агентов в Claude Code
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Лёша Берёзка, техлид iOS в Додо Пицце и автор канала о разработке, показал в онлайне, как работать с памятью Claude и как построить целую фабрику, где агенты сами подхватывают работу друг за другом.
В течение 2 лекций обсудили:
Предлагаем посмотреть их в записи
YouTube
RuTube
ВКонтакте
ЯндексМузыка
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍4❤2👎1
Media is too big
VIEW IN TELEGRAM
Как ИИ-агенты могут самосовершенствоваться и воспроизводить себе подобных? Рассказал Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.
Агенты LLM выполняют критически важные задачи и взаимодействуют со сложными средами, поэтому им часто предоставляются расширенные операционные разрешения. Такое сочетание расширенных возможностей генерации, исполнения кода и операционных разрешений полезно для автономного решения сложных задач. Но оно также вызывает опасения по поводу возникающих рисков безопасности, связанных с саморепликацией агентов LLM.
В лекции рассматриваем исследования в этой области, начиная с принципов Асиломара (Asilomar AI Principles, 2017) и заканчивая самыми последними публикациями. Хватит ли способностей моделей к самовоспроизводству и самосовершенствованию для того, чтобы однажды ИИ превзошел человеческий вид?
🎥 Запись доступна здесь и на других площадках:
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
Агенты LLM выполняют критически важные задачи и взаимодействуют со сложными средами, поэтому им часто предоставляются расширенные операционные разрешения. Такое сочетание расширенных возможностей генерации, исполнения кода и операционных разрешений полезно для автономного решения сложных задач. Но оно также вызывает опасения по поводу возникающих рисков безопасности, связанных с саморепликацией агентов LLM.
В лекции рассматриваем исследования в этой области, начиная с принципов Асиломара (Asilomar AI Principles, 2017) и заканчивая самыми последними публикациями. Хватит ли способностей моделей к самовоспроизводству и самосовершенствованию для того, чтобы однажды ИИ превзошел человеческий вид?
YouTube
RuTube
ВКонтакте
ЯндексМузыка
Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👎1