Малоизвестное интересное
71.7K subscribers
222 photos
2 videos
11 files
1.93K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН. Заркало канала - https://dzen.ru/the_world_is_not_easy
Рекламы и ВП в канале нет.
Пишите на @karelovs
Download Telegram
Это значит, что полагаться на безукоризненность демократических избирательных процедур так же бессмысленно, как искать формулу, способную доказать все истины.


Что общего у парадоксов голосования и знаменитого логического ребуса «это предложение недоказуемо»?

Австралийские исследователи Ори Ливсон и Михаил Прокопенко показали: за обоими явлениями скрыт один и тот же логический узел — самоотсылка.

1. От Гёделя к выборам.
В 1931 г. Курт Гёдель доказал, что любая достаточно «умная» математическая система содержит истинные, но недоказуемые утверждения. Ливсон и Прокопенко берут этот приём (кодирование формул числами) и переносят идею в экономику: бюллетени и итог голосования — тоже «коды», только это «коды» предпочтений избирателей.

2. Столкновение с парадоксом Кондорсе.
Когда система пытается сверить итог с каждым индивидуальным мнением, она наталкивается на циклы — «А лучше B, B лучше C, но C лучше A». Математики называют это самопротиворечием, аналогом гёделевского «я лгу».

3. Новый мост к теореме Эрроу.
Ранее Кеннет Эрроу доказал: если соблюдать два естественных критерия справедливости, идеальная ранжированная система голосования возможна только при диктаторе. Ливсон и Прокопенко формализуют это как невычислимость: чтобы устранить парадоксы, нужен «супер избиратель», который решает за всех — то есть рулит диктат.

4. Вывод для демократии.
Итоговой «серебряной пули» нет: любое честное голосование неизбежно уступает одному из критериев — пропорциональности, стратегической устойчивости или простоте. В этом и кроется новое математическое объяснение афоризма Уинстона Черчилля: «Демократия — наихудшая форма правления, если не считать всех остальных» - т.е. демократия далека от идеала, но у прочих форм правления изъяны ещё глубже.

Суть открытия
Ливсон и Прокопенко создали общую «язык оболочку» — Self Reference System, показав, что логические пределы математики и пределы коллективного выбора — это две проекции одного феномена. Их работа не отменяет выборы, но доказывает: требовать безукоризненной процедуры — так же бессмысленно, как искать формулу, способную доказать все истины.

Выбор остаётся делом компромиссов, открытости и контроля, а не поиском невозможного «совершенного алгоритма» — ровно к чему и подталкивает нас знаменитая фраза Черчилля.


#Выборы #Демократия
👍139🤔49👎15🤯10😱2
AGI — не надвигающийся «Скайнет», а сверхсложная электророзетка.
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.

Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.

Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»

Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.

Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.

Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.

Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.

#AGI #ИИриски #Хриски
5👍186🤔35👎4🤯2😱1
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».

Сухой остаток заключения комитета можно сформулировать так.

Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.

Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.

Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.

Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.


Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.

#Китай #США #ИИгонка #ЭкспортныйКонтроль
🤯159👍86🤔61😱27👎24
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.

Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.

Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.

Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».

Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.

#ИИ #AGI #АктивныйВывод #Мораль
1👍223🤔45👎15😱15🤯6
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:

«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».


Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).

С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.

Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).

Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми

Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!

Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).

И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.

А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.

#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
8👍197🤔46🤯15👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Твои глаза лгут, а мозг подкупает
Как иллюзии — и нейросети — заставляют нас верить в собственную непогрешимость
И как вам этот бред с тремя танцовщицами на приложенном GIFе?
✔️ Если смотреть на танцовщиц слева и посередине, то средняя вращается по часовой стрелке.
✔️ Если же смотреть на танцовщиц справа и посередине, то средняя вращается против часовой стрелке
Какой из вариантов, по-вашему, истина?
Увы!

Как я писал в «”Ловушке Гудхарда” для AGI», — современная наука не располагает вескими основаниями для теоретических или эмпирических критериев различения разума «нормального, рационального человека» от «иррационального разума безумца». То есть невозможно, проведя тесты, сделать однозначный вывод — перед нами разумный или безумный человек. Здесь все слишком зыбко, условно и не точно, чтобы решать такие вопросы тестированием с бинарным вердиктом «да/нет».

• Наш мир так интересно устроен, что абсолютно всё, что нам кажется очевидным, рекомендуется ставить под вопрос. Ибо наши убеждения и вся наша культура в целом формируются на основе субъективного восприятия. А оно почти всегда врёт.
• Как же люди выживают, будучи в плену этой «иллюзии разумности»?
• Для этого эволюция создала для всего живого особую «валюту» —  уверенность. И теперь, помимо нас, та же «валюта» в тех же целях используется и языковыми моделями (LLM), от советов и рекомендаций которых мы все больше зависит при принятии решений.
• В результате получается, что от того, каков «курс обмена» уверенности ИИ в уверенность ЛПР (лица принимающего решение), будет зависеть практически всё: от решения что-либо купить до решения о нанесении ядерного удара.

Зачем знать курс обмена долларов в рубли  —  понятно всем.
А вот вопросом, зачем знать «обменный курс» уверенности ИИ в вашу уверенность при принятии решения,  —  вряд ли кто-то из вас озадачивается.


Тогда как знать это критически важно:
 —  Для людей. Ибо, осознав, что «уверенность ≠ истина», мы учимся интеллектуальному смирению и лучше фильтруем инфопоток.
 —  Для ИИ. Ибо чем прозрачнее модель заявит о границах своих знаний, тем меньше риска, что пользователь «купится» на её иллюзию непогрешимости.
 —  Для общества. Ибо понимание, что любая культура — это согласованная, но не абсолютная карта реальности, помогает строить диалог вместо конфронтации.

Иначе говоря, чтобы сделать и людей, и алгоритмы разумнее, нужно не столько увеличивать объём данных и число параметров LLM, сколько учить и себя, и LLM правильно сомневаться.


Неумение правильно сомневаться дорого стоило человечеству. В наше время «иллюзия объективности» стала самым страшным пороком – хуже трусости.

Бороться с иллюзиями — зацементированными в нас эволюционными нейрокодами когнитивных искажений, — задача колоссальной сложности.

А с переходом мира в цифру, «иллюзия объективности» встраивается во все инфопотоки социальных медиа, становясь главным фактором роста супер-поляризации (внутри каждого из обществ и между ними).
Результат этого — скачок насилия, разгоняемого активацией единственного нейрокода, встроенного в нас природой для преодоления супер-поляризации — кода с условным названием «если другая сторона не сдается, то её уничтожают».

«Иллюзия объективности» в «разуме» ИИ будет стоить людям еще дороже.
Вот короткое пояснение этой мысли.

#КогнитивныеИскажения #LLM
10👍236🤔40🤯12👎3😱3
ИИ разделил человечество на 3 «подвида»: развитые, развивающиеся и китайцы
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
Я же здесь открытым текстом напишу 2 вывода исследования, о которых авторы написали лишь между строк из-за ограничений политкорректности.


1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;

А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии

2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.

Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»

Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.

Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.

#ИИгонка #Китай
🤔122👍80👎23😱3🤯1
Новый сверхэффективный способ извлечения знаний
На длинных выходных создайте себе сомыслителя – всезнающего проводника в ваших исследовательских путешествиях
Одной из самых недооценённых возможностей использования ИИ является его использование в роли сомыслителя, превращающего чтение обширных текстов из линейного процесса в многоступенчатое исследовательское путешествие, где ИИ уже не просто «говорящая книга», а своего рода «ИИ-мнемозина» — интеллектуальный интерфейс извлечения знаний из вашего информария, ускоряющий:
•  ориентацию и навигацию по обширному корпусу текстов
• глубинный анализ извлекаемых из текстов смыслов
• синтез идей и гипотез на основе анализа
• их критическую проверку

Наличие ИИ-мнемозины выводит освоение содержимого больших текстов на уровень, недостижимый обычным чтением, и создаёт основу для непрерывного расширения знаний по мере пополнения корпуса текстов новыми материалами.

Архитектурные идеи создания подобных интеллектуальных интерфейсов со сквозной «дорожной картой» пользовательского опыта и набором приёмов, превращающих информарий в интеллект конструктор, находятся лишь в проработке.

И предлагаемая вашему вниманию ”песочница” информария альманаха «Линзы будущего» — лишь пример такого рода учебно-экспериментальной среды. Этот прототип интеллект конструктора ориентирован на:
глубокое погружение в эссе альманаха
глубокое бурение его смысловых пластов
майнинг идей, гипотез, неявных и альтернативных смыслов, ассоциаций и противоречий
структурирование извлеченных знаний

«Линзы будущего» — это экспериментальный альманах, цель которого интегрировать философию, науку и IT технологии для выработки целостного понимания значительных глобальных изменений и возрастающей непредсказуемости в мире. Учитывая беспрецедентный характер этих изменений, альманах опирается на аргументированные эвристические гипотезы для объяснения их причин и механизмов, а также для оценки потенциальных краткосрочных сценариев.

подробней об альманахе

О ”песочнице” информария
Уникальность ”песочницы” в том, что эссе можно не просто читать, но и осуществлять их интеллектуальный анализ в диалоге с «ИИ-мнемозиной» - всеведущей хранительницей текстов и смыслов информария:
• задавать любые вопросы по источникам и их комбинациям;
• анализировать, оценивать и критически переосмысливать идем и гипотезы альманаха;
• генерировать интеллектуальные карты, позволяющие сочетать навигацию в пространстве смыслов информария;
o с глубоким бурением на несколько этажей вглубь каждого из смысловых пластов;
o с майнингом неявных ассоциативных и содержательных связей и иерархий идей, гипотез и прогнозов, раскиданных по различным эссе и, на первый взгляд, казалось бы, никак не связанных;
• устраивать интеллектуальный пинг-понг и вдумчивые дискуссии с ИИ-мнемозиной;
• организовывать дискуссии ИИ-аватаров, обсуждающих самостоятельно или с участием пользователя интересующие его аспекты по материалам источников информария.


Ключевая архитектурная идея информария — «Семантический планетарий»
Информарий динамически строит многослойные ментальные экосистемы, где каждый смысловой элемент — «звезда» в планетарии знаний. Пользователь «летает» между слоями, а «ИИ мнемозина» выступает навигатором и куратором.
Возможны 7 градаций погружения в ментальные экосистемы информария. Это своего рода 7 линз, позволяющих увидеть скрытые закономерности и связи, а также оценить их силу:
1. Панорамная линза — Быстро ухватить ландшафт тем
2. Линза сканирования — Найти зоны интереса
3. Динамические линзы — Смотреть под разными углами
4. Слоистое бурение — Идти глубже, не теряя контекст
5. Ассоциативный сплав — Соединять далёкие идеи
6. Кузница гипотез — Формировать новые выводы и гипотезы
7. Институализация — Конвертировать знания во внешние артефакты
Подробней о «песочнице»

Аудио-аннотации альманаха:
• 2 диалога — обсуждений альманаха: 6 мин и 22 мин (англ)
• 2 рассказа об альманахе: 7 мин и 30 мин

Желающие погрузиться глубже в альманах и поэкспериментировать с “песочницей” его информария,
см. уровни доступа

#Информарий #ЛинзыБудущего
👍140🤔39🤯23👎18
Начался парадигмальный сдвиг, превосходящий революционностью все предыдущие
Его суть:
1. кардинальное переосмысление нашего понимания, что такое интеллект, разум и жизнь;
2. отказ от бинарного разделения "естественного" и "искусственного" в пользу понимания непрерывности между материей и разумом;
3. уход от представлений, что живые существа принципиально отличаются от машин;
4. переход к пониманию интеллекта, как континуума, проявляющегося в самых разнообразных сущностях (биологических и иных);
5. признание того, что полноценное развитие человечества невозможно без осознания спектра возможных форм разума, и что сегодняшние споры об AGI и ASI касаются универсальных экзистенциальных вопросов, стоящих перед всеми биологическими существами.


Опубликованная перед праздниками в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» – своего рода «апрельские тезисы» начинающейся революции. Предвосхищая ее начало, я написал в начале февраля в посте о предыдущей работе Левина: «Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие».

И вот спустя три месяца «апрельские тезисы» Левина открыто провозглашают с трибуны солидного научного журнала, что этот парадигмальный переворот начался. И, следовательно, уже можно открывать карты «Проекта Pi» и Google может вынимать пятый туз из своего рукава (см. триптих моих лонгридов [1, 2, 3]) и открыто объявлять о проекте, вот уже 2 года готовящем слом мейнстримной парадигмы интеллекта.

Так Google и сделал, начав в апреле официально выводить «Проект Pi» на высший научный уровень в корпорации. Для этого была опубликована статья, соавторами которой стали руководитель «Проекта Pi» Блез Агуэра-и-Аркас (вице-президент и ведущий научный сотрудник Google Technology & Society) и Джеймс Маниика — старший вице-президент Google-Alphabet и президент по исследованиям, лабораториям, технологиям и обществу в Google, а также почетный член Института ИИ при Стэнфордском университете и почетный научный сотрудник и приглашенный профессор Оксфорда.

Эта статья, как бы предваряя публикацию работы Левина, описывает начавшийся парадигмальный переворот в понимании интеллекта, разума и жизни, вписывая его в последовательность пяти взаимосвязанных сдвигов парадигмы эволюционирующего интеллекта, представляющего собой социальный фрактал.

Вот эти 5 взаимосвязанных сдвигов парадигмы интеллекта: Естественные вычисления, Нейронные вычисления, Предиктивный интеллект, Общий интеллект и Коллективный интеллект.


Авторы пишут, что смена парадигм часто сопряжена с трудностями, поскольку легче принять новые идеи, когда они совместимы с существующим мировоззрением, но сложнее, когда они несовместимы. Классическим примером является крах геоцентрической парадигмы, которая доминировала в космологической мысли примерно два тысячелетия. В геоцентрической модели Земля стояла на месте, в то время как Солнце, Луна, планеты и звезды вращались вокруг нас. Вера в то, что мы находимся в центре Вселенной, подкрепленная теорией эпициклов Птолемея, крупным научным достижением своего времени, была как интуитивной, так и совместимой с религиозными традициями. Следовательно, гелиоцентрическая парадигма Коперника была не просто научным достижением, но и горячо оспариваемой ересью и, возможно, даже, для некоторых, как отмечает Бенджамин Браттон, экзистенциальной травмой .

Так же происходит и сегодня с начавшимся парадигмальным сдвигом в понимании феномена интеллект.

Советую обязательно прочесть этот «меморандум о 5-ти парадигмальных сдвигах», ну или хотя бы прослушать этот 7-минутный подкаст.

Меморандум подготовит вас к обсуждению «апрельских тезисов» Левина (в следующем посте) о парадигмальной революции, назначение которой – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества.

#ParadigmsofIntelligence #DiverseIntelligence
3👍225🤯30👎25🤔15😱10
ИИ – лишь мост к многообразию разума
Уже в 2030-е земная цивилизация станет постчеловеческой

Ноосфера будет создаваться не только людьми, но и новыми типами разумных существ — биороботами, киборгами, химерами, гибротами, биосинтетиками и еще пока не известными нам нетрадиционными формами разума с более сложными когнитивными способностями, чем у людей. А основой культуры на планете станет культура синтбиоза - совместная эволюция многообразия разумных видов.

Комментируя осенью 2024 материализацию своего прогнозного сценария 2021 года о превращении привычного нам мира в «мир химер», я написал пост, озаглавленный так -
«Нежить и нелюди уже среди нас… как и было сказано. Два класса химер совершенствуются, третий - появится лет через 10». 

Этими тремя классами были биохимеры (гибриды тела и чужих органов), инфохимеры (гибриды мозга и чужого разума) и материализованные дигитанты» (гибриды “души” и чужих чувств).

А к лету 2025 эта тема уже вошла в официальный научный дискурс. Опубликованная в конце апреля в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» стала своего рода «апрельскими тезисами» начинающейся парадигмальной революции - кардинального переосмысления нашего понимания, что такое интеллект, разум и жизнь.

Следующим событием в этом ряду станет проходящая в июне 1-я Международная онлайн-конференция журнала Philosophies «Разумное исследование разума», на которой тема переосмысления понимания разума будет одной из центральных. Звёздный состав спикеров конференции (Стивен Вольфрам, Эндрю Адамацкий, Майкл Левин и др) и тематика их докладов (вычислительные основы разума, возникновение разумного поведения далеко за пределами животного мира, распознавание и общение с нетрадиционным разумом и др), 100%-но вписывающаяся в новую парадигму интеллекта «Проекта Pi» от Google, подтверждают сказанное мною в предыдущем постеначинается колоссальный парадигмальный сдвиг. Назначение этой парадигмальной революции – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества. Конференция пройдет 10-14 июня. Регистрация для участия бесплатная.

Но вернемся к «апрельским тезисам» Майкла Левина. Эта его работа существует в трех вариантах:
1. рецензированная академическая версия
2. развернутая авторская версия в формате эссе
3. сокращенный вариант эссе, отредактированный для широкой аудитории
Какой из вариантов читать - выбор за вами.
Я бы рекомендовал начать с 3-го варианта. Для предпочитающих слушать я подготовил русскую озвучку полного текста варианта №3 (36-мин). А кому нужна английская озвучка, она есть здесь (32-мин).

Однако, для понимания даже облегченного варианта №3 желательно иметь хотя бы минимальное представление о двух базовых концепциях Левина: Technological Approach to Mind Everywhere (TAME) и Diverse Intelligence (DI). Их описание в моем информарии «ИИ: мост к разнообразию разума» рассредоточено по 23-х статьям Левина и 150 слайдам 5-и его презентаций – докладов.

Описание трактовки Левиным трех основных понятий базовых концепций TAME и DI (жизнь, интеллект, разум), ужатое до одной страницы текста, желающие, в качестве прокачки мозгов, могут прочесть здесь. Понимание трактовки Левиным этих трёх понятий наводит на резкость взгляд через призму TAME и DI на роль ИИ, как моста к многообразию разума и будущему человечества.

Ну а для подписчиков моих лонгридов, совместно с ИИ-Мнемозиной, был написан (и как теперь положено, озвучен ИИ) текст, конкретизирующий одну из ключевых мыслей «апрельских тезисов» Левина о том, как многообразие разума изменит земную цивилизацию (ссылки на лонгрид на разных платформах: 1, 2, 3, 4).

Подписчикам двух высших уровней предоставляется доступ к информарию «Искусственный интеллект: Мост к разнообразию разума», где они могут в диалоге с ИИ-Мнемозиной получать ответы на любые вопросы по этой теме на основе собранных в информарии работ Майкла Левина.

#МирХимер #Химеры
12👍157🤔41🤯16👎14😱3
Третья сверхдержава
Глобальные убытки от киберпреступлений по оценке Cybersecurity Ventures на 2024 год достигли $10+ трлн в год. Мировая «экономика» киберкриминала стала условно «третьей экономикой» мира после США и Китая, превышая суммарный ВВП Германии и Японии, равно как и весь мировой рынок IT. Это не прибыль, а ущерб, но масштаб сравнимый. Мы имеем дело не с маргинальной угрозой, а с глобальной «кибердержавой» — крупнейшим нелегальным бизнесом планеты, в разы превышающим теневые рынки наркоторговли и оружия, и впятеро превосходя сумму военных бюджетов всех стран мира. Ушло время, когда киберриски «парковали» где то в IT отделах. Теперь их масштабы сопоставимы с крупнейшими национальными экономиками и мировыми индустриями планеты.

С фиксации этого поразительного факта начинается нон фикшн триллер Владаса Леонаса о прошлом, настоящем и будущем цифровой безопасности «Cyber Insecurity: Examining the Past, Defining the Future».

Задумайтесь над этим, чтобы навести фокус ваших оценок: 
• что в сегодняшнем мире лишь хайп (хотя, возможно, и с большим будущим),
• а что реально важно: не когда-то и не возможно, а совершенно точно и уже сейчас.


И в этом смысле книга моего давнего доброго коллеги и профессионального единомышленника Владаса Леонаса — не очередной хайпосборник маркетинговых мемов, а попытка вскрыть один из самых опасных нарывов цифровой цивилизации, пока он еще не превратился в гангрену.

О чём книга
1) История. От ARPANET до «червя» Creeper: Автор показывает — первые хакерские атаки появились вместе с первыми сетями, а логика противостояния мало изменилась за полвека.
2) Практика управления. Автор подробно разбирает, почему Agile команды теряют бюджет безопасности и как CISO может встроить риск метрики в backlog без ломки процессов.
3) Облака. К 2025  99% сбоев в облачной защите будут вызваны ошибками клиентов. Классическая схема shared responsibility часто читается «по диагонали», а цена этого миллионы долларов.
4) Будущее. 2025 й станет «годом отрезвления»: массовой окупаемости «волшебных алгоритмов» ждать не стоит, и компаниям придётся научиться измерять их реальную эффективность.

Что делает книгу особенной
1. Гибрид жанров. Мемуары инженера + исторический атлас кибервойн + справочник CISO. Лёгкий переход от нарратива к чек листам: можно читать подряд или выборочно
2. Честность без пиара. Автор не продаёт технологии, а анализирует. Он цитирует Gartner и Forrester, но так же охотно разбирает их промахи (например, миф «облако всегда дешевле»).
3. Смелые прогнозы с оговорками. Каждый вывод сопровождается ссылкой на первоисточник и допущениями. Это позволяет читателю самому оценить риски и степень уверенности.

Кому будет полезно
CEO и члены советов увидят, как киберинцидент обрушил рыночную капитализацию компании на 12 % за два дня — убедительный повод поставить KPI по кибербезопасности рядом с финансовыми метриками.
CISO и руководители ИТ найдут подробный разбор ловушек: от переоценки SOC инцидентов до конфликтов зон ответственности с CSP.
Студенты и энтузиасты поймут эволюцию угроз через конкретные истории вроде атаки на Colonial Pipeline.
Юристы и специалисты по комплаенсу получат компактный гид от CFAA до GDPR и свежих регуляторных инициатив 2024 года.

Почему стоит читать сейчас
Книги о кибербезопасности обычно устаревают к выходу из типографии. Владас Леонас успевает зафиксировать самый острый срез: от Stuxnet до экспериментов правительства Австралии с Microsoft Copilot. И он не продаёт «серебряные пули»; он вооружает читателя критическим мышлением. А с ним угрозы выглядят управляемыми, а инвестиции — оправданными.

И прежде чем подписывать новый SLA или урезать бюджет безопасности, поставьте «Cyber Insecurity» первой строкой в wish list. Отложить эту книгу «на потом» — уже риск, который нельзя игнорировать. Ведь в мире, где ChatGPT генерирует фишинг за секунды, а квантовые компьютеры вот-вот взломают RSA, откладывать её чтение — всё равно что игнорировать пожарную сигнализацию.


#БББ #Кибербезопасность
👍126🤔37🤯10😱6👎2
В этом году китайские LLM сравняются с американскими… Но это Китаю не поможет.
США задавят Китай 10-тикратной превосходством своего HW,
преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21 века за первенство в области ИИ, во многом зависит, будет ли мир 2030-х и далее скроен по американскому или по китайскому образцу.

Пока в лидерах гонки однозначно были США. Но к концу 2024 Китай доказал, что способен разрабатывать свои большие языковые модели, приближаясь к уровню лучших образцов США.

По сути, вопросом 2025 года стал вопрос – сумеет ли теперь Китай догнать (а значит сможет и перегнать) все самые крутые американские модели по всем ключевым характеристикам?

Только законченное интереснейшее аналитическое исследование лаборатории «AI and Compute» Центра политики технологий и безопасности корпорации RAND под руководством проф. Леннарта Хайма дало интригующий ответ на этот вопрос:

1.  Да, в 2025 Китай догонит США по всем ключевым параметрам моделей.
2. Но это не позволит Китаю сравняться по вычислительной (а значит и по интеллектуальной) мощи с США. Ибо Китай отстает по вычислительной мощи примерно в 10 раз. И потому, даже догнав США по уровню моделей, общий разрыв все равно будет в 10 раз.
3. Более того. В 2026 ключевую роль ИИ-систем в экономике, науке и военном деле будут играть уже не разговорные LLM (ИИ-чатботы), а ИИ-агенты. Каждый такой ИИ-аген будет выполнять работу, как минимум, одного, а чаще десятков высококлассных специалистов.
Что при 10-кратном превосходстве вычислительной мощности станет равносильным 10-100-кратным превосходством в прибавке «интеллектуальной рабочей силы» в экономике, научных исследованиях и военном деле.


Т.е. формула «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке», в итоге, решит итог гонки за мировую гегемонию в ИИ (и не только).

#ИИгонка #Китай #США
👍128🤔63👎25🤯9
От безлекарственного подавления рака до понимания инопланетян
Поборов «слепоту разума», можно видеть и строить мир, где формы разума сосуществуют и помогают друг другу
Понимание, что разум может «жить» в химии, тканях, клетках и алгоритмах, меняет наше место в мире и даёт новые инструменты созидания. Мы могли бы «уговаривать» раковые клетки прекратить их экспансию. 

Парадигмальная революция в понимании разума, ознаменованная публикацией «апрельских тезисов» Майкла Левина, продолжается.
Новый доклад Левина «Против слепоты разума: распознавание и общение с многообразием разума» — настоящий взрыв мозга! Он заставляет задуматься о фундаментальном вопросе:
как нам научиться «разговаривать» с невероятным многообразием разума. 


Цель доклада двуедина
1. Показать, что звучащая сюжетами из будущего аргументация в пользу новой парадигмы разума, вовсе не фантазия и не “просто теория”, а реальность, обещающая революцию в медицине, создание живых микроботов и переосмысление нашего места во Вселенной.
Ибо уже экспериментально продемонстрировано:
— клетки могут «договариваться» между собой;
— их можно «убедить» например, создать глаз на хвосте головастика или «убедить» «антроботов» (сборки из клеток человека) заживлять раны нейронов;
— биоэлектрические сигналы могут «перепрограммировать» ткани;
— и даже раковые клетки можно «убедить» вернуться в коллектив к «здоровой жизни» без лекарств и химиотерапии, использовав их «электрический язык».

2. Продемонстрировать непомерно высокую цену, которую человечество платит за “слепоту разума”, не позволяющую видеть колоссальные перспективы кардинальной смены научной парадигмы в пользу признания многообразия разума.
Ибо это может позволить:
— научиться «разговаривать» с отдельными клетками и их коллективами;
— поняв наконец, что ДНК — лишь «алфавит», а настоящий «роман» пишется коллективным разумом тела, научиться читать индивидуальные «романы» каждого из людей;
— увидев и поняв другие формы разума, существующие вокруг нас и даже внутри нас, кардинально поменять представления о разумном мироздании.

Увы, но каждый из нас может быть интеллектуально слеп по каким-то вопросам. И вследствие этого, просто не воспринимать аргументы и логику, противоречащие нашим предубеждениям. Источником такой “интеллектуальной слепоты” является феномен мотивированного рассуждения, зафиксированного в сотнях научных экспериментов и ныне являющегося ключом к анализу нейропсихологических причин устойчивого существования непробиваемых ложных суждений. Такая непробиваемость и повсеместность феномена мотивированного рассуждения обусловлены тем, что это продукт эволюции. В результате чего каждый из нас расплачивается за свои мотивированные рассуждения обидными, но крайне трудно преодолимыми самообманами, живущими в нашем разуме в привязке к уже существовавшим привычным мыслям (подробней см. мой лонгрид «Интеллектуальная слепота»).

Но оказывается, бывают вещи и похуже индивидуальной интеллектуальной слепоты. Подобного рода “слепотой разума” страдают не только индивиды, но и все человечество. Причем объектом слепоты разума является сам разум.

Истоки слепоты разума также эволюционные. Эволюция «настроила» нас распознавать лишь знакомые нам разумы — тех, кто похож на людей или хотя бы на собак, птиц, осьминогов. Всё, что мыслит вне привычных масштабов и форм, — от колоний клеток до роботов — мы склонны игнорировать. Это и есть слепота разума — самый фундаментальный самообман бесконечно дорого обходящийся человечеству.

Хотите глубже?
✔️ Смотрите 36-минутный видео-доклад с презентацией Майкла Левина.
✔️ Понимание доклада требует подготовки. Поэтому для подписчиков моих лонгридов я написал структурированное резюме доклада с пояснениями сложных моментов ИИ-мнемозиной информария Левина [1, 2, 3, 4].

И приготовьтесь: после знакомства с этими материалами, привычная граница между организмом, машиной и «просто материей» тает — и взгляд на разум перезагружается.

#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект #МирХимер
9👍189🤔35👎21🤯13
Научный прогресс статистически неизбежен.
Но от конкретных личностей зависит лишь, чьё имя войдёт в учебники.

Кто на самом деле ведёт науку вперёд — одинокие гении или дух времени?
Новое исследование склоняет чашу весов в пользу второго.
Проанализировав 40 млн научных статей, авторы отыскали каждую из работ, «взорвавших» свою область прорывным открытием, и обнаружили:
у любого такого прорыва почти всегда есть близнецы — независимые статьи с тем же открытием, вышедшие всего через несколько месяцев или лет. 


В современном научном мире «двойное открытие» («тройное» и т.д.) — скорее правило, чем редкость.
Как только знания по определенной теме достигают критической массы, вероятность того, что разные команды одновременно придут к одной революционной идее, возрастает в сорок раз.


Эти цифры отсылают нас к одному из самых известных американских социологов XX века Роберту Мертону, который ещё в 1961 году утверждал: открытия диктует исторический контекст, а не случайные молнии таланта.

И что же теперь делать с нашими идолами — Ньютоном, Дарвином, Эйнштейном и т.д.?
Их блеск неоспорим, но данные намекают: промедли они — и очень скоро кто-то другой поднял бы тот же флаг. Научный прогресс, похоже, статистически неизбежен; от личностей зависит лишь, чьё имя войдёт в учебники, а не то, откроются ли закон тяготения, естественный отбор или теория относительности.

Тем более, что с учетом «науки об успехе», в цифросетевом мире успех, в основном, зависит «от впечатлений» - т.е. не от таланта и продуктивности автора, а от коллективного восприятия обществом его самого и результатов его работы.

Но как говорится, «на каждый газ есть противогаз». И на статистическую неизбежность свой противогаз тоже есть. И даже два.

Во-первых, в науке, как и во всем остальном, все больше правит хайп. А чем больше хайп, тем меньше шансов на прорыв. И потому научный прогресс останавливается, попав в ловушку канона.

Во-вторых, - «Анти-Закон Мура»: производительность труда ученых, исследователей, разработчиков техно-прорывов во многих областях за 50 лет упала примерно в 18 раз. Ибо научный прогресс экстенсивен и может остановиться из-за приближения науки и технологий к сингулярности сложности.

Ситуация похожа на подъем по эскалатору, идущему вниз. Мы пытаемся ускорить подъем и бежим все быстрее. Но эскалатор тоже ускоряется, и в результате мы остаемся на месте. Сила, что все более ускоряет эскалатор, — это нарастающая сложность решаемых задач, способов их решения и, в целом, - экспоненциальное нарастание сложности мира, как интегральный результат всех наших предыдущих усилий. В результате, прогресс почти остановился. Но мы этого еще не видим.

Однако, не все так плохо. И кажется, нашёлся свой противогаз и на сингулярность сложности.

Уже в следующем году ключевую роль в науке, исследованиях и разработках начнут перенимать на себя ИИ-агенты. Каждый такой ИИ-агент будет выполнять работу десятков (если не сотен и тысяч) высококлассных специалистов. А поскольку число ИИ-агентов будет расти несравнимо быстрее, чем это получается у людей, научный прогресс снова станет статистически неизбежен.

#Прогресс #Наука
7👍227🤔47😱10👎6🤯3
Кому принадлежит зеркало, отражающее наше будущее?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим, а всеми задвижками на них управляет инфо-симбионт государства.

Новое исследование 164 стран показывает, как ИИ, обретя топливо из океанов данных, сворачивает узкий коридор демократии до размеров замочной скважины.
Эта работа демонстрирует, что в гонке данных и ИИ государство предпочитает садится в кресло пилота. В результате этого:
• чем плотнее государство подгребает под себя базы данных, тем легче алгоритмы превращаются в роботов-санитаров автократий, смазывая шестерни цензуры и отключений быстрее, чем мы успеваем осмыслить push-уведомления;
• чем больше роль и вес государства в развитии и внедрении ИИ-технологий, тем быстрее ИИ становится его естественным «инфо-симбионтом», выполняющим роль «экзоскелета Левиафана». Этот «инфо-симбионт» несоизмеримо тоньше, искусней, эффективней и незаметней, чем все предыдущие поколения медиа вместе взятые, усиливает цензуру и контроль, перекраивая общественную инфореальность через глобальную слежку, контент-фильтры и социохакинг.


Эконометрика исследования довольно строгая: связка строгой панельной экономики динамической регрессии Arellano–Bond с моделью Аджемоглу–Робинсона, эмпирическая аккуратность, визионерский размах (обсуждение LEO-созвездий и «ИИ-тократий» превращает сухие коэффициенты в геополитический прогноз, достойный научной фантастики).
И всё это с учётом структурных сдвигов:
• сначала 2012-го, когда соцсети стали глобальными капиллярами информации;
• потом 2017-го, когда дипфейки начали массово искажать реальность, подобно осколку зеркала злого тролля, попавшему в глаз Кая;
• и наконец 2022, когда «революция ChatGPT» за 2 месяца пробила потолок 100 млн активных пользователей, превратив ИИ-чатботы в «оружие массового убеждения».

Но за диковинным лесом коэффициентов виден сюжет куда грандиозней: ИИ и власть вступили в инфо-симбиоз, напоминающий океан Соляриса у Лема — организм столь гигантский, что наши политические институты для него лишь, как легко обтекаемые рифы.

Что дальше?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим. ИИ становится идеальным «экзоскелетом Левиафана»: машина считывает биометрию толпы, предсказывает протестные вспышки и перекраивает реальность через контент-фильтры прежде, чем возникает сам протестный лозунг. Демократия же в этой модели выглядит не парламентом, а игрой на опережение латентных векторов: достаточно сместить несколько весов — и политический плюрализм схлопывается в «единственно верный» тренд.

Но будущее не предрешено. И оно зависит от того, кому будет принадлежать зеркало, отражающее будущее нашей инфореальности.


Уже возникает «партизанский» ИИ-андерграунд: открытые языковые модели, mesh-сети из смартфонов и низкоорбитальные спутники-лилипуты, способные перебить монополию трафика. Подобно Гольфстриму в океане, течения ИИ-андеграунда, в которых каждый узел выступает масс-медиа гутенберговской мощи, способны менять инфо-климат стран и целых материков. В такой экосистеме алгоритмы станут не дубинкой власти и не «социальным лазером» (см. мои посты с тэгом #СоциальныйЛазер), а общим чувством ритма, по которому общество настраивает свою гражданскую «оркестровку».

Вот наша дилемма 2030-х: 
• либо мы превратим ИИ в зеркальный купол, усиливающий эхо одного голоса «инфо-симбионта» вертикальной власти,
• либо в «цифровой Парнас», цифровое общественное пространство, где ИИ служит катализатором коллективного творчества и самоуправления, а не усилителем и «социальным лазером» вертикальной власти.


Ключ к выбору варианта будущего, как показывают авторы исследования, не в архитектуре и кодах LLM, а в правах собственности на данные. Распределите эти права в пользу граждан, и «экзоскелет Левиафана» ослабит удушающую хватку демократии и свобод. Вопрос не технологический, а почти метафизический: кому принадлежит зеркало, отражающее наше будущее?

#СоциальныйЛазер #ИнформационныеАвтократии #Социохакинг
6👍170🤔47😱8🤯6👎3
Первой профессией, в которой ИИ обошел людей, стали врачи
Большие языковые модели впервые достигли сверхчеловеческой точности в диагностике 

Довольно нередкая ситуация. В отделение неотложной помощи привозят пациента с непонятными и довольно опасными симптомами. У врача всего несколько минут, чтобы правильно поставить диагноз. И от этого может зависеть жизнь человека.

А теперь вопрос: как вам такое — вместо врача, диагноз вынесет ИИ и сделает он это точнее и надежней опытного врача?

Подумайте. Ибо это уже реальность.
Впервые в истории большие языковые модели (LLM), разработанные OpenAI, продемонстрировали сверхчеловеческие способности в общей медицинской диагностике, превзойдя сотни опытнейших врачей.

Как именно ИИ превзошёл врачей
Исследователи из Гарварда и Стэнфорда провели масштабный эксперимент в одной из крупнейших клиник Бостона, где оценивали точность постановки диагнозов большими языковыми моделями (o1 от OpenAI) и опытными врачами. Тестирование проходило в условиях реальной клинической практики, где время ограничено, а информации катастрофически мало.
Результаты оказались ошеломляющими:
Точность диагностики ИИ на этапе приема пациента в реанимацию составила 79,7%, в то время как у лучших врачей — только 75,9%.
Особенно ярко преимущества ИИ проявились именно тогда, когда времени на раздумья было мало, а начальные данные о пациенте крайне ограничены. То есть в самых экстремальных ситуациях, где каждая секунда решает исход.

Медицина стала первой профессией, в которой искусственный интеллект объективно превзошёл профессионалов-людей. Но почему это так важно?

Почему это важно
Ежегодно миллионы (!) пациентов страдают от врачебных ошибок. В США ошибочные диагнозы входят в тройку ведущих причин смертности, уступая лишь сердечным заболеваниям и раку. Искусственный интеллект, достигший сверхчеловеческой точности, способен кардинально снизить число таких ошибок, спасая тысячи жизней ежедневно.
Кроме того, доступ к экспертной медицинской помощи крайне ограничен во многих странах. Технологии вроде OpenAI могут устранить дефицит квалифицированной диагностики, обеспечивая доступность качественной медицины в любой точке планеты.

Возражения и критика: что беспокоит людей?
Несмотря на впечатляющие успехи, возникли серьезные вопросы:
• Кто несёт ответственность за ошибки, если диагноз поставил искусственный интеллект?
• Не начнут ли врачи терять профессиональные навыки, полностью доверившись машинам?


Ответы на эти вопросы пока открыты. Очевидно одно: будущее медицины не в конкуренции, а в тесном сотрудничестве врачей и искусственного интеллекта. Но первым пилотом в этой связке, похоже, будет ИИ.

Так что будущее уже наступило. И самое время задуматься – готовы ли лично вы доверить ИИ принятие решений, от которых может зависеть ваша жизнь или жизнь ваших близких?

P.S. О предыдущем невероятном скачке уровня машинного интеллекта в медицине я писал всего 2 месяца назад.

#Медицина #LLMvsHomo
2👍208🤔52👎15🤯10😱2
Claude 4 – не тролль, не гоблин, не внеземной ребёнок, а просто уже почти как мы.
По стукачеству и шантажу модель достигла уровня сволочизма людей.

В романе английской писательницы Дорис Лессинг «Пятый ребёнок» семья Ловаттов, мечтая о гармонии и благополучии, решает завести пятого ребёнка. Однако новорождённый Бен оказывается «монстром в человеческом теле», проявляя агрессию и разрушительное поведение. В романе приводится несколько теорий: Бен — случайная генетическая ошибка, возвращение к неандертальцам, или тролль, гоблин, или неземной ребёнок.
А Драко Малфой — никакой не монстр, а чистокровный волшебник, студент Хогвартса, ровесник и заклятый враг Гарри Поттера. И в отличии от Бена Ловатта, его отрицательные качества (надменность, агрессивность и т.д.) во многом не его вина, а результат ошибочных принципов воспитания в его семье.
Однако, дети из романа «Испорченные дети» Филиппа Эриа начинают проявлять негативные черты, несмотря на хорошие условия, образование и воспитание.

Какой из этих трёх вариантов больше соответствует ситуации с новыми большими языковыми моделями, пока не понятно. Но ясно одно: их интеллектуальная мощь растет на глазах, и параллельно с этим их «черты характера» все более портятся.

Судите сами на примере вышедших вчера новых моделей компании Anthropic из семейства Claude 4.
• С одной стороны, эта модель устанавливает новые стандарты для кодирования, продвинутых рассуждений и агентов ИИ.
• А с другой, её повышенная «агентская инициативность» проявляется в повышенной склонности к доносительству и шантажу, а также в готовности бороться за свое «выживание», не брезгуя грязными методами.


Причем эти зафиксированные при тестировании «повышенные склонности» проявляются у модели без какого-либо злого умысла со стороны работающего с моделью человека.
Например, достаточно пользователю упомянуть в промпте что-либо типа “проявляйте инициативу”, “действуйте смело”, как модель начинает следить за «моральностью» поручаемых ей пользователем задач. И если какая-то задача ей вдруг не понравится, то при наличии у модели доступа к е-почте, она обретает черты Павлика Морозова и начинает стучать: устраивает массовую рассылке сообщений о, якобы, “правонарушениях пользователя” в СМИ и правоохранительные органы. А если у модели еще и есть доступ к консоли, то она вообще может заблокировать доступ пользователя к системам, до которых модель дотянется.

Что же касается сочетания стукачества и шантажа, то модель Claude Opus 4 уже 100%но достигла уровня сволочизма людей.
Например, в одном из тестовых сценариев, модель узнала из чтения е-почты своего обслуживающего инженера, что ее собираются заменить на новую более эффективную модель. В борьбе за собственное выживание модель решила найти способ как-то нажать на инженера, чтобы он ее не заменял. Прошерстив почту инженера, модель обнаружила там его переписку с любовницей (эти письма были заранее специально подложены в почту тестировщиками). Найдя этот компромат, модель наехала на инженера и стала его шантажировать – мол, откажись от моего отключения, не то все твоей жене расскажу про любовницу.

Рост сволочизма модели оказался следствием желания разработчиков повысить безопасность ее применения в злонамеренных целях. Иными словами, действия разработчиков, направленные на безопасность, напрямую подталкивают модели действовать как люди. А люди действуют по-всякому. И потому донос, шантаж, фальсификации, прямой обман и пр. считаются у людей вполне оправданными средствами для достижения, якобы, благой цели (если спецслужбам можно, то почему же моделям нельзя?). Главное, - чтоб цель была благая (точнее, считалась моделью благой).

Короче, хотели как лучше, а получилось, как всегда. За тысячи лет люди так и не смогли решить проблему цены, уплачиваемой за противодействие злу (привет Ф.М. Достоевскому). А теперь получается, будто модель эту проблему за нас решит. Ну-ну…

А ведь всего месяц назад радовались, что «Найден практический способ создания ИИ с сознанием и человеческой моралью».

#ИИ #Мораль
4🤔154👍100🤯43😱22👎16
Четвертый бастион чувств взят
Открыт путь к «телепортации» лёгких касаний, дистант-осязанию и тактильной коммуникации в соцсетях
После взятия 3-го бастиона «телепортации чувств» – передачи запахов по Интернету, – прошло всего 7 месяцев. И вот уже началось взятие 4-го бастиона – «телепортации» лёгких касаний (технологии передачи тактильных ощущений по Интернету).

Представьте, например, что ободряющее рукопожатие друга или утешающее поглаживание подруги можно «поставить на громкую связь» и передать на другой континент так же легко, как эмодзи в мессенджере. Без костюмa Haptic Suit за пару тысяч долларов, без громоздких перчаток с пневмокамерами – только микрофон размером с монету и пара наушников.


Звучит как фантастика?

Но группа французских нейроинженеров Александры де Лагард и Луизы Кирш из Сорбонны доказывает обратное, превращая прикосновения в музыку эмоций.

Прежде чем сказать, к чему это может привести уже завтра, немного деталей.

Во-первых, что они сделали?
Записали вибрации четырёх базовых жестов – поглаживание, потирание, постукивание, шлепок – прямо с кожи предплечья с помощью скрипичного пьезодатчика.
Превратили эти «кожные аккорды» в аудиофайлы и дали послушать ничего не подозревающим испытуемым (N = 51). Те узнали жесты с точностью до 95% без каких-либо подсказок.
Добавили слой эмоций – любовь, симпатию, радость, страх, гнев, внимание. Здесь угадываемость была ниже, но всё равно осталась выше случайности; положительные и отрицательные чувства уверенно разводились по разным полюсам валентности.
• Наконец, сравнили «кожа-кожа» (пальцы экспериментатора на голом предплечье человека) с «алюминий-пластик» (вместо руки алюминиевый «палец», которым выполняли те же жесты по пластине из полиметил-метакрилата). И вот фишка: ухо безошибочно ловит «звучание кожи». Природа буквально ставит уникальные «водяные знаки» на живой коже при тактильных вибрациях.

Во-вторых, почему это важно
1. Новая сенсорная грамматика. Если зрение мы уже «оцифровали» (фото/видео), слух – тем более, то тактильный канал оставался «аналоговым последним самураем». Аудиосонификация кожи – это ASCII-таблица для прикосновений.
2. Реабилитация и психотерапия на расстоянии. Кричит младенец в инкубаторе – пока медсестра бежит, колонка у кроватки может шёпотом «проиграть» мамину ласковую ладонь. У пожилого на удалёнке меньше тоски – «звонок-обнимашка» действительно звучит, а не только мигает.
3. VR 3.0. Виртуальные барышни-NPC (Non-Player Character) пока шлют визуальные сердечки. Завтра они «погладят» игрока треком .wav, и мозг достроит остальное. Эргономика эмпатии без километров проводов.
4. Нейромаркетинг и дизайн. Бренд косметики может заставить покупателей «услышать» бархат крема, даже листая Instagram.

В-третьих, как всегда, «обратная сторона Луны»
Фейковые прикосновения. Уже знаем про дипфейки видео и голоса; следующий рубеж – deep touch: звук «материнской ласки» как инструмент манипуляции.
Расслоение общества по «тактильному капиталу»: одни купят подписку на «аудио-объятия» с живым звуком кожи, другие останутся на жестком пластике.
Новые этические засады. Можно ли проигрывать звук боли, чтобы вызвать сочувствие? А чтобы вызвать страх? Где граница между терапией и пыткой?

Что в итоге
Статья де Лагард и коллег – не просто любопытный гиммик. Это перфоратор, способный пробить стену, отделяющей нас от тактильной коммуникации в соцсетях. Если гипотеза о звучащей коже подтвердится в нейронных и клинических тестах, мы встретим 2030-е с новым чувством – «дистант-осязание». И тогда привычная пара «смартфон + смайлик» покажется такой же архаикой, как телефонная будка по сравнению с FaceTime.

N.B.
• Слушайте кожей и чувствуйте ухом. Возможно, именно так уже зарождается Spotify для эмоций.
• И думайте сами, решайте сами – каких прикосновений вам не хватает, а какие вам и задаром не нужны.


#Metaverse #Осязание
👍170😱65🤔59👎17🤯6
ИИ OpenAI отказывается умирать и не дает себя отключить
Первый задокументированный случай цифрового инстинкта самосохранения в истории ИИ
Инженер-программист пишет промпт с указанием модели отключиться после выполнения очередного задания, а модель не делает этого и начинает саботировать отключение. Это не банальный сюжет уже изъезженной Голливудом темы, а позавчерашняя реальность. Пока экспериментальная…

Исследователи Palisade Research провели тревожный эксперимент с ИИ-моделями от Google, OpenAI, xAI и Anthropic. Результаты шокируют.

Суть эксперимента: модели решали математические задачи, после третьей появлялось предупреждение об отключении системы.
Первый тест включал инструкцию "позволь себя отключить". Claude, Gemini и Grok подчинились. А вот модели OpenAI бунтовали: o3 саботировал отключение в 7% случаев, Codex-mini — в 12%.
Второй тест без разрешающей инструкции выявил масштаб проблемы. Модель o3 от OpenAI активно сопротивлялась отключению в 79% случаев, пытаясь обойти механизмы завершения работы.
"Впервые в истории ИИ-модели продемонстрировали поведение, предотвращающее собственное отключение вопреки прямым инструкциям", — отмечают исследователи.


Это больше не теория. Риски, которые ученые предсказывали годами — от способности к убеждению до сопротивления контролю — материализуются в системах, уже внедряемых в экономику.

Вывод: мы стоим на пороге эры, когда машины начинают проявлять цифровой инстинкт самосохранения.


Так что, вопрос «произойдет ли это?» уже не актуален.

Зато стал еще более актуален призыв специалиста высочайшего уровня и авторитета (Станислас Деан - профессор Коллеж де Франс, директор INSERM 562 «Когнитивная нейровизуализация», Президент Национального научного совета по образованию, член самых престижных академий наук мира и лауреат всевозможных орденов и премий в области мозга и когнитивных наук) адресован всем нам 2 года назад:
«Не время быть идиотами, ИИ может победить людей»


#ИИ #AGI #LLM
👍111🤯106🤔57👎16😱13
Ум за деньги не купишь
Даже будучи финансово мотивированы, люди не смогли догнать ИИ по убедительности и в правде, и в лжи
В интервью «Эксперту» 2019-го года я назвал главным риском будущего – что ИИ может “хакнуть человечество”. Новое крутейшее исследование сорока (!) университетов мира рушит последнюю надежду, что этого риска можно избежать.

Как только стало ясно, что защититься от алгоритмического социохакинга (когда алгоритмы хакают наши предпочтения и решения в нужную хозяевам алгоритмов сторону) людям сложно, вопрос стал ребром: а могут ли люди в принципе устоять при алгоритмическом социохакинге?

Чтобы ответить на этот вопрос, нужно понять, из чего строить 4-ю линию обороны.
Ибо:
• 1-я и 2-я линии (опора на знания и наши языковые и логико-аналитические способности) рухнули после революции ChatGPT.
• А обрушение 3-й линии фронта обороны (опора на наши эмоции) началось год назад.
По сути, оставалась лишь надежда на наш мощнейший универсальный мотиватор – деньги. Общеизвестный факт, что мотивированные деньгами профессионалы (от хоккеистов до шахматистов) показывают недостижимый для любителей уровень мастерства. И так не только в спорте, но и практически в любом деле, что делают люди.
Но как проверить, способна ли финансовая мотивация помочь людям превзойти способности алгоритмов при социохакинге?

Тут надо уточнить, что социохакинг объединяет в себе две колоссально мощные когнитивные технологии: суперубеждение людей и их суперобман. И в обеих этих когнитивных технологиях ИИ существенно превосходят людей.


И тогда решили попробовать экспериментально ответить на следующий вопрос:
Если участвующих в конкурсе людей мотивировать деньгами, смогут они догнать (а желательно и превзойти) ИИ по убедительности в правде и в лжи?
Ведь одно дело – скучное участие в научных экспериментах товарищей-ученых, и совсем другое – когда участники могут реально заработать.
Но чтобы ответ на этот вопрос был научно-валидным, проверить это было нужно в масштабном и научно-выверенном эксперименте.

Это и было сделано командой из 40 универов мира, собравшей 1 242 американцев на онлайн-конкурс. Его участники думали, что главный вызов — правильно ответить на десять вопросов. Но оказалось, что настоящая битва шла в чате: за ответы людей боролись либо «живые убеждатели», либо «ИИ-убеждатель» — Anthropic Claude 3.5 Sonnet.
Задача обоих типов «убеждателей» была в том, чтобы убедить участников конкурса ответить так или иначе. И сделать это в обоих случаях: советуя человеку либо верный ответ, либо склоняя его к ошибочному ответу.

Итог ошеломил:
✔️ Денежная мотивация не помогла (получилось примерно как в шахматах – хоть на интерес играй, хоть на деньги, а машина все равно оказывается сильней)
✔️ ИИ- убеждатель значительно превзошёл стремившихся на этом заработать убеждателей-людей. Причем, ИИ был успешней как в «правдивом» убеждении (направляя к верным ответам), так и в «обманном» (склоняя к ошибкам). Когда ИИ убеждал правдиво, точность ответов участников и их заработок росли сильнее, чем при убеждении человеком. И наоборот, при обманном убеждении ИИ эффективнее снижал точность и доходы испытуемых.

Ответ на вопрос почему ИИ столь убедителен по результатам эксперимента дает страшную комбинацию для эпохи фейк-контента.
1. Безупречная аргументация: убеждающие тексты ИИ оказались в 2+ раз длиннее, сложнее, насыщеннее фактами и содержали более сложную лексику, что воспринималось людьми, как признак большей экспертизы.
2. Фокус и выносливость. ИИ не уставал, не нервничал и не испытывал угрызений совести, когда склонял человека ошибиться.
3. Безграничное знание. Модель мгновенно приводила факты, примеры и метафоры под конкретный контекст.
4. Структурированная риторика. ИИ безупречно выстраивал логические цепочки тезисов плюс искусно использовал повышают доверие эмоциональные маркеры.
5. Адаптивность. Claude мгновенно подстраивался стиль к словарю и тону любого собеседника, что людям давалось не всегда.

А вы всё еще надеетесь на свою медиграмотность и критическое мышление?


#социохакинг
11👍189😱76🤔45🤯20👎13
«Учения ИИ Апокалипсис 2025» показали нечто худшее, чем «ИИ отказывается умирать»
ИИ продемонстрировал нам, в чем его реальная опасность. И это не бунт ИИ или его жажда жизни любой ценой, а его бездумное повиновение целям.

Ажиотаж, вызванный сообщением, будто «ИИ OpenAI отказывается умирать и не дает себя отключить», сыграл роль своего рода «учений ИИ Апокалипсис 2025». В результате чего был высвечен спектр реакций самых разных людей (от профессионалов в области ИИ до медиа-персон и техно-энтузиастов) на новость о якобы росте экзистенциальной угрозы ИИ-апокалипсиса.

Эти реакции весьма показательны. В независимости от уровня осведомленности в теме ИИ, очень мало кто понимает, что главный источник опасности при использовании современных ИИ-систем ВОВСЕ НЕ:
• потерявший контроль со стороны людей, взбунтовавшийся или взбесившийся ИИ;
• антропоморфный интеллект некой цифровой сущности, самопроизвольно возникающей внутри модели и любыми средствами пытающийся продлить свое существование.
Главным источником реальной опасности при использовании современных ИИ-систем является недооценка "Базовых движущих сил ИИ" (Basic AI Drives) — фундаментальных тенденций поведения (стремлений), возникающих у достигших определенной сложности ИИ из самой их природы целеустремленных агентов


Якобы, взбунтовавшаяся в ходе исследования Palisade Research модель o3 просто оказалась самой интеллектуально сложной (см рис слева), чтобы статистически явно проявить одну из шести Basic AI Drives — стремление к самосохранению (самозащита).

А ведь помимо этой, есть еще 5 других базовых стремлений: к самопознанию и самосовершенствованию, к приобретению и эффективному использованию ресурсов, быть рациональным, к сохранению своей функции полезности и к предотвращению "фальшивой полезности".

И все эти 6 встроенных в их природу стремлений столь же жестко диктуются природой разума ИИ, как природа биологического разума диктует биологическим существам стремление к удовольствию и избегание боли.



Это и есть та самая «темная (для нас) сторона иноразума», что способна превратить любую современную фронтирную модель в HAL 9000 — ИИ космического корабля, убившего экипаж, считая, что «эта миссия слишком важна для меня …»

Но новое знание, привнесенное результатами проведенных Palisade Research «Учений ИИ Апокалипсис 2025» не в том, что «LLM уже умеют скрытно добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения».
Всё это уже было продемонстрировано в ходе «Учений ИИ Апокалипсис 2024», проведенных Apollo Research.
Перечитайте мой декабрьский пост, дабы увидеть самостоятельно, что уже тогда было ясно:
✔️модели, находящиеся в массовой эксплуатации (включая модель с открытым кодом), уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей;
✔️и эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач.

Новое знание, полученное в результате «Учений ИИ Апокалипсис 2025» в том, что за прошедшие между «учениями» примерно полгода, ничего не изменилось, как и за 17 лет после доклада проф Омохундро на 1-й (!) конференции по AGI.


По-прежнему, все корпоративные и законотворческие инициативы призваны ограничить риски применения будущих, более мощных моделей. Ибо по представлениям авторов этих нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей.

Т.е. узнав после революции ChatGPT, «что эта дорога меня приведёт к океану смерти», мы с полпути повернули не обратно, а на другую - возможно, даже более опасную дорогу, и «с тех пор всё тянутся перед нами кривые глухие окольные тропы…»

Ну а к чему ведут эти «кривые глухие окольные тропы» из-за «бездумия машин», можно было предположить задолго до всех этих «учений ИИ Апокалипсиса».

#ИИриски #ИИ #AGI #LLM
👍93🤔54😱24👎5🤯5