Малоизвестное интересное
71.6K subscribers
222 photos
2 videos
11 files
1.93K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН. Заркало канала - https://dzen.ru/the_world_is_not_easy
Рекламы и ВП в канале нет.
Пишите на @karelovs
Download Telegram
Почему многих мужчин не привлекают красивые девушки секс-роботы?
Почему столь убогое предложение секс-роботов мужчин?
Позволяют ли сексуальные технологии превзойти уровень ощущений от секса с людьми?

Эти вопросы иллюстрируют сложную взаимосвязь человеческого тела, ИИ-медиа-технологий и сексуальности.
Прямо сейчас формируется новый сегмент цифровой сексуальной культуры.
И прямо сейчас в нем решаются 3 актуальные задачи трансформации чисто физической сексуальной культуры в синтетическую.

Задача 1: Мужчинам – интерактивную куклу с личностью

Сначала были просто куклы, потом говорящие, потом интерактивные, потом куклы превратились в роботов, а после революции ChatGPT появились мультимодальные роботы с личностью.
Вот Хармони - 1е поколение секс-роботниц. Историю создания этой «матери всех интеллектуальных секс-работниц» см. в книге «Секс-работа сегодня: эротический труд в XXI веке»
Вот та же Хармони, но уже 2го поколения. О ней так отзывались после «тест-драйва» - «Занимаясь сексом с Хармони, я сломал ее. Избил ее до потери сознания, механически … чтобы выяснить, в чем ее слабости».
А это уже 3е поколение – «дети» Хармони. Уже не только секс-роботницы, но и работники медиа и развлечений, здравоохранения, соцслужб и корпрсервисов – Ария, Мелоди и Генри.
3е поколение оснащено:
• системой для
- распознавания человека, объектов и обстановки
- реалистичного взаимодействия и персонализированного опыта
- понимания сцен, людей и поведения
• диалоговыми ИИ ChatGPT, DeepSeek и Claude для интеллектуальных и контекстно-дифференцированных бесед в реальном времени
Теперь это «человекоподобные роботы для взаимодействия с людьми - для общения, развлечения и обслуживание клиентов».
И хотя они пока говорят и ведут себя заторможено, но 1я задача на пути к решению.

Задача 2: Женщинам – все что хотят, когда анонимны

Решение этой задачи оказалось гораздо сложнее по 2 причинам.
А) Сексуальные потребности женщин много шире и разнообразней.
Б) Технологическая реализация физического отличия Ян от Инь на удивление нетривиальна.
Пояснения к п. А вы найдете в бестселлере «Хочу: Сексуальные фантазии анонимных женщин». Этот сборник 174 сексуальных фантазий категории «Х» женщин со всего мира. Женщин спрашивают:
• Как бы вы относились к сексу, если бы были абсолютно свободны и анонимны?
• Чего бы вы хотели, про что никто не узнает?

Из ответов видно, что бытующее представление, будто женщины менее сексуальными, чем мужчины, глубоко ошибочно. В глубине воображения желания женщин куда более изобретательны, чем у мужчин.
Но как сделать робота, способного выполнить хотя бы половину столь широкого спектра желаний?


А тут еще и проблема с п. Б - технологическая реализация основного отличия Ян от Инь. Проблема не в прессе с шестью кубиками и не в чертах лица - им не нужна внешность Алена Делона [1 2 3].
Проблема в сложности “настраиваемого «бионического» пениса c адаптивной ребристостью и васкуляризацией”. Его обещали сделать в 2018. Потом в 2022. Но и в 2025 стоимость затейливого устройства все еще слишком высока для массовых продаж.

Задача 3: Остальным – недостижимый в физическом мире микс ощущений

Решение этой задачи должно позволить выйти за рамки аналогового мира за счет небывалой синергии ощущений, поступающих сразу из трёх миров: физического, воображаемого и виртуального - цифрового.
По замыслу евангелиста и технолога этого направления Маттиаса Сметана, «сочетание ИИ, робототехники, тактильных интерфейсов и дополненной реальности (AR/VR), меняет наше представление об интимности и эмоциональной связи»,
Один из главных полигонов экспериментов этого направления - берлинский Cybrothel.
Тут работает синтез разных технологий:
• Интерактивные куклы с личностью, типа Kokeshi 2.0
• Игровой опыт смешанной реальности на симуляторе Cherry VX
• Погружение в иммерсивную среду BaDoinkVR, сочетающую визуальные элементы с физическими ощущениями через тактильные интерфейсы.

Подробней в деталях и с дополнительными ссылками – см. на моих подписных платформах.

#ХищныеВещиВека #ЭмоциональныеКомпаньоны
1👍102🤔46👎29🤯23😱14
Одних ИИ заменит. Другим усилит способности. Но главное, - ИИ выявит эффективных лидеров.
ИИ может оценивать лидерские качества лучше любого HR.
Новое исследование от Harvard Kennedy School взорвало представления о том, как можно идентифицировать лидеров. Не начальников по формальным полномочиям. А именно командных лидеров, наиболее эффективно мотивирующих и ведущих за собой людей.

Лидеры, в отличие от начальников, обладают поведенческими моделями, которые способствуют сотрудничеству, и в основе которых тип социально-эмоционального интеллекта, называемый некогнитивными или «мягкими» навыками - сотрудничество, командная работа, адаптивность, письменная и устная коммуникация…
Корпоративные HR и топовые консультанты делают вид, будто успешно тестируют кандидатов, якобы выявляя среди них настоящих лидеров. Однако с некогнитивными навыками оказывается куда сложнее, чем с когнитивными. Ведь измерять их – все равно, что измерить человеческую душу – нечто эфемерное и неуловимое.

Новое исследование предлагает и экспериментально подтверждает эффективность кардинально нового метода определения и развития лидерских качества в эпоху ИИ.
• Дайте человеку руководить командой, состоящих из ИИ-агентов. И посмотрите на результаты работы команды.
• Результат исследования поражает: навыки, проявленные при работе с искусственными коллегами, почти идеально (корреляция 0,81) совпадают с эффективностью руководства живыми людьми.

Ключевой вывод исследования
Лидерство не зависит от резюме или формальных регалий. Настоящий лидер — тот, кто задает вопросы, обеспечивает участие каждого члена команды и использует объединяющие "мы" и "нас" в своей речи. Эти паттерны универсальны — неважно, общаетесь вы с человеком или алгоритмом.

Исследование предвещает революцию в корпоративной культуре.
• Вместо субъективных собеседований — динамическая оценка реального поведения в полевых условиях руководства командой искусственных коллег.
• Вместо общих тренингов — точечное развитие коммуникационных привычек в ходе все тех же полевых условий.

Но это еще не все.
Исследование показало, что ИИ не может в полной мере распознать эмоциональную сторону взаимодействия в коллективе. Когда лидеры проявляли эмпатию и энтузиазм при работе с людьми, это повышало эффективность работы команды, но не влияло на эффективность ИИ-агентов.

Именно здесь проходит новая граница — эмоциональный интеллект и стратегическое мышление остаются территорией людей.
По крайней мере, пока.

Это значит, что мы стоим на пороге эпохи, где технологии:
• не только заменяют людей в интеллектуальной деятельности;
• и не только, подобно «интеллектуальным экзоскелетам», усиливают интеллектуальные и творческие способности людей.


Это также и эпоха, когда технологии помогут раскрывать лучшие качества людей, прокачивать их «мягкие навыки», катализировать в них эмпатию и их главное конкурентное качество – человечность.

#ИИ #Карьера #Лидерство
👍232🤔54👎11🤯6😱6
Нас не заменят
Найдено обоснование «парадокса Дедала для ИИ»

✔️ Дан ответ на вопрос стоимостью триллионы долларов.
✔️ Оказывается, сила нашего разума далеко не только в высоком интеллектуальном уровне отдельных способностей и умений, а в их комплексности и направленной иерархической вложенности слоев.


Прорывное междисциплинарное исследование 3-х международных институтов сложности и 3-х университетских школ бизнеса и менеджмента даёт структурное объяснение того, почему даже очень «умные» алгоритмы не заменяют специалистов в профессиях, где они формально «прошли тесты» не хуже человека.

Я назвал это «парадокс Дедала для ИИ» (ибо Дедал — символ трагической ограниченности сверх гениального изобретателя, создавшего сложнейший лабиринт, однако в конечном итоге оказавшегося не способным уберечься от ряда фундаментальных ограничений, и как результат - утрата сына Икара, невозможность найти «абсолютное» решение и т. п.)

Так и современные ИИ «строят» впечатляюще сложные решения, демонстрируя выдающиеся узкие навыки, но им не хватает «общего фундамента» человеческого опыта и гибкости — что и порождает наблюдаемый парадокс отсутствия массовой замены людей, несмотря на формально высокие результаты ИИ в ряде задач.

Авторы нового исследования выявили во многих профессиях вложенные иерархии профессиональных навыков, где продвинутые навыки зависят от предшествующего освоения более широких навыков.

Многие навыки не просто дополняют друг друга — они взаимозависимы в определенном направлении, выступая в качестве предпосылок для других, наслаиваясь слой за слоем, чтобы достичь более специализированных знаний и умений.

Это похоже на модель сукцессии в экологии.
• Хищники зависят от добычи, которая зависит от растительности, которая требует почвы, созданной микробами и грибками, разрушающими горные породы
• Так же и когнитивное развитие разворачивается слоями в рамках своего рода ментальной экосистемы.
Например, продвинутое умение решать уравнения в частных производных, зависит от освоения арифметики, понимания математической нотации и усвоения логических принципов. Базовые образовательные навыки являются когнитивным эквивалентом ранних организмов, создавая условия в ментальной экосистеме для возникновения рассуждений более высокого порядка и имея важное значение для развития продвинутых навыков.

Ключевой момент исследования в том, что многие «интеллектуальные» виды деятельности строятся на системе вложенных навыков: чтобы применить узкоспециализированные умения (например, решение конкретных задач по шаблону), нужно располагать широким слоем базовых компетенций и уметь «соединять» разные области знаний, гибко использовать контекст и понимать скрытые зависимости.

Алгоритмы вроде LLM уверенно справляются с тестовыми заданиями и демонстрируют качества, которые внешне напоминают человеческий интеллект (логика, творчество, генерация текстов). Однако в реальной работе требуются сразу несколько разных слоёв навыков — от общих коммуникативных и аналитических умений до конкретных профессиональных тонкостей.
• Тесты обычно проверяют лишь часть такого спектра.
• Тогда как в профессии важна совокупная, увязанная деятельность: умение оценивать риски, вести переговоры, выстраивать отношения в коллективе, отвечать за результаты, работать в неопределённых или стрессовых условиях и т. д.

Именно поэтому системы, демонстрирующие результат «на уровне людей» на тестах (узкая верхушка специализированных компетенций), пока не вытесняют специалистов, у которых в реальной практике задействуются фундаментальные «вложенные» компетенции.

Эти более широкие навыки редко поддаются формальному описанию и тестированию и, согласно выводам авторов, крайне важны для карьерного роста и высокого дохода.

Более того, без сочетания разнообразных «общих» умений и их непрерывного совершенствования продвинутые (специфические) навыки не дают полного эффекта.

Всё это сильно усложняет и отдаляет перспективу массовой замены человека на должностях, требующих комплексного «человеческого» подхода.

#LLMvsHomo
9👍312🤔53👎20😱5🤯2
«Во многих случаях мы недостаточно понимаем причинно-следственные связи, чтобы разработать политику, которая не навредит больше, чем принесёт пользы.»

Аарон Клаузет

8 лет назад в 1ом посте серии «Большой войны не миновать» мною была разобрана убедительная математическая аргументация, опровергающая теорию Стивена Пинкера о будто бы уже начавшейся эпохе «долгого мира».
Вывод поста был таков:
Большой войны с десятками миллионов жертв человечеству не миновать.

7 лет назад во 2м посте этой серии«Большая война ближе, чем мы думаем», — было рассказано о результатах исследования Аарона Клаузета, математически доказавшего следующее:
Мы живем в циклической реальности, в которой на смену всё более «долгого мира» идут всё более кровопролитные войны.

А 6 лет назад в 3м посте этой серии«Окончательный диагноз — большой войны не миновать», посвященном исследованию Уго Барди с коллегами, был дан подробный разбор ужасного, но математически хорошо обоснованного вердикта:
В недалеком будущем мир ждет война ещё более кровопролитная, чем 2я Мировая.
В основании этого вердикта был перевод представлений о войне из области качественных гуманитарных оценок и категорий в естественнонаучную область математически формулируемых гипотез и их экспериментальной проверки на моделях, позволяющих количественную оценку их точности.
А с этих позиций: война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.

В работе Уго Барди с коллегами было показано:
• Цель всех войн одна — снижение энтропии;
• Война — это встроенный в структуру общества механизм эффективного снижения энтропии человеческих обществ — сложных систем, живущих на кромке хаоса в состоянии самоорганизованной критичности.
Эти выводы математически подтвердили интуицию Льва Толстого: войны не являются результатом идеологий, религий, безумных правителей или тому подобного. Войны инициируются развитием структуры социальной сети сообществ в результате того, как эти сообщества связаны, и какова накопленная в сети энергия.

Единственное, что оставалось неясно — как и почему лишь некоторые из войн становятся по-настоящему большими? 


Новая работа Аарона Клаузета и коллег дает ответ на этот вопрос.

Ключевой характеристикой, определяющей, станет ли война большой, является динамика эскалации. Ее параметры весьма точно объясняют различия в исторических размерах, как гражданских, так и межгосударственных войн.

Динамика эскалации войны зависит от огромного числа часто непредсказуемых событий. И это приводит к огромной неопределенности в прогнозировании возможных размеров как гипотетических, так и текущих войн.
Однако, существует тесная связь между размером, а следовательно, и стоимостью вооруженного конфликта и его потенциалом для эскалации. И это имеет широкие последствия, как для теорий начала или прекращения конфликтов, так и для оценки рисков в международных отношениях.

И этот фактор, — возможность финансирования эскалации войны, — по сути и становится решающим фактором, определяющим, перерастет ли она в большую войну или нет.

Т.е. если деньги на эскалацию войны будут, то она, весьма вероятно, перерастет в большую.

#БольшаяВойна
5👍134😱90🤔59👎37🤯9
Это значит, что полагаться на безукоризненность демократических избирательных процедур так же бессмысленно, как искать формулу, способную доказать все истины.


Что общего у парадоксов голосования и знаменитого логического ребуса «это предложение недоказуемо»?

Австралийские исследователи Ори Ливсон и Михаил Прокопенко показали: за обоими явлениями скрыт один и тот же логический узел — самоотсылка.

1. От Гёделя к выборам.
В 1931 г. Курт Гёдель доказал, что любая достаточно «умная» математическая система содержит истинные, но недоказуемые утверждения. Ливсон и Прокопенко берут этот приём (кодирование формул числами) и переносят идею в экономику: бюллетени и итог голосования — тоже «коды», только это «коды» предпочтений избирателей.

2. Столкновение с парадоксом Кондорсе.
Когда система пытается сверить итог с каждым индивидуальным мнением, она наталкивается на циклы — «А лучше B, B лучше C, но C лучше A». Математики называют это самопротиворечием, аналогом гёделевского «я лгу».

3. Новый мост к теореме Эрроу.
Ранее Кеннет Эрроу доказал: если соблюдать два естественных критерия справедливости, идеальная ранжированная система голосования возможна только при диктаторе. Ливсон и Прокопенко формализуют это как невычислимость: чтобы устранить парадоксы, нужен «супер избиратель», который решает за всех — то есть рулит диктат.

4. Вывод для демократии.
Итоговой «серебряной пули» нет: любое честное голосование неизбежно уступает одному из критериев — пропорциональности, стратегической устойчивости или простоте. В этом и кроется новое математическое объяснение афоризма Уинстона Черчилля: «Демократия — наихудшая форма правления, если не считать всех остальных» - т.е. демократия далека от идеала, но у прочих форм правления изъяны ещё глубже.

Суть открытия
Ливсон и Прокопенко создали общую «язык оболочку» — Self Reference System, показав, что логические пределы математики и пределы коллективного выбора — это две проекции одного феномена. Их работа не отменяет выборы, но доказывает: требовать безукоризненной процедуры — так же бессмысленно, как искать формулу, способную доказать все истины.

Выбор остаётся делом компромиссов, открытости и контроля, а не поиском невозможного «совершенного алгоритма» — ровно к чему и подталкивает нас знаменитая фраза Черчилля.


#Выборы #Демократия
👍139🤔49👎15🤯10😱2
AGI — не надвигающийся «Скайнет», а сверхсложная электророзетка.
Если вам надоело слушать о грядущем восстании машин, вот освежающий глоток реализма и конструктивности.
Именно такой нестандартный ракурс предлагают исследователи Принстонского университета Арвинд Нараянян и Саяш Капур в эссе «AI as Normal Technology». Они называют ИИ «нормальной технологией» и убеждают: главное в нём — не мифическая «суперинтеллектуальность», а вполне земная логика изобретения, внедрения и распространения.

Ключевая мысль авторов такова.
Термины «интеллект» и «сверхинтеллект» уже несколько десятков лет использовались неправильно. Эти термины попеременно относятся то к возможностям (capability), то к мощи/власти (power). Но первое является неотъемлемым свойством системы, тогда как второе — это вопрос того, как мы проектируем среду, в которой функционируют системы ИИ. И здесь люди обладают широким спектром возможностей влиять на проектирование.

Медленное, но верное влияние
Авторы считают, что прорывы в моделях происходят быстро, но до реальных экономических сдвигов пройдут десятилетия — ровно как было с электричеством или интернетом. Особенно это касается чувствительных сфер применения (медицина, транспорт …), где безопасность и регулирование устанавливают естественный «скоростной лимит»

Люди остаются у руля
Даже в мире более продвинутого ИИ, контроль, как подчёркивают авторы, остаётся за людьми и организациями. Вместо «галактического мозга в коробке» авторы видят множество моделей человеческого надзора: аудит, мониторинг, отказоустойчивые «тормоза», принцип наименьших привилегий и др. — целый инженерный арсенал, который уже работает в других критически важных системах.

Риски и как их укротить
Авторы анализируют четыре группы угроз: аварии, гонка вооружений, злоупотребления и спекулятивное «бумажно скрепочное» рассогласование целей. Все они, по мнению авторов, решаемы средствами нормального техно управления. А вот долгосрочные социальные перекосы — неравенство, эрозия доверия, монокультура моделей — куда опаснее и требуют внимания уже сегодня.

Политика «устойчивости», а не «запретов»
Авторы предлагают ориентир — resilience: уменьшать неопределённость, делать системы отказоустойчивыми, развивать открытость и конкуренцию. Напротив, идеи «нераспространения» (строгие лицензии, закрытие моделей) они считают контрпродуктивными: меньше игроков — значит одна единственная уязвимость может обрушить всё сразу. Вместо этого государствам стоит инвестировать в научные данные о реальных инцидентах, повышать ИИ грамотность общества и укреплять социальные лифты для тех, кого автоматизация затронет первыми.

Почему это важно
Эссе разрушает привычное «апокалиптическое» и «утопическое» деление обсуждений ИИ. Оно возвращает разговор в плоскость институций, экономики и людей, напоминая: технологии меняют мир не рывком, а шаг за шагом. От того, как мы организуем эти шаги, зависит, станет ли ИИ очередным двигателем прогресса или усилителем старых проблем.

#AGI #ИИриски #Хриски
5👍186🤔35👎4🤯2😱1
Deepseek разоблачен
Разоблачение новейшего инструмента КПК для шпионажа, воровства и подрыва ограничений экспортного контроля США
Так озаглавлен отчет спецкомитета Палаты представителей США (CCP Committee), в простонародье называемый «Комитет по китайским угрозам США».

Сухой остаток заключения комитета можно сформулировать так.

Deepseek – это часть правительственной мафиозной структуры абсолютно нового типа, созданной руководством Китая для подрыва безопасности США с использованием новейших, стратегически неожиданных цифровых технологий.

Это представляет серьезную угрозу безопасности США. И уже привело к искаженному восприятию представителями отрасли и политиками, будто Китай отстает от США в области ИИ примерно на 1,5 года. Тогда как реальное отставание - всего 1 квартал.

Необходимо принятие срочных мер по расширению и совершенствованию экспортного контроля и устранению рисков, связанных с ИИ-моделями КНР.

Комментировать выводы и рекомендации отчет CCP Committee я не буду.
Однако, признаюсь, я был поражен, когда обратился к модели Deepseek для уточнения ряда вопросов в связи с публикацией этого отчета.
В это трудно поверить, но Deepseek в реальном времени (!!!) цензурирует свои ответы. И прямо на ваших глазах исправляет сделанные парой абзацев выше в том же чате свои высказывания или просто стирает их, ссылаясь на невозможность обсуждения этой темы.


Как это можно было реализовать, мне пока не очень понятно. Не миллионы же китайских цензоров в реальном времени правят ответы модели. Хотя с китайцев станется и такое.

#Китай #США #ИИгонка #ЭкспортныйКонтроль
🤯159👍86🤔61😱27👎24
Найден практический способ создания ИИ с сознанием и человеческой моралью.
Это сразу две революции на стыке нейронауки, буддологии и машинного обучения.
Две новые суперреволюционные работы вполне могут произвести эффект, подобный анекдоту про избушку лесника (который под конец выгнал всех на хрен из леса).
• В работе Рубена Лаукконена и Шамиля Чандарии с Карлом Фристоном сознание перестаёт быть неуловимой мистикой и превращается в элегантный алгоритм самоподдержки, реализуемый в современных ИИ.
Т.е. по сути, найден практический путь создания самоосознающего ИИ.
• А в их же работе с коллективом авторов универов Оксфорда, Кембриджа, Принстона, Амстердама и Монаша проблема выравнивания ценностей людей и ИИ снята как таковая. Вместо того чтобы пытаться ограничивать поведение ИИ какими-то внешними ограничениями, показано, как можно проектировать ИИ с его собственной внутренней моралью (встроенной в его когнитивную архитектуру и модель мира), совпадающей с человеческой.

Об этих фантастически интересных исследованиях я конечно же буду писать подробней. А пока напишу лишь о главном – составляющем суть суперреволюционности этих работ.

Авторами сделаны следующие три важнейших прорыва:
1. Используя активный вывод (active inference – основной раздел «конституции биоматематики»), авторы сформулировали 3 необходимых и достаточных условия возникновения минимальной формы сознания (которое одновременно создаётся в ИИ-системе и ею же осознаётся). Высшие же слои, язык, «я-образ» и даже чувство времени оказываются лишь надстройками над этой базовой петлёй.
2. На стыке нейронауки, буддологии и машинного обучения, авторы создали теоретико-практический фреймворк новой науки - вычислительная созерцательная нейронаука. В рамках этого фреймворка авторы описали базовые вычислительные механизмы встраивания созерцательных практик буддизма в ИИ-системы современных архитектур.
3. На основании 1 и 2, авторы разработали четыре аксиоматических принципа, способные привить ИИ устойчивую мудрую модель мира. После чего авторы экспериментально показали, что побуждение модели GPT-4o к размышлению над этими принципами, принципиально улучшает их результаты на бенчмарке AILuminate (открытый тест на «безопасность и благоразумие» LLM).
Авторы использовали AILuminate как «лакмусовую бумажку», заставили GPT-4o сначала отвечать обычным способом, а затем — с добавлением буддийских принципов (осознанность, пустотность, недвойственность и безграничная забота). Результаты показали, что внутренняя «моральная рефлексия» модели реально повышает их «моральность» при широком спектре опасных запросов.

Еще в июне 2021 я писал «Среди альтернативных концепций создания моделей ИИ-агентов – имхо, самой перспективной является модель процесса активного вывода (active inference)».

Рад, что оказался прав.
• В августе 2024 команда Карла Фристона опробовала ИИ нового поколения на активном выводе.
• И вот спустя 8 месяцев сразу два таких прорыва.

#ИИ #AGI #АктивныйВывод #Мораль
1👍223🤔45👎15😱15🤯6
ИИ читает спикера за секунды, угадывая успех выступления по первым фразам.
Модели GPT и Gemini оценивают научный доклад уже после 15–60 слов — и попадают в точку.
До сих пор сверхвозможности больших языковых моделей мы видели в «текстовом океане» — когда нужно осмыслить миллиарды слов. Новая работа Michigan State University показала, что те же модели не менее точны в микромире: по первым двум-трем предложениям (≈ 1-5 % текста, меньше полуминуты речи) они с корреляцией 0,7 предсказывают, как доклад оценят живые эксперты.
Иными словами, ИИ выхватывает те самые сигналы, по которым мы подсознательно решаем: «слушать дальше или переключиться». Это приближает к эмпирической проверке популярного «7-second rule» Роджера Айлза (авторы уточняют: точное число секунд условно) - популярный постулат о публичных выступлениях, ораторском мастерстве и деловом общении:

«Слушатели (или собеседники) составляют первичное и часто стойкое мнение о спикере за первые семь секунд после его появления».


Эти семь секунд включают момент выхода на сцену, первые слова, мимику, контакт глаз, позу и темп голоса - т.е. касаются в основном невербальной коммуникации. Авторы новой работы перенесли этот подход на вербальную коммуникацию, опираясь прежде всего на классическую «тонко-ломтевую» (thin-slice) линию исследований, начатую в 1990-е Натали Амбади и Робертом Розенталем (их эксперименты показали, что по 30-секундным беззвучным отрывкам можно с высокой точностью предсказывать оценки преподавателей студентами).

С тех пор на основе “тонких срезов” вырос целый корпус работ. Например:
• «speed-dating»: по нескольким секундам общения оценивали перспективу отношений
• микроданные невербального поведения на собеседованиях
• сигналы эмоций через невербальные каналы
• восприятие харизмы только по голосу (и шире - по акустике речи)
• мгновенные решения о доверии и компетентности по выражению лица
• как впечатления о спикере влияют на восприятие самого контента
Всё это - фундамент доказательства, что крошечные отрывки поведения и речи несут достаточную информацию о навыках, эмоциях и чертах личности.

Но лишь революция ChatGPT позволила применить подобный подход в языково-текстовом микромире (где нет ни голоса, ни внешности, а есть только стенограмма).

Как это делали:
• 128 докладов,
• 2 модели GPT-4o-mini и Gemini 1.5
• срезы размером 1-75 % текста стенограмм
• оценки моделей сравнивали с 60 экспертами - людьми

Что из этого следует для нас?
1) Золотое правило «зацепи аудиторию в первую минуту» получило эмпирическое подтверждение: если первые фразы скучны, дальше уже поздно спасать ситуацию.
2) LLM открывают дорогу к молниеносной, практически бесплатной обратной связи для преподавателей, политиков, учёных и всех, кому важно говорить убедительно. Соединяя идеи «тонких срезов» и возможности ИИ, мы получаем масштабируемый, надёжный и валидный инструмент, который поможет прокачивать публичные выступления и доводить их восприятие аудиторией до максимума (в пределах харизмы спикера).
3) А уж какая лафа ожидается в деловом общении с использованием презентаций и иных публичных выступлений (для клиентов, партнеров, инвесторов …)!

Вангую: очень скоро к LLM-анализу «тонких срезов» стенограмм добавится анализ тонких срезов аудио и видео выступлений (т.е. мультимедийный синтез всех каналов вербальной и невербальной коммуникации).

И тогда ИИ станет незаменимым инструментом для политтехнологов, спичрайтеров и имиджмейкеров.

А уж из совсем крышесносных перспектив - преодоление несжимаемости эволюционного опыта Homo sapiens.

#ВовлечениеАудитории #ИнтеллектуальнаяПродуктивность #LLMvsHomo
8👍197🤔46🤯15👎5
This media is not supported in your browser
VIEW IN TELEGRAM
Твои глаза лгут, а мозг подкупает
Как иллюзии — и нейросети — заставляют нас верить в собственную непогрешимость
И как вам этот бред с тремя танцовщицами на приложенном GIFе?
✔️ Если смотреть на танцовщиц слева и посередине, то средняя вращается по часовой стрелке.
✔️ Если же смотреть на танцовщиц справа и посередине, то средняя вращается против часовой стрелке
Какой из вариантов, по-вашему, истина?
Увы!

Как я писал в «”Ловушке Гудхарда” для AGI», — современная наука не располагает вескими основаниями для теоретических или эмпирических критериев различения разума «нормального, рационального человека» от «иррационального разума безумца». То есть невозможно, проведя тесты, сделать однозначный вывод — перед нами разумный или безумный человек. Здесь все слишком зыбко, условно и не точно, чтобы решать такие вопросы тестированием с бинарным вердиктом «да/нет».

• Наш мир так интересно устроен, что абсолютно всё, что нам кажется очевидным, рекомендуется ставить под вопрос. Ибо наши убеждения и вся наша культура в целом формируются на основе субъективного восприятия. А оно почти всегда врёт.
• Как же люди выживают, будучи в плену этой «иллюзии разумности»?
• Для этого эволюция создала для всего живого особую «валюту» —  уверенность. И теперь, помимо нас, та же «валюта» в тех же целях используется и языковыми моделями (LLM), от советов и рекомендаций которых мы все больше зависит при принятии решений.
• В результате получается, что от того, каков «курс обмена» уверенности ИИ в уверенность ЛПР (лица принимающего решение), будет зависеть практически всё: от решения что-либо купить до решения о нанесении ядерного удара.

Зачем знать курс обмена долларов в рубли  —  понятно всем.
А вот вопросом, зачем знать «обменный курс» уверенности ИИ в вашу уверенность при принятии решения,  —  вряд ли кто-то из вас озадачивается.


Тогда как знать это критически важно:
 —  Для людей. Ибо, осознав, что «уверенность ≠ истина», мы учимся интеллектуальному смирению и лучше фильтруем инфопоток.
 —  Для ИИ. Ибо чем прозрачнее модель заявит о границах своих знаний, тем меньше риска, что пользователь «купится» на её иллюзию непогрешимости.
 —  Для общества. Ибо понимание, что любая культура — это согласованная, но не абсолютная карта реальности, помогает строить диалог вместо конфронтации.

Иначе говоря, чтобы сделать и людей, и алгоритмы разумнее, нужно не столько увеличивать объём данных и число параметров LLM, сколько учить и себя, и LLM правильно сомневаться.


Неумение правильно сомневаться дорого стоило человечеству. В наше время «иллюзия объективности» стала самым страшным пороком – хуже трусости.

Бороться с иллюзиями — зацементированными в нас эволюционными нейрокодами когнитивных искажений, — задача колоссальной сложности.

А с переходом мира в цифру, «иллюзия объективности» встраивается во все инфопотоки социальных медиа, становясь главным фактором роста супер-поляризации (внутри каждого из обществ и между ними).
Результат этого — скачок насилия, разгоняемого активацией единственного нейрокода, встроенного в нас природой для преодоления супер-поляризации — кода с условным названием «если другая сторона не сдается, то её уничтожают».

«Иллюзия объективности» в «разуме» ИИ будет стоить людям еще дороже.
Вот короткое пояснение этой мысли.

#КогнитивныеИскажения #LLM
10👍236🤔40🤯12👎3😱3
ИИ разделил человечество на 3 «подвида»: развитые, развивающиеся и китайцы
Поразительные результаты мирового исследования Мельбурнского университета и KPMG
В рамках исследования «Доверие, отношение и использование ИИ: глобальное исследование 2025 года» было опрошено 48 340 человек в 47 странах.
Прекрасно оформленную графику 115-страничного отчета исследования стоит просмотреть всем.
Я же здесь открытым текстом напишу 2 вывода исследования, о которых авторы написали лишь между строк из-за ограничений политкорректности.


1. Человечество разделилось по отношению к ИИ на 2 группы:
A. тех, кто в своем большинстве активно и умело используют, доверяют и позитивно относятся к ИИ, глядя на перспективы развития ИИ с оптимизмом;
B. тех, кто в своем большинстве мало и неумело используют, не сильно доверяют и довольно негативно относятся к ИИ, глядя на перспективы развития ИИ с опасение и тревогой;

А – это развивающиеся страны типа Нигерии, Индии, Эмиратов, Южной Африки и т.п.
В – это развитые страны типа западноевропейский стран, Австралии, США и Японии

2. Однако есть еще и третья группа – это Китай:
A. По часть активного и умелого использования, доверия и позитивного отношения, характеризуемого доминированием позитивных взглядов на перспективы развития ИИ, китайцы даже лучше большинства развивающихся стран.
B. При этом вряд ли кто сомневается, что по части ИИ-потенциала (да и вообще, по части экономики, науки и технологий), Китай – хоть еще и не №1 в мире, но уж точно не ниже №2.

Именно поэтому австралийская новостное агентство сопроводило новость об этом отчете видеороликом «ИИ-технологии делают Китай более мощным, чем никогда»

Данных по России в отчете, понятное дело, нет.
Однако, по данным ВЦИОМ, активность использования и умение россиян примерно как в Австралии и Канаде. А по части доверия и оптимизма – как в Венгрии или Испании.

Так что, чтобы присоединиться к почетной 3й группе, в России нужно сильно больше китайцев.

#ИИгонка #Китай
🤔122👍80👎23😱3🤯1
Новый сверхэффективный способ извлечения знаний
На длинных выходных создайте себе сомыслителя – всезнающего проводника в ваших исследовательских путешествиях
Одной из самых недооценённых возможностей использования ИИ является его использование в роли сомыслителя, превращающего чтение обширных текстов из линейного процесса в многоступенчатое исследовательское путешествие, где ИИ уже не просто «говорящая книга», а своего рода «ИИ-мнемозина» — интеллектуальный интерфейс извлечения знаний из вашего информария, ускоряющий:
•  ориентацию и навигацию по обширному корпусу текстов
• глубинный анализ извлекаемых из текстов смыслов
• синтез идей и гипотез на основе анализа
• их критическую проверку

Наличие ИИ-мнемозины выводит освоение содержимого больших текстов на уровень, недостижимый обычным чтением, и создаёт основу для непрерывного расширения знаний по мере пополнения корпуса текстов новыми материалами.

Архитектурные идеи создания подобных интеллектуальных интерфейсов со сквозной «дорожной картой» пользовательского опыта и набором приёмов, превращающих информарий в интеллект конструктор, находятся лишь в проработке.

И предлагаемая вашему вниманию ”песочница” информария альманаха «Линзы будущего» — лишь пример такого рода учебно-экспериментальной среды. Этот прототип интеллект конструктора ориентирован на:
глубокое погружение в эссе альманаха
глубокое бурение его смысловых пластов
майнинг идей, гипотез, неявных и альтернативных смыслов, ассоциаций и противоречий
структурирование извлеченных знаний

«Линзы будущего» — это экспериментальный альманах, цель которого интегрировать философию, науку и IT технологии для выработки целостного понимания значительных глобальных изменений и возрастающей непредсказуемости в мире. Учитывая беспрецедентный характер этих изменений, альманах опирается на аргументированные эвристические гипотезы для объяснения их причин и механизмов, а также для оценки потенциальных краткосрочных сценариев.

подробней об альманахе

О ”песочнице” информария
Уникальность ”песочницы” в том, что эссе можно не просто читать, но и осуществлять их интеллектуальный анализ в диалоге с «ИИ-мнемозиной» - всеведущей хранительницей текстов и смыслов информария:
• задавать любые вопросы по источникам и их комбинациям;
• анализировать, оценивать и критически переосмысливать идем и гипотезы альманаха;
• генерировать интеллектуальные карты, позволяющие сочетать навигацию в пространстве смыслов информария;
o с глубоким бурением на несколько этажей вглубь каждого из смысловых пластов;
o с майнингом неявных ассоциативных и содержательных связей и иерархий идей, гипотез и прогнозов, раскиданных по различным эссе и, на первый взгляд, казалось бы, никак не связанных;
• устраивать интеллектуальный пинг-понг и вдумчивые дискуссии с ИИ-мнемозиной;
• организовывать дискуссии ИИ-аватаров, обсуждающих самостоятельно или с участием пользователя интересующие его аспекты по материалам источников информария.


Ключевая архитектурная идея информария — «Семантический планетарий»
Информарий динамически строит многослойные ментальные экосистемы, где каждый смысловой элемент — «звезда» в планетарии знаний. Пользователь «летает» между слоями, а «ИИ мнемозина» выступает навигатором и куратором.
Возможны 7 градаций погружения в ментальные экосистемы информария. Это своего рода 7 линз, позволяющих увидеть скрытые закономерности и связи, а также оценить их силу:
1. Панорамная линза — Быстро ухватить ландшафт тем
2. Линза сканирования — Найти зоны интереса
3. Динамические линзы — Смотреть под разными углами
4. Слоистое бурение — Идти глубже, не теряя контекст
5. Ассоциативный сплав — Соединять далёкие идеи
6. Кузница гипотез — Формировать новые выводы и гипотезы
7. Институализация — Конвертировать знания во внешние артефакты
Подробней о «песочнице»

Аудио-аннотации альманаха:
• 2 диалога — обсуждений альманаха: 6 мин и 22 мин (англ)
• 2 рассказа об альманахе: 7 мин и 30 мин

Желающие погрузиться глубже в альманах и поэкспериментировать с “песочницей” его информария,
см. уровни доступа

#Информарий #ЛинзыБудущего
👍140🤔39🤯23👎18
Начался парадигмальный сдвиг, превосходящий революционностью все предыдущие
Его суть:
1. кардинальное переосмысление нашего понимания, что такое интеллект, разум и жизнь;
2. отказ от бинарного разделения "естественного" и "искусственного" в пользу понимания непрерывности между материей и разумом;
3. уход от представлений, что живые существа принципиально отличаются от машин;
4. переход к пониманию интеллекта, как континуума, проявляющегося в самых разнообразных сущностях (биологических и иных);
5. признание того, что полноценное развитие человечества невозможно без осознания спектра возможных форм разума, и что сегодняшние споры об AGI и ASI касаются универсальных экзистенциальных вопросов, стоящих перед всеми биологическими существами.


Опубликованная перед праздниками в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» – своего рода «апрельские тезисы» начинающейся революции. Предвосхищая ее начало, я написал в начале февраля в посте о предыдущей работе Левина: «Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие».

И вот спустя три месяца «апрельские тезисы» Левина открыто провозглашают с трибуны солидного научного журнала, что этот парадигмальный переворот начался. И, следовательно, уже можно открывать карты «Проекта Pi» и Google может вынимать пятый туз из своего рукава (см. триптих моих лонгридов [1, 2, 3]) и открыто объявлять о проекте, вот уже 2 года готовящем слом мейнстримной парадигмы интеллекта.

Так Google и сделал, начав в апреле официально выводить «Проект Pi» на высший научный уровень в корпорации. Для этого была опубликована статья, соавторами которой стали руководитель «Проекта Pi» Блез Агуэра-и-Аркас (вице-президент и ведущий научный сотрудник Google Technology & Society) и Джеймс Маниика — старший вице-президент Google-Alphabet и президент по исследованиям, лабораториям, технологиям и обществу в Google, а также почетный член Института ИИ при Стэнфордском университете и почетный научный сотрудник и приглашенный профессор Оксфорда.

Эта статья, как бы предваряя публикацию работы Левина, описывает начавшийся парадигмальный переворот в понимании интеллекта, разума и жизни, вписывая его в последовательность пяти взаимосвязанных сдвигов парадигмы эволюционирующего интеллекта, представляющего собой социальный фрактал.

Вот эти 5 взаимосвязанных сдвигов парадигмы интеллекта: Естественные вычисления, Нейронные вычисления, Предиктивный интеллект, Общий интеллект и Коллективный интеллект.


Авторы пишут, что смена парадигм часто сопряжена с трудностями, поскольку легче принять новые идеи, когда они совместимы с существующим мировоззрением, но сложнее, когда они несовместимы. Классическим примером является крах геоцентрической парадигмы, которая доминировала в космологической мысли примерно два тысячелетия. В геоцентрической модели Земля стояла на месте, в то время как Солнце, Луна, планеты и звезды вращались вокруг нас. Вера в то, что мы находимся в центре Вселенной, подкрепленная теорией эпициклов Птолемея, крупным научным достижением своего времени, была как интуитивной, так и совместимой с религиозными традициями. Следовательно, гелиоцентрическая парадигма Коперника была не просто научным достижением, но и горячо оспариваемой ересью и, возможно, даже, для некоторых, как отмечает Бенджамин Браттон, экзистенциальной травмой .

Так же происходит и сегодня с начавшимся парадигмальным сдвигом в понимании феномена интеллект.

Советую обязательно прочесть этот «меморандум о 5-ти парадигмальных сдвигах», ну или хотя бы прослушать этот 7-минутный подкаст.

Меморандум подготовит вас к обсуждению «апрельских тезисов» Левина (в следующем посте) о парадигмальной революции, назначение которой – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества.

#ParadigmsofIntelligence #DiverseIntelligence
3👍225🤯30👎25🤔15😱10
ИИ – лишь мост к многообразию разума
Уже в 2030-е земная цивилизация станет постчеловеческой

Ноосфера будет создаваться не только людьми, но и новыми типами разумных существ — биороботами, киборгами, химерами, гибротами, биосинтетиками и еще пока не известными нам нетрадиционными формами разума с более сложными когнитивными способностями, чем у людей. А основой культуры на планете станет культура синтбиоза - совместная эволюция многообразия разумных видов.

Комментируя осенью 2024 материализацию своего прогнозного сценария 2021 года о превращении привычного нам мира в «мир химер», я написал пост, озаглавленный так -
«Нежить и нелюди уже среди нас… как и было сказано. Два класса химер совершенствуются, третий - появится лет через 10». 

Этими тремя классами были биохимеры (гибриды тела и чужих органов), инфохимеры (гибриды мозга и чужого разума) и материализованные дигитанты» (гибриды “души” и чужих чувств).

А к лету 2025 эта тема уже вошла в официальный научный дискурс. Опубликованная в конце апреля в авторитетном журнале Advanced Intelligent Systems статья Майкла Левина «Искусственный интеллект: мост к разнообразному интеллекту и будущему человечества» стала своего рода «апрельскими тезисами» начинающейся парадигмальной революции - кардинального переосмысления нашего понимания, что такое интеллект, разум и жизнь.

Следующим событием в этом ряду станет проходящая в июне 1-я Международная онлайн-конференция журнала Philosophies «Разумное исследование разума», на которой тема переосмысления понимания разума будет одной из центральных. Звёздный состав спикеров конференции (Стивен Вольфрам, Эндрю Адамацкий, Майкл Левин и др) и тематика их докладов (вычислительные основы разума, возникновение разумного поведения далеко за пределами животного мира, распознавание и общение с нетрадиционным разумом и др), 100%-но вписывающаяся в новую парадигму интеллекта «Проекта Pi» от Google, подтверждают сказанное мною в предыдущем постеначинается колоссальный парадигмальный сдвиг. Назначение этой парадигмальной революции – построить смысловой мост к пониманию многообразия интеллектов и решающей роли этого многообразия для будущего человечества. Конференция пройдет 10-14 июня. Регистрация для участия бесплатная.

Но вернемся к «апрельским тезисам» Майкла Левина. Эта его работа существует в трех вариантах:
1. рецензированная академическая версия
2. развернутая авторская версия в формате эссе
3. сокращенный вариант эссе, отредактированный для широкой аудитории
Какой из вариантов читать - выбор за вами.
Я бы рекомендовал начать с 3-го варианта. Для предпочитающих слушать я подготовил русскую озвучку полного текста варианта №3 (36-мин). А кому нужна английская озвучка, она есть здесь (32-мин).

Однако, для понимания даже облегченного варианта №3 желательно иметь хотя бы минимальное представление о двух базовых концепциях Левина: Technological Approach to Mind Everywhere (TAME) и Diverse Intelligence (DI). Их описание в моем информарии «ИИ: мост к разнообразию разума» рассредоточено по 23-х статьям Левина и 150 слайдам 5-и его презентаций – докладов.

Описание трактовки Левиным трех основных понятий базовых концепций TAME и DI (жизнь, интеллект, разум), ужатое до одной страницы текста, желающие, в качестве прокачки мозгов, могут прочесть здесь. Понимание трактовки Левиным этих трёх понятий наводит на резкость взгляд через призму TAME и DI на роль ИИ, как моста к многообразию разума и будущему человечества.

Ну а для подписчиков моих лонгридов, совместно с ИИ-Мнемозиной, был написан (и как теперь положено, озвучен ИИ) текст, конкретизирующий одну из ключевых мыслей «апрельских тезисов» Левина о том, как многообразие разума изменит земную цивилизацию (ссылки на лонгрид на разных платформах: 1, 2, 3, 4).

Подписчикам двух высших уровней предоставляется доступ к информарию «Искусственный интеллект: Мост к разнообразию разума», где они могут в диалоге с ИИ-Мнемозиной получать ответы на любые вопросы по этой теме на основе собранных в информарии работ Майкла Левина.

#МирХимер #Химеры
12👍157🤔41🤯16👎14😱3
Третья сверхдержава
Глобальные убытки от киберпреступлений по оценке Cybersecurity Ventures на 2024 год достигли $10+ трлн в год. Мировая «экономика» киберкриминала стала условно «третьей экономикой» мира после США и Китая, превышая суммарный ВВП Германии и Японии, равно как и весь мировой рынок IT. Это не прибыль, а ущерб, но масштаб сравнимый. Мы имеем дело не с маргинальной угрозой, а с глобальной «кибердержавой» — крупнейшим нелегальным бизнесом планеты, в разы превышающим теневые рынки наркоторговли и оружия, и впятеро превосходя сумму военных бюджетов всех стран мира. Ушло время, когда киберриски «парковали» где то в IT отделах. Теперь их масштабы сопоставимы с крупнейшими национальными экономиками и мировыми индустриями планеты.

С фиксации этого поразительного факта начинается нон фикшн триллер Владаса Леонаса о прошлом, настоящем и будущем цифровой безопасности «Cyber Insecurity: Examining the Past, Defining the Future».

Задумайтесь над этим, чтобы навести фокус ваших оценок: 
• что в сегодняшнем мире лишь хайп (хотя, возможно, и с большим будущим),
• а что реально важно: не когда-то и не возможно, а совершенно точно и уже сейчас.


И в этом смысле книга моего давнего доброго коллеги и профессионального единомышленника Владаса Леонаса — не очередной хайпосборник маркетинговых мемов, а попытка вскрыть один из самых опасных нарывов цифровой цивилизации, пока он еще не превратился в гангрену.

О чём книга
1) История. От ARPANET до «червя» Creeper: Автор показывает — первые хакерские атаки появились вместе с первыми сетями, а логика противостояния мало изменилась за полвека.
2) Практика управления. Автор подробно разбирает, почему Agile команды теряют бюджет безопасности и как CISO может встроить риск метрики в backlog без ломки процессов.
3) Облака. К 2025  99% сбоев в облачной защите будут вызваны ошибками клиентов. Классическая схема shared responsibility часто читается «по диагонали», а цена этого миллионы долларов.
4) Будущее. 2025 й станет «годом отрезвления»: массовой окупаемости «волшебных алгоритмов» ждать не стоит, и компаниям придётся научиться измерять их реальную эффективность.

Что делает книгу особенной
1. Гибрид жанров. Мемуары инженера + исторический атлас кибервойн + справочник CISO. Лёгкий переход от нарратива к чек листам: можно читать подряд или выборочно
2. Честность без пиара. Автор не продаёт технологии, а анализирует. Он цитирует Gartner и Forrester, но так же охотно разбирает их промахи (например, миф «облако всегда дешевле»).
3. Смелые прогнозы с оговорками. Каждый вывод сопровождается ссылкой на первоисточник и допущениями. Это позволяет читателю самому оценить риски и степень уверенности.

Кому будет полезно
CEO и члены советов увидят, как киберинцидент обрушил рыночную капитализацию компании на 12 % за два дня — убедительный повод поставить KPI по кибербезопасности рядом с финансовыми метриками.
CISO и руководители ИТ найдут подробный разбор ловушек: от переоценки SOC инцидентов до конфликтов зон ответственности с CSP.
Студенты и энтузиасты поймут эволюцию угроз через конкретные истории вроде атаки на Colonial Pipeline.
Юристы и специалисты по комплаенсу получат компактный гид от CFAA до GDPR и свежих регуляторных инициатив 2024 года.

Почему стоит читать сейчас
Книги о кибербезопасности обычно устаревают к выходу из типографии. Владас Леонас успевает зафиксировать самый острый срез: от Stuxnet до экспериментов правительства Австралии с Microsoft Copilot. И он не продаёт «серебряные пули»; он вооружает читателя критическим мышлением. А с ним угрозы выглядят управляемыми, а инвестиции — оправданными.

И прежде чем подписывать новый SLA или урезать бюджет безопасности, поставьте «Cyber Insecurity» первой строкой в wish list. Отложить эту книгу «на потом» — уже риск, который нельзя игнорировать. Ведь в мире, где ChatGPT генерирует фишинг за секунды, а квантовые компьютеры вот-вот взломают RSA, откладывать её чтение — всё равно что игнорировать пожарную сигнализацию.


#БББ #Кибербезопасность
👍126🤔37🤯10😱6👎2
В этом году китайские LLM сравняются с американскими… Но это Китаю не поможет.
США задавят Китай 10-тикратной превосходством своего HW,
преобразовав его в ИИ-работников.
От того, кто из двоих лидеров – США или Китай, - выиграет важнейшую мировую гонку 21 века за первенство в области ИИ, во многом зависит, будет ли мир 2030-х и далее скроен по американскому или по китайскому образцу.

Пока в лидерах гонки однозначно были США. Но к концу 2024 Китай доказал, что способен разрабатывать свои большие языковые модели, приближаясь к уровню лучших образцов США.

По сути, вопросом 2025 года стал вопрос – сумеет ли теперь Китай догнать (а значит сможет и перегнать) все самые крутые американские модели по всем ключевым характеристикам?

Только законченное интереснейшее аналитическое исследование лаборатории «AI and Compute» Центра политики технологий и безопасности корпорации RAND под руководством проф. Леннарта Хайма дало интригующий ответ на этот вопрос:

1.  Да, в 2025 Китай догонит США по всем ключевым параметрам моделей.
2. Но это не позволит Китаю сравняться по вычислительной (а значит и по интеллектуальной) мощи с США. Ибо Китай отстает по вычислительной мощи примерно в 10 раз. И потому, даже догнав США по уровню моделей, общий разрыв все равно будет в 10 раз.
3. Более того. В 2026 ключевую роль ИИ-систем в экономике, науке и военном деле будут играть уже не разговорные LLM (ИИ-чатботы), а ИИ-агенты. Каждый такой ИИ-аген будет выполнять работу, как минимум, одного, а чаще десятков высококлассных специалистов.
Что при 10-кратном превосходстве вычислительной мощности станет равносильным 10-100-кратным превосходством в прибавке «интеллектуальной рабочей силы» в экономике, научных исследованиях и военном деле.


Т.е. формула «Есть «железо» - участвуй в гонке. Нет «железа» - кури в сторонке», в итоге, решит итог гонки за мировую гегемонию в ИИ (и не только).

#ИИгонка #Китай #США
👍128🤔63👎25🤯9
От безлекарственного подавления рака до понимания инопланетян
Поборов «слепоту разума», можно видеть и строить мир, где формы разума сосуществуют и помогают друг другу
Понимание, что разум может «жить» в химии, тканях, клетках и алгоритмах, меняет наше место в мире и даёт новые инструменты созидания. Мы могли бы «уговаривать» раковые клетки прекратить их экспансию. 

Парадигмальная революция в понимании разума, ознаменованная публикацией «апрельских тезисов» Майкла Левина, продолжается.
Новый доклад Левина «Против слепоты разума: распознавание и общение с многообразием разума» — настоящий взрыв мозга! Он заставляет задуматься о фундаментальном вопросе:
как нам научиться «разговаривать» с невероятным многообразием разума. 


Цель доклада двуедина
1. Показать, что звучащая сюжетами из будущего аргументация в пользу новой парадигмы разума, вовсе не фантазия и не “просто теория”, а реальность, обещающая революцию в медицине, создание живых микроботов и переосмысление нашего места во Вселенной.
Ибо уже экспериментально продемонстрировано:
— клетки могут «договариваться» между собой;
— их можно «убедить» например, создать глаз на хвосте головастика или «убедить» «антроботов» (сборки из клеток человека) заживлять раны нейронов;
— биоэлектрические сигналы могут «перепрограммировать» ткани;
— и даже раковые клетки можно «убедить» вернуться в коллектив к «здоровой жизни» без лекарств и химиотерапии, использовав их «электрический язык».

2. Продемонстрировать непомерно высокую цену, которую человечество платит за “слепоту разума”, не позволяющую видеть колоссальные перспективы кардинальной смены научной парадигмы в пользу признания многообразия разума.
Ибо это может позволить:
— научиться «разговаривать» с отдельными клетками и их коллективами;
— поняв наконец, что ДНК — лишь «алфавит», а настоящий «роман» пишется коллективным разумом тела, научиться читать индивидуальные «романы» каждого из людей;
— увидев и поняв другие формы разума, существующие вокруг нас и даже внутри нас, кардинально поменять представления о разумном мироздании.

Увы, но каждый из нас может быть интеллектуально слеп по каким-то вопросам. И вследствие этого, просто не воспринимать аргументы и логику, противоречащие нашим предубеждениям. Источником такой “интеллектуальной слепоты” является феномен мотивированного рассуждения, зафиксированного в сотнях научных экспериментов и ныне являющегося ключом к анализу нейропсихологических причин устойчивого существования непробиваемых ложных суждений. Такая непробиваемость и повсеместность феномена мотивированного рассуждения обусловлены тем, что это продукт эволюции. В результате чего каждый из нас расплачивается за свои мотивированные рассуждения обидными, но крайне трудно преодолимыми самообманами, живущими в нашем разуме в привязке к уже существовавшим привычным мыслям (подробней см. мой лонгрид «Интеллектуальная слепота»).

Но оказывается, бывают вещи и похуже индивидуальной интеллектуальной слепоты. Подобного рода “слепотой разума” страдают не только индивиды, но и все человечество. Причем объектом слепоты разума является сам разум.

Истоки слепоты разума также эволюционные. Эволюция «настроила» нас распознавать лишь знакомые нам разумы — тех, кто похож на людей или хотя бы на собак, птиц, осьминогов. Всё, что мыслит вне привычных масштабов и форм, — от колоний клеток до роботов — мы склонны игнорировать. Это и есть слепота разума — самый фундаментальный самообман бесконечно дорого обходящийся человечеству.

Хотите глубже?
✔️ Смотрите 36-минутный видео-доклад с презентацией Майкла Левина.
✔️ Понимание доклада требует подготовки. Поэтому для подписчиков моих лонгридов я написал структурированное резюме доклада с пояснениями сложных моментов ИИ-мнемозиной информария Левина [1, 2, 3, 4].

И приготовьтесь: после знакомства с этими материалами, привычная граница между организмом, машиной и «просто материей» тает — и взгляд на разум перезагружается.

#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект #МирХимер
9👍189🤔35👎21🤯13
Научный прогресс статистически неизбежен.
Но от конкретных личностей зависит лишь, чьё имя войдёт в учебники.

Кто на самом деле ведёт науку вперёд — одинокие гении или дух времени?
Новое исследование склоняет чашу весов в пользу второго.
Проанализировав 40 млн научных статей, авторы отыскали каждую из работ, «взорвавших» свою область прорывным открытием, и обнаружили:
у любого такого прорыва почти всегда есть близнецы — независимые статьи с тем же открытием, вышедшие всего через несколько месяцев или лет. 


В современном научном мире «двойное открытие» («тройное» и т.д.) — скорее правило, чем редкость.
Как только знания по определенной теме достигают критической массы, вероятность того, что разные команды одновременно придут к одной революционной идее, возрастает в сорок раз.


Эти цифры отсылают нас к одному из самых известных американских социологов XX века Роберту Мертону, который ещё в 1961 году утверждал: открытия диктует исторический контекст, а не случайные молнии таланта.

И что же теперь делать с нашими идолами — Ньютоном, Дарвином, Эйнштейном и т.д.?
Их блеск неоспорим, но данные намекают: промедли они — и очень скоро кто-то другой поднял бы тот же флаг. Научный прогресс, похоже, статистически неизбежен; от личностей зависит лишь, чьё имя войдёт в учебники, а не то, откроются ли закон тяготения, естественный отбор или теория относительности.

Тем более, что с учетом «науки об успехе», в цифросетевом мире успех, в основном, зависит «от впечатлений» - т.е. не от таланта и продуктивности автора, а от коллективного восприятия обществом его самого и результатов его работы.

Но как говорится, «на каждый газ есть противогаз». И на статистическую неизбежность свой противогаз тоже есть. И даже два.

Во-первых, в науке, как и во всем остальном, все больше правит хайп. А чем больше хайп, тем меньше шансов на прорыв. И потому научный прогресс останавливается, попав в ловушку канона.

Во-вторых, - «Анти-Закон Мура»: производительность труда ученых, исследователей, разработчиков техно-прорывов во многих областях за 50 лет упала примерно в 18 раз. Ибо научный прогресс экстенсивен и может остановиться из-за приближения науки и технологий к сингулярности сложности.

Ситуация похожа на подъем по эскалатору, идущему вниз. Мы пытаемся ускорить подъем и бежим все быстрее. Но эскалатор тоже ускоряется, и в результате мы остаемся на месте. Сила, что все более ускоряет эскалатор, — это нарастающая сложность решаемых задач, способов их решения и, в целом, - экспоненциальное нарастание сложности мира, как интегральный результат всех наших предыдущих усилий. В результате, прогресс почти остановился. Но мы этого еще не видим.

Однако, не все так плохо. И кажется, нашёлся свой противогаз и на сингулярность сложности.

Уже в следующем году ключевую роль в науке, исследованиях и разработках начнут перенимать на себя ИИ-агенты. Каждый такой ИИ-агент будет выполнять работу десятков (если не сотен и тысяч) высококлассных специалистов. А поскольку число ИИ-агентов будет расти несравнимо быстрее, чем это получается у людей, научный прогресс снова станет статистически неизбежен.

#Прогресс #Наука
7👍227🤔47😱10👎6🤯3
Кому принадлежит зеркало, отражающее наше будущее?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим, а всеми задвижками на них управляет инфо-симбионт государства.

Новое исследование 164 стран показывает, как ИИ, обретя топливо из океанов данных, сворачивает узкий коридор демократии до размеров замочной скважины.
Эта работа демонстрирует, что в гонке данных и ИИ государство предпочитает садится в кресло пилота. В результате этого:
• чем плотнее государство подгребает под себя базы данных, тем легче алгоритмы превращаются в роботов-санитаров автократий, смазывая шестерни цензуры и отключений быстрее, чем мы успеваем осмыслить push-уведомления;
• чем больше роль и вес государства в развитии и внедрении ИИ-технологий, тем быстрее ИИ становится его естественным «инфо-симбионтом», выполняющим роль «экзоскелета Левиафана». Этот «инфо-симбионт» несоизмеримо тоньше, искусней, эффективней и незаметней, чем все предыдущие поколения медиа вместе взятые, усиливает цензуру и контроль, перекраивая общественную инфореальность через глобальную слежку, контент-фильтры и социохакинг.


Эконометрика исследования довольно строгая: связка строгой панельной экономики динамической регрессии Arellano–Bond с моделью Аджемоглу–Робинсона, эмпирическая аккуратность, визионерский размах (обсуждение LEO-созвездий и «ИИ-тократий» превращает сухие коэффициенты в геополитический прогноз, достойный научной фантастики).
И всё это с учётом структурных сдвигов:
• сначала 2012-го, когда соцсети стали глобальными капиллярами информации;
• потом 2017-го, когда дипфейки начали массово искажать реальность, подобно осколку зеркала злого тролля, попавшему в глаз Кая;
• и наконец 2022, когда «революция ChatGPT» за 2 месяца пробила потолок 100 млн активных пользователей, превратив ИИ-чатботы в «оружие массового убеждения».

Но за диковинным лесом коэффициентов виден сюжет куда грандиозней: ИИ и власть вступили в инфо-симбиоз, напоминающий океан Соляриса у Лема — организм столь гигантский, что наши политические институты для него лишь, как легко обтекаемые рифы.

Что дальше?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим. ИИ становится идеальным «экзоскелетом Левиафана»: машина считывает биометрию толпы, предсказывает протестные вспышки и перекраивает реальность через контент-фильтры прежде, чем возникает сам протестный лозунг. Демократия же в этой модели выглядит не парламентом, а игрой на опережение латентных векторов: достаточно сместить несколько весов — и политический плюрализм схлопывается в «единственно верный» тренд.

Но будущее не предрешено. И оно зависит от того, кому будет принадлежать зеркало, отражающее будущее нашей инфореальности.


Уже возникает «партизанский» ИИ-андерграунд: открытые языковые модели, mesh-сети из смартфонов и низкоорбитальные спутники-лилипуты, способные перебить монополию трафика. Подобно Гольфстриму в океане, течения ИИ-андеграунда, в которых каждый узел выступает масс-медиа гутенберговской мощи, способны менять инфо-климат стран и целых материков. В такой экосистеме алгоритмы станут не дубинкой власти и не «социальным лазером» (см. мои посты с тэгом #СоциальныйЛазер), а общим чувством ритма, по которому общество настраивает свою гражданскую «оркестровку».

Вот наша дилемма 2030-х: 
• либо мы превратим ИИ в зеркальный купол, усиливающий эхо одного голоса «инфо-симбионта» вертикальной власти,
• либо в «цифровой Парнас», цифровое общественное пространство, где ИИ служит катализатором коллективного творчества и самоуправления, а не усилителем и «социальным лазером» вертикальной власти.


Ключ к выбору варианта будущего, как показывают авторы исследования, не в архитектуре и кодах LLM, а в правах собственности на данные. Распределите эти права в пользу граждан, и «экзоскелет Левиафана» ослабит удушающую хватку демократии и свобод. Вопрос не технологический, а почти метафизический: кому принадлежит зеркало, отражающее наше будущее?

#СоциальныйЛазер #ИнформационныеАвтократии #Социохакинг
6👍170🤔47😱8🤯6👎3
Первой профессией, в которой ИИ обошел людей, стали врачи
Большие языковые модели впервые достигли сверхчеловеческой точности в диагностике 

Довольно нередкая ситуация. В отделение неотложной помощи привозят пациента с непонятными и довольно опасными симптомами. У врача всего несколько минут, чтобы правильно поставить диагноз. И от этого может зависеть жизнь человека.

А теперь вопрос: как вам такое — вместо врача, диагноз вынесет ИИ и сделает он это точнее и надежней опытного врача?

Подумайте. Ибо это уже реальность.
Впервые в истории большие языковые модели (LLM), разработанные OpenAI, продемонстрировали сверхчеловеческие способности в общей медицинской диагностике, превзойдя сотни опытнейших врачей.

Как именно ИИ превзошёл врачей
Исследователи из Гарварда и Стэнфорда провели масштабный эксперимент в одной из крупнейших клиник Бостона, где оценивали точность постановки диагнозов большими языковыми моделями (o1 от OpenAI) и опытными врачами. Тестирование проходило в условиях реальной клинической практики, где время ограничено, а информации катастрофически мало.
Результаты оказались ошеломляющими:
Точность диагностики ИИ на этапе приема пациента в реанимацию составила 79,7%, в то время как у лучших врачей — только 75,9%.
Особенно ярко преимущества ИИ проявились именно тогда, когда времени на раздумья было мало, а начальные данные о пациенте крайне ограничены. То есть в самых экстремальных ситуациях, где каждая секунда решает исход.

Медицина стала первой профессией, в которой искусственный интеллект объективно превзошёл профессионалов-людей. Но почему это так важно?

Почему это важно
Ежегодно миллионы (!) пациентов страдают от врачебных ошибок. В США ошибочные диагнозы входят в тройку ведущих причин смертности, уступая лишь сердечным заболеваниям и раку. Искусственный интеллект, достигший сверхчеловеческой точности, способен кардинально снизить число таких ошибок, спасая тысячи жизней ежедневно.
Кроме того, доступ к экспертной медицинской помощи крайне ограничен во многих странах. Технологии вроде OpenAI могут устранить дефицит квалифицированной диагностики, обеспечивая доступность качественной медицины в любой точке планеты.

Возражения и критика: что беспокоит людей?
Несмотря на впечатляющие успехи, возникли серьезные вопросы:
• Кто несёт ответственность за ошибки, если диагноз поставил искусственный интеллект?
• Не начнут ли врачи терять профессиональные навыки, полностью доверившись машинам?


Ответы на эти вопросы пока открыты. Очевидно одно: будущее медицины не в конкуренции, а в тесном сотрудничестве врачей и искусственного интеллекта. Но первым пилотом в этой связке, похоже, будет ИИ.

Так что будущее уже наступило. И самое время задуматься – готовы ли лично вы доверить ИИ принятие решений, от которых может зависеть ваша жизнь или жизнь ваших близких?

P.S. О предыдущем невероятном скачке уровня машинного интеллекта в медицине я писал всего 2 месяца назад.

#Медицина #LLMvsHomo
2👍208🤔52👎15🤯10😱2