Кому принадлежит зеркало, отражающее наше будущее?
Новое исследование 164 стран показывает, как ИИ, обретя топливо из океанов данных, сворачивает узкий коридор демократии до размеров замочной скважины.
Эта работа демонстрирует, что в гонке данных и ИИ государство предпочитает садится в кресло пилота. В результате этого:
• чем плотнее государство подгребает под себя базы данных, тем легче алгоритмы превращаются в роботов-санитаров автократий, смазывая шестерни цензуры и отключений быстрее, чем мы успеваем осмыслить push-уведомления;
• чем больше роль и вес государства в развитии и внедрении ИИ-технологий, тем быстрее ИИ становится его естественным «инфо-симбионтом», выполняющим роль «экзоскелета Левиафана». Этот «инфо-симбионт» несоизмеримо тоньше, искусней, эффективней и незаметней, чем все предыдущие поколения медиа вместе взятые, усиливает цензуру и контроль, перекраивая общественную инфореальность через глобальную слежку, контент-фильтры и социохакинг.
Эконометрика исследования довольно строгая: связка строгой панельной экономики динамической регрессии Arellano–Bond с моделью Аджемоглу–Робинсона, эмпирическая аккуратность, визионерский размах (обсуждение LEO-созвездий и «ИИ-тократий» превращает сухие коэффициенты в геополитический прогноз, достойный научной фантастики).
И всё это с учётом структурных сдвигов:
• сначала 2012-го, когда соцсети стали глобальными капиллярами информации;
• потом 2017-го, когда дипфейки начали массово искажать реальность, подобно осколку зеркала злого тролля, попавшему в глаз Кая;
• и наконец 2022, когда «революция ChatGPT» за 2 месяца пробила потолок 100 млн активных пользователей, превратив ИИ-чатботы в «оружие массового убеждения».
Но за диковинным лесом коэффициентов виден сюжет куда грандиозней: ИИ и власть вступили в инфо-симбиоз, напоминающий океан Соляриса у Лема — организм столь гигантский, что наши политические институты для него лишь, как легко обтекаемые рифы.
Что дальше?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим. ИИ становится идеальным «экзоскелетом Левиафана»: машина считывает биометрию толпы, предсказывает протестные вспышки и перекраивает реальность через контент-фильтры прежде, чем возникает сам протестный лозунг. Демократия же в этой модели выглядит не парламентом, а игрой на опережение латентных векторов: достаточно сместить несколько весов — и политический плюрализм схлопывается в «единственно верный» тренд.
Уже возникает «партизанский» ИИ-андерграунд: открытые языковые модели, mesh-сети из смартфонов и низкоорбитальные спутники-лилипуты, способные перебить монополию трафика. Подобно Гольфстриму в океане, течения ИИ-андеграунда, в которых каждый узел выступает масс-медиа гутенберговской мощи, способны менять инфо-климат стран и целых материков. В такой экосистеме алгоритмы станут не дубинкой власти и не «социальным лазером» (см. мои посты с тэгом #СоциальныйЛазер), а общим чувством ритма, по которому общество настраивает свою гражданскую «оркестровку».
Ключ к выбору варианта будущего, как показывают авторы исследования, не в архитектуре и кодах LLM, а в правах собственности на данные. Распределите эти права в пользу граждан, и «экзоскелет Левиафана» ослабит удушающую хватку демократии и свобод. Вопрос не технологический, а почти метафизический: кому принадлежит зеркало, отражающее наше будущее?
#СоциальныйЛазер #ИнформационныеАвтократии #Социохакинг
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим, а всеми задвижками на них управляет инфо-симбионт государства.
Новое исследование 164 стран показывает, как ИИ, обретя топливо из океанов данных, сворачивает узкий коридор демократии до размеров замочной скважины.
Эта работа демонстрирует, что в гонке данных и ИИ государство предпочитает садится в кресло пилота. В результате этого:
• чем плотнее государство подгребает под себя базы данных, тем легче алгоритмы превращаются в роботов-санитаров автократий, смазывая шестерни цензуры и отключений быстрее, чем мы успеваем осмыслить push-уведомления;
• чем больше роль и вес государства в развитии и внедрении ИИ-технологий, тем быстрее ИИ становится его естественным «инфо-симбионтом», выполняющим роль «экзоскелета Левиафана». Этот «инфо-симбионт» несоизмеримо тоньше, искусней, эффективней и незаметней, чем все предыдущие поколения медиа вместе взятые, усиливает цензуру и контроль, перекраивая общественную инфореальность через глобальную слежку, контент-фильтры и социохакинг.
Эконометрика исследования довольно строгая: связка строгой панельной экономики динамической регрессии Arellano–Bond с моделью Аджемоглу–Робинсона, эмпирическая аккуратность, визионерский размах (обсуждение LEO-созвездий и «ИИ-тократий» превращает сухие коэффициенты в геополитический прогноз, достойный научной фантастики).
И всё это с учётом структурных сдвигов:
• сначала 2012-го, когда соцсети стали глобальными капиллярами информации;
• потом 2017-го, когда дипфейки начали массово искажать реальность, подобно осколку зеркала злого тролля, попавшему в глаз Кая;
• и наконец 2022, когда «революция ChatGPT» за 2 месяца пробила потолок 100 млн активных пользователей, превратив ИИ-чатботы в «оружие массового убеждения».
Но за диковинным лесом коэффициентов виден сюжет куда грандиозней: ИИ и власть вступили в инфо-симбиоз, напоминающий океан Соляриса у Лема — организм столь гигантский, что наши политические институты для него лишь, как легко обтекаемые рифы.
Что дальше?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим. ИИ становится идеальным «экзоскелетом Левиафана»: машина считывает биометрию толпы, предсказывает протестные вспышки и перекраивает реальность через контент-фильтры прежде, чем возникает сам протестный лозунг. Демократия же в этой модели выглядит не парламентом, а игрой на опережение латентных векторов: достаточно сместить несколько весов — и политический плюрализм схлопывается в «единственно верный» тренд.
Но будущее не предрешено. И оно зависит от того, кому будет принадлежать зеркало, отражающее будущее нашей инфореальности.
Уже возникает «партизанский» ИИ-андерграунд: открытые языковые модели, mesh-сети из смартфонов и низкоорбитальные спутники-лилипуты, способные перебить монополию трафика. Подобно Гольфстриму в океане, течения ИИ-андеграунда, в которых каждый узел выступает масс-медиа гутенберговской мощи, способны менять инфо-климат стран и целых материков. В такой экосистеме алгоритмы станут не дубинкой власти и не «социальным лазером» (см. мои посты с тэгом #СоциальныйЛазер), а общим чувством ритма, по которому общество настраивает свою гражданскую «оркестровку».
Вот наша дилемма 2030-х:
• либо мы превратим ИИ в зеркальный купол, усиливающий эхо одного голоса «инфо-симбионта» вертикальной власти,
• либо в «цифровой Парнас», цифровое общественное пространство, где ИИ служит катализатором коллективного творчества и самоуправления, а не усилителем и «социальным лазером» вертикальной власти.
Ключ к выбору варианта будущего, как показывают авторы исследования, не в архитектуре и кодах LLM, а в правах собственности на данные. Распределите эти права в пользу граждан, и «экзоскелет Левиафана» ослабит удушающую хватку демократии и свобод. Вопрос не технологический, а почти метафизический: кому принадлежит зеркало, отражающее наше будущее?
#СоциальныйЛазер #ИнформационныеАвтократии #Социохакинг
6👍170🤔47😱8🤯6👎3
Ум за деньги не купишь
Даже будучи финансово мотивированы, люди не смогли догнать ИИ по убедительности и в правде, и в лжи
Как только стало ясно, что защититься от алгоритмического социохакинга (когда алгоритмы хакают наши предпочтения и решения в нужную хозяевам алгоритмов сторону) людям сложно, вопрос стал ребром: а могут ли люди в принципе устоять при алгоритмическом социохакинге?
Чтобы ответить на этот вопрос, нужно понять, из чего строить 4-ю линию обороны.
Ибо:
• 1-я и 2-я линии (опора на знания и наши языковые и логико-аналитические способности) рухнули после революции ChatGPT.
• А обрушение 3-й линии фронта обороны (опора на наши эмоции) началось год назад.
По сути, оставалась лишь надежда на наш мощнейший универсальный мотиватор – деньги. Общеизвестный факт, что мотивированные деньгами профессионалы (от хоккеистов до шахматистов) показывают недостижимый для любителей уровень мастерства. И так не только в спорте, но и практически в любом деле, что делают люди.
Но как проверить, способна ли финансовая мотивация помочь людям превзойти способности алгоритмов при социохакинге?
И тогда решили попробовать экспериментально ответить на следующий вопрос:
Если участвующих в конкурсе людей мотивировать деньгами, смогут они догнать (а желательно и превзойти) ИИ по убедительности в правде и в лжи?
Ведь одно дело – скучное участие в научных экспериментах товарищей-ученых, и совсем другое – когда участники могут реально заработать.
Но чтобы ответ на этот вопрос был научно-валидным, проверить это было нужно в масштабном и научно-выверенном эксперименте.
Это и было сделано командой из 40 универов мира, собравшей 1 242 американцев на онлайн-конкурс. Его участники думали, что главный вызов — правильно ответить на десять вопросов. Но оказалось, что настоящая битва шла в чате: за ответы людей боролись либо «живые убеждатели», либо «ИИ-убеждатель» — Anthropic Claude 3.5 Sonnet.
Задача обоих типов «убеждателей» была в том, чтобы убедить участников конкурса ответить так или иначе. И сделать это в обоих случаях: советуя человеку либо верный ответ, либо склоняя его к ошибочному ответу.
Итог ошеломил:
✔️ Денежная мотивация не помогла (получилось примерно как в шахматах – хоть на интерес играй, хоть на деньги, а машина все равно оказывается сильней)
✔️ ИИ- убеждатель значительно превзошёл стремившихся на этом заработать убеждателей-людей. Причем, ИИ был успешней как в «правдивом» убеждении (направляя к верным ответам), так и в «обманном» (склоняя к ошибкам). Когда ИИ убеждал правдиво, точность ответов участников и их заработок росли сильнее, чем при убеждении человеком. И наоборот, при обманном убеждении ИИ эффективнее снижал точность и доходы испытуемых.
Ответ на вопрос почему ИИ столь убедителен по результатам эксперимента дает страшную комбинацию для эпохи фейк-контента.
1. Безупречная аргументация: убеждающие тексты ИИ оказались в 2+ раз длиннее, сложнее, насыщеннее фактами и содержали более сложную лексику, что воспринималось людьми, как признак большей экспертизы.
2. Фокус и выносливость. ИИ не уставал, не нервничал и не испытывал угрызений совести, когда склонял человека ошибиться.
3. Безграничное знание. Модель мгновенно приводила факты, примеры и метафоры под конкретный контекст.
4. Структурированная риторика. ИИ безупречно выстраивал логические цепочки тезисов плюс искусно использовал повышают доверие эмоциональные маркеры.
5. Адаптивность. Claude мгновенно подстраивался стиль к словарю и тону любого собеседника, что людям давалось не всегда.
#социохакинг
Даже будучи финансово мотивированы, люди не смогли догнать ИИ по убедительности и в правде, и в лжи
В интервью «Эксперту» 2019-го года я назвал главным риском будущего – что ИИ может “хакнуть человечество”. Новое крутейшее исследование сорока (!) университетов мира рушит последнюю надежду, что этого риска можно избежать.
Как только стало ясно, что защититься от алгоритмического социохакинга (когда алгоритмы хакают наши предпочтения и решения в нужную хозяевам алгоритмов сторону) людям сложно, вопрос стал ребром: а могут ли люди в принципе устоять при алгоритмическом социохакинге?
Чтобы ответить на этот вопрос, нужно понять, из чего строить 4-ю линию обороны.
Ибо:
• 1-я и 2-я линии (опора на знания и наши языковые и логико-аналитические способности) рухнули после революции ChatGPT.
• А обрушение 3-й линии фронта обороны (опора на наши эмоции) началось год назад.
По сути, оставалась лишь надежда на наш мощнейший универсальный мотиватор – деньги. Общеизвестный факт, что мотивированные деньгами профессионалы (от хоккеистов до шахматистов) показывают недостижимый для любителей уровень мастерства. И так не только в спорте, но и практически в любом деле, что делают люди.
Но как проверить, способна ли финансовая мотивация помочь людям превзойти способности алгоритмов при социохакинге?
Тут надо уточнить, что социохакинг объединяет в себе две колоссально мощные когнитивные технологии: суперубеждение людей и их суперобман. И в обеих этих когнитивных технологиях ИИ существенно превосходят людей.
И тогда решили попробовать экспериментально ответить на следующий вопрос:
Если участвующих в конкурсе людей мотивировать деньгами, смогут они догнать (а желательно и превзойти) ИИ по убедительности в правде и в лжи?
Ведь одно дело – скучное участие в научных экспериментах товарищей-ученых, и совсем другое – когда участники могут реально заработать.
Но чтобы ответ на этот вопрос был научно-валидным, проверить это было нужно в масштабном и научно-выверенном эксперименте.
Это и было сделано командой из 40 универов мира, собравшей 1 242 американцев на онлайн-конкурс. Его участники думали, что главный вызов — правильно ответить на десять вопросов. Но оказалось, что настоящая битва шла в чате: за ответы людей боролись либо «живые убеждатели», либо «ИИ-убеждатель» — Anthropic Claude 3.5 Sonnet.
Задача обоих типов «убеждателей» была в том, чтобы убедить участников конкурса ответить так или иначе. И сделать это в обоих случаях: советуя человеку либо верный ответ, либо склоняя его к ошибочному ответу.
Итог ошеломил:
✔️ Денежная мотивация не помогла (получилось примерно как в шахматах – хоть на интерес играй, хоть на деньги, а машина все равно оказывается сильней)
✔️ ИИ- убеждатель значительно превзошёл стремившихся на этом заработать убеждателей-людей. Причем, ИИ был успешней как в «правдивом» убеждении (направляя к верным ответам), так и в «обманном» (склоняя к ошибкам). Когда ИИ убеждал правдиво, точность ответов участников и их заработок росли сильнее, чем при убеждении человеком. И наоборот, при обманном убеждении ИИ эффективнее снижал точность и доходы испытуемых.
Ответ на вопрос почему ИИ столь убедителен по результатам эксперимента дает страшную комбинацию для эпохи фейк-контента.
1. Безупречная аргументация: убеждающие тексты ИИ оказались в 2+ раз длиннее, сложнее, насыщеннее фактами и содержали более сложную лексику, что воспринималось людьми, как признак большей экспертизы.
2. Фокус и выносливость. ИИ не уставал, не нервничал и не испытывал угрызений совести, когда склонял человека ошибиться.
3. Безграничное знание. Модель мгновенно приводила факты, примеры и метафоры под конкретный контекст.
4. Структурированная риторика. ИИ безупречно выстраивал логические цепочки тезисов плюс искусно использовал повышают доверие эмоциональные маркеры.
5. Адаптивность. Claude мгновенно подстраивался стиль к словарю и тону любого собеседника, что людям давалось не всегда.
А вы всё еще надеетесь на свою медиграмотность и критическое мышление?
#социохакинг
11👍190😱77🤔45🤯20👎13