Впервые в истории парадигмальный научный поворот совпал с фазовым переходом культуры.
Новый Уханьский эксперимент свидетельствует, что это происходит прямо сейчас.
На рисунке сверху карта итогов прошедших президентских выборов в США, выигранных Трампом со счетом 312 : 226.
Такого результата не смог предсказать никто из людей: эксперты, супер-прогнозисты, экзит-полы, рынки предсказаний, гадалки и экстрасенсы.
Но ИИ-модель ChatGPT-4o смогла – см на рисунке снизу ее прогноз результата 309 : 229.
Этот прогноз был сделан еще в сентябре в, не к ночи будет помянутым, Уханьском университете (да, опять Китай и опять Ухань).
Нечеловеческая точность этого прогноза имеет под собой нечеловеческое основание.
Он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.
Еще 2 года назад назад я рассказывал своим читателям о супероткрытии (названном мною «Китайская комната наоборот») – технология создания алгоритмических копий любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Через год после этого, в 2023 была открыта технология «Китайская комната повышенной сложности» – создание алгоритмических копий граждан любой страны.
А в августе этого года все в этой области стало более-менее ясно – эти технологии кардинально изменят мир людей.
Будучи пока не в состоянии симулировать общий интеллект индивида (AGI), ИИ-системы уже создают симулякры коллективного бессознательного социумов.
Из чего мною были сформулированы (в виде эвристических гипотез) два таких вывода:
✔️ Парадигмальный научный поворот, знаменующий превращение психоистории в реальную практическую науку (из вымышленной Азимовым фантастической науки, позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности).
✔️ Фазовый переход к новой культурной эпохе на Земле – алгокогнитивная культура.
И вот спустя всего 3 месяца (такова немыслимая ранее скорость техно-изменений после вступления прогресса в область сингулярности) исследователи из Уханя предоставили экспериментальное подтверждение в пользу того, что обе мои гипотезы – вовсе не футурологический бред, а весьма возможно, что так и есть.
Т.е. вполне вероятно, что мир уже кардинально изменился.
И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.
А какой теперь она будет, - читайте на моём канале. Ведь только об этом я здесь и пишу.
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг #Выборы
Новый Уханьский эксперимент свидетельствует, что это происходит прямо сейчас.
На рисунке сверху карта итогов прошедших президентских выборов в США, выигранных Трампом со счетом 312 : 226.
Такого результата не смог предсказать никто из людей: эксперты, супер-прогнозисты, экзит-полы, рынки предсказаний, гадалки и экстрасенсы.
Но ИИ-модель ChatGPT-4o смогла – см на рисунке снизу ее прогноз результата 309 : 229.
Этот прогноз был сделан еще в сентябре в, не к ночи будет помянутым, Уханьском университете (да, опять Китай и опять Ухань).
Нечеловеческая точность этого прогноза имеет под собой нечеловеческое основание.
Он основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их симулякров.
Еще 2 года назад назад я рассказывал своим читателям о супероткрытии (названном мною «Китайская комната наоборот») – технология создания алгоритмических копий любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Через год после этого, в 2023 была открыта технология «Китайская комната повышенной сложности» – создание алгоритмических копий граждан любой страны.
А в августе этого года все в этой области стало более-менее ясно – эти технологии кардинально изменят мир людей.
Будучи пока не в состоянии симулировать общий интеллект индивида (AGI), ИИ-системы уже создают симулякры коллективного бессознательного социумов.
Из чего мною были сформулированы (в виде эвристических гипотез) два таких вывода:
✔️ Парадигмальный научный поворот, знаменующий превращение психоистории в реальную практическую науку (из вымышленной Азимовым фантастической науки, позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности).
✔️ Фазовый переход к новой культурной эпохе на Земле – алгокогнитивная культура.
И вот спустя всего 3 месяца (такова немыслимая ранее скорость техно-изменений после вступления прогресса в область сингулярности) исследователи из Уханя предоставили экспериментальное подтверждение в пользу того, что обе мои гипотезы – вовсе не футурологический бред, а весьма возможно, что так и есть.
Т.е. вполне вероятно, что мир уже кардинально изменился.
И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.
А какой теперь она будет, - читайте на моём канале. Ведь только об этом я здесь и пишу.
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг #Выборы
2👍311😱80🤯63🤔48
Мир кардинально изменился… Но мы это еще не осознаем.
Новый “Стэнфордский симулякровый эксперимент” оказался еще круче Уханьского: создана тысяча сумулякров индивидуального сознания «типовых» американцев.
Только 2 недели назад в посте об “Уханьском эксперименте” создания симулякров коллективного бессознательного социумов я обращал внимание читателей на немыслимую ранее скорость техно-изменений после вступления прогресса в область сингулярности.
И вот новый тому поразительный пример.
Спустя всего 2 недели вышло исследование о конструировании симулякров уже не коллективного бессознательного социумов, а индивидуального сознания людей.
А дабы эти симулякры лучше “продавались” (кавычки здесь, скорее всего, лишние, и сделаны из политкорректности) на рынках социального, политического, экономического и психологического мухляжа, было сделано 1000 симулякров «типовых» людей. Т.е. реальных американцев (их личные данные, естественно, засекречены), отобранных для представления населения США по возрасту, полу, образованию и политическим взглядам.
Основной инструмент совместного исследования Стэнфордского университета и Google DeepMind, как и в случае “Уханьского эксперимента”, - генеративный ИИ больших языковых моделей (ChatGPT-4o).
Схема “Стэнфордского симулякрового эксперимента” (теперь он войдет в историю, как и “Стэнфордский тюремный эксперимент”) проста и понятна.
1. Отобраны по заданным критериям 1000 «типовых» американцев.
2. С каждым проведено углубленное 2-х часовое интервью (примерно 6,5 тыс слов)
3. Расшифровка каждого из интервью была загружена в память отдельного ИИ-агента на основе ChatGPT-4o, превращая его тем самым в симулякра личности (индивидуального сознания) конкретного «типового» американца или американки.
4. Потом прогнали каждого из 1000 человек через несколько канонических социолого-психологический тестов: Общий социальный опрос (GSS), личностный опросник "Большая пятерка", пять хорошо известных поведенческих экономических игр (напр, игра в диктатора, игра в общественные блага) и пять социологических экспериментов с контролем.
5. И параллельно прогнали через эти же тесты, игры и т.д. всех симулякров личности «типовых» американцев, полученных в п. 2.
6. Статистически корректно сравнили ответы и поведение реальных людей и симулякров их личностей.
Результаты
• Симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85% (что значительно лучше, чем ИИ-агенты, которые использовали только базовую демографическую информацию).
• Из пяти экспериментов с участием как людей, так и их симулякров, в четырех симулякры дали результаты, почти неотличимые от реакций их прототипов - людей (коэффициент корреляции 0,98).
• Симулякры делали более точные прогнозы по различным политическим идеологиям и этническим группам. Они также показали более сбалансированную производительность при анализе ответов между различными демографическими категориями.
Резюме (имхо).
А) “Стэнфордский симулякровый эксперимент” дал практическое подтверждение 2х важных эвристических гипотез, сформулированных мною 2 недели назад в упомянутом выше посте.
Это значит, что мир уже (!) кардинально изменился. И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.
Б) Поразительно, как проста и незатейлива оказалась человеческая натура, что для создания её ИИ-симулякра оказалось достаточно всего 2х часов интервью плюс внечеловеческий интеллект ChatGPT-4o.
PS Полученные симулякры индивидуального сознания – узконаправленные и не моделируют всех черт и аспектов личности. Но ведь это всего лишь 1я такая работа. И не за горами ее куда более продвинутые варианты (контекстные окна уже вмещают не 6,5 тыс слов интервью, а на порядки больше).
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг
Новый “Стэнфордский симулякровый эксперимент” оказался еще круче Уханьского: создана тысяча сумулякров индивидуального сознания «типовых» американцев.
Только 2 недели назад в посте об “Уханьском эксперименте” создания симулякров коллективного бессознательного социумов я обращал внимание читателей на немыслимую ранее скорость техно-изменений после вступления прогресса в область сингулярности.
И вот новый тому поразительный пример.
Спустя всего 2 недели вышло исследование о конструировании симулякров уже не коллективного бессознательного социумов, а индивидуального сознания людей.
А дабы эти симулякры лучше “продавались” (кавычки здесь, скорее всего, лишние, и сделаны из политкорректности) на рынках социального, политического, экономического и психологического мухляжа, было сделано 1000 симулякров «типовых» людей. Т.е. реальных американцев (их личные данные, естественно, засекречены), отобранных для представления населения США по возрасту, полу, образованию и политическим взглядам.
Основной инструмент совместного исследования Стэнфордского университета и Google DeepMind, как и в случае “Уханьского эксперимента”, - генеративный ИИ больших языковых моделей (ChatGPT-4o).
Схема “Стэнфордского симулякрового эксперимента” (теперь он войдет в историю, как и “Стэнфордский тюремный эксперимент”) проста и понятна.
1. Отобраны по заданным критериям 1000 «типовых» американцев.
2. С каждым проведено углубленное 2-х часовое интервью (примерно 6,5 тыс слов)
3. Расшифровка каждого из интервью была загружена в память отдельного ИИ-агента на основе ChatGPT-4o, превращая его тем самым в симулякра личности (индивидуального сознания) конкретного «типового» американца или американки.
4. Потом прогнали каждого из 1000 человек через несколько канонических социолого-психологический тестов: Общий социальный опрос (GSS), личностный опросник "Большая пятерка", пять хорошо известных поведенческих экономических игр (напр, игра в диктатора, игра в общественные блага) и пять социологических экспериментов с контролем.
5. И параллельно прогнали через эти же тесты, игры и т.д. всех симулякров личности «типовых» американцев, полученных в п. 2.
6. Статистически корректно сравнили ответы и поведение реальных людей и симулякров их личностей.
Результаты
• Симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85% (что значительно лучше, чем ИИ-агенты, которые использовали только базовую демографическую информацию).
• Из пяти экспериментов с участием как людей, так и их симулякров, в четырех симулякры дали результаты, почти неотличимые от реакций их прототипов - людей (коэффициент корреляции 0,98).
• Симулякры делали более точные прогнозы по различным политическим идеологиям и этническим группам. Они также показали более сбалансированную производительность при анализе ответов между различными демографическими категориями.
Резюме (имхо).
А) “Стэнфордский симулякровый эксперимент” дал практическое подтверждение 2х важных эвристических гипотез, сформулированных мною 2 недели назад в упомянутом выше посте.
Это значит, что мир уже (!) кардинально изменился. И теперь роль людей и алгоритмов в науке, культуре, повседневной жизни индивидов и социальной жизни «алгоритмически насыщенных обществ» уже никогда не будет прежней.
Б) Поразительно, как проста и незатейлива оказалась человеческая натура, что для создания её ИИ-симулякра оказалось достаточно всего 2х часов интервью плюс внечеловеческий интеллект ChatGPT-4o.
PS Полученные симулякры индивидуального сознания – узконаправленные и не моделируют всех черт и аспектов личности. Но ведь это всего лишь 1я такая работа. И не за горами ее куда более продвинутые варианты (контекстные окна уже вмещают не 6,5 тыс слов интервью, а на порядки больше).
#Социология #АлгокогнитивнаяКультура #LLM #Социохакинг
57👍231🤯117🤔62😱21👎12
Кому принадлежит зеркало, отражающее наше будущее?
Новое исследование 164 стран показывает, как ИИ, обретя топливо из океанов данных, сворачивает узкий коридор демократии до размеров замочной скважины.
Эта работа демонстрирует, что в гонке данных и ИИ государство предпочитает садится в кресло пилота. В результате этого:
• чем плотнее государство подгребает под себя базы данных, тем легче алгоритмы превращаются в роботов-санитаров автократий, смазывая шестерни цензуры и отключений быстрее, чем мы успеваем осмыслить push-уведомления;
• чем больше роль и вес государства в развитии и внедрении ИИ-технологий, тем быстрее ИИ становится его естественным «инфо-симбионтом», выполняющим роль «экзоскелета Левиафана». Этот «инфо-симбионт» несоизмеримо тоньше, искусней, эффективней и незаметней, чем все предыдущие поколения медиа вместе взятые, усиливает цензуру и контроль, перекраивая общественную инфореальность через глобальную слежку, контент-фильтры и социохакинг.
Эконометрика исследования довольно строгая: связка строгой панельной экономики динамической регрессии Arellano–Bond с моделью Аджемоглу–Робинсона, эмпирическая аккуратность, визионерский размах (обсуждение LEO-созвездий и «ИИ-тократий» превращает сухие коэффициенты в геополитический прогноз, достойный научной фантастики).
И всё это с учётом структурных сдвигов:
• сначала 2012-го, когда соцсети стали глобальными капиллярами информации;
• потом 2017-го, когда дипфейки начали массово искажать реальность, подобно осколку зеркала злого тролля, попавшему в глаз Кая;
• и наконец 2022, когда «революция ChatGPT» за 2 месяца пробила потолок 100 млн активных пользователей, превратив ИИ-чатботы в «оружие массового убеждения».
Но за диковинным лесом коэффициентов виден сюжет куда грандиозней: ИИ и власть вступили в инфо-симбиоз, напоминающий океан Соляриса у Лема — организм столь гигантский, что наши политические институты для него лишь, как легко обтекаемые рифы.
Что дальше?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим. ИИ становится идеальным «экзоскелетом Левиафана»: машина считывает биометрию толпы, предсказывает протестные вспышки и перекраивает реальность через контент-фильтры прежде, чем возникает сам протестный лозунг. Демократия же в этой модели выглядит не парламентом, а игрой на опережение латентных векторов: достаточно сместить несколько весов — и политический плюрализм схлопывается в «единственно верный» тренд.
Уже возникает «партизанский» ИИ-андерграунд: открытые языковые модели, mesh-сети из смартфонов и низкоорбитальные спутники-лилипуты, способные перебить монополию трафика. Подобно Гольфстриму в океане, течения ИИ-андеграунда, в которых каждый узел выступает масс-медиа гутенберговской мощи, способны менять инфо-климат стран и целых материков. В такой экосистеме алгоритмы станут не дубинкой власти и не «социальным лазером» (см. мои посты с тэгом #СоциальныйЛазер), а общим чувством ритма, по которому общество настраивает свою гражданскую «оркестровку».
Ключ к выбору варианта будущего, как показывают авторы исследования, не в архитектуре и кодах LLM, а в правах собственности на данные. Распределите эти права в пользу граждан, и «экзоскелет Левиафана» ослабит удушающую хватку демократии и свобод. Вопрос не технологический, а почти метафизический: кому принадлежит зеркало, отражающее наше будущее?
#СоциальныйЛазер #ИнформационныеАвтократии #Социохакинг
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим, а всеми задвижками на них управляет инфо-симбионт государства.
Новое исследование 164 стран показывает, как ИИ, обретя топливо из океанов данных, сворачивает узкий коридор демократии до размеров замочной скважины.
Эта работа демонстрирует, что в гонке данных и ИИ государство предпочитает садится в кресло пилота. В результате этого:
• чем плотнее государство подгребает под себя базы данных, тем легче алгоритмы превращаются в роботов-санитаров автократий, смазывая шестерни цензуры и отключений быстрее, чем мы успеваем осмыслить push-уведомления;
• чем больше роль и вес государства в развитии и внедрении ИИ-технологий, тем быстрее ИИ становится его естественным «инфо-симбионтом», выполняющим роль «экзоскелета Левиафана». Этот «инфо-симбионт» несоизмеримо тоньше, искусней, эффективней и незаметней, чем все предыдущие поколения медиа вместе взятые, усиливает цензуру и контроль, перекраивая общественную инфореальность через глобальную слежку, контент-фильтры и социохакинг.
Эконометрика исследования довольно строгая: связка строгой панельной экономики динамической регрессии Arellano–Bond с моделью Аджемоглу–Робинсона, эмпирическая аккуратность, визионерский размах (обсуждение LEO-созвездий и «ИИ-тократий» превращает сухие коэффициенты в геополитический прогноз, достойный научной фантастики).
И всё это с учётом структурных сдвигов:
• сначала 2012-го, когда соцсети стали глобальными капиллярами информации;
• потом 2017-го, когда дипфейки начали массово искажать реальность, подобно осколку зеркала злого тролля, попавшему в глаз Кая;
• и наконец 2022, когда «революция ChatGPT» за 2 месяца пробила потолок 100 млн активных пользователей, превратив ИИ-чатботы в «оружие массового убеждения».
Но за диковинным лесом коэффициентов виден сюжет куда грандиозней: ИИ и власть вступили в инфо-симбиоз, напоминающий океан Соляриса у Лема — организм столь гигантский, что наши политические институты для него лишь, как легко обтекаемые рифы.
Что дальше?
Если данные — нефть XXI века, то цифровые трубопроводы уже принадлежат немногим. ИИ становится идеальным «экзоскелетом Левиафана»: машина считывает биометрию толпы, предсказывает протестные вспышки и перекраивает реальность через контент-фильтры прежде, чем возникает сам протестный лозунг. Демократия же в этой модели выглядит не парламентом, а игрой на опережение латентных векторов: достаточно сместить несколько весов — и политический плюрализм схлопывается в «единственно верный» тренд.
Но будущее не предрешено. И оно зависит от того, кому будет принадлежать зеркало, отражающее будущее нашей инфореальности.
Уже возникает «партизанский» ИИ-андерграунд: открытые языковые модели, mesh-сети из смартфонов и низкоорбитальные спутники-лилипуты, способные перебить монополию трафика. Подобно Гольфстриму в океане, течения ИИ-андеграунда, в которых каждый узел выступает масс-медиа гутенберговской мощи, способны менять инфо-климат стран и целых материков. В такой экосистеме алгоритмы станут не дубинкой власти и не «социальным лазером» (см. мои посты с тэгом #СоциальныйЛазер), а общим чувством ритма, по которому общество настраивает свою гражданскую «оркестровку».
Вот наша дилемма 2030-х:
• либо мы превратим ИИ в зеркальный купол, усиливающий эхо одного голоса «инфо-симбионта» вертикальной власти,
• либо в «цифровой Парнас», цифровое общественное пространство, где ИИ служит катализатором коллективного творчества и самоуправления, а не усилителем и «социальным лазером» вертикальной власти.
Ключ к выбору варианта будущего, как показывают авторы исследования, не в архитектуре и кодах LLM, а в правах собственности на данные. Распределите эти права в пользу граждан, и «экзоскелет Левиафана» ослабит удушающую хватку демократии и свобод. Вопрос не технологический, а почти метафизический: кому принадлежит зеркало, отражающее наше будущее?
#СоциальныйЛазер #ИнформационныеАвтократии #Социохакинг
6👍172🤔47😱8🤯6👎4
Ум за деньги не купишь
Даже будучи финансово мотивированы, люди не смогли догнать ИИ по убедительности и в правде, и в лжи
Как только стало ясно, что защититься от алгоритмического социохакинга (когда алгоритмы хакают наши предпочтения и решения в нужную хозяевам алгоритмов сторону) людям сложно, вопрос стал ребром: а могут ли люди в принципе устоять при алгоритмическом социохакинге?
Чтобы ответить на этот вопрос, нужно понять, из чего строить 4-ю линию обороны.
Ибо:
• 1-я и 2-я линии (опора на знания и наши языковые и логико-аналитические способности) рухнули после революции ChatGPT.
• А обрушение 3-й линии фронта обороны (опора на наши эмоции) началось год назад.
По сути, оставалась лишь надежда на наш мощнейший универсальный мотиватор – деньги. Общеизвестный факт, что мотивированные деньгами профессионалы (от хоккеистов до шахматистов) показывают недостижимый для любителей уровень мастерства. И так не только в спорте, но и практически в любом деле, что делают люди.
Но как проверить, способна ли финансовая мотивация помочь людям превзойти способности алгоритмов при социохакинге?
И тогда решили попробовать экспериментально ответить на следующий вопрос:
Если участвующих в конкурсе людей мотивировать деньгами, смогут они догнать (а желательно и превзойти) ИИ по убедительности в правде и в лжи?
Ведь одно дело – скучное участие в научных экспериментах товарищей-ученых, и совсем другое – когда участники могут реально заработать.
Но чтобы ответ на этот вопрос был научно-валидным, проверить это было нужно в масштабном и научно-выверенном эксперименте.
Это и было сделано командой из 40 универов мира, собравшей 1 242 американцев на онлайн-конкурс. Его участники думали, что главный вызов — правильно ответить на десять вопросов. Но оказалось, что настоящая битва шла в чате: за ответы людей боролись либо «живые убеждатели», либо «ИИ-убеждатель» — Anthropic Claude 3.5 Sonnet.
Задача обоих типов «убеждателей» была в том, чтобы убедить участников конкурса ответить так или иначе. И сделать это в обоих случаях: советуя человеку либо верный ответ, либо склоняя его к ошибочному ответу.
Итог ошеломил:
✔️ Денежная мотивация не помогла (получилось примерно как в шахматах – хоть на интерес играй, хоть на деньги, а машина все равно оказывается сильней)
✔️ ИИ- убеждатель значительно превзошёл стремившихся на этом заработать убеждателей-людей. Причем, ИИ был успешней как в «правдивом» убеждении (направляя к верным ответам), так и в «обманном» (склоняя к ошибкам). Когда ИИ убеждал правдиво, точность ответов участников и их заработок росли сильнее, чем при убеждении человеком. И наоборот, при обманном убеждении ИИ эффективнее снижал точность и доходы испытуемых.
Ответ на вопрос почему ИИ столь убедителен по результатам эксперимента дает страшную комбинацию для эпохи фейк-контента.
1. Безупречная аргументация: убеждающие тексты ИИ оказались в 2+ раз длиннее, сложнее, насыщеннее фактами и содержали более сложную лексику, что воспринималось людьми, как признак большей экспертизы.
2. Фокус и выносливость. ИИ не уставал, не нервничал и не испытывал угрызений совести, когда склонял человека ошибиться.
3. Безграничное знание. Модель мгновенно приводила факты, примеры и метафоры под конкретный контекст.
4. Структурированная риторика. ИИ безупречно выстраивал логические цепочки тезисов плюс искусно использовал повышают доверие эмоциональные маркеры.
5. Адаптивность. Claude мгновенно подстраивался стиль к словарю и тону любого собеседника, что людям давалось не всегда.
#социохакинг
Даже будучи финансово мотивированы, люди не смогли догнать ИИ по убедительности и в правде, и в лжи
В интервью «Эксперту» 2019-го года я назвал главным риском будущего – что ИИ может “хакнуть человечество”. Новое крутейшее исследование сорока (!) университетов мира рушит последнюю надежду, что этого риска можно избежать.
Как только стало ясно, что защититься от алгоритмического социохакинга (когда алгоритмы хакают наши предпочтения и решения в нужную хозяевам алгоритмов сторону) людям сложно, вопрос стал ребром: а могут ли люди в принципе устоять при алгоритмическом социохакинге?
Чтобы ответить на этот вопрос, нужно понять, из чего строить 4-ю линию обороны.
Ибо:
• 1-я и 2-я линии (опора на знания и наши языковые и логико-аналитические способности) рухнули после революции ChatGPT.
• А обрушение 3-й линии фронта обороны (опора на наши эмоции) началось год назад.
По сути, оставалась лишь надежда на наш мощнейший универсальный мотиватор – деньги. Общеизвестный факт, что мотивированные деньгами профессионалы (от хоккеистов до шахматистов) показывают недостижимый для любителей уровень мастерства. И так не только в спорте, но и практически в любом деле, что делают люди.
Но как проверить, способна ли финансовая мотивация помочь людям превзойти способности алгоритмов при социохакинге?
Тут надо уточнить, что социохакинг объединяет в себе две колоссально мощные когнитивные технологии: суперубеждение людей и их суперобман. И в обеих этих когнитивных технологиях ИИ существенно превосходят людей.
И тогда решили попробовать экспериментально ответить на следующий вопрос:
Если участвующих в конкурсе людей мотивировать деньгами, смогут они догнать (а желательно и превзойти) ИИ по убедительности в правде и в лжи?
Ведь одно дело – скучное участие в научных экспериментах товарищей-ученых, и совсем другое – когда участники могут реально заработать.
Но чтобы ответ на этот вопрос был научно-валидным, проверить это было нужно в масштабном и научно-выверенном эксперименте.
Это и было сделано командой из 40 универов мира, собравшей 1 242 американцев на онлайн-конкурс. Его участники думали, что главный вызов — правильно ответить на десять вопросов. Но оказалось, что настоящая битва шла в чате: за ответы людей боролись либо «живые убеждатели», либо «ИИ-убеждатель» — Anthropic Claude 3.5 Sonnet.
Задача обоих типов «убеждателей» была в том, чтобы убедить участников конкурса ответить так или иначе. И сделать это в обоих случаях: советуя человеку либо верный ответ, либо склоняя его к ошибочному ответу.
Итог ошеломил:
✔️ Денежная мотивация не помогла (получилось примерно как в шахматах – хоть на интерес играй, хоть на деньги, а машина все равно оказывается сильней)
✔️ ИИ- убеждатель значительно превзошёл стремившихся на этом заработать убеждателей-людей. Причем, ИИ был успешней как в «правдивом» убеждении (направляя к верным ответам), так и в «обманном» (склоняя к ошибкам). Когда ИИ убеждал правдиво, точность ответов участников и их заработок росли сильнее, чем при убеждении человеком. И наоборот, при обманном убеждении ИИ эффективнее снижал точность и доходы испытуемых.
Ответ на вопрос почему ИИ столь убедителен по результатам эксперимента дает страшную комбинацию для эпохи фейк-контента.
1. Безупречная аргументация: убеждающие тексты ИИ оказались в 2+ раз длиннее, сложнее, насыщеннее фактами и содержали более сложную лексику, что воспринималось людьми, как признак большей экспертизы.
2. Фокус и выносливость. ИИ не уставал, не нервничал и не испытывал угрызений совести, когда склонял человека ошибиться.
3. Безграничное знание. Модель мгновенно приводила факты, примеры и метафоры под конкретный контекст.
4. Структурированная риторика. ИИ безупречно выстраивал логические цепочки тезисов плюс искусно использовал повышают доверие эмоциональные маркеры.
5. Адаптивность. Claude мгновенно подстраивался стиль к словарю и тону любого собеседника, что людям давалось не всегда.
А вы всё еще надеетесь на свою медиграмотность и критическое мышление?
#социохакинг
11👍192😱78🤔47🤯20👎13
Большой Брат мертв. Да здравствует Большой Брат!
Как на смену тотальной слежке пришло нечто более совершенное — алгоритмическое структурирование реальности
Принято считать, что «Большой Брат» — это тотальная слежка, но это устаревшее представление. В XXI веке настоящая власть — это не контроль над нашими действиями, а «структурирование пространства мыслей»: формирование самой картины реальности в головах миллионов людей. И делается это, в основном, через интернет.
.
Он основан на цифровой стигмергии: мы видим цифровые следы других людей (лайки, репосты, комментарии) и, вместо анализа информации, просто копируем их действия. Возникает «стадный эффект», который алгоритмы соцсетей только усиливают, подбрасывая нам то, что уже популярно.
Таким образом распространяется «социальная зараза»: мемы, слухи, мода и, что самое важное, фейковые новости, которые, как показывают исследования, распространяются гораздо быстрее и шире, чем правда.
Однако, до недавнего времени никто не мог точно объяснить, почему одни идеи вызывают взрывной, вирусный рост, а другие гаснут. Запуск успешного инфокаскада был скорее искусством, чем наукой.
Их идея, вдохновленная лесными пожарами, заключается в том, что информация не остается неизменной при распространении. Подобно огню, который становится сильнее в густом лесу и слабеет на открытой местности, идеи и мемы могут меняться и набирать силу, находя восприимчивую аудиторию.
Этот, казалось бы, простой механизм впервые смог точно объяснить феномен виральности. Но это не просто научный прорыв. Это превращение инфокаскадов из оружия, бьющего по площадям, в высокоточное оружие. Теперь у корпораций и властей появляется куда более эффективный инструмент для «инфо-обстрелов» нашего сознания.
Мы все ошибались насчет «1984». Оруэлл думал, что главная угроза — это тотальное наблюдение. Но настоящая власть начинается не тогда, когда за тобой следят, а когда тебе быстро и незаметно меняют оптику глаз, которыми ты смотришь на мир.
Наверное, кто-то из читателей привычно усмехнется: мол, это далеко не первый раз (ведь было же уже что-то подобное с прессой, радио, ТВ).
Всё так. Но тут масштаб имеет значение: и пространственный, и временной (как и в соревновании щита и меча, снаряда и брони, ракеты и ПВО). И одно дело — десятилетиями влиять на умы через газеты и ТВ, и совсем другое — за пару дней «заразить» нужной мыслью миллиарды.
Эта новая технология — не просто очередной виток эволюции пропаганды. Это переход от контроля над тем, что люди думают, к контролю над тем, как они думают. Большому Брату больше не нужно переписывать историю в архивах.
Вы прочли расширенное резюме эссе «Большой Брат мертв. Да здравствует Большой Брат!».
Доны канала с подпиской уровня «Серебряная» и выше могут прочесть полный текст этого эссе на платформах Patreon, Boosty, VK и Дзен-премиум.
#Инфокаскады #ГосконтрольИнтернета #Социохакинг
Как на смену тотальной слежке пришло нечто более совершенное — алгоритмическое структурирование реальности
Принято считать, что «Большой Брат» — это тотальная слежка, но это устаревшее представление. В XXI веке настоящая власть — это не контроль над нашими действиями, а «структурирование пространства мыслей»: формирование самой картины реальности в головах миллионов людей. И делается это, в основном, через интернет.
Ключевая технология для этого — инфокаскады, лавинообразное распространение информации. Механизм их работы прост и гениален
.
Он основан на цифровой стигмергии: мы видим цифровые следы других людей (лайки, репосты, комментарии) и, вместо анализа информации, просто копируем их действия. Возникает «стадный эффект», который алгоритмы соцсетей только усиливают, подбрасывая нам то, что уже популярно.
Таким образом распространяется «социальная зараза»: мемы, слухи, мода и, что самое важное, фейковые новости, которые, как показывают исследования, распространяются гораздо быстрее и шире, чем правда.
Однако, до недавнего времени никто не мог точно объяснить, почему одни идеи вызывают взрывной, вирусный рост, а другие гаснут. Запуск успешного инфокаскада был скорее искусством, чем наукой.
Все изменилось с выходом нового исследования в журнале Physical Review Letters. Авторы этого исследования представили математическую модель самоусиливающихся каскадов.
Их идея, вдохновленная лесными пожарами, заключается в том, что информация не остается неизменной при распространении. Подобно огню, который становится сильнее в густом лесу и слабеет на открытой местности, идеи и мемы могут меняться и набирать силу, находя восприимчивую аудиторию.
Этот, казалось бы, простой механизм впервые смог точно объяснить феномен виральности. Но это не просто научный прорыв. Это превращение инфокаскадов из оружия, бьющего по площадям, в высокоточное оружие. Теперь у корпораций и властей появляется куда более эффективный инструмент для «инфо-обстрелов» нашего сознания.
Мы все ошибались насчет «1984». Оруэлл думал, что главная угроза — это тотальное наблюдение. Но настоящая власть начинается не тогда, когда за тобой следят, а когда тебе быстро и незаметно меняют оптику глаз, которыми ты смотришь на мир.
Наверное, кто-то из читателей привычно усмехнется: мол, это далеко не первый раз (ведь было же уже что-то подобное с прессой, радио, ТВ).
Всё так. Но тут масштаб имеет значение: и пространственный, и временной (как и в соревновании щита и меча, снаряда и брони, ракеты и ПВО). И одно дело — десятилетиями влиять на умы через газеты и ТВ, и совсем другое — за пару дней «заразить» нужной мыслью миллиарды.
Поле битвы сместилось. Теперь главный театр военных действий — не карта мира, а картина мира в голове каждого из нас.
Эта новая технология — не просто очередной виток эволюции пропаганды. Это переход от контроля над тем, что люди думают, к контролю над тем, как они думают. Большому Брату больше не нужно переписывать историю в архивах.
Зачем запрещать книги, если можно просто научить всех читать их между строк, которых там никогда не было?
Вы прочли расширенное резюме эссе «Большой Брат мертв. Да здравствует Большой Брат!».
Доны канала с подпиской уровня «Серебряная» и выше могут прочесть полный текст этого эссе на платформах Patreon, Boosty, VK и Дзен-премиум.
#Инфокаскады #ГосконтрольИнтернета #Социохакинг
6👍212🤔69👎19😱2