Новый виток войны е-Добра и е-Зла.
В её основе MIP - методика идентификации пропаганды.
Первым полем битвы е-Добра с е-Злом, как и ожидалось, оказались социальные сети.
Как обычно, первый удар нанесло е-Зло с целью взять под контроль новостную повестку человечества.
Инструментом е-Зла стали соцботы, искажающие повестку в нужную сторону, раздувая одни новости (в том числе фейковые) и тем самым оттирая внимание от других.
Боты е-Зла преуспевают. На прошлой неделе, среди самых обсуждаемых тем в Twitter, до 60% твитов сгенерировали соцботы.
Twitter, потративший последний год на борьбу с ботами, с треском проигрывает этот бой.
Боты е-Зла научились эволюционировать.
Теперь они не просто выдают себя за людей (что худо бедно научились распознавать средства ПБО (противоботовой обороны) Twitter, а вовлекают в свои инфокаскады людей, прячась за их спинами и тем самым скрываясь от ПБО.
Как всегда, силы е-Добра неизмеримо малочисленнее. Но это вовсе не значит, что слабее. Доблести, отваги и креатива им не занимать.
Организованный двумя студентами UC Berkeley стартап Robhat Labs, имеет сегодня в штате всего восьмерых. Но они сумели мобилизовать на бой с ботами наиболее изысканный машинный интеллект – машинное обучение:
- на основе машинного обучения была разработана методология, выявляющая ботов по паттернам их поведения в сети;
- первый продукт команды, расширение Chrome под названием BotCheck.me позволяет пользователям выявлять в своей ленте наиболее вероятных ботов;
- второй инструмент getsurfsafe.com помогает детектировать фейковые новости;
- третий - запущенный вчера Factcheck.me – это Шерлок Холмс в расследовании поведения ботов. Он умеет даже выявлять ботов-провокаторов, подстрекающих людей к распространению нужного е-Злу контента. А еще он ловко определяет картинки-завлекатели (amplified images) и вирусные ссылки.
Если хотите быть на стороне е-Добра, у вас теперь есть неплохой инструментарий.
Подробней:
- о том, как боты разбушевались на прошлой неделе
- методика идентификации пропаганды от Robhat Labs
- о вчерашнем запуске Factcheck.me
О становлении е-Зла также см. посты канала по тегу
#Соцботы #Социохакинг
В её основе MIP - методика идентификации пропаганды.
Первым полем битвы е-Добра с е-Злом, как и ожидалось, оказались социальные сети.
Как обычно, первый удар нанесло е-Зло с целью взять под контроль новостную повестку человечества.
Инструментом е-Зла стали соцботы, искажающие повестку в нужную сторону, раздувая одни новости (в том числе фейковые) и тем самым оттирая внимание от других.
Боты е-Зла преуспевают. На прошлой неделе, среди самых обсуждаемых тем в Twitter, до 60% твитов сгенерировали соцботы.
Twitter, потративший последний год на борьбу с ботами, с треском проигрывает этот бой.
Боты е-Зла научились эволюционировать.
Теперь они не просто выдают себя за людей (что худо бедно научились распознавать средства ПБО (противоботовой обороны) Twitter, а вовлекают в свои инфокаскады людей, прячась за их спинами и тем самым скрываясь от ПБО.
Как всегда, силы е-Добра неизмеримо малочисленнее. Но это вовсе не значит, что слабее. Доблести, отваги и креатива им не занимать.
Организованный двумя студентами UC Berkeley стартап Robhat Labs, имеет сегодня в штате всего восьмерых. Но они сумели мобилизовать на бой с ботами наиболее изысканный машинный интеллект – машинное обучение:
- на основе машинного обучения была разработана методология, выявляющая ботов по паттернам их поведения в сети;
- первый продукт команды, расширение Chrome под названием BotCheck.me позволяет пользователям выявлять в своей ленте наиболее вероятных ботов;
- второй инструмент getsurfsafe.com помогает детектировать фейковые новости;
- третий - запущенный вчера Factcheck.me – это Шерлок Холмс в расследовании поведения ботов. Он умеет даже выявлять ботов-провокаторов, подстрекающих людей к распространению нужного е-Злу контента. А еще он ловко определяет картинки-завлекатели (amplified images) и вирусные ссылки.
Если хотите быть на стороне е-Добра, у вас теперь есть неплохой инструментарий.
Подробней:
- о том, как боты разбушевались на прошлой неделе
- методика идентификации пропаганды от Robhat Labs
- о вчерашнем запуске Factcheck.me
О становлении е-Зла также см. посты канала по тегу
#Соцботы #Социохакинг
Китайская комната наоборот.
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).
Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?
✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.
В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.
Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.
Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
Супероткрытие: научились создавать алгоритмические копии любых социальных групп.
Оказывается, алгоритмы неотличимы от людей в соцопросах. И это, наверное, - самое потрясающее открытие последних лет на стыке алгоритмов обработки естественного языка, когнитивистики и социологии. Ибо оно открывает огромные перспективы для социохакинга.
Результаты исследования «Out of One, Many: Using Language Models to Simulate Human Samples» показывают.
• Крупномасштабные языковые модели типа GPT-3 могут использоваться в качестве прокси человеческого познания на агрегированном уровне и в качестве универсальных окон в человеческое мышление.
• Это значит следующее:
-- изготовить алгоритмическую копию отдельной личности наука пока не умеет, но изготовить алгоритмическую копию любой социальной группы не составит большого труда;
-- в социологических исследованиях можно опрашивать не людей, а алгоритмы, имитирующие те или иные социальные группы.
• Из чего следуют фантастические перспективы для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества. Фишка в том, что теперь эти методы можно отрабатывать не на людях (что дорого и рискованно, если об этом станет широко известно), а на алгоритмических копиях интересующих исследователей социальных групп (что дешево и не несет риска, т.к. алгоритмы не проговорятся).
Как и многие супероткрытия, это открытие просто валялось под ногами. Но исследователи взглянули на него под иным углом и им открылась чарующая перспектива.
Как говорил персонаж киношедевра «Кавказская пленница» - «тот кто нам мешает, тот нам поможет».
• Нам мешают наши предубеждения.
• А что если научиться использовать их для дела?
✔️ Уже не первый год известно, что большие данные, на которых обучают большие модели, несут в себе результаты когнитивных искажений (предубеждений) людей, чьи данные попали в обучающие выборки.
✔️ Авторы придумали новое понятие – «алгоритмическая точность». Это степень, в которой сложные паттерны взаимосвязей между идеями, установками и социокультурными контекстами в рамках модели точно отражают таковые в пределах диапазона человеческих субпопуляций. Попросту говоря, это точность, с которой обученный алгоритм может имитировать «всех тараканов» в головах определенной подгруппы людей, отвечая на вопросы вместо них.
✔️ Это не означает, что модель может имитировать конкретного человека или что каждый сгенерированный ответ будет согласованным. Многие из известных недостатков и неточностей больших языковых моделей все еще предстоит преодолеть.
Однако, выбирая обусловливающий контекст, который вызывает общий социокультурный опыт конкретной демографической группы, авторы обнаружили, что можно получить распределение ответов, которое сильно коррелирует с распределением ответов людей при опросах этой конкретной демографической группы.
В контексте начавшейся смены типа культуры развитых стран на алгокогнитивный тип, новое супероткрытие означает важное дополнение.
Алгоритмы не только становятся равноправными (а во многих важнейших типах когнитивной деятельности людей, - лидирующими) акторами, но и способны на агрегированном уровне играть роль универсальных окон в человеческое мышление на уровне социальных групп.
Вот как бывает.
• Нас пугали мрачными перспективами биохакинга, а про социохакинг и не заморачивались.
• Но большие модели развиваются столь стремительно, что социохакинг станет реальностью уже в следующем году.
#Социология #АлгокогнитивнаяКультура #Социохакинг
👍21🤔3