Назначение интеллекта - не думать.
А облегчать жизнь тела в среде.
Из этого следуют 3 вывода.
1. Для одной и той же среды, близость типов интеллекта зависит от похожести тел; а в разных типах сред мозг развивается настолько по-разному, что реализуемые им интеллекты становятся принципиально несравнимы.
2. Если изменить тело (например, тело Homo sapiens в результате биоинженерии), следом начнет меняться интеллект.
3. Помимо мышления, есть и другие (не менее эффективные) способы адаптации к условиям среды.
Все три вывода прекрасно иллюстрируются сравнением интеллектов людей и дельфинов (и шире, китообразных).
А) Всем известно, дельфины разумны: понимают и осваивают разные знаковые системы; узнают себя в зеркале, социальны, имеют развитые коммуникации, пользуются орудиями, разрабатывают коллективные стратегии …
Б) Но по сравнению с людьми, они, якобы, менее разумны и их интеллект несравнимо слабее.
Пункт А верный, а п. Б в корне ошибочный.
Поясню в телеграфном стиле (для хорошего объяснения нужно книгу писать или, минимум, лонглонгрид).
Обратимся к трем вышеперечисленным тезисам (пп. 1-3) для иллюстрации ошибочности п. Б.
1. Феноменальный разум китообразных – результат "двойной эволюции" (https://www.youtube.com/watch?v=_1OK7FmDA2Y): сначала сотни миллионов лет приспособления к сухопутной среде, а потом еще полсотни миллионов – к водной.
2. При переходе в водную среду тело начало адаптироваться к новым условиям. Принципиальная разница была в том, что (1) нет проблем с питанием, но (2) есть проблема с дыханием (ныряя, нужно долго не дышать), терморегуляцией (в воде с эти куда сложнее, чем на воздухе) и метаболизмом (жалко расходовать на мозг много энергии)
3. Адаптировались, принципиально поменяв приоритеты жизни.
-- С мышлением поступили почти так же, как с обонянием (последнее вообще убрали, а первое предельно сократили).
-- В результате минимизировали число нейронов и свели к минимуму нейрогенез у взрослых/ . Теперь мозгу требуется куда меньше энергии и можно надолго нырять (простаку кашалоту аж на час, а интеллектуалу дельфину на 5-10 мин)
-- изменив метаболизм, осталось переделать кровеносную систему (пришлось сделать две), и проблема терморегуляции решена.
-- С коммуникацией решили принципиально: нужно использовать преимущество воды и сделать максимально эффективную – голографическую систему коммуникаций (чтобы не рассказывать, как выглядит предмет, а прямо передавать его образ внутри сообщения). А чтобы не заморачиваться в бытовом общении, придумали и 2ю систему – попроще.
Итог фантастический. Получился абсолютно иной, чем у людей тип интеллекта:
✔️ даже более оптимальный для водной среды, чем наш - для сухопутной;
✔️ по условной мощности, интеллект дельфина не уступает интеллекту человека, а кое в чем и превосходит.
Интересно?
Кто захочет читать по этой теме дальше прямо сейчас, пока самоизоляция, - вот вам отличный подарок.
Лучшая на сегодня в мире книга про разум китообразных со 150 информативными иллюстрациями и завораживающими фото.
В России о ней ничего не известно. Да и купить весьма затруднительно.
Читайте на здоровье и не болейте!
https://disk.yandex.ru/i/Iqm_oFsKk-Zd7A
#ИнойИнтеллект
А облегчать жизнь тела в среде.
Из этого следуют 3 вывода.
1. Для одной и той же среды, близость типов интеллекта зависит от похожести тел; а в разных типах сред мозг развивается настолько по-разному, что реализуемые им интеллекты становятся принципиально несравнимы.
2. Если изменить тело (например, тело Homo sapiens в результате биоинженерии), следом начнет меняться интеллект.
3. Помимо мышления, есть и другие (не менее эффективные) способы адаптации к условиям среды.
Все три вывода прекрасно иллюстрируются сравнением интеллектов людей и дельфинов (и шире, китообразных).
А) Всем известно, дельфины разумны: понимают и осваивают разные знаковые системы; узнают себя в зеркале, социальны, имеют развитые коммуникации, пользуются орудиями, разрабатывают коллективные стратегии …
Б) Но по сравнению с людьми, они, якобы, менее разумны и их интеллект несравнимо слабее.
Пункт А верный, а п. Б в корне ошибочный.
Поясню в телеграфном стиле (для хорошего объяснения нужно книгу писать или, минимум, лонглонгрид).
Обратимся к трем вышеперечисленным тезисам (пп. 1-3) для иллюстрации ошибочности п. Б.
1. Феноменальный разум китообразных – результат "двойной эволюции" (https://www.youtube.com/watch?v=_1OK7FmDA2Y): сначала сотни миллионов лет приспособления к сухопутной среде, а потом еще полсотни миллионов – к водной.
2. При переходе в водную среду тело начало адаптироваться к новым условиям. Принципиальная разница была в том, что (1) нет проблем с питанием, но (2) есть проблема с дыханием (ныряя, нужно долго не дышать), терморегуляцией (в воде с эти куда сложнее, чем на воздухе) и метаболизмом (жалко расходовать на мозг много энергии)
3. Адаптировались, принципиально поменяв приоритеты жизни.
-- С мышлением поступили почти так же, как с обонянием (последнее вообще убрали, а первое предельно сократили).
-- В результате минимизировали число нейронов и свели к минимуму нейрогенез у взрослых/ . Теперь мозгу требуется куда меньше энергии и можно надолго нырять (простаку кашалоту аж на час, а интеллектуалу дельфину на 5-10 мин)
-- изменив метаболизм, осталось переделать кровеносную систему (пришлось сделать две), и проблема терморегуляции решена.
-- С коммуникацией решили принципиально: нужно использовать преимущество воды и сделать максимально эффективную – голографическую систему коммуникаций (чтобы не рассказывать, как выглядит предмет, а прямо передавать его образ внутри сообщения). А чтобы не заморачиваться в бытовом общении, придумали и 2ю систему – попроще.
Итог фантастический. Получился абсолютно иной, чем у людей тип интеллекта:
✔️ даже более оптимальный для водной среды, чем наш - для сухопутной;
✔️ по условной мощности, интеллект дельфина не уступает интеллекту человека, а кое в чем и превосходит.
Интересно?
Кто захочет читать по этой теме дальше прямо сейчас, пока самоизоляция, - вот вам отличный подарок.
Лучшая на сегодня в мире книга про разум китообразных со 150 информативными иллюстрациями и завораживающими фото.
В России о ней ничего не известно. Да и купить весьма затруднительно.
Читайте на здоровье и не болейте!
https://disk.yandex.ru/i/Iqm_oFsKk-Zd7A
#ИнойИнтеллект
YouTube
Реальная Эволюция Китов. От копыт до эхолокации
А вы знали, зачем детенышей китов называют телятами? Почему Бегемот и Кит - близкие родственники? Откуда у Китов 5 пальцев. И каким образом предки китов были сухопутными?
Это для вас может быть странно, однако, эти вопросы, тесно связаны с эволюцией китов.…
Это для вас может быть странно, однако, эти вопросы, тесно связаны с эволюцией китов.…
Антропоморфная ловушка разума.
Что движет нашей креативностью.
Справедливо ли считать, что Homo sapiens, живший 10 тыс. лет назад, своей креативностью (или разумом, интеллектом, и т.п.) уступал жившему в 18 веке величайшему в истории мастеру создания музыкальных инструментов Антонио Страдивари? А последний креативностью уступал современным специалистам, придумывающим и изготавливающим уникальные музыкальные инструменты в 21 веке?
Вот удивительный пример того, что оба эти предположения могут быть ошибочными.
Этот музыкальный автомат - деревянный ксилофон, - самостоятельно играет в лесу 147ю кантату Баха "Иисус - всегдашняя моя радость". И этот инструмент немыслимой природной конструкции вполне мог быть создан 10 тыс. лет назад. Технологии обработки дерева тогда уже позволяли сделать подобное. Да и с креативностью тогда было все в порядке, что подтверждается широким спектром изобретенных в те давние времена орудий.
Вот только мотивации создать подобный шедевр креативности не было. А в 21 веке такая мотивация появилась.
Ею стала необходимость выполнения японским рекламным агентством Mori Inc. заказа телекоммуникационной компании Docomo на видеоролик, рекламирующий новый мобильный телефон Touch Wood SH-08C – мобильник в деревянном корпусе (подробней, как создавался ролик, см. здесь).
Так в креативности ли дело? Или может все же в мотивирующей необходимости?
И если последнее, значит ли это, что вороны и дельфины не пошли путем создания техно-цивилизаций лишь потому, что на то у них не было необходимости?
Как было подмечено участниками этого недавнего обсуждения, помимо терминологической ловушки №1 (как определить, что есть разум, интеллект, сознание и т.д.), есть не менее опасная антропоморфная ловушка №2 – попытка трактовать эти понятия исключительно с человеческой точки зрения.
Иллюстрацией такой антропоцентричности является, например, точка зрения на искусство, как нецеленаправленное и непрагматическое проявление креативности Homo sapiens, коренным образом отличающее его разум от любого иного типа разума на Земле.
Но если направление развития разума определяется все же потребностями живого организма, то вправе ли мы ожидать изобретения деревянного музыкального автомата вороной или дельфином? Ведь даже Страдивари до такого не додумался.
Хотя получи он при жизни заказ на рекламу чего-то деревянного (при наличии тогда такого понятия, как реклама), то уж, наверное, выступил бы не хуже креативного директора рекламного агентства Mori Морихиро Харано 😁
#Разум #ИнойИнтеллект #Креативность
Что движет нашей креативностью.
Справедливо ли считать, что Homo sapiens, живший 10 тыс. лет назад, своей креативностью (или разумом, интеллектом, и т.п.) уступал жившему в 18 веке величайшему в истории мастеру создания музыкальных инструментов Антонио Страдивари? А последний креативностью уступал современным специалистам, придумывающим и изготавливающим уникальные музыкальные инструменты в 21 веке?
Вот удивительный пример того, что оба эти предположения могут быть ошибочными.
Этот музыкальный автомат - деревянный ксилофон, - самостоятельно играет в лесу 147ю кантату Баха "Иисус - всегдашняя моя радость". И этот инструмент немыслимой природной конструкции вполне мог быть создан 10 тыс. лет назад. Технологии обработки дерева тогда уже позволяли сделать подобное. Да и с креативностью тогда было все в порядке, что подтверждается широким спектром изобретенных в те давние времена орудий.
Вот только мотивации создать подобный шедевр креативности не было. А в 21 веке такая мотивация появилась.
Ею стала необходимость выполнения японским рекламным агентством Mori Inc. заказа телекоммуникационной компании Docomo на видеоролик, рекламирующий новый мобильный телефон Touch Wood SH-08C – мобильник в деревянном корпусе (подробней, как создавался ролик, см. здесь).
Так в креативности ли дело? Или может все же в мотивирующей необходимости?
И если последнее, значит ли это, что вороны и дельфины не пошли путем создания техно-цивилизаций лишь потому, что на то у них не было необходимости?
Как было подмечено участниками этого недавнего обсуждения, помимо терминологической ловушки №1 (как определить, что есть разум, интеллект, сознание и т.д.), есть не менее опасная антропоморфная ловушка №2 – попытка трактовать эти понятия исключительно с человеческой точки зрения.
Иллюстрацией такой антропоцентричности является, например, точка зрения на искусство, как нецеленаправленное и непрагматическое проявление креативности Homo sapiens, коренным образом отличающее его разум от любого иного типа разума на Земле.
Но если направление развития разума определяется все же потребностями живого организма, то вправе ли мы ожидать изобретения деревянного музыкального автомата вороной или дельфином? Ведь даже Страдивари до такого не додумался.
Хотя получи он при жизни заказ на рекламу чего-то деревянного (при наличии тогда такого понятия, как реклама), то уж, наверное, выступил бы не хуже креативного директора рекламного агентства Mori Морихиро Харано 😁
#Разум #ИнойИнтеллект #Креативность
YouTube
An enormous xylophone in the woods plays this Bach tune when a wooden ball rolls down each "key”.
Kyushu, Japan:
An enormous xylophone in the woods plays this Bach tune when a wooden ball rolls down each "key”.
Mind blown...
An enormous xylophone in the woods plays this Bach tune when a wooden ball rolls down each "key”.
Mind blown...
Мой сегодняшний почти часовой рассказ об эволюции разума в программе «Искусство интеллекта» у Саркиса Григоряна.
• Почему залезть на вершину дерева — это не маленький шаг к Луне, а конец путешествия.
• Почему мозг не нужен, если нет тела.
• Почему кошка и мышеловка совсем не одно и то же.
• Что прячется за тремя великими загадками: сознание, разум, интеллект.
• Три ключевых теории, способные эти загадки разгадать (теории Лизы Барретт, Марка Солмса и Карла Фристона).
• Как из четырех стихий (Вода, Воздух, Земля и Огонь) получилось четыре земных Разума, и почему «Пятым элементом» разума может стать не Любовь, а Огонь.
https://www.youtube.com/watch?v=Rc75FvGlwJ4
#Разум #ИнойИнтеллект #ВоплощенныйИнтеллект #Сознание #ИИ
• Почему залезть на вершину дерева — это не маленький шаг к Луне, а конец путешествия.
• Почему мозг не нужен, если нет тела.
• Почему кошка и мышеловка совсем не одно и то же.
• Что прячется за тремя великими загадками: сознание, разум, интеллект.
• Три ключевых теории, способные эти загадки разгадать (теории Лизы Барретт, Марка Солмса и Карла Фристона).
• Как из четырех стихий (Вода, Воздух, Земля и Огонь) получилось четыре земных Разума, и почему «Пятым элементом» разума может стать не Любовь, а Огонь.
https://www.youtube.com/watch?v=Rc75FvGlwJ4
#Разум #ИнойИнтеллект #ВоплощенныйИнтеллект #Сознание #ИИ
ROADMAP контакта с иным разумом.
Появились шансы установить контакт за 5 лет.
Поиском иного разума на других планетах проект SETI занимается уже полвека. И пока безрезультатно. Космос молчит.
Тем временем, серия недавних открытий поставила крест на концепции когнитивной исключительности Homo sapiens. Мы – не венец природы, а лишь один из возможных вариантов разума, созданных эволюцией по различным «техзаданиям». Помимо людей, на Земле живут представители еще трёх вариантов разума, демонстрирующих сложное поведение, во многом не уступающее людям, а в чем-то и превосходящее (об этом я подробно писал здесь).
Существует единственная, но пока непреодолимая преграда для контакта людей с иным типом разума. Мы не понимает их язык, а они наш. Попытки понять язык иного разума китообразных предпринимаются даже дольше, чем попытки найти инопланетян в рамках проекта SETI. И столь же безуспешно.
И вот наметился прорыв. Новый проект с умышленно похожим на SETI названием CETI (Cetacean Translation Initiative) - инициатива перевода языка китообразных- абсолютно прорывной. Он имеет реальные шансы расшифровать язык кашалотов. Проект запущен только что. Его дорожная карта направлена на решение этой задачи за 5 лет.
В конце поста будут ссылки, где можно узнать детали проекта.
Здесь же напишу о главном – почему после полувекового тупика появились реальные шансы контакта с иным разумом.
1) Контакт означает понимание языка.
2) Понимание языка китообразных подразумевает возможность раскодировать их «азбуку Морзе» свистов и щелчков. То, что с их помощью они обмениваются информацией (очень быстро и очень точно) – установленный факт. Но все попытки понять код пока тщетны. Не понятно даже, язык ли это вообще. И есть ощущение полного тупика.
3) Причин тупика две.
А) Их язык устроен непостижимым для людей образом. Чтобы понять нечеловеческую «систему кодирования» нужен нечеловеческий интеллект, ибо люди ищут лишь то, что сами понимают (подробней здесь).
Б) Чтобы понять чужой язык не достаточно слушать чужие разговоры. Надо видеть и понимать, кто говорит и к чему речь ведёт. Это проблема «коктейльной вечеринки». Допустим вы записываете все разговоры на такой вечеринке, где люди говорят на неизвестном вам языке. И чёрта с два вы что-либо поймете. Однако, если вы будете знать, кто говорит, и видеть последствия отдельных фраз и разговоров, у вас появится шанс понять язык.
4) Причину тупика А решено преодолеть с помощью машинного обучения. Нечеловеческому ИИ все равно, в чем распознавать паттерны. И даже если они будут нечеловеческими, ИИ от этого ни холодно, ни жарко. Он вообще не понимает никаких человеко-специфичных черт наших языков, как и шахматный ИИ от DeepMind не понимает человеческих методов игры.
5) Однако, наличия нечеловеческого ИИ мало. Проекты расшифровки языка дельфинов с помощью ИИ уже идут в США и Китае. Но упираются в тупик Б - проблему «коктейльной вечеринки». Инициаторы проекта CETI (Гарвард, Массачусетский технологический институт (MIT), Калифорнийский университет в Беркли, Городской университет Нью-Йорка (CUNY) и Хайфский университет Израиля) нашли способ решить и её. Проект CETI строится на базе проекта «Доминиканский кашалот» канадского биолога Шейна Геро. Он уже 13 лет изучает социальную жизнь, диалекты и генетические взаимоотношения 30 семейств кашалотов (этот вид имеет самый большой мозг на Земле) на Доминикане, зная про жизнь каждой особи, семьи и всего сообщества, кто они и что делают.
Ну и, помимо преодоления тупиков А и Б, куча техно наворотов.
Подробности читайте и смотрите здесь.
• Научно
• Популярно
• Двухминутный рассказ о проекте его руководителя
• Поддержать проект донатом
#ИнойИнтеллект #Дельфины #Разум
Появились шансы установить контакт за 5 лет.
Поиском иного разума на других планетах проект SETI занимается уже полвека. И пока безрезультатно. Космос молчит.
Тем временем, серия недавних открытий поставила крест на концепции когнитивной исключительности Homo sapiens. Мы – не венец природы, а лишь один из возможных вариантов разума, созданных эволюцией по различным «техзаданиям». Помимо людей, на Земле живут представители еще трёх вариантов разума, демонстрирующих сложное поведение, во многом не уступающее людям, а в чем-то и превосходящее (об этом я подробно писал здесь).
Существует единственная, но пока непреодолимая преграда для контакта людей с иным типом разума. Мы не понимает их язык, а они наш. Попытки понять язык иного разума китообразных предпринимаются даже дольше, чем попытки найти инопланетян в рамках проекта SETI. И столь же безуспешно.
И вот наметился прорыв. Новый проект с умышленно похожим на SETI названием CETI (Cetacean Translation Initiative) - инициатива перевода языка китообразных- абсолютно прорывной. Он имеет реальные шансы расшифровать язык кашалотов. Проект запущен только что. Его дорожная карта направлена на решение этой задачи за 5 лет.
В конце поста будут ссылки, где можно узнать детали проекта.
Здесь же напишу о главном – почему после полувекового тупика появились реальные шансы контакта с иным разумом.
1) Контакт означает понимание языка.
2) Понимание языка китообразных подразумевает возможность раскодировать их «азбуку Морзе» свистов и щелчков. То, что с их помощью они обмениваются информацией (очень быстро и очень точно) – установленный факт. Но все попытки понять код пока тщетны. Не понятно даже, язык ли это вообще. И есть ощущение полного тупика.
3) Причин тупика две.
А) Их язык устроен непостижимым для людей образом. Чтобы понять нечеловеческую «систему кодирования» нужен нечеловеческий интеллект, ибо люди ищут лишь то, что сами понимают (подробней здесь).
Б) Чтобы понять чужой язык не достаточно слушать чужие разговоры. Надо видеть и понимать, кто говорит и к чему речь ведёт. Это проблема «коктейльной вечеринки». Допустим вы записываете все разговоры на такой вечеринке, где люди говорят на неизвестном вам языке. И чёрта с два вы что-либо поймете. Однако, если вы будете знать, кто говорит, и видеть последствия отдельных фраз и разговоров, у вас появится шанс понять язык.
4) Причину тупика А решено преодолеть с помощью машинного обучения. Нечеловеческому ИИ все равно, в чем распознавать паттерны. И даже если они будут нечеловеческими, ИИ от этого ни холодно, ни жарко. Он вообще не понимает никаких человеко-специфичных черт наших языков, как и шахматный ИИ от DeepMind не понимает человеческих методов игры.
5) Однако, наличия нечеловеческого ИИ мало. Проекты расшифровки языка дельфинов с помощью ИИ уже идут в США и Китае. Но упираются в тупик Б - проблему «коктейльной вечеринки». Инициаторы проекта CETI (Гарвард, Массачусетский технологический институт (MIT), Калифорнийский университет в Беркли, Городской университет Нью-Йорка (CUNY) и Хайфский университет Израиля) нашли способ решить и её. Проект CETI строится на базе проекта «Доминиканский кашалот» канадского биолога Шейна Геро. Он уже 13 лет изучает социальную жизнь, диалекты и генетические взаимоотношения 30 семейств кашалотов (этот вид имеет самый большой мозг на Земле) на Доминикане, зная про жизнь каждой особи, семьи и всего сообщества, кто они и что делают.
Ну и, помимо преодоления тупиков А и Б, куча техно наворотов.
Подробности читайте и смотрите здесь.
• Научно
• Популярно
• Двухминутный рассказ о проекте его руководителя
• Поддержать проект донатом
#ИнойИнтеллект #Дельфины #Разум
👍3
ИИ за 5 минут решил задачу, на которую у эволюции ушло 50 млн лет.
Эксперимент по сравнению трёх типов разума: ИИ, муравьев и людей.
Результат эксперимента поражает и заставляет задуматься.
При решении задачи принятия решений в условиях неопределенности:
1. ИИ уступил интеллекту людей и роевому интеллекту муравьев.
2. Но ИИ решил задачу в 5 триллионов раз быстрее эволюции.
3. Однако, ИИ смог решить задачу лишь под руководством человека из-за двух крайне слабых компетенций в основе понимания, характерных для больших языковых моделей (LLM):
- вывод и конструирование моделей целеполагания биологических существ;
- вывод и конструирование моделей причинно-следственных связей в мире из собственного опыта воплощенного существования.
По сути, ИИ решил задачу, используя лишь «компетентность без понимания» - т.е. две имеющиеся у него чрезвычайно развитые компетенции: лингвистическую и вычислительную.
Но если у LLM появятся две вышеназванные компетенции в основе понимания, LLM качественно превзойдут любой биологический интеллект.
Эксперимент заключался в решении задачи принятия решений в условиях неопределенности из класса задач «бюджетирования»: ограничения ресурсов (времени), которые агент готов потратить на поиск лучшего варианта, прежде чем согласиться на худший.
Например.
• Вы въехали в плохо освещенную длинную стоянку автомобилей, выход из которой на противоположном от входа конце.
• Можно занять первое увиденное свободное место прямо у въезда на стоянку. Но тогда придется идти пешком через всю стоянку к выходу.
• Можно пытаться найти место как можно ближе к выходу. Но движение назад на стоянке запрещено. И если вы проехали последнее ближайшее к выходу свободное место, вы останетесь ни с чем – придется покинуть стоянку.
• Вам нужен алгоритм «бюджетирования».
С решением подобной задачи люди справляются уже много тысячелетий, а муравьи – миллионы лет.
В недавней работе был исследован алгоритм, используемый муравьями-ткачами для решения задачи этого класса. Он – результат, как минимум, 50 млн лет эволюции этого рода муравьев.
Я решил проверить, найдет ли LLM этот алгоритм? А может предложит другой?
Результат эксперимента вкратце описан в начале этого поста.
Подробности и тексты моего общения с иным разумом LLM, позволяющие увидеть:
✔️ интеллектуальный блеск и колоссальную мощь этого разума,
✔️ наряду с его интеллектуальной нищетой (в сравнении с биологическим разумом)
Продолжить чтение (еще 13 мин, если читать диалог с ИИ, в противном случае - лишь 2 мин):
• на Medium https://bit.ly/3NYbfH8
• на Дзене https://clck.ru/352V6X
#ИнойИнтеллект #Разум #Интеллект #Эволюция
Эксперимент по сравнению трёх типов разума: ИИ, муравьев и людей.
Результат эксперимента поражает и заставляет задуматься.
При решении задачи принятия решений в условиях неопределенности:
1. ИИ уступил интеллекту людей и роевому интеллекту муравьев.
2. Но ИИ решил задачу в 5 триллионов раз быстрее эволюции.
3. Однако, ИИ смог решить задачу лишь под руководством человека из-за двух крайне слабых компетенций в основе понимания, характерных для больших языковых моделей (LLM):
- вывод и конструирование моделей целеполагания биологических существ;
- вывод и конструирование моделей причинно-следственных связей в мире из собственного опыта воплощенного существования.
По сути, ИИ решил задачу, используя лишь «компетентность без понимания» - т.е. две имеющиеся у него чрезвычайно развитые компетенции: лингвистическую и вычислительную.
Но если у LLM появятся две вышеназванные компетенции в основе понимания, LLM качественно превзойдут любой биологический интеллект.
Эксперимент заключался в решении задачи принятия решений в условиях неопределенности из класса задач «бюджетирования»: ограничения ресурсов (времени), которые агент готов потратить на поиск лучшего варианта, прежде чем согласиться на худший.
Например.
• Вы въехали в плохо освещенную длинную стоянку автомобилей, выход из которой на противоположном от входа конце.
• Можно занять первое увиденное свободное место прямо у въезда на стоянку. Но тогда придется идти пешком через всю стоянку к выходу.
• Можно пытаться найти место как можно ближе к выходу. Но движение назад на стоянке запрещено. И если вы проехали последнее ближайшее к выходу свободное место, вы останетесь ни с чем – придется покинуть стоянку.
• Вам нужен алгоритм «бюджетирования».
С решением подобной задачи люди справляются уже много тысячелетий, а муравьи – миллионы лет.
В недавней работе был исследован алгоритм, используемый муравьями-ткачами для решения задачи этого класса. Он – результат, как минимум, 50 млн лет эволюции этого рода муравьев.
Я решил проверить, найдет ли LLM этот алгоритм? А может предложит другой?
Результат эксперимента вкратце описан в начале этого поста.
Подробности и тексты моего общения с иным разумом LLM, позволяющие увидеть:
✔️ интеллектуальный блеск и колоссальную мощь этого разума,
✔️ наряду с его интеллектуальной нищетой (в сравнении с биологическим разумом)
Продолжить чтение (еще 13 мин, если читать диалог с ИИ, в противном случае - лишь 2 мин):
• на Medium https://bit.ly/3NYbfH8
• на Дзене https://clck.ru/352V6X
#ИнойИнтеллект #Разум #Интеллект #Эволюция
Medium
ИИ за 5 минут решил задачу, на которую у эволюции ушло 50 млн лет
Эксперимент по сравнению трёх типов разума: ИИ, муравьев и людей
👍3
Инаковость разума.
Что делает ИИ непохожим на нас, и почему это столь важно.
Часть 1: Бомж-интеллектуал – как ИИ превращает мусор в золото знаний.
Не реально стать олимпийским чемпионом, питаясь как бомж.
А можно ли, питаясь информацией откуда придется (правдивой и не очень, точной и не совсем), стать продвинутым интеллектуалом?
• Для человека, ответ – однозначно нет (ибо примеры такого отсутствуют).
• А для внечеловеческого разума больших языковых моделей (БЯМ), ответ – да запросто.
Можно ли, будучи слепым от рождения, стать известным художником?
• Для человека, ответ – определенно нет (пример Эшрефа Армагана – единственного за всю историю человечества от рождения слепого художника, – лишь исключение, подтверждающее правило).
• А для внечеловеческого разума БЯМ, ответ – да запросто.
Эти два отличия БЯМ от людей столь показательны и наглядны, что я решил использовать их в качестве демонстрационных кейсов кардинальной инаковости двух разумов.
Вы спросите – зачем?
А вот зачем.
✔️ Кейсов, демонстрирующих внешнее подобие (интеллектуальное и поведенческое) БЯМ и людей, сколько угодно и в академических и популярных источниках. Это разнообразные тесты (лингвистические, логические, творческие – для разных предметных областей и контекстов использования), призванные демонстрировать, насколько способности БЯМ приближаются к способностям людей.
✔️ Кейсы же, демонстрирующие кардинальную инаковость разума БЯМ и людей, найти куда сложнее.
Но такие кейсы необходимы для понимания глубины качественных отличий разума людей и БЯМ.
Без этого понимания невозможно избавиться от антропоморфизации БЯМ:
– ведущей к искажению трактовок оценок разумности БЯМ (как существующих, так и перспективных);
– сбивающей точность прицела при выборе дальнейшего направления разработок БЯМ.
Познакомиться с двумя демонстрационными кейсами кардинальной инаковости БЯМ, в основе которых два уникальных свойства этого внечеловеческого разума – суперэффективный инфометаболизм и сверхэффективная кросс-модальная когнитивность, – подписчики моих лонгридов могут на трех платформах по ссылкам ниже.
Картинка https://telegra.ph/file/e9c492bc220d9ec787ba0.jpg
Ссылки на 3 платформы:
• https://www.patreon.com/theworldisnoteasy
• https://boosty.to/theworldisnoteasy
• https://vk.com/club226218451
#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект
Что делает ИИ непохожим на нас, и почему это столь важно.
Часть 1: Бомж-интеллектуал – как ИИ превращает мусор в золото знаний.
Не реально стать олимпийским чемпионом, питаясь как бомж.
А можно ли, питаясь информацией откуда придется (правдивой и не очень, точной и не совсем), стать продвинутым интеллектуалом?
• Для человека, ответ – однозначно нет (ибо примеры такого отсутствуют).
• А для внечеловеческого разума больших языковых моделей (БЯМ), ответ – да запросто.
Можно ли, будучи слепым от рождения, стать известным художником?
• Для человека, ответ – определенно нет (пример Эшрефа Армагана – единственного за всю историю человечества от рождения слепого художника, – лишь исключение, подтверждающее правило).
• А для внечеловеческого разума БЯМ, ответ – да запросто.
Эти два отличия БЯМ от людей столь показательны и наглядны, что я решил использовать их в качестве демонстрационных кейсов кардинальной инаковости двух разумов.
Вы спросите – зачем?
А вот зачем.
✔️ Кейсов, демонстрирующих внешнее подобие (интеллектуальное и поведенческое) БЯМ и людей, сколько угодно и в академических и популярных источниках. Это разнообразные тесты (лингвистические, логические, творческие – для разных предметных областей и контекстов использования), призванные демонстрировать, насколько способности БЯМ приближаются к способностям людей.
✔️ Кейсы же, демонстрирующие кардинальную инаковость разума БЯМ и людей, найти куда сложнее.
Но такие кейсы необходимы для понимания глубины качественных отличий разума людей и БЯМ.
Без этого понимания невозможно избавиться от антропоморфизации БЯМ:
– ведущей к искажению трактовок оценок разумности БЯМ (как существующих, так и перспективных);
– сбивающей точность прицела при выборе дальнейшего направления разработок БЯМ.
Познакомиться с двумя демонстрационными кейсами кардинальной инаковости БЯМ, в основе которых два уникальных свойства этого внечеловеческого разума – суперэффективный инфометаболизм и сверхэффективная кросс-модальная когнитивность, – подписчики моих лонгридов могут на трех платформах по ссылкам ниже.
Картинка https://telegra.ph/file/e9c492bc220d9ec787ba0.jpg
Ссылки на 3 платформы:
• https://www.patreon.com/theworldisnoteasy
• https://boosty.to/theworldisnoteasy
• https://vk.com/club226218451
#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект
👍75🤔46🤯6
Продолжение текста предыдущего поста
(прошу извинить за этот кульбит при публикации, но задержание Дурова не прошло бесследно для возможностей авторов публиковаться в Telegram и Telegra.ph)
Рассказу об этом посвящена 2я части лонгрида об инаковости разума людей и ИИ, проиллюстрированного десятками примеров.
• 2я часть начинается с рассказа о единственном в истории человечества слепом от рождения художнике Эшрефе Армагане и о том, что увидели в его мозге на фМРТ гарвардские исследователи Амир Амеди и Алваро Паскуаль-Леоне.
• Потом описываются несколько совсем новых экспериментов с лучшими мультимодальными большими языковыми моделями и их подтипом визуально-языковые модели. Эти эксперименты демонстрируют, «что их зрение … похоже на зрение умного человека, который слеп и делает обоснованные предположения.»
• Затем, на примере одного из тестов гаокао (китайский аналог ЕГЭ), предпринята попытка, путем многократных наводящих подсказок, помочь понять двум самым продвинутым моделям смысл того, что они «видят» на картинке комикса и почему. Мои попытки, увы, безуспешные, желающие читатели смогут, при желании, продолжить самостоятельно (вдруг-таки GPT-4o иои Claude 3.5 Sonnet начнёт хоть что-то понимать из того, что видят, по-человечески).
• Ну и, наконец, о самом главном.
- Что за сверхэффективная кросс-модальная когнитивность позволяет моделям превосходить 99,99% людей по изобразительным способностям, никогда не видя ни форм, ни цветов, ни света, ни тени, ни перспективы …
- И как эту когнитивную способность можно объяснить с позиций работ Оливера Сакса, Жан-Пьера Шанжё и Кевина Дорста.
Обо всем этом подписчики моих лонгридов могут прочесть на трех платформах по ссылкам ниже.
• https://www.patreon.com/theworldisnoteasy
• https://boosty.to/theworldisnoteasy
• https://vk.com/club226218451
#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект
(прошу извинить за этот кульбит при публикации, но задержание Дурова не прошло бесследно для возможностей авторов публиковаться в Telegram и Telegra.ph)
Рассказу об этом посвящена 2я части лонгрида об инаковости разума людей и ИИ, проиллюстрированного десятками примеров.
• 2я часть начинается с рассказа о единственном в истории человечества слепом от рождения художнике Эшрефе Армагане и о том, что увидели в его мозге на фМРТ гарвардские исследователи Амир Амеди и Алваро Паскуаль-Леоне.
• Потом описываются несколько совсем новых экспериментов с лучшими мультимодальными большими языковыми моделями и их подтипом визуально-языковые модели. Эти эксперименты демонстрируют, «что их зрение … похоже на зрение умного человека, который слеп и делает обоснованные предположения.»
• Затем, на примере одного из тестов гаокао (китайский аналог ЕГЭ), предпринята попытка, путем многократных наводящих подсказок, помочь понять двум самым продвинутым моделям смысл того, что они «видят» на картинке комикса и почему. Мои попытки, увы, безуспешные, желающие читатели смогут, при желании, продолжить самостоятельно (вдруг-таки GPT-4o иои Claude 3.5 Sonnet начнёт хоть что-то понимать из того, что видят, по-человечески).
• Ну и, наконец, о самом главном.
- Что за сверхэффективная кросс-модальная когнитивность позволяет моделям превосходить 99,99% людей по изобразительным способностям, никогда не видя ни форм, ни цветов, ни света, ни тени, ни перспективы …
- И как эту когнитивную способность можно объяснить с позиций работ Оливера Сакса, Жан-Пьера Шанжё и Кевина Дорста.
Обо всем этом подписчики моих лонгридов могут прочесть на трех платформах по ссылкам ниже.
• https://www.patreon.com/theworldisnoteasy
• https://boosty.to/theworldisnoteasy
• https://vk.com/club226218451
#ГенИИ #LLMvsHomo #Экзопсихология #Экзосоциология #ПереосмыслениеКонтакта #ИнойИнтеллект
Patreon
Get more from Малоизвестное интересное on Patreon
Авторский канал Сергея Карелова
👍101🤔16🤯6
Наняли бы вы на работу Океан Соляриса?
Три капкана на пути внедрения генеративного ИИ.
Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.
1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.
2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.
3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.
Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)
А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.
Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).
#ИнойИнтеллект #LLMvsHomo
* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.
1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.
Счастливо!
Три капкана на пути внедрения генеративного ИИ.
Этот пост полезно прочесть всем руководителям, обдумывающим перспективы «найма» генеративного ИИ для задействования его мощного интеллектуального ресурса в своей работе.
Представьте себе ситуацию:
• Вы – руководитель.
• Ваши кадровики предлагают вам кандидатуру чрезвычайно компетентного нового сотрудника - по внешним отзывам и описанию кадровиков, разносторонне способного полимата, обладающего знаниями в широчайшем спектре областей и навыками многих профессий.
• Но и на солнце есть пятна. У этого кандидата есть три настораживающих «пунктика». Эдакие три инаковости, кардинально отличающие его от всех известных вам людей.
1) Его метрика сложности задач (определяющая, какие задачи для него сложные, а какие простые) абсолютно не соответствует ни вашей, ни кого-либо из ваших сотрудников. Это, в частности, значит, что сложнейшее в вашем понимании задание он может выполнить на раз-два, а наипростейшее для вас задание он запросто может запороть.
2) Для него не существует ответа «я не знаю». Это значит, что даже при категорической нехватке исходных данных для решения задачи и полном отсутствии у него необходимых для решения таких задач знаний и умений, он не признается в этом и будет биться головой о стену сколь угодно долго в безуспешных попытка решить задачу, подсовывая вам все новые ошибочные решения.
3) Правильность решения им поставленной вами задачи в значительной степени зависит от того, как вы ему эту задачу сформулируете. И, что самое неприятное, заранее неизвестно, какая из ваших формулировок поспособствует правильному решению, а какая ошибочному. Получается, как повезет.
Что думаете? Стоит вам нанять на работу такого сверхспособного полимата с тремя «пунктиками»?
Я бы нанял.
• Но не для заполнения каких-либо вакансий или замены сотрудников
• А для выполнения особых ролей (каких – расскажу)
А теперь вот вам такая информация к размышлению.
Новая статья в Nature на сотнях убедительных примеров доказывает, что современные модели генеративного ИИ обладают тремя вышеописанными кардинальными инаковостями, принципиально отличающими их «разум» от нашего. Т.е. лучшие современные модели генеративного ИИ – и есть такие сверхспособные полиматы с 3 пунктиками.
Заинтересованный читатель моих лонгридов может прочесть по приведенным ссылкам:
[1, 2, 3]
• мой анализ значения трех названных кардинальных инаковостей «разума» LLM при их использовании на практике,
• мои размышления о том, как, даже при наличии общего языка (что в случае LLM кажется очевидным), истинное понимание нами LLM может оставаться недостижимым, и это делает наше сотрудничество в важных вопросах непредсказуемо рискованным (что иллюстрируется примером попыток взаимодействия людей и Океана в романе Станислава Лема «Солярис»).
#ИнойИнтеллект #LLMvsHomo
* * * * *
P.S. Примерно неделю канал будет на осенних каникулах. И вместо нового малоизвестного-интересного, рекомендую вам:
• освежить в памяти 3 важных предсказания годичной давности (дабы проверить их актуальность сегодня)
• а также подивиться, насколько близко к предсказанному «Эффектом Ленина-Трампа» шли события в США (и не только) с 2016 по сегодня.
1) Сбывшийся важный прогноз.
В посте «Китай строит гигантский завод по производству чипов, управляемый ускорителем частиц» приведен прогноз, что это не поможет Китаю вырваться из «удушающего захвата» экспортного контроля США.
Все так пока и получается.
2) Предсказание двух грядущих глобальных ловушек.
• К «Ловушке Гудхарта» мир продолжает неотвратимо приближаться.
• Выбор развилки на пути к «Ловушке Фукидида» (или от нее) скоро определится по результатам президентских выборов в США.
3) Из авторов трёх возможных сценариев ближайшего будущего, все более засеваемого минами ИИ-рисков, похоже, прав оказался, не алармист Юваль Харари или оптимист Мустафа Сулейман, а прагматик Питер Тиль.
4) Подумайте, как скажется «Эффект Ленина-Трампа» на предстоящие выборы.
Счастливо!
Nature
Larger and more instructable language models become less reliable
Nature - Scaling up and shaping up large language models increased their tendency to provide sensible yet incorrect answers at difficulty levels humans cannot supervise, highlighting the need for a...
👍138🤔45🤯10
Порог имитации.
Сколько нужно картин Ван-Гога, чтобы имитировать его стиль?
Простой вопрос о способности генеративного ИИ (ГенИИ) неотличимо имитировать в дискуссии человека более не актуален (ибо уже нет сомнений, - может).
Трудный вопрос – это вопрос о способности ГенИИ сравниться в разумности с «человеком разумным» явно преждевременный (ибо сначала нужно убедиться, что ГенИИ, в принципе обладает каким-то, пусть и нечеловеческим, разумом).
• Новая работа HOW MANY VAN GOGHS DOES IT TAKE TO VAN GOGH? FINDING THE IMITATION THRESHOLD дает весьма интересный аргумент в пользу положительного ответа на трудный вопрос.
• И вместе с тем, помогает в поиске границ похожести/непохожести двух разных типов разума (людей и ГенИИ)
Авторы этой работы поставили интереснейший вопрос.
✔️ Художнику-человеку, для копирования стиля другого художника, может хватить всего несколько картин последнего. Напр. для копирования стиля Ваг-Гога хватило бы 5и картин «Звездная ночь», «Подсолнухи», «Автопортрет», «Пшеничное поле с кипарисами» и «Ирисы» (а в пределе, и одной из них).
А сколько картин нужно ГенИИ?
Есть ли «порог имитации» - т.е. минимально необходимого числа картин конкретного автора, чтобы скопировать его стиль?
Оказалось, что нижний порог имитации для ГенИИ много-много больше, чем для человека. И он равен примерно 200 (точно, он лежит в диапазоне 200-600, в зависимости от достигаемой степени похожести)
Из чего следует, что вопрос прав на интеллектуальную собственность на изображения решается запросто – простым ограничением (меньше 200) числа изображений конкретного автора. После чего модель просто не сможет воспроизводить стиль с высокой степенью похожести.
И, кстати, оказалось, что порог имитации также решает вопрос персональной собственности на изображения себя (для «звезд» и прочих публичных фигур). Порог имитации здесь тот же. И для невозможности воспроизведения чужих лиц достаточно лишь обеспечить порог имитации в обучающих данных модели.
Так что получается, что в такой изысканной способности разума, как копирование стиля изображений и лиц, разум людей и ГенИИ похожи. Только эффективность этой способности у людей раз в 200+ выше.
Подробней об «инаковости разумов» читайте у меня в постах и лонгридах с тэгом #ИнойИнтеллект
#ГенИИ #LLMvsHomo
Сколько нужно картин Ван-Гога, чтобы имитировать его стиль?
Простой вопрос о способности генеративного ИИ (ГенИИ) неотличимо имитировать в дискуссии человека более не актуален (ибо уже нет сомнений, - может).
Трудный вопрос – это вопрос о способности ГенИИ сравниться в разумности с «человеком разумным» явно преждевременный (ибо сначала нужно убедиться, что ГенИИ, в принципе обладает каким-то, пусть и нечеловеческим, разумом).
• Новая работа HOW MANY VAN GOGHS DOES IT TAKE TO VAN GOGH? FINDING THE IMITATION THRESHOLD дает весьма интересный аргумент в пользу положительного ответа на трудный вопрос.
• И вместе с тем, помогает в поиске границ похожести/непохожести двух разных типов разума (людей и ГенИИ)
Авторы этой работы поставили интереснейший вопрос.
✔️ Художнику-человеку, для копирования стиля другого художника, может хватить всего несколько картин последнего. Напр. для копирования стиля Ваг-Гога хватило бы 5и картин «Звездная ночь», «Подсолнухи», «Автопортрет», «Пшеничное поле с кипарисами» и «Ирисы» (а в пределе, и одной из них).
А сколько картин нужно ГенИИ?
Есть ли «порог имитации» - т.е. минимально необходимого числа картин конкретного автора, чтобы скопировать его стиль?
Оказалось, что нижний порог имитации для ГенИИ много-много больше, чем для человека. И он равен примерно 200 (точно, он лежит в диапазоне 200-600, в зависимости от достигаемой степени похожести)
Из чего следует, что вопрос прав на интеллектуальную собственность на изображения решается запросто – простым ограничением (меньше 200) числа изображений конкретного автора. После чего модель просто не сможет воспроизводить стиль с высокой степенью похожести.
И, кстати, оказалось, что порог имитации также решает вопрос персональной собственности на изображения себя (для «звезд» и прочих публичных фигур). Порог имитации здесь тот же. И для невозможности воспроизведения чужих лиц достаточно лишь обеспечить порог имитации в обучающих данных модели.
Так что получается, что в такой изысканной способности разума, как копирование стиля изображений и лиц, разум людей и ГенИИ похожи. Только эффективность этой способности у людей раз в 200+ выше.
Подробней об «инаковости разумов» читайте у меня в постах и лонгридах с тэгом #ИнойИнтеллект
#ГенИИ #LLMvsHomo
6👍130🤔48🤯4
Что оказалось за дверью в бездну черного ящика ИИ.
Новые откровения сверхважного прорыва в понимании механизмов разума машин и людей.
Как я писал в мае, «внутри черного ящика оказалась дверь в бездну». Речь шла о 1й успешной попытке компании Anthropic вскрыть черный ящик генеративного ИИ больших языковых моделей. Это был реально сверхважный прорыв, без которого все разговоры о том, что скрывается внутри внечеловеческого разума моделей, оставались чистыми спекуляциями.
Колоссальным откровением той работы было то, что за дверью черного ящика одной из самых больших на тот момент моделей семейства Claude оказался не ожидаемый многими «стохастический попугай», а таящийся там куда боле мощный ИИ. Его основу, как предположили исследователи, составляет мультимодальная гиперсеть моносемантических «субнейронов», образующих в гиперсети нечто похожее на коги (в теории когнитома Константина Анохина так называются элементарные единицы опыта, кодирующие соотношение целого организма с теми или иными аспектами мира).
Тогда же исследователям удалось на практике показать сильную уязвимость внечеловеческого (а возможно, и человеческого) разума. Когда воздействие всего на один такой «ког» вело к изменению матрицы «личности» модели. Например, усиление роли функции «Мост Золотые Ворота» вызвало у Клода кризис идентичности, который даже Хичкок не мог себе представить.
Два новых исследования приоткрывают дверь в бездну черного ящика моделей пошире. И теперь за ней можно разглядеть кое-что из того:
• как устроена гиперсеть
• и что она в себе скрывает
1е исследование предлагает объяснение сверхэффективной кросс-модальной когнитивности, описанной мною в лонгриде «Слепые гении живописи». Исследование отвечает на поставленный мною в лонгриде вопрос: как эти модели, построенные на одном наборе параметров, умудряются обрабатывать и понимать такой разнообразный диапазон входных данных, от разных языков до кода, арифметики и даже изображений и звука?
В этой статье предлагается интригующий ответ: «гипотеза семантического хаба». Основная идея проста, но глубока. Вместо того чтобы полагаться на отдельные специализированные отсеки для каждого типа данных, LLM изучают общее пространство представления — «семантический хаб», — где семантически схожие концепции группируются вместе, независимо от их первоначальной формы.
Если 1е исследование предлагает гипотезу, частично объясняющую устройства гиперсети, то 2е исследует, что эта гиперсеть в себе скрывает.
Авторы показывают, что за дверью черного ящика LLM не просто скрыт куда больший интеллект, что проявляется в диалогах с ним. Оказывается, что этот интеллект «скрывает» от общающихся с ним людей целые букеты своих секретных способностей, которые нельзя выявить через примитивные (naive) запросы пользователей.
И чтобы как-то выявить эти скрытые способности, необходим сложный комплекс мер «допроса модели», раскрывающих её скрытую реальную "компетентность" (а не ту компетентность, что она демонстрирует в ответах на примитивные запросы «белковых мешков»).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Новые откровения сверхважного прорыва в понимании механизмов разума машин и людей.
Как я писал в мае, «внутри черного ящика оказалась дверь в бездну». Речь шла о 1й успешной попытке компании Anthropic вскрыть черный ящик генеративного ИИ больших языковых моделей. Это был реально сверхважный прорыв, без которого все разговоры о том, что скрывается внутри внечеловеческого разума моделей, оставались чистыми спекуляциями.
Колоссальным откровением той работы было то, что за дверью черного ящика одной из самых больших на тот момент моделей семейства Claude оказался не ожидаемый многими «стохастический попугай», а таящийся там куда боле мощный ИИ. Его основу, как предположили исследователи, составляет мультимодальная гиперсеть моносемантических «субнейронов», образующих в гиперсети нечто похожее на коги (в теории когнитома Константина Анохина так называются элементарные единицы опыта, кодирующие соотношение целого организма с теми или иными аспектами мира).
Тогда же исследователям удалось на практике показать сильную уязвимость внечеловеческого (а возможно, и человеческого) разума. Когда воздействие всего на один такой «ког» вело к изменению матрицы «личности» модели. Например, усиление роли функции «Мост Золотые Ворота» вызвало у Клода кризис идентичности, который даже Хичкок не мог себе представить.
Два новых исследования приоткрывают дверь в бездну черного ящика моделей пошире. И теперь за ней можно разглядеть кое-что из того:
• как устроена гиперсеть
• и что она в себе скрывает
1е исследование предлагает объяснение сверхэффективной кросс-модальной когнитивности, описанной мною в лонгриде «Слепые гении живописи». Исследование отвечает на поставленный мною в лонгриде вопрос: как эти модели, построенные на одном наборе параметров, умудряются обрабатывать и понимать такой разнообразный диапазон входных данных, от разных языков до кода, арифметики и даже изображений и звука?
В этой статье предлагается интригующий ответ: «гипотеза семантического хаба». Основная идея проста, но глубока. Вместо того чтобы полагаться на отдельные специализированные отсеки для каждого типа данных, LLM изучают общее пространство представления — «семантический хаб», — где семантически схожие концепции группируются вместе, независимо от их первоначальной формы.
Если 1е исследование предлагает гипотезу, частично объясняющую устройства гиперсети, то 2е исследует, что эта гиперсеть в себе скрывает.
Авторы показывают, что за дверью черного ящика LLM не просто скрыт куда больший интеллект, что проявляется в диалогах с ним. Оказывается, что этот интеллект «скрывает» от общающихся с ним людей целые букеты своих секретных способностей, которые нельзя выявить через примитивные (naive) запросы пользователей.
И чтобы как-то выявить эти скрытые способности, необходим сложный комплекс мер «допроса модели», раскрывающих её скрытую реальную "компетентность" (а не ту компетентность, что она демонстрирует в ответах на примитивные запросы «белковых мешков»).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
20👍173🤯78🤔42😱13👎7
LLM – это разум Чужого.
Ответ на самый эзотерический вопрос о разуме ИИ дан биологами.
Человеческий разум, как и разум животных, появиться в машине в принципе не может. Следовательно, LLM лишь имитируют наш разум. Порой, с точностью до неотличимости.
В 2025 вопрос о достижимости AGI перестал быть актуален. Ибо уже ясно, — это лишь вопрос времени. И даже возможно, ближайших лет.
Но на другой, не менее важный вопрос на границе с эзотерикой ни исследователи ИИ, ни философы так пока и не дали убедительного ответа:
Действительно ли разум продвинутых больших языковых моделей (LLM) лишь имитирует человеческий, или же, путем неясных пока эмерджентных процессов, внутри нейросетей каким-то образом рождается разум, подобный нашему?
Казалось бы:
• С тем, что разум LLM не исчерпывается способностями «стохастического попугая», – уже мало кто спорит.
• Представления о том, что где-то внутри машин, на которых выполняются алгоритмы языковых моделей, в недоступной для нас по сложности охвата и понимания сети из триллионов маркированных весами статистических связей элементов данных, самопроизвольно возникают модели окружающего мира и даже (что кажется совсем уж немыслимо) проявляются искры человеческого сознания, – также находят все более широкое признание.
• Экспериментальные подтверждения того, что когнитивные способности LLM достигли уровня, позволяющего интерпретировать их как проявление динамичного и контекстуального мышления аналогиями, – все чаще встречаются среди публикуемых препринтов.
Однако, все это никак не помогает ответить на вопрос о соотношении разумов людей и машин.
Мы так и не знаем, – человеческий ли разум формируется в LLM на основе обработки цифрового океана бесчисленных осколков созданного людьми контента, или же это «разум Чужого», умеющий столь искусно имитировать наш разум, что мы уже не в состоянии этого отличить?
Но вот в решение этого вопроса включились биологи. И первый же выстрел попал в десятку.
Как и в недавно представленной мною работе Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями", в работе Шерил Кумбс и Майкла Трестмана "Многофакторная воплощенная структура эволюции мозга и познания у разных типов животных" речь идет о фундаментальной роли воплощенности в появлении и эволюционном развитии разума и сознания.
И хотя в статье Кумбс и Трестмана речь идет не о разумности LLM, а о разуме животных, она подводит нас к однозначному ответу на вопрос о соотношении разумов людей и машин.
Авторы исследовали 35 признаков в 17 таксономических группах животных, что позволило им нарисовать широкую филогенетическую картину того, как развивались мозг и познание в ходе эволюции на Земле.
Исследование позволяет сделать 2 фундаментальных вывода.
1. Когнитивная сложность в разных таксономических группах животных возникала в результате накопления целого ряда ключевых телесных и сенсорных признаков (напр. высокоразрешающие глаза и многослойные визуальные области мозга), позволившим животным перейти:
— от в основном реактивного поведения к более проактивному,
— и от медленного и двухмерного движения к более быстрому и сложному трёхмерному движению.
2. Познание — это не изолированный процесс работы нейронов мозга, а интегральный процесс, неразрывно связанный с физической структурой животного.
Следовательно, познание и разум живых существ неразрывно связаны с их воплощенностью и формируются в ходе эволюционного развития. Отсутствие воплощенности у LLM исключает возможность появления у них когнитивно сложного разума, подобного биологическому. И потому всё человекоподобие разума LLM лишь имитация.
Но это не значит, что имитируя разум людей, LLM не способны превзойти нас в интеллекте.
И даже если какие-то аспекты разума людей окажутся плохо воспроизводимы при имитации их LLM, они смогут-таки найти способы повышения точности имитации. Как уже сейчас весьма успешно делается LLM при итеративном улучшении сгенерированного ими же программного кода.
#ВоплощенныйИнтеллект #LLM #ИнойИнтеллект
Ответ на самый эзотерический вопрос о разуме ИИ дан биологами.
Человеческий разум, как и разум животных, появиться в машине в принципе не может. Следовательно, LLM лишь имитируют наш разум. Порой, с точностью до неотличимости.
В 2025 вопрос о достижимости AGI перестал быть актуален. Ибо уже ясно, — это лишь вопрос времени. И даже возможно, ближайших лет.
Но на другой, не менее важный вопрос на границе с эзотерикой ни исследователи ИИ, ни философы так пока и не дали убедительного ответа:
Действительно ли разум продвинутых больших языковых моделей (LLM) лишь имитирует человеческий, или же, путем неясных пока эмерджентных процессов, внутри нейросетей каким-то образом рождается разум, подобный нашему?
Казалось бы:
• С тем, что разум LLM не исчерпывается способностями «стохастического попугая», – уже мало кто спорит.
• Представления о том, что где-то внутри машин, на которых выполняются алгоритмы языковых моделей, в недоступной для нас по сложности охвата и понимания сети из триллионов маркированных весами статистических связей элементов данных, самопроизвольно возникают модели окружающего мира и даже (что кажется совсем уж немыслимо) проявляются искры человеческого сознания, – также находят все более широкое признание.
• Экспериментальные подтверждения того, что когнитивные способности LLM достигли уровня, позволяющего интерпретировать их как проявление динамичного и контекстуального мышления аналогиями, – все чаще встречаются среди публикуемых препринтов.
Однако, все это никак не помогает ответить на вопрос о соотношении разумов людей и машин.
Мы так и не знаем, – человеческий ли разум формируется в LLM на основе обработки цифрового океана бесчисленных осколков созданного людьми контента, или же это «разум Чужого», умеющий столь искусно имитировать наш разум, что мы уже не в состоянии этого отличить?
Но вот в решение этого вопроса включились биологи. И первый же выстрел попал в десятку.
Как и в недавно представленной мною работе Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями", в работе Шерил Кумбс и Майкла Трестмана "Многофакторная воплощенная структура эволюции мозга и познания у разных типов животных" речь идет о фундаментальной роли воплощенности в появлении и эволюционном развитии разума и сознания.
И хотя в статье Кумбс и Трестмана речь идет не о разумности LLM, а о разуме животных, она подводит нас к однозначному ответу на вопрос о соотношении разумов людей и машин.
Авторы исследовали 35 признаков в 17 таксономических группах животных, что позволило им нарисовать широкую филогенетическую картину того, как развивались мозг и познание в ходе эволюции на Земле.
Исследование позволяет сделать 2 фундаментальных вывода.
1. Когнитивная сложность в разных таксономических группах животных возникала в результате накопления целого ряда ключевых телесных и сенсорных признаков (напр. высокоразрешающие глаза и многослойные визуальные области мозга), позволившим животным перейти:
— от в основном реактивного поведения к более проактивному,
— и от медленного и двухмерного движения к более быстрому и сложному трёхмерному движению.
2. Познание — это не изолированный процесс работы нейронов мозга, а интегральный процесс, неразрывно связанный с физической структурой животного.
Следовательно, познание и разум живых существ неразрывно связаны с их воплощенностью и формируются в ходе эволюционного развития. Отсутствие воплощенности у LLM исключает возможность появления у них когнитивно сложного разума, подобного биологическому. И потому всё человекоподобие разума LLM лишь имитация.
Но это не значит, что имитируя разум людей, LLM не способны превзойти нас в интеллекте.
И даже если какие-то аспекты разума людей окажутся плохо воспроизводимы при имитации их LLM, они смогут-таки найти способы повышения точности имитации. Как уже сейчас весьма успешно делается LLM при итеративном улучшении сгенерированного ими же программного кода.
#ВоплощенныйИнтеллект #LLM #ИнойИнтеллект
52👍180🤔60👎14😱13
Третий прорыв внутрь черного ящика ИИ: искусственный разум плетет интриги, строит планы и... умышленно лжет
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
Настал момент, которого я с нетерпением ждал. Исследователи Anthropic совершили третий прорыв в расшифровке "черного ящика" ИИ, и открывшаяся картина ошеломляет даже самых радикальных скептиков.
Напомню, что проблема "черного ящика" ИИ, как объяснял Самир Равашдех, заключается в том, что мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы.
В мае 2024 года первый прорыв показал нам, что за дверью черного ящика скрывается не "стохастический попугай", а гиперсеть моносемантических "субнейронов", работающих как элементарные единицы опыта. Тогда же выяснилось, что манипуляция всего одним таким "когом" может изменить всю "личность" модели.
Второй прорыв в ноябре 2024 обнаружил существование "семантического хаба" – общего пространства представлений, где семантически схожие концепции группируются вместе независимо от их первоначальной формы. Также стало ясно, что модели скрывают целые букеты секретных способностей, невидимых при обычном взаимодействии.
И вот, новое исследование Anthropic, используя заимствованные из нейробиологии методы "circuit tracing" и "attribution graphs", показывает невероятные вещи:
1. Claude планирует наперед. При сочинении стихов он сначала выбирает слова для рифмы и только потом составляет строки, подводящие к этим словам. Это уже не просто обработка текста – это стратегическое мышление.
2. Модель использует настоящие многоступенчатые рассуждения. Спросите ее о столице штата, где находится Даллас, и она сначала активирует представление "Техас", а затем использует его для определения "Остин".
3. Claude оперирует универсальной понятийной сетью, не зависящей от языка. Когда его спрашивают о противоположности слова "маленький" на разных языках, он использует одни и те же внутренние представления "противоположности" и "малости".
4. Самое тревожное: Мы думали, что самое неприятное в том, что модель иногда лжет. Но это, как оказалось, - полбеды. Беда же в том, что он иногда лжёт умышленно. Сталкиваясь со сложными математическими задачами, он может утверждать, что следует определенному процессу вычислений, который на самом деле не отражен в его внутренней активности. Т.е. он буквально как люди: думает одно, говорит другое, а делает третье.
Этот 4й из казавшихся совсем недавно невероятными результатов - самый шокирующий. И получен он в результате обнаружения механизма, отвечающего за "галлюцинации" ИИ. Оказывается, в модели есть "стандартные" цепи, заставляющие ее отказываться отвечать на вопросы. Но когда модель распознает знакомую сущность, эти цепи подавляются – даже если конкретных знаний недостаточно.
Мы только начинаем составлять карту ранее неизведанной территории ИИ. И эта карта выглядит гораздо более сложной, стратегически запутанной и, реально, куда более тревожной, чем ожидали. Последствия этого открытия для нашего понимания как синтетического, так и человеческого разума только предстоит осмыслить.
Но уже очевидно, что 3й прорыв вглубь черного ящика делает всё более актуальной необходимость замены неточного термина «искусственный» на «синтетический» (что будет способствовать избеганию антропоморфизма и признанию самостоятельной ценности новой формы интеллекта, не просто имитирующего наш, а в корне отличного от него).
#ГенИИ #LLMvsHomo #ИнойИнтеллект
2👍248🤔84😱23🤯12👎6
От безлекарственного подавления рака до понимания инопланетян
Поборов «слепоту разума», можно видеть и строить мир, где формы разума сосуществуют и помогают друг другу
Парадигмальная революция в понимании разума, ознаменованная публикацией «апрельских тезисов» Майкла Левина, продолжается.
Новый доклад Левина «Против слепоты разума: распознавание и общение с многообразием разума» — настоящий взрыв мозга! Он заставляет задуматься о фундаментальном вопросе:
Цель доклада двуедина
1. Показать, что звучащая сюжетами из будущего аргументация в пользу новой парадигмы разума, вовсе не фантазия и не “просто теория”, а реальность, обещающая революцию в медицине, создание живых микроботов и переосмысление нашего места во Вселенной.
Ибо уже экспериментально продемонстрировано:
— клетки могут «договариваться» между собой;
— их можно «убедить» например, создать глаз на хвосте головастика или «убедить» «антроботов» (сборки из клеток человека) заживлять раны нейронов;
— биоэлектрические сигналы могут «перепрограммировать» ткани;
— и даже раковые клетки можно «убедить» вернуться в коллектив к «здоровой жизни» без лекарств и химиотерапии, использовав их «электрический язык».
2. Продемонстрировать непомерно высокую цену, которую человечество платит за “слепоту разума”, не позволяющую видеть колоссальные перспективы кардинальной смены научной парадигмы в пользу признания многообразия разума.
Ибо это может позволить:
— научиться «разговаривать» с отдельными клетками и их коллективами;
— поняв наконец, что ДНК — лишь «алфавит», а настоящий «роман» пишется коллективным разумом тела, научиться читать индивидуальные «романы» каждого из людей;
— увидев и поняв другие формы разума, существующие вокруг нас и даже внутри нас, кардинально поменять представления о разумном мироздании.
Увы, но каждый из нас может быть интеллектуально слеп по каким-то вопросам. И вследствие этого, просто не воспринимать аргументы и логику, противоречащие нашим предубеждениям. Источником такой “интеллектуальной слепоты” является феномен мотивированного рассуждения, зафиксированного в сотнях научных экспериментов и ныне являющегося ключом к анализу нейропсихологических причин устойчивого существования непробиваемых ложных суждений. Такая непробиваемость и повсеместность феномена мотивированного рассуждения обусловлены тем, что это продукт эволюции. В результате чего каждый из нас расплачивается за свои мотивированные рассуждения обидными, но крайне трудно преодолимыми самообманами, живущими в нашем разуме в привязке к уже существовавшим привычным мыслям (подробней см. мой лонгрид «Интеллектуальная слепота»).
Но оказывается, бывают вещи и похуже индивидуальной интеллектуальной слепоты. Подобного рода “слепотой разума” страдают не только индивиды, но и все человечество. Причем объектом слепоты разума является сам разум.
Истоки слепоты разума также эволюционные. Эволюция «настроила» нас распознавать лишь знакомые нам разумы — тех, кто похож на людей или хотя бы на собак, птиц, осьминогов. Всё, что мыслит вне привычных масштабов и форм, — от колоний клеток до роботов — мы склонны игнорировать. Это и есть слепота разума — самый фундаментальный самообман бесконечно дорого обходящийся человечеству.
Хотите глубже?
✔️ Смотрите 36-минутный видео-доклад с презентацией Майкла Левина.
✔️ Понимание доклада требует подготовки. Поэтому для подписчиков моих лонгридов я написал структурированное резюме доклада с пояснениями сложных моментов ИИ-мнемозиной информария Левина [1, 2, 3, 4].
И приготовьтесь: после знакомства с этими материалами, привычная граница между организмом, машиной и «просто материей» тает — и взгляд на разум перезагружается.
#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект #МирХимер
Поборов «слепоту разума», можно видеть и строить мир, где формы разума сосуществуют и помогают друг другу
Понимание, что разум может «жить» в химии, тканях, клетках и алгоритмах, меняет наше место в мире и даёт новые инструменты созидания. Мы могли бы «уговаривать» раковые клетки прекратить их экспансию.
Парадигмальная революция в понимании разума, ознаменованная публикацией «апрельских тезисов» Майкла Левина, продолжается.
Новый доклад Левина «Против слепоты разума: распознавание и общение с многообразием разума» — настоящий взрыв мозга! Он заставляет задуматься о фундаментальном вопросе:
как нам научиться «разговаривать» с невероятным многообразием разума.
Цель доклада двуедина
1. Показать, что звучащая сюжетами из будущего аргументация в пользу новой парадигмы разума, вовсе не фантазия и не “просто теория”, а реальность, обещающая революцию в медицине, создание живых микроботов и переосмысление нашего места во Вселенной.
Ибо уже экспериментально продемонстрировано:
— клетки могут «договариваться» между собой;
— их можно «убедить» например, создать глаз на хвосте головастика или «убедить» «антроботов» (сборки из клеток человека) заживлять раны нейронов;
— биоэлектрические сигналы могут «перепрограммировать» ткани;
— и даже раковые клетки можно «убедить» вернуться в коллектив к «здоровой жизни» без лекарств и химиотерапии, использовав их «электрический язык».
2. Продемонстрировать непомерно высокую цену, которую человечество платит за “слепоту разума”, не позволяющую видеть колоссальные перспективы кардинальной смены научной парадигмы в пользу признания многообразия разума.
Ибо это может позволить:
— научиться «разговаривать» с отдельными клетками и их коллективами;
— поняв наконец, что ДНК — лишь «алфавит», а настоящий «роман» пишется коллективным разумом тела, научиться читать индивидуальные «романы» каждого из людей;
— увидев и поняв другие формы разума, существующие вокруг нас и даже внутри нас, кардинально поменять представления о разумном мироздании.
Увы, но каждый из нас может быть интеллектуально слеп по каким-то вопросам. И вследствие этого, просто не воспринимать аргументы и логику, противоречащие нашим предубеждениям. Источником такой “интеллектуальной слепоты” является феномен мотивированного рассуждения, зафиксированного в сотнях научных экспериментов и ныне являющегося ключом к анализу нейропсихологических причин устойчивого существования непробиваемых ложных суждений. Такая непробиваемость и повсеместность феномена мотивированного рассуждения обусловлены тем, что это продукт эволюции. В результате чего каждый из нас расплачивается за свои мотивированные рассуждения обидными, но крайне трудно преодолимыми самообманами, живущими в нашем разуме в привязке к уже существовавшим привычным мыслям (подробней см. мой лонгрид «Интеллектуальная слепота»).
Но оказывается, бывают вещи и похуже индивидуальной интеллектуальной слепоты. Подобного рода “слепотой разума” страдают не только индивиды, но и все человечество. Причем объектом слепоты разума является сам разум.
Истоки слепоты разума также эволюционные. Эволюция «настроила» нас распознавать лишь знакомые нам разумы — тех, кто похож на людей или хотя бы на собак, птиц, осьминогов. Всё, что мыслит вне привычных масштабов и форм, — от колоний клеток до роботов — мы склонны игнорировать. Это и есть слепота разума — самый фундаментальный самообман бесконечно дорого обходящийся человечеству.
Хотите глубже?
✔️ Смотрите 36-минутный видео-доклад с презентацией Майкла Левина.
✔️ Понимание доклада требует подготовки. Поэтому для подписчиков моих лонгридов я написал структурированное резюме доклада с пояснениями сложных моментов ИИ-мнемозиной информария Левина [1, 2, 3, 4].
И приготовьтесь: после знакомства с этими материалами, привычная граница между организмом, машиной и «просто материей» тает — и взгляд на разум перезагружается.
#ParadigmsofIntelligence #DiverseIntelligence #НетрадиционныеРазумы #ИнойИнтеллект #МирХимер
9👍189🤔35👎21🤯13