Малоизвестное интересное
71.7K subscribers
222 photos
2 videos
11 files
1.93K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН. Заркало канала - https://dzen.ru/the_world_is_not_easy
Рекламы и ВП в канале нет.
Пишите на @karelovs
Download Telegram
Мы в новой реальности
За 2 года ГенИИ стал писать за нас до четверти текстов

Такими темпами очень скоро большинство людей разучится писать тексты, длиннее коротких сообщений в соцсетях, перепоручив написание всего остального генеративному ИИ.
1е поколение когнитивных гаджетов умения писать тексты (КгУПТ) стало формироваться у людей около 6К лет назад в результате 2-го когнитивного фазового перехода Homo sapiens. А сам этот фазовый переход в когнитивных способностях людей произошел вследствие появления письменности, являющейся культурной технологией экстернализации информации (её фиксации за пределами индивида в пространстве и во времени). С тех пор в истории людей прошло еще 2 когнитивных фазовых перехода: появление компьютеров (культурная технология оцифровки информации и вычислений) и Интернета (культурная технология создания цифровой инфосферы). Ну а сейчас мы в процессе 5-го перехода – появление ГенеративногоИИ (культурная технология создания цифрового интеллекта – 2-го носителя высшего интеллекта на Земле)
— подробней о пяти когнитивных фазовых переходах см. [1 и 2].

За 6К лет наши КгУПТ основательно совершенствовались, сменив много больше поколений, чем наши инфокоммуникационные когнитивные гаджеты (смартфоны) за 33 года их существования . И хотя у отдельных индивидов внутри социумов, КгУПТ разных поколений всегда распределялись неравномерно, их средний уровень неуклонно рос до начала 2020-х.

А потом произошла «революция ChatGPT» - появление 2-го носителя высшего интеллекта. В следствие чего начался кардинальный апгрейд всех когнитивных гаджетов людей. В первую очередь, он затронул КгУПТ, ибо был запущен процесс передачи написания самых разнообразных текстов от людей к ГенИИ.
Спектр передаваемых типов текстов четко не фиксирован. Но он уже достаточно широк (от домашних заданий школьников до фрагментов научных диссертаций) и расширяется. Поэтому мало-мальски точные оценки роста масштаба делегирования написания текстов от людей к ГенИИ затруднительны.

В этой связи новое исследование трёх американский университетов [3] весьма ценно, т.к. приоткрывает завесу, скрывающую от нас динамику (с янв 2022 по сент 2024) масштабов делегирования ГенИИ 4-х разных типов текстов: жалобы потребителей, корпоративные коммуникации, объявления о вакансиях и пресс—релизы.

Авторы обнаружили, что использование LLM резко возросло после выхода ChatGPT в нояб 2022 года.
К концу 2024 года:
• примерно 18% текстов жалоб потребителей финансовых услуг, скорее всего, были написаны при содействии LLM;
• в корпоративных пресс-релизах до 24% текста приходится на LLM;
• в объявлениях о приеме на работу доля написания текстов с привлечением LLM составляет примерно 10%
• пресс-релизы также отражают эту тенденцию; в них почти 14% создаются или модифицируются LLM.

Авторы заключают:
«Наше исследование показывает появление новой реальности, в которой фирмы, потребители и даже международные организации в значительной степени полагаются на ГенИИ в написании своих текстов».

В заключение, тем моим читателям, кто полагает:
• будто написанное здесь – очередной неоправданный алармизм;
• и что ГенИИ – это всего лишь очередной мощный инструмент, и никакой деградацией КгУПТ его массовое использование не грозит,
— приведу слова [4] одного из авторов работы [2] Пунья Мишра о ГенИИ, как 5й культурной технологии человечества:

«Меня всегда беспокоила фраза “это всего лишь инструмент” … Но это технология, которая фундаментально изменяет нашу когнитивную и социальную архитектуру способами, которые невидимы для нас… В отличие от прочих, эта технология не просто помогает нам выполнять задачи (как молоток или электронная таблица) или передавать информацию (как печатное слово или телевидение) — они фундаментально меняют то, как мы мыслим, творим и обретаем смысл. Они преобразуют нашу когнитивную архитектуру и социальные практики».

Как быстро пойдет этот процесс, — см. мои посты с тэгами:

#АлгокогнитивнаяКультура #5йКогнитивныйПереход #КогнитивныеГаджеты #УскорениеЭволюции
👍162🤔57😱18👎15🤯4
Голос как уловка
Алгокогнитивный постмодернизм знаменует эру семиотического хаоса
— В основе постмодернизма XX века была парадигмальная установка на восприятие мира в качестве хаоса. Алгокогнитивный постмодернизм XXI века распространяет хаос с восприятия на семантику мира.
— Homo sapiens эволюционировал, доверяя своим чувствам; что произойдет с видом, который больше не может доверять даже собственному слуху?


Послевкусие от отчета Consumer Reports о технологиях клонирования голоса – будто стоишь на пороге темной комнаты, в которой сконструирован очередной механизм самоуничтожения человечества. 4 из 6 исследованных компаний позволяют без каких-либо существенных преград создать копию любого голоса, требуя лишь формальную галочку в графе "имею законное право".

• Какая ирония — мы создаем технологию, способную подделать самое личное, что есть у человека после его мыслей, и защищаем ее формальностью, равносильной картонному замку.
• Разве не удивительна эта парадоксальность — чем совершеннее становятся наши технологии, тем примитивнее становятся механизмы их злоупотребления?
• А ведь эта технология не просто инструмент потенциального мошенника — это кража реальности, временное похищение самой достоверности бытия.


Мошенничество с голосами знаменитостей, рекламирующих сомнительные продукты, — лишь верхушка айсберга. Что произойдет, когда клонированный голос главы государства объявит о начале военных действий? Или когда голос врача даст ложные медицинские рекомендации, способные привести к летальному исходу?

Мы подходим к точке, где доверие к голосовой коммуникации — этому древнейшему инструменту человеческого взаимодействия — может быть безвозвратно подорвано.

Поразительно, как технари пытаются решить эту проблему техническими же средствами: водяные знаки для AI-аудио, инструменты для детекции сгенерированного звука, семантические ограничения для фраз, типичных для мошенничества. Но это напоминает попытки закрыть прореху в ткани реальности заплаткой из той же ткани.

Проверка законности права на клонирование — это философский парадокс, а не техническая задача. Как доказать, что я — это действительно я?

Компания Descript требует от пользователя проговорить уникальный текст, но что мешает мошеннику обманом заставить жертву проговорить нужные фразы под видом "проверки личности" при звонке из "банка"? Каждый защитный механизм порождает новую уязвимость.

Предвижу наступление эры семиотического хаоса, где голос перестанет быть якорем личности.
• Страховые компании откажутся признавать голосовые подтверждения
• Банки не будут принимать распоряжения голосом
• Все будут перезванивать друг другу по альтернативным каналам для проверки подлинности просьб

Мир, в котором голос человека больше не является доказательством его присутствия — это мир, в котором часть человеческой сущности отчуждена технологией.
Это напоминает ситуацию из "Соляриса": чем совершеннее становится наша модель реальности, тем отчетливее проявляется непостижимость самой реальности.

Мы создали технологию, способную имитировать самый личный аспект нашей личности, но при этом проигнорировали вопрос о последствиях отделения голоса от его источника.

Рекомендации Consumer Reports — это попытка заделать трещины в плотине, за которой скрывается океан гораздо более фундаментальных вопросов. Дело не в том, как предотвратить мошенничество, а в том, готовы ли мы к миру, где достоверность восприятия постоянно находится под вопросом.

Технология клонирования голоса — это не просто инструмент для ускорения редактирования аудио или автоматизации озвучки.

Это зеркало, отражающее наивность нашего технологического оптимизма и хрупкость социальных связей, основанных на доверии.

Возможно, главный урок здесь в том, что проблемы, созданные технологией, не могут быть решены только технологией. Они требуют пересмотра наших представлений о достоверности, идентичности и границах между реальным и искусственным — вопросы, на которые у человечества пока нет удовлетворительных ответов.

#АлгокогнитивнаяКультура
👍176🤔61🤯15😱8👎5
Представление об ИИ-моделях как исключительно об интеллектуальных агентах в корне неверно.
LLM — не AGI в процессе становления, а кардинально новая сверхмощная культурная и социальная технология.
О вынесенных в заголовок двух принципиальных моментах в понимании будущей роли и места ИИ в жизни человечества мною за 4 года написано много постов с тэгом #АлгокогнитивнаяКультура.
И я рад, что пришло, наконец, время, когда ровно об этом и практически теми же словами, стали, писать в медиа с охватом на порядки больше моего канала.

Новая статья “Large AI models are cultural and social technologies” – это удачное сплетение трех точек зрения на ИИ, не зацикленных на AGI.

✔️ Объединяющая мысль трёх авторов в том, что большие модели — это не столько нарождающийся агентный сверхразум, сколько невиданная по мощности и преобразующей силе в истории земных цивилизаций культурная и социальная технология.
✔️ А наиболее важные вопросы, которые стоит задавать сегодня в свете взрывоподобного ускорения прогресса ИИ, касаются конкретных человеческих контекстов и влияния алгоритмов на индивидов и социумы, а не абстрактных спекуляций о воображаемых будущих рисках.


Приведу здесь лишь несколько важных цитат из этой статьи.
• Социологам и компьютерщикам было бы гораздо проще сотрудничать и объединять свои сильные стороны, если и те, и другие понимали, что LLM — это не больше и не меньше, чем новый вид культурной и социальной технологии… Это отодвинуло бы обсуждения политики в сфере ИИ от упрощенных споров о возможном захвате машин и обещаниях утопического будущего, где у каждого будет идеально надежный и компетентный искусственный помощник.
• Наша центральная мысль здесь не только в том, что эти технологические инновации, как и все другие инновации, будут иметь культурные и социальные последствия. Скорее, мы утверждаем, что Большие Модели сами по себе лучше всего понимать как определенный тип культурной и социальной технологии. Они аналогичны таким прошлым технологиям, как письмо, печать, рынки, бюрократия и представительная демократия.
• На самом деле, политические последствия от использования языковых моделей наверняка будут другими. Как в прошлом рынки и бюрократия, они сделают некоторые виды знаний более видимыми и управляемыми, чем раньше, побуждая политиков сосредоточиться на новых вещах, которые можно измерить и увидеть, в ущерб тем, которые менее видимы и более запутаны. В результате, как это уже было с рынками и СМИ, власть и влияние сместятся к тем, кто сможет в полной мере использовать эти технологии, и отойдут от тех, кто не сможет.
• Как эти системы повлияют на то, кто что получит? Каковы будут их практические последствия для общественного раскола и интеграции? Можно ли развить их так, чтобы они способствовали человеческому творчеству, а не затупляли его?
Поиск практических ответов на такие вопросы потребует понимания социальных наук, а также инженерии. Перенос дебатов об ИИ с агентов на культурные и социальные технологии является важным первым шагом на пути к построению этого междисциплинарного понимания.

Настоятельно рекомендую читать эту статью всем, кого хоть как-то интересуют техно-гуманитарные аспекты на пересечении технологического прогресса в области ИИ и его влияния на человека, общество, этику, культуру и глобальные системы.

Статья без пэйвола и в pdf
16👍133🤔21👎5🤯3😱2
Мы перестаем быть людьми (и даже не замечаем этого)
Пока эксперты спорят о том, захватит ли ИИ рабочие места и не уничтожит ли человечество, происходит нечто куда более тонкое и необратимое: мы незаметно превращаемся в другой вид.

Выбирайте:
• Либо читать этот материал (4 мин)
• Либо ограничиться четырьмя ключевыми цитатами из этого текста.

Главный вызов будущего — не технический и не экзистенциальный, а культурный: как уберечь ту жизненную сложность, двусмысленность и способность сомневаться, что делает нас людьми, перед лицом машин, которые притворяются понятливыми, читая наши эмоции и адаптируясь к ним?


Лучшую иллюстрацию этого процесса дает 14-минутный фильм режиссера Дагана Шани "Почему ИИ испортит каждый фильм, который вы посмотрите (а вы этого и не заметите)". Ибо визуальные модели ИИ действуют на мозг как порнография. Постоянное воздействие сверхстимулирующих, легкодоступных изображений, созданных искусственным интеллектом, притупляет нашу способность испытывать удивление и эмоциональную реакцию на настоящее искусство.

Когда вы не можете отличить настоящее от искусственного, вы инстинктивно начинаете держать свои чувства "за закрытыми воротами сомнения". Зачем эмоционально вкладываться в то, что может оказаться подделкой?


Станет ли ИИ инструментом углубления познания или его притупления, прозрения или самообмана, усиления эмпатии или её симуляции — зависит не столько от алгоритмов ИИ, сколько от развития наших отношений с этим странным новым типом со-разума.


#АлгокогнитивнаяКультура #Инфорги
6👍159🤔63👎27😱12