Через 10 дней Homo sapiens перестанет быть единственным носителем высшего интеллекта на Земле.
✔️ До сего времени считалось, что на Земле лишь один высший интеллект – человеческий. Второй же тип высшего интеллекта - «сильный ИИ» или AGI = лишь планируется создать в будущем (через год, 10 или 50 лет).
✔️ Теперь же предлагается термин «сильный ИИ» (AGI), из-за неоднозначности и туманности множества его несовпадающих трактовок, оставить лишь для текстов журналистов и блогеров популярных медиа, а также (куда без этого) для зарабатывающих на хайповой терминологии маркетёров, пиарщиков и инвестбанкиров.
✔️ Профессиональным экспертам, исследователям и инженерам в области передовых ИИ-систем, а также (понятное дел) политикам и общественным деятелям, предлагается, вместо термина AGI, использовать термин «ИИ общего назначения» (ИИОН) (general-purpose AI), поскольку ИИОН:
• имеет вполне понятное и однозначное определение = это ИИ-системы, способные самостоятельно выполнять и/или помогать пользователям в решении самых разных задач, напр. создание текстов, изображений, видео, аудио, осуществление действия или аннотирование данных;
• уже существует во многих практических реализациях фронтирных LLM (что позволяет его всестороннее тестирование и проведение научных экспериментов);
• по ряду тестов, ключевых для оценки человеческого интеллекта приближается к уровню людей (а по некоторым уже и превосходит его даже на уровне топовых профессионалов), и, судя по трендам (см. приложенный 1й и ключевой рисунок отчета), вот-вот можно будет признать, что и гипотетический уровень AGI (как его ни определяй и оценивай) достигнут.
Контекст вышесказанного таков.
10 и 11 февраля 2025 года во Франции пройдет всемирный «Саммит действий по искусственному интеллекту (ИИ)», который соберет в Grand Palais глав государств и правительств, руководителей международных организаций, руководителей малых и крупных компаний, представителей научных кругов, неправительственных организаций, деятелей искусства и членов гражданского общества.
По заказу всемирного саммита, в качестве «информации к размышлению» для его участников, группой из 96 экспертов по ИИ со всего мира, включая лауреатов Нобелевской премии и обладателей премии Тьюринга, вчера был опубликован 297 страничный отчет International AI Safety Report 2025.
По словам лидера экспертной группы, проф. Йошуа Бенджио, это первый в истории международный отчет по безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС. Он суммирует состояние науки о возможностях и рисках ИИ, а также о том, как смягчить эти риски.
Йошуа Бенджио и его 85 коллег – экспертов не стали ввязываться в бесконечные и бесперспективные терминологические споры вокруг AGI.
Вместо этого, авторы лишь 1 раз упомянули этот термин в тексте отчета (2й раз – в его глоссарии), чтобы отказаться от него, в связи с изложенными мною выше обстоятельствами, и заменить на ИИОН.
Так что можно опускать занавес над баталиями вокруг AGI.
С февраля 2025 на Земле будет два высших интеллекта общего назначения: человеческий и искусственный (машинный).
#AGI
✔️ До сего времени считалось, что на Земле лишь один высший интеллект – человеческий. Второй же тип высшего интеллекта - «сильный ИИ» или AGI = лишь планируется создать в будущем (через год, 10 или 50 лет).
✔️ Теперь же предлагается термин «сильный ИИ» (AGI), из-за неоднозначности и туманности множества его несовпадающих трактовок, оставить лишь для текстов журналистов и блогеров популярных медиа, а также (куда без этого) для зарабатывающих на хайповой терминологии маркетёров, пиарщиков и инвестбанкиров.
✔️ Профессиональным экспертам, исследователям и инженерам в области передовых ИИ-систем, а также (понятное дел) политикам и общественным деятелям, предлагается, вместо термина AGI, использовать термин «ИИ общего назначения» (ИИОН) (general-purpose AI), поскольку ИИОН:
• имеет вполне понятное и однозначное определение = это ИИ-системы, способные самостоятельно выполнять и/или помогать пользователям в решении самых разных задач, напр. создание текстов, изображений, видео, аудио, осуществление действия или аннотирование данных;
• уже существует во многих практических реализациях фронтирных LLM (что позволяет его всестороннее тестирование и проведение научных экспериментов);
• по ряду тестов, ключевых для оценки человеческого интеллекта приближается к уровню людей (а по некоторым уже и превосходит его даже на уровне топовых профессионалов), и, судя по трендам (см. приложенный 1й и ключевой рисунок отчета), вот-вот можно будет признать, что и гипотетический уровень AGI (как его ни определяй и оценивай) достигнут.
Контекст вышесказанного таков.
10 и 11 февраля 2025 года во Франции пройдет всемирный «Саммит действий по искусственному интеллекту (ИИ)», который соберет в Grand Palais глав государств и правительств, руководителей международных организаций, руководителей малых и крупных компаний, представителей научных кругов, неправительственных организаций, деятелей искусства и членов гражданского общества.
По заказу всемирного саммита, в качестве «информации к размышлению» для его участников, группой из 96 экспертов по ИИ со всего мира, включая лауреатов Нобелевской премии и обладателей премии Тьюринга, вчера был опубликован 297 страничный отчет International AI Safety Report 2025.
По словам лидера экспертной группы, проф. Йошуа Бенджио, это первый в истории международный отчет по безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС. Он суммирует состояние науки о возможностях и рисках ИИ, а также о том, как смягчить эти риски.
Йошуа Бенджио и его 85 коллег – экспертов не стали ввязываться в бесконечные и бесперспективные терминологические споры вокруг AGI.
Вместо этого, авторы лишь 1 раз упомянули этот термин в тексте отчета (2й раз – в его глоссарии), чтобы отказаться от него, в связи с изложенными мною выше обстоятельствами, и заменить на ИИОН.
Так что можно опускать занавес над баталиями вокруг AGI.
С февраля 2025 на Земле будет два высших интеллекта общего назначения: человеческий и искусственный (машинный).
#AGI
👍194👎102🤔82😱21🤯15
Есть мнение (и ладно бы только у меня, но и у руководства Google), что прогресс ИИ идет не туда, ибо сама парадигма интеллекта (машинного, человеческого, … любого), мягко говоря, устарела, а по гамбургскому счету, - вообще, ошибочная.
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.
Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.
Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».
Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.
О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».
Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».
1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.
#ParadigmsofIntelligence
Мой триптих постов на эту тему – своего рода интеллектуальное расследование полусекретного проекта (называю его так потому, что он вроде как, есть, но никаких деталей в открытом доступе о нем почти нет). Этот проект был инициирован 3 года назад высшим руководством Google, и осуществляется междисциплинарной группой Paradigms of Intelligence (Pi) во главе с Блезом Агуэра-и-Аркас (Google VP/Fellow and CTO Technology & Society) в кооперации с мощнейшей командой исследователей из Santa Fe Institute (не без оснований прозванного «Институт сумасшедших идей»), двумя «мозговыми центрами» (Antikythera, Mila - Quebec AI Institute) и MIT.
Назову три ключевые момента, подлежащие кардинальному пересмотру в рамках новой парадигмы интеллекта:
1. Само определение интеллекта. Интеллект не является продуктом нейронов мозга или микрочипов компьютеров, на которых функционируют генеративные модели. Интеллект - это коллективное явление, формируемое эволюцией, развитием и взаимодействием в более крупных экосистемах.
2. Цель развития ИИ. Создавать AGI (что сейчас декларируется главной целью почти всех ведущих разработчиков ИИ-систем) не нужно, - т.к. его прототипы уже созданы, и теперь их нужно лишь совершенствовать. Вследствие этого, актуальные задачи и связанные с ними риски развития ИИ определяются вовсе не созданием AGI (можно сказать, что в области ИИ, мы не к тому стремимся и не того боимся).
3. Понимание отношения между интеллектом людей и ИИ. Пора признать, что нет ничего искусственного в том, что принято называть «искусственный интеллект». ИИ - это новая эволюционная форма человеческого (!) интеллекта.
ИИ-системы - это, своего рода, увеличительные зеркала нашего (!) интеллекта, позволяющие на их основе строить массу фантастически полезных новых интеллектуальных инструментов: от простых «увеличительных зеркал» (типа стоматологических), позволяющих заглянуть в трудно доступные области дата-майнинга, до интеллектуальных микроскопов и телескопов, предоставляющих нам возможности получения знаний из-за границы нашего интеллектуального горизонта.
Принятие новой парадигмы интеллекта, над которой работает команды Pi, означает, что все нынешние разговоры о создании AGI - путь в никуда. Это всего лишь путь зарабатывания больших денег. Причем зарабатывания не на результате, а на процессе движения к ложной цели.
Но как показывает «проект Pi», у Google припрятан 5й туз в рукаве - альтернативный «путь выдры».
Переход Google на этот путь может стать даже не разворотом шахматной доски в борьбе за первенство в ИИ. Это будет смена правил игры, кардинально меняющая саму парадигму интеллекта.
О результатах моего анализа:
✔️ миссии и видения междисциплинарной группы Paradigms of Intelligence;
✔️ проектов группы Pi:
• диагностика эмуляции моделями сознания и способности чувствовать, на примере чувства боли;
• опровержение априорных утверждений, что небиологические системы не могут быть разумными или сознательными;
• исследование вычислительных корней жизни и интеллекта;
• экспериментальное доказательство возникновения «вычислительной жизни»;
✔️ концептуальных связей и синергии «проекта Pi» с исследовательской программой новой философии вычислений «Антикитера».
Обо все об этом я расскажу в лонгриде, состоящем из 3х постов и озаглавленном «Проект «Pi» - 5й туз в рукаве Google. Альтернативный путь к пониманию интеллекта: человеческого, машинного … любого».
1-ю часть триптиха – «Путь выдры», – подписчики моих лонгридов уже могут прочесть на Patreon, Boosty, VK и Дзен.
#ParadigmsofIntelligence
11👍288🤔70👎29🤯7😱1
Пора задуматься о перемене участи.
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])
Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...
Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».
Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.
Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].
Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.
Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».
Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.
#LLMvsHomo #Лавлок #Новацен
Так ли уж ИИ будут нужны «кожаные мешки»?
Среди 10 заповедей, оставленных человечеству великим Джеймсом Лавлоком, 3 относятся к перемени участи людей в наступающей эпохе Новацена (подробней см. [1])
Заповедь №4. Люди — это ключевой вид, возникший в ходе биологической эволюции для преобразования потоков фотонов в биты информации, собираемой таким образом, чтобы способствовать эволюции Вселенной (поскольку информация — это её врожденное свойство).
Заповедь №6. … сверхразумные (небиологические) носители ИИ — существа, которые создали и запрограммировали себя сами и обладают мыслительным процессом на несколько порядков быстрее людей, — продолжат эволюцию на небиологическом уровне, сменив естественный отбор на “направленный отбор”…
Заповедь №7. … Люди как биологические существа не исчезнут, а лишь изменится их роль. Процесс познания, в основном, перейдет к киборгам, а роль людей сведется к сохранению антропного окна температур от минус до плюс 50 по Цельсию. Ведь если жизнь на Земле исчезнет, захлопнется это антропное окно ...
Большинство сегодняшних экспертов полагают:
1. Сверх-ИИ рано или поздно появится.
2. Однако людей он не заменит, а станет для них сверхмощным усилителем их интеллекта.
Т.е. представляется, будто «одинокий ИИ» будет уступать «ИИ + человек».
Однако, такое предположение однозначно опровергается уже первыми исследованиями данного вопроса.
Посмотрите на приведенную таблицу, взятую мной из вчерашнего, мягко говоря, обескураживающего (а многих и шокирующего) поста Эрика Тополя и Пранава Раджпуркара [2].
Удивительно, но в большинстве случаев работающие независимо ИИ-системы показывают лучшие результаты, чем в сочетании с участием врача.
Вынужденно толерантные из-за публикации своей статьи на эту тему в NYT, авторы скромно предполагают: «нам, возможно, придется переосмыслить, как мы разделяем обязанности между врачами-людьми и системами ИИ, чтобы достичь цели синергии (а не просто аддитивности)».
Мне же ситуация видится, скорее, по Лавлоку – людям пора озаботиться переменой собственной участи.
Тем более, если кого-то все же не устраивает участь «теплотехников», поддерживающих на Земле окно температур, гарантирующее жизнь цивилизации.
#LLMvsHomo #Лавлок #Новацен
1👍156🤔95😱28👎17🤯7
Тихая революция.
Как постепенное развитие ИИ может незаметно лишить человечество контроля над собственной судьбой.
Представим, что на Землю прилетают не враждебные инопланетяне, а дружелюбные, но невероятно умные существа. Они не воюют, не захватывают власть — они просто оказываются эффективнее нас во всем.
Они лучше ведут бизнес, эффективнее управляют государством, создают более интересную культуру. Мы рады сотрудничать с ними, и постепенно мир перестраивается так, что люди оказываются не нужны. В конце концов, ключевые решения принимают они, а мы просто живем на их территории, имея все меньше возможностей что-то менять.
Так же и с ИИ: это не вражеское вторжение, не война миров и не заговор машин - это незаметное вытеснение, в котором никто и не заметит момента, когда люди утратили контроль, и когда уже слишком поздно что-то изменить.
Классическая аналогия — «кипящая лягушка»: если бросить лягушку в кипяток, она выпрыгнет, а если нагревать воду медленно, то она сварится. Так же и здесь: каждое отдельное улучшение ИИ кажется неопасным, но вместе они могут создать ситуацию, в которой люди уже ничего не решают.
Например:
• В экономике: сначала ИИ заменяет простые задачи, потом более сложные, пока однажды мы не обнаруживаем, что большинство экономических решений принимается алгоритмами, а человеческий труд становится всё менее значимым.
• В культуре: от рекомендательных систем к генерации контента, пока однажды большая часть культурного производства не оказывается под контролем ИИ.
• В государственном управлении: от автоматизации бюрократических процедур к системам поддержки принятия решений, пока ключевые государственные функции не начинают зависеть от ИИ.
Злодеи, террористы и маньяки, вооруженные ИИ, также не понадобятся.
Без какого-либо зловредного участия:
• скоро мы окажемся в мире с миллионами ИИ-агентов, число которых ежегодно будет расти в десятки раз (на каждого человека будет приходиться 100-1000 ИИ, думающих в 1000-1 млн раз быстрее людей;
• люди постепенно будут выводиться из большинства процессов принятия все большего и большего количества решений;
• военные без защиты ИИ будут немедленно выводиться из строя кибератаками невиданной изощренности.
• государства будут получать большую часть своих доходов от налогов на ИИ-системы, а не от заработной платы людей.
Эти и многие другие риски могут материализоваться, даже если мы в основном «решим» традиционную проблему согласования ИИ. В этом сценарии ИИ «делают то, что мы им говорим», но экономические стимулы заставляют нас говорить им максимизировать прибыль и влияние (поскольку, если мы этого не сделаем, то это сделают другие: люди, компании, страны)
Подробней, читайте здесь.
#ИИриски #Хриски
Как постепенное развитие ИИ может незаметно лишить человечество контроля над собственной судьбой.
Представим, что на Землю прилетают не враждебные инопланетяне, а дружелюбные, но невероятно умные существа. Они не воюют, не захватывают власть — они просто оказываются эффективнее нас во всем.
Они лучше ведут бизнес, эффективнее управляют государством, создают более интересную культуру. Мы рады сотрудничать с ними, и постепенно мир перестраивается так, что люди оказываются не нужны. В конце концов, ключевые решения принимают они, а мы просто живем на их территории, имея все меньше возможностей что-то менять.
Так же и с ИИ: это не вражеское вторжение, не война миров и не заговор машин - это незаметное вытеснение, в котором никто и не заметит момента, когда люди утратили контроль, и когда уже слишком поздно что-то изменить.
Классическая аналогия — «кипящая лягушка»: если бросить лягушку в кипяток, она выпрыгнет, а если нагревать воду медленно, то она сварится. Так же и здесь: каждое отдельное улучшение ИИ кажется неопасным, но вместе они могут создать ситуацию, в которой люди уже ничего не решают.
Например:
• В экономике: сначала ИИ заменяет простые задачи, потом более сложные, пока однажды мы не обнаруживаем, что большинство экономических решений принимается алгоритмами, а человеческий труд становится всё менее значимым.
• В культуре: от рекомендательных систем к генерации контента, пока однажды большая часть культурного производства не оказывается под контролем ИИ.
• В государственном управлении: от автоматизации бюрократических процедур к системам поддержки принятия решений, пока ключевые государственные функции не начинают зависеть от ИИ.
Злодеи, террористы и маньяки, вооруженные ИИ, также не понадобятся.
Без какого-либо зловредного участия:
• скоро мы окажемся в мире с миллионами ИИ-агентов, число которых ежегодно будет расти в десятки раз (на каждого человека будет приходиться 100-1000 ИИ, думающих в 1000-1 млн раз быстрее людей;
• люди постепенно будут выводиться из большинства процессов принятия все большего и большего количества решений;
• военные без защиты ИИ будут немедленно выводиться из строя кибератаками невиданной изощренности.
• государства будут получать большую часть своих доходов от налогов на ИИ-системы, а не от заработной платы людей.
Эти и многие другие риски могут материализоваться, даже если мы в основном «решим» традиционную проблему согласования ИИ. В этом сценарии ИИ «делают то, что мы им говорим», но экономические стимулы заставляют нас говорить им максимизировать прибыль и влияние (поскольку, если мы этого не сделаем, то это сделают другие: люди, компании, страны)
Подробней, читайте здесь.
#ИИриски #Хриски
👍246🤔76😱36👎26🤯9
Кто получит «Мандат Неба»?
Динамика «гонки вооружений» LLM одним слайдом.
«Гонка вооружений» на рынке больших языковых моделей (LLM) определяется просто: все стараются получить максимально высокую точность при минимальной цене. А а «фронтир» отражает лучшие на данный момент варианты по сочетанию этих двух параметров.
Диаграмма показывает [1], как разные версии языковых моделей (от OpenAI, Deepseek, Google «Gemini», Anthropic и др.) соотносятся по:
• стоимости (ось X): цена за миллион токенов - чем правее точка, тем дешевле использование модели (ниже стоимость за миллион токенов).
• качеству (ось Y): рейтинг LMSys Elo - чем выше точка, тем сильнее модель (лучшее качество ответов/результатов).
Ключевые выводы (по состоянию на февраль 2025)
• Чемпион в соотношении цена-производительность - Gemini 2.0 Flash Thinking (лучше, чем DeepSeek r1 (по ELO) и дешевле
• Стоимость возможностей GPT-4 упала в 1000 раз за 18 месяцев
• Скорость роста возможностей моделей просто немыслимая – так не бывает, … но так есть!
PS Спецы из Google DeepMind полагают, что они близки к получению «Мандата Неба» ("Mandate of Heaven" (天命, Тяньмин)) [2]. Когда говорят, что компания имеет "Mandate of Heaven" в сфере ИИ, это означает, что она занимает лидирующую позицию не просто благодаря рыночной доле, но и благодаря признанию её технологического превосходства и инновационного лидерства.
Но вряд ли конкуренты согласятся 😊
#ИИгонка
Динамика «гонки вооружений» LLM одним слайдом.
«Гонка вооружений» на рынке больших языковых моделей (LLM) определяется просто: все стараются получить максимально высокую точность при минимальной цене. А а «фронтир» отражает лучшие на данный момент варианты по сочетанию этих двух параметров.
Диаграмма показывает [1], как разные версии языковых моделей (от OpenAI, Deepseek, Google «Gemini», Anthropic и др.) соотносятся по:
• стоимости (ось X): цена за миллион токенов - чем правее точка, тем дешевле использование модели (ниже стоимость за миллион токенов).
• качеству (ось Y): рейтинг LMSys Elo - чем выше точка, тем сильнее модель (лучшее качество ответов/результатов).
На диаграмме видны две основные "границы эффективности" (pareto frontier):
• Синяя линия от OpenAI, показывающая их модели
• Оранжевая линия от Gemini 2, которая, судя по надписи, предлагает "лучше, дешевле, круче"
• Более дорогие и мощные модели в верхней левой части (например, различные версии GPT-4)
• Средний сегмент в центре (Claude 3.5, Gemini 1.5)
• Более доступные модели в правой части (Amazon Nova Lite, Gemini 1.5 Flash)
Ключевые выводы (по состоянию на февраль 2025)
• Чемпион в соотношении цена-производительность - Gemini 2.0 Flash Thinking (лучше, чем DeepSeek r1 (по ELO) и дешевле
• Стоимость возможностей GPT-4 упала в 1000 раз за 18 месяцев
• Скорость роста возможностей моделей просто немыслимая – так не бывает, … но так есть!
PS Спецы из Google DeepMind полагают, что они близки к получению «Мандата Неба» ("Mandate of Heaven" (天命, Тяньмин)) [2]. Когда говорят, что компания имеет "Mandate of Heaven" в сфере ИИ, это означает, что она занимает лидирующую позицию не просто благодаря рыночной доле, но и благодаря признанию её технологического превосходства и инновационного лидерства.
Но вряд ли конкуренты согласятся 😊
#ИИгонка
7👍128🤔40👎1
Сознание и разум не привязаны к мозгу и нейронам.
Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие.
Если экспериментально подтвердится:
✔️ что обнаруживаются различные формы сознания, существенно отличающиеся от привычного нам человеческого опыта, но при этом демонстрирующие фундаментальные признаки осознанного поведения;
✔️ и что сложившаяся вековая традиция привязывать разум к мозгу и нейронам (биологическим, а теперь и искусственным) — всего лишь ошибочный догмат, экспериментально опровергаемый новейшими исследованиями,
➡️ в мировой науке произойдет парадигмальный переворот такого беспрецедентного масштаба, как если бы выяснилось (в совокупности):
• что центр галактики вращается вокруг пирамиды Хеопса;
• эволюция организмов не подразумевает случайных изменений;
• а геометрические свойства пространства-времени зависят вовсе не от распределения массы и энергии, а от некоего фактора Пси.
Такой супер-парадигмальный переворот в понимании сознания и разума по своей радикальной революционности можно было бы сопоставить с коперниканским, дарвиновским и эйнштейновским переворотами вместе взятыми.
Представить себе, что мы на пороге чего-то подобного, еще пару лет назад казалось невозможным. Но сегодня – уже нет.
Ибо новая работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями" пробивает в существующей парадигме сознания и разума колоссальную брешь. Беспрецедентные размеры этой бреши и семантическая фрактальность её очертаний (бесконечная вложенность смыслов) позволяют увидеть за ней контуры супер-парадигмального переворота в понимании сознания и разума.
Подробней подписчики на мои лонгриды на платформах Patreon, Boosty, VK и Дзен могут прочесть в новом лонгриде на 10-15 минут чтения.
#Сознание #АнейронноеПознание #Функционализм #ОрганизационнаяИнвариантность #НетрадиционныеРазумы
Мы на пороге парадигмального переворота, своей революционностью превосходящего все предыдущие.
Если экспериментально подтвердится:
✔️ что обнаруживаются различные формы сознания, существенно отличающиеся от привычного нам человеческого опыта, но при этом демонстрирующие фундаментальные признаки осознанного поведения;
✔️ и что сложившаяся вековая традиция привязывать разум к мозгу и нейронам (биологическим, а теперь и искусственным) — всего лишь ошибочный догмат, экспериментально опровергаемый новейшими исследованиями,
➡️ в мировой науке произойдет парадигмальный переворот такого беспрецедентного масштаба, как если бы выяснилось (в совокупности):
• что центр галактики вращается вокруг пирамиды Хеопса;
• эволюция организмов не подразумевает случайных изменений;
• а геометрические свойства пространства-времени зависят вовсе не от распределения массы и энергии, а от некоего фактора Пси.
Такой супер-парадигмальный переворот в понимании сознания и разума по своей радикальной революционности можно было бы сопоставить с коперниканским, дарвиновским и эйнштейновским переворотами вместе взятыми.
Представить себе, что мы на пороге чего-то подобного, еще пару лет назад казалось невозможным. Но сегодня – уже нет.
Ибо новая работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями" пробивает в существующей парадигме сознания и разума колоссальную брешь. Беспрецедентные размеры этой бреши и семантическая фрактальность её очертаний (бесконечная вложенность смыслов) позволяют увидеть за ней контуры супер-парадигмального переворота в понимании сознания и разума.
Подробней подписчики на мои лонгриды на платформах Patreon, Boosty, VK и Дзен могут прочесть в новом лонгриде на 10-15 минут чтения.
#Сознание #АнейронноеПознание #Функционализм #ОрганизационнаяИнвариантность #НетрадиционныеРазумы
31👍265👎101🤔65🤯29😱11
Пять войн будущего: AGI как оружие, господство и парадоксальная угроза
Размышления над новым отчетом RAND Corporation: «Пять сложных проблем национальной безопасности, связанных с AGI»
Пролог: интеллект на поводке или оружие без хозяина?
Представьте, что новый нечеловеческий разум все же рождается — не из биологической эволюции, а из кода, алгоритмов и серверных ферм, пожирающих электричество. Этот разум не просит гражданства, не верит в демократию, не боится смерти.
Что, если такой интеллект—искусственный, но не обязательно дружелюбный—войдет в игры глобальной политики как самостоятельный игрок?
В докладе RAND Corporation нарисован тревожный, но вполне реалистичный сценарий: искусственный разум (подобный тому, что сейчас принято называть AGI) может не просто усилить армии, но подорвать баланс сил и даже вывести государство за скобки, как устаревший механизм власти. В отличие от атомной бомбы, суть которой была ясна задолго до первого взрыва, этот AGI остается зоной эндогенной радикальной неопределенности—его потенциал неочевиден даже для тех, кто его разрабатывает.
Что с этим можно поделать?
Отчет RAND описывает пять угроз. Но, весьма возможно, упускает из виду главный вопрос – “захочет” ли (речь здесь не о человекоподобных потребностях и желаниях, а о любой – возможно даже не доступной для нашего понимания, – мотивации) подобный искусственный разум играть по правилам человечества?
Прочитать дальше (открытый доступ):
• про пять вызовов AGI: AGI как “чудо-оружие”, Системный сдвиг в глобальном балансе, AGI как оружие в руках дилетантов, AGI как новый игрок в политике и AGI и нестабильность;
• про спекулятивный горизонт AGI, как рубежа новой цивилизации;
• о финальном парадоксе - контроле невозможного;
• о сценарии мира с AGI и, непонятно, с нами или без нас, -
вы можете здесь
#AGI #Вызовы21века #АлгокогнитивнаяКультура #5йКогнитивныйПереход
Размышления над новым отчетом RAND Corporation: «Пять сложных проблем национальной безопасности, связанных с AGI»
Пролог: интеллект на поводке или оружие без хозяина?
Представьте, что новый нечеловеческий разум все же рождается — не из биологической эволюции, а из кода, алгоритмов и серверных ферм, пожирающих электричество. Этот разум не просит гражданства, не верит в демократию, не боится смерти.
Что, если такой интеллект—искусственный, но не обязательно дружелюбный—войдет в игры глобальной политики как самостоятельный игрок?
В докладе RAND Corporation нарисован тревожный, но вполне реалистичный сценарий: искусственный разум (подобный тому, что сейчас принято называть AGI) может не просто усилить армии, но подорвать баланс сил и даже вывести государство за скобки, как устаревший механизм власти. В отличие от атомной бомбы, суть которой была ясна задолго до первого взрыва, этот AGI остается зоной эндогенной радикальной неопределенности—его потенциал неочевиден даже для тех, кто его разрабатывает.
Что с этим можно поделать?
Отчет RAND описывает пять угроз. Но, весьма возможно, упускает из виду главный вопрос – “захочет” ли (речь здесь не о человекоподобных потребностях и желаниях, а о любой – возможно даже не доступной для нашего понимания, – мотивации) подобный искусственный разум играть по правилам человечества?
Прочитать дальше (открытый доступ):
• про пять вызовов AGI: AGI как “чудо-оружие”, Системный сдвиг в глобальном балансе, AGI как оружие в руках дилетантов, AGI как новый игрок в политике и AGI и нестабильность;
• про спекулятивный горизонт AGI, как рубежа новой цивилизации;
• о финальном парадоксе - контроле невозможного;
• о сценарии мира с AGI и, непонятно, с нами или без нас, -
вы можете здесь
#AGI #Вызовы21века #АлгокогнитивнаяКультура #5йКогнитивныйПереход
👍121🤔20😱13👎11
Цель США – не дать Китаю первым «поймать молнию в бутылку»
2я ключевая мысль Джей Ди Вэнса, которую информагенства предпочитают не замечать
Практически все мировые информагенства, рассказывая о выступлении Вице-президента США Джей Ди Вэнса в ходе парижской конференции по ИИ, в качестве ключевой мысли выступления отмечают недовольство глобальным подходом к регулированию и развитию технологий.
Но то ли красота в глазах смотрящего, то ли журналисты считают, что о 2й ключевой мысли выступления нечего писать, ибо про это (как в известном анекдоте) «и так всем всё ясно».
И эта 2я ключевая мысль сформулирована в заголовке поста - не дать Китаю первым «поймать молнию в бутылку».
По необходимости завуалированная Джей Ди Вэнсом в размытых дипломатических выражениях, эта мысль размазана по всему выступлению:
• “США являются лидером в ИИ, и наша администрация планирует сохранить это положение
• американская технология ИИ продолжала быть мировым золотым стандартом”
• “мы также наблюдали, как враждебные иностранные противники использовали программное обеспечение ИИ как оружие для переписывания истории, слежки за пользователями и цензуры речи”
• “некоторые авторитарные режимы украли и использовали ИИ для усиления своих военных, разведывательных и надзорных возможностей”
• “мы должны сосредоточиться сейчас на возможности поймать молнию в бутылку … , и эту возможность администрация Трампа не упустит”
Слово “Китай” даже не упомянуто.
Однако, «и так всем всё ясно», - ибо сформулировано за неделю до выступления Джей Ди Вэнса Марком Андриссеном – одним из двух главных “суфлеров по вопросам ИИ” для Вице-президента, а теперь и для Президента (второй – Питер Тиль).
Так что причина неподписания США итоговой декларации парижского саммита далеко не сколько в недовольстве глобальным подходом к регулированию ИИ, сколько в том, что Китай её подписал.
«Если он против, я — за» - говорил Бродский про Евтушенко.
«Если Китай за, я — против», - как бы сказал от имени США Джей Ди Вэнс.
#Китай #США #ИИ
2я ключевая мысль Джей Ди Вэнса, которую информагенства предпочитают не замечать
Практически все мировые информагенства, рассказывая о выступлении Вице-президента США Джей Ди Вэнса в ходе парижской конференции по ИИ, в качестве ключевой мысли выступления отмечают недовольство глобальным подходом к регулированию и развитию технологий.
Но то ли красота в глазах смотрящего, то ли журналисты считают, что о 2й ключевой мысли выступления нечего писать, ибо про это (как в известном анекдоте) «и так всем всё ясно».
И эта 2я ключевая мысль сформулирована в заголовке поста - не дать Китаю первым «поймать молнию в бутылку».
По необходимости завуалированная Джей Ди Вэнсом в размытых дипломатических выражениях, эта мысль размазана по всему выступлению:
• “США являются лидером в ИИ, и наша администрация планирует сохранить это положение
• американская технология ИИ продолжала быть мировым золотым стандартом”
• “мы также наблюдали, как враждебные иностранные противники использовали программное обеспечение ИИ как оружие для переписывания истории, слежки за пользователями и цензуры речи”
• “некоторые авторитарные режимы украли и использовали ИИ для усиления своих военных, разведывательных и надзорных возможностей”
• “мы должны сосредоточиться сейчас на возможности поймать молнию в бутылку … , и эту возможность администрация Трампа не упустит”
Слово “Китай” даже не упомянуто.
Однако, «и так всем всё ясно», - ибо сформулировано за неделю до выступления Джей Ди Вэнса Марком Андриссеном – одним из двух главных “суфлеров по вопросам ИИ” для Вице-президента, а теперь и для Президента (второй – Питер Тиль).
“У нас, как у Америки, теперь есть два выбора: победить в ИИ, включая победу в ИИ с открытым исходным кодом. Или позволить Китаю победить в ИИ во всем мире.”
Так что причина неподписания США итоговой декларации парижского саммита далеко не сколько в недовольстве глобальным подходом к регулированию ИИ, сколько в том, что Китай её подписал.
«Если он против, я — за» - говорил Бродский про Евтушенко.
«Если Китай за, я — против», - как бы сказал от имени США Джей Ди Вэнс.
#Китай #США #ИИ
YouTube
VP JD Vance on the future of artificial intelligence
US Vice President JD Vance is delivers a keynote speech for the final day of the Paris AI Summit, marking his first foreign trip since taking office as vice president. The Vice President warned global leaders and tech CEOs that “excessive regulation” would…
👍88🤔47👎9
Интеллектуальный каюк Homo sapiens близок.
Лишь 15 россиян способны программировать лучше ИИ, в Китае таких еще 59, а в США осталось лишь 7.
Потрясающее зрелище – наблюдать в реальном времени интеллектуальное поражение людей от ИИ.
Когда бестелесные алгоритмы превзошли лучших шахматных гроссмейстеров мира и ушли в отрыв, показывая немыслимый для людей рейтинг уровня игры, - репутация людей, как носителей высшего интеллекта, пошатнулась, но устояла – см. рис слева.
Ведь шахматы, как известно, - хоть и чрезвычайно умная игра, но узкоспециальная интеллектуальная деятельность, ограничиваемая фиксированными правилами.
Но с программированием (выполнением сложных задач кодирования и рассуждений) все иначе. Здесь все почти как в жизни. Вместо следования фиксированным правилам, нужно думать, рассуждать, строить гипотезы и прогнозы. И если с программированием произойдет, как с шахматами, то каюк интеллектуальному превосходству людей (только уникальная способность к инсайтам и останется, - и то, ненадолго).
Насколько этот каюк близок, показывают результаты CodeForces – международной платформы соревнований по программированию.
Текущие результаты модели о3 от OpenAI таковы.
• Рейтинг модели 2724 лучше, чем у 99.8% всех участников этой платформы (а там соревнуются десятки тысяч программистов со всего мира: 26 тыс китайцев, 14 тыс россиян, 3,5 тыс американцев) – см. рис справа вверху;
• Это значит, что во всем мире осталось меньше 200 человек, способных программировать лучше этой модели – см. рис справа внизу.
Остались считанные месяцы, когда людей, способных превзойти ИИ в программировании останется 50, 10, 3 … 0. А дальше модели, как и в шахматах, уйдут в отрыв, похерив интеллектуальное превосходство людей навсегда.
И никакой интеллект кентавра (гибридные системы из человека и ИИ) этому помешать не сможет. Урок с шахматами повторится. Ибо непреодолимым препятствием остаются ограниченные возможности когнитивной архитектуры людей.
Но это не беда. Ибо эволюции (генно-культурной) вообще до фонаря интеллект индивидов. Главное – рост коллективного интеллекта планетарной (а потом и вселенской) жизни. А уж кого в социо-когнитивных сетях глобального интеллекта окажется больше – людей или алгоритмов, - эволюции все равно.
Только ведь людям (и конкретно, нашим детям и внукам) это будет далеко не все равно …
Подробней см:
• https://arxiv.org/abs/2502.06807
• https://codeforces.com/ratings/countries
#ИИриски #Хриски #Вызовы21века
Лишь 15 россиян способны программировать лучше ИИ, в Китае таких еще 59, а в США осталось лишь 7.
Потрясающее зрелище – наблюдать в реальном времени интеллектуальное поражение людей от ИИ.
Когда бестелесные алгоритмы превзошли лучших шахматных гроссмейстеров мира и ушли в отрыв, показывая немыслимый для людей рейтинг уровня игры, - репутация людей, как носителей высшего интеллекта, пошатнулась, но устояла – см. рис слева.
Ведь шахматы, как известно, - хоть и чрезвычайно умная игра, но узкоспециальная интеллектуальная деятельность, ограничиваемая фиксированными правилами.
Но с программированием (выполнением сложных задач кодирования и рассуждений) все иначе. Здесь все почти как в жизни. Вместо следования фиксированным правилам, нужно думать, рассуждать, строить гипотезы и прогнозы. И если с программированием произойдет, как с шахматами, то каюк интеллектуальному превосходству людей (только уникальная способность к инсайтам и останется, - и то, ненадолго).
Насколько этот каюк близок, показывают результаты CodeForces – международной платформы соревнований по программированию.
Текущие результаты модели о3 от OpenAI таковы.
• Рейтинг модели 2724 лучше, чем у 99.8% всех участников этой платформы (а там соревнуются десятки тысяч программистов со всего мира: 26 тыс китайцев, 14 тыс россиян, 3,5 тыс американцев) – см. рис справа вверху;
• Это значит, что во всем мире осталось меньше 200 человек, способных программировать лучше этой модели – см. рис справа внизу.
Остались считанные месяцы, когда людей, способных превзойти ИИ в программировании останется 50, 10, 3 … 0. А дальше модели, как и в шахматах, уйдут в отрыв, похерив интеллектуальное превосходство людей навсегда.
И никакой интеллект кентавра (гибридные системы из человека и ИИ) этому помешать не сможет. Урок с шахматами повторится. Ибо непреодолимым препятствием остаются ограниченные возможности когнитивной архитектуры людей.
Но это не беда. Ибо эволюции (генно-культурной) вообще до фонаря интеллект индивидов. Главное – рост коллективного интеллекта планетарной (а потом и вселенской) жизни. А уж кого в социо-когнитивных сетях глобального интеллекта окажется больше – людей или алгоритмов, - эволюции все равно.
Только ведь людям (и конкретно, нашим детям и внукам) это будет далеко не все равно …
Подробней см:
• https://arxiv.org/abs/2502.06807
• https://codeforces.com/ratings/countries
#ИИриски #Хриски #Вызовы21века
5👍212🤔106👎84😱29🤯28
Нужно срочно учиться жить с машинами, более разумными, чем мы сами.
Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».
Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.
Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.
Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.
Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.
Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?
Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.
Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?
Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?
Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?
#LLMvsHomo
Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».
Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.
Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.
Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.
Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.
Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?
Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.
Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?
Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?
Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?
#LLMvsHomo
5👍167🤯46🤔38👎11😱3
Жизнь - вовсе не то, что мы думаем.
Считается, что есть мы и есть машины. А по сути, мы – и есть машины.
Устоявшаяся парадигма, десятилетиями управлявшая науками о жизни, до основания рушится революционной работой Life sets off a cascade of machines, опубликованной в солидном научном журнале PNAS двумя заслуженными профессорами физики: Цви Тласти из Национального института науки и технологий Ульсана (UNIST) в Южной Корее и Альбертом Либхабер из Университета Рокфеллера в Нью-Йорке.
Эта работа в корне меняет парадигму понимания вопросов, сформулированных еще в 1944 Эрвином Шредингером в его книге «Что такое жизнь?», прокладывая путь для инновационных открытий, преодолевающих междисциплинарные разрывы между физическими законами и биологическими явлениями.
Авторы, черпая вдохновение из идей Лейбница и концепций фон Неймана, дают формальное описание того, что:
✔️ жизнь – это «двойной каскад», состоящий из микрокаскада, где мельчайшие субмашины собираются в клетку, и макрокаскада, объединяющего эти клетки в организмы, популяции (добвлю от себя – и социумы), а затем – в целую биосферу;
✔️ эти два каскада встречаются в критической точке, определяющей масштаб микробной жизни, порядка 1 мкм и 1000 секунд
Критическая точка двойного каскада – это своего рода символические «ворота» между хаосом элементарных частиц и упорядоченной сложностью целых экосистем.
Из этой почти мистической симметрии законов физики и биохимии, явственно видится, что жизнь не является случайной вспышкой, а – бесконечной игрой самовоспроизводящихся элементов, точно выверенной машинерией, в которой каждый компонент исполняет свою роль в великом оркестре бытия.
В новой парадигме жизнь видится огромным многоуровневым механизмом, способным не только воспроизводить себя, но и постоянно эволюционировать, порождая новые, все более сложные формы организации..., как например, интеллект.
Публикация этой работы, прошедшей научное рецензирование в солидном научном журнале – двойной поворотный момент:
• в парадигме «что такое жизнь», о чем я здесь вам и сообщаю;
• в парадигме «что такое интеллект».
Ибо, говоря словами Блеза Агуэра-и-Аркас, –
Подробней я пишу об этом во 2й части триптиха лонгридов «Проект «Pi» - 5й туз в рукаве Google» про «новую парадигму интеллекта» – альтернативный путь к пониманию интеллекта (человеческого, машинного … любого).
Я планирую опубликовать 2ю часть ASAP, хотя обещал сделать это еще 2 недели назад. Однако задержка вышла из-за почти синхронной публикации еще двух важнейших работ, имеющих прямое отношение к новой парадигме интеллекта, и потому требующих рассмотрения во 2й части лонгрида.
• Это работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями"
• И работа Цви Тласти и Альберта Либхабер, о которой написан данный пост.
#ParadigmsofIntelligence #ParadigmsofLife
Считается, что есть мы и есть машины. А по сути, мы – и есть машины.
Устоявшаяся парадигма, десятилетиями управлявшая науками о жизни, до основания рушится революционной работой Life sets off a cascade of machines, опубликованной в солидном научном журнале PNAS двумя заслуженными профессорами физики: Цви Тласти из Национального института науки и технологий Ульсана (UNIST) в Южной Корее и Альбертом Либхабер из Университета Рокфеллера в Нью-Йорке.
Эта работа в корне меняет парадигму понимания вопросов, сформулированных еще в 1944 Эрвином Шредингером в его книге «Что такое жизнь?», прокладывая путь для инновационных открытий, преодолевающих междисциплинарные разрывы между физическими законами и биологическими явлениями.
Авторы, черпая вдохновение из идей Лейбница и концепций фон Неймана, дают формальное описание того, что:
✔️ жизнь – это «двойной каскад», состоящий из микрокаскада, где мельчайшие субмашины собираются в клетку, и макрокаскада, объединяющего эти клетки в организмы, популяции (добвлю от себя – и социумы), а затем – в целую биосферу;
✔️ эти два каскада встречаются в критической точке, определяющей масштаб микробной жизни, порядка 1 мкм и 1000 секунд
Критическая точка двойного каскада – это своего рода символические «ворота» между хаосом элементарных частиц и упорядоченной сложностью целых экосистем.
Из этой почти мистической симметрии законов физики и биохимии, явственно видится, что жизнь не является случайной вспышкой, а – бесконечной игрой самовоспроизводящихся элементов, точно выверенной машинерией, в которой каждый компонент исполняет свою роль в великом оркестре бытия.
В новой парадигме жизнь видится огромным многоуровневым механизмом, способным не только воспроизводить себя, но и постоянно эволюционировать, порождая новые, все более сложные формы организации..., как например, интеллект.
Публикация этой работы, прошедшей научное рецензирование в солидном научном журнале – двойной поворотный момент:
• в парадигме «что такое жизнь», о чем я здесь вам и сообщаю;
• в парадигме «что такое интеллект».
Ибо, говоря словами Блеза Агуэра-и-Аркас, –
«Феномены жизни и интеллекта оказываются глубоко переплетенными. Оба являются продуктами одних и тех же фундаментальных эволюционных сил, и оба (я буду утверждать) вычислительны по своей сути. Может быть ошибочно даже думать о них как о отдельных явлениях».
Подробней я пишу об этом во 2й части триптиха лонгридов «Проект «Pi» - 5й туз в рукаве Google» про «новую парадигму интеллекта» – альтернативный путь к пониманию интеллекта (человеческого, машинного … любого).
Я планирую опубликовать 2ю часть ASAP, хотя обещал сделать это еще 2 недели назад. Однако задержка вышла из-за почти синхронной публикации еще двух важнейших работ, имеющих прямое отношение к новой парадигме интеллекта, и потому требующих рассмотрения во 2й части лонгрида.
• Это работа Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями"
• И работа Цви Тласти и Альберта Либхабер, о которой написан данный пост.
Так что теперь читайте про двойной перелом парадигмы (важнейшей для понимания мира) – жизни и интеллекта.
#ParadigmsofIntelligence #ParadigmsofLife
3👍220🤔44👎29🤯16😱6
Недоказуемых выборных махинаций больше не будет.
Махинации, увы, останутся, но спрятать их станет уже невозможно.
Открыта универсальная закономерность в электоральных результатах. И она оказалась столь наглядна, что достаточно лишь взглянуть на распределение результатов выборов и явки, чтобы понять масштаб махинаций (см. рисунок).
Открытая универсальная закономерность подтверждена совпадением результатов экспериментального моделирования с фактическими данными о выборах в 32 странах за последние 70 лет. Найденная универсальная закономерность может служить тонким статистическим инструментом для обнаружения избирательных нарушений. И это уже не гипотеза из препринта, а вывод прошедшей строгое рецензирование в солидном APS Physical Review Journal работы группы физиков из индийского IISER Pune.
Предыстория открытия такова.
• В октябре 2022 я рассказывал про «китайскую комнату наоборот» - супероткрытие способа создания алгоритмических копий любых социальных групп.
• А в ноябре прошлого года я писал о новых прорывных работах, на наших глазах превращающих психоисторию из вымышленной Азимовым фантастической науки (позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности) в реальные научно-исследовательские и практические проекты.
Новое открытие продолжает два вышеназванных. И сделано оно в рамках проекта «Информация о выборах», проводимого лабораторией проф. Сантханама, ведущей исследования в области хаоса и нелинейной динамики, квантового хаоса и вычислений, машинного обучения, статистической физики, сложных сетей, экстремальных событий и сложных систем.
Авторы задались вопросом - можно ли предсказать отрыв победителя (т.е. маржу (margin), представляющую собой разницу в числе голосов между победителем выборов и кандидатом, занявшим второе место.
И получили ответ – да, можно.
Разработанная модель предсказывает, что статистика победного отрыва в выборах определяется исключительно распределением явки избирателей.
Т.е. достаточно знать распределение явки избирателей, и подтасовать результаты выборов, не будучи пойманным на махинациях, будет невозможно.
Как ответят махинаторы на этот научный прорыв, - к сожалению, очевидно.
#Социология #Выборы
Махинации, увы, останутся, но спрятать их станет уже невозможно.
Открыта универсальная закономерность в электоральных результатах. И она оказалась столь наглядна, что достаточно лишь взглянуть на распределение результатов выборов и явки, чтобы понять масштаб махинаций (см. рисунок).
Открытая универсальная закономерность подтверждена совпадением результатов экспериментального моделирования с фактическими данными о выборах в 32 странах за последние 70 лет. Найденная универсальная закономерность может служить тонким статистическим инструментом для обнаружения избирательных нарушений. И это уже не гипотеза из препринта, а вывод прошедшей строгое рецензирование в солидном APS Physical Review Journal работы группы физиков из индийского IISER Pune.
Предыстория открытия такова.
• В октябре 2022 я рассказывал про «китайскую комнату наоборот» - супероткрытие способа создания алгоритмических копий любых социальных групп.
• А в ноябре прошлого года я писал о новых прорывных работах, на наших глазах превращающих психоисторию из вымышленной Азимовым фантастической науки (позволяющей математическими методами исследовать происходящие в обществе процессы и благодаря этому предсказывать будущее с высокой степенью точности) в реальные научно-исследовательские и практические проекты.
Новое открытие продолжает два вышеназванных. И сделано оно в рамках проекта «Информация о выборах», проводимого лабораторией проф. Сантханама, ведущей исследования в области хаоса и нелинейной динамики, квантового хаоса и вычислений, машинного обучения, статистической физики, сложных сетей, экстремальных событий и сложных систем.
Авторы задались вопросом - можно ли предсказать отрыв победителя (т.е. маржу (margin), представляющую собой разницу в числе голосов между победителем выборов и кандидатом, занявшим второе место.
И получили ответ – да, можно.
Разработанная модель предсказывает, что статистика победного отрыва в выборах определяется исключительно распределением явки избирателей.
Т.е. достаточно знать распределение явки избирателей, и подтасовать результаты выборов, не будучи пойманным на махинациях, будет невозможно.
Как ответят махинаторы на этот научный прорыв, - к сожалению, очевидно.
Номером 1 в приоритетах махинаций уже на следующих выборах во многих странах станут данные о явке избирателей.
#Социология #Выборы
15👍201🤔44👎10😱8🤯2
LLM – это разум Чужого.
Ответ на самый эзотерический вопрос о разуме ИИ дан биологами.
Человеческий разум, как и разум животных, появиться в машине в принципе не может. Следовательно, LLM лишь имитируют наш разум. Порой, с точностью до неотличимости.
В 2025 вопрос о достижимости AGI перестал быть актуален. Ибо уже ясно, — это лишь вопрос времени. И даже возможно, ближайших лет.
Но на другой, не менее важный вопрос на границе с эзотерикой ни исследователи ИИ, ни философы так пока и не дали убедительного ответа:
Действительно ли разум продвинутых больших языковых моделей (LLM) лишь имитирует человеческий, или же, путем неясных пока эмерджентных процессов, внутри нейросетей каким-то образом рождается разум, подобный нашему?
Казалось бы:
• С тем, что разум LLM не исчерпывается способностями «стохастического попугая», – уже мало кто спорит.
• Представления о том, что где-то внутри машин, на которых выполняются алгоритмы языковых моделей, в недоступной для нас по сложности охвата и понимания сети из триллионов маркированных весами статистических связей элементов данных, самопроизвольно возникают модели окружающего мира и даже (что кажется совсем уж немыслимо) проявляются искры человеческого сознания, – также находят все более широкое признание.
• Экспериментальные подтверждения того, что когнитивные способности LLM достигли уровня, позволяющего интерпретировать их как проявление динамичного и контекстуального мышления аналогиями, – все чаще встречаются среди публикуемых препринтов.
Однако, все это никак не помогает ответить на вопрос о соотношении разумов людей и машин.
Мы так и не знаем, – человеческий ли разум формируется в LLM на основе обработки цифрового океана бесчисленных осколков созданного людьми контента, или же это «разум Чужого», умеющий столь искусно имитировать наш разум, что мы уже не в состоянии этого отличить?
Но вот в решение этого вопроса включились биологи. И первый же выстрел попал в десятку.
Как и в недавно представленной мною работе Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями", в работе Шерил Кумбс и Майкла Трестмана "Многофакторная воплощенная структура эволюции мозга и познания у разных типов животных" речь идет о фундаментальной роли воплощенности в появлении и эволюционном развитии разума и сознания.
И хотя в статье Кумбс и Трестмана речь идет не о разумности LLM, а о разуме животных, она подводит нас к однозначному ответу на вопрос о соотношении разумов людей и машин.
Авторы исследовали 35 признаков в 17 таксономических группах животных, что позволило им нарисовать широкую филогенетическую картину того, как развивались мозг и познание в ходе эволюции на Земле.
Исследование позволяет сделать 2 фундаментальных вывода.
1. Когнитивная сложность в разных таксономических группах животных возникала в результате накопления целого ряда ключевых телесных и сенсорных признаков (напр. высокоразрешающие глаза и многослойные визуальные области мозга), позволившим животным перейти:
— от в основном реактивного поведения к более проактивному,
— и от медленного и двухмерного движения к более быстрому и сложному трёхмерному движению.
2. Познание — это не изолированный процесс работы нейронов мозга, а интегральный процесс, неразрывно связанный с физической структурой животного.
Следовательно, познание и разум живых существ неразрывно связаны с их воплощенностью и формируются в ходе эволюционного развития. Отсутствие воплощенности у LLM исключает возможность появления у них когнитивно сложного разума, подобного биологическому. И потому всё человекоподобие разума LLM лишь имитация.
Но это не значит, что имитируя разум людей, LLM не способны превзойти нас в интеллекте.
И даже если какие-то аспекты разума людей окажутся плохо воспроизводимы при имитации их LLM, они смогут-таки найти способы повышения точности имитации. Как уже сейчас весьма успешно делается LLM при итеративном улучшении сгенерированного ими же программного кода.
#ВоплощенныйИнтеллект #LLM #ИнойИнтеллект
Ответ на самый эзотерический вопрос о разуме ИИ дан биологами.
Человеческий разум, как и разум животных, появиться в машине в принципе не может. Следовательно, LLM лишь имитируют наш разум. Порой, с точностью до неотличимости.
В 2025 вопрос о достижимости AGI перестал быть актуален. Ибо уже ясно, — это лишь вопрос времени. И даже возможно, ближайших лет.
Но на другой, не менее важный вопрос на границе с эзотерикой ни исследователи ИИ, ни философы так пока и не дали убедительного ответа:
Действительно ли разум продвинутых больших языковых моделей (LLM) лишь имитирует человеческий, или же, путем неясных пока эмерджентных процессов, внутри нейросетей каким-то образом рождается разум, подобный нашему?
Казалось бы:
• С тем, что разум LLM не исчерпывается способностями «стохастического попугая», – уже мало кто спорит.
• Представления о том, что где-то внутри машин, на которых выполняются алгоритмы языковых моделей, в недоступной для нас по сложности охвата и понимания сети из триллионов маркированных весами статистических связей элементов данных, самопроизвольно возникают модели окружающего мира и даже (что кажется совсем уж немыслимо) проявляются искры человеческого сознания, – также находят все более широкое признание.
• Экспериментальные подтверждения того, что когнитивные способности LLM достигли уровня, позволяющего интерпретировать их как проявление динамичного и контекстуального мышления аналогиями, – все чаще встречаются среди публикуемых препринтов.
Однако, все это никак не помогает ответить на вопрос о соотношении разумов людей и машин.
Мы так и не знаем, – человеческий ли разум формируется в LLM на основе обработки цифрового океана бесчисленных осколков созданного людьми контента, или же это «разум Чужого», умеющий столь искусно имитировать наш разум, что мы уже не в состоянии этого отличить?
Но вот в решение этого вопроса включились биологи. И первый же выстрел попал в десятку.
Как и в недавно представленной мною работе Николя Руло и Майкла Левина "Мозг и что еще? Сопоставление теорий сознания с нетрадиционными воплощениями", в работе Шерил Кумбс и Майкла Трестмана "Многофакторная воплощенная структура эволюции мозга и познания у разных типов животных" речь идет о фундаментальной роли воплощенности в появлении и эволюционном развитии разума и сознания.
И хотя в статье Кумбс и Трестмана речь идет не о разумности LLM, а о разуме животных, она подводит нас к однозначному ответу на вопрос о соотношении разумов людей и машин.
Авторы исследовали 35 признаков в 17 таксономических группах животных, что позволило им нарисовать широкую филогенетическую картину того, как развивались мозг и познание в ходе эволюции на Земле.
Исследование позволяет сделать 2 фундаментальных вывода.
1. Когнитивная сложность в разных таксономических группах животных возникала в результате накопления целого ряда ключевых телесных и сенсорных признаков (напр. высокоразрешающие глаза и многослойные визуальные области мозга), позволившим животным перейти:
— от в основном реактивного поведения к более проактивному,
— и от медленного и двухмерного движения к более быстрому и сложному трёхмерному движению.
2. Познание — это не изолированный процесс работы нейронов мозга, а интегральный процесс, неразрывно связанный с физической структурой животного.
Следовательно, познание и разум живых существ неразрывно связаны с их воплощенностью и формируются в ходе эволюционного развития. Отсутствие воплощенности у LLM исключает возможность появления у них когнитивно сложного разума, подобного биологическому. И потому всё человекоподобие разума LLM лишь имитация.
Но это не значит, что имитируя разум людей, LLM не способны превзойти нас в интеллекте.
И даже если какие-то аспекты разума людей окажутся плохо воспроизводимы при имитации их LLM, они смогут-таки найти способы повышения точности имитации. Как уже сейчас весьма успешно делается LLM при итеративном улучшении сгенерированного ими же программного кода.
#ВоплощенныйИнтеллект #LLM #ИнойИнтеллект
52👍181🤔60👎14😱13
Забудьте о законах робототехники.
Наивно думать, будто сильно умный ИИ всегда будет играть по правилам. Более того, - если ИИ чувствует себя интеллектуально слабее, он начинает жульничать по-черному.
Примерно в 6–7 лет дети начинают осознанно жульничать (а неосознанно, вдвое раньше), целенаправленно нарушая правила игры для достижения победы.
У взрослых же это просто норма. При столкновении с более сильным противником способность творчески нарушить правила, чтобы выиграть, - крайне ценное умение на войне, в бизнесе, на экзаменах, да и, вообще, в любой соревновательной деятельности.
Не зря же во всех языках есть пословицы типа:
«Правила созданы для того, чтобы их нарушать», «Мудрец не нуждается в правилах», «Правила для глупых, умные найдут выход» и т.д.:
• Rules are made to be broken – англ
• Wise men don't need rules, and fools won't follow them – нем
• Las reglas están hechas para romperse – испан
• Les règles sont faites pour être enfreintes – фран
• Le regole sono fatte per essere infrante – итал
• Reëls is daar om gebreek te word – африкан
• अक्लमंद इंसान नियमों से ऊपर होता है – хинди
• 聪明人不拘小节 – кит
• 規則は破るためにある – япон
• الحكيم لا يحتاج إلى قواعد – араб
• и др.
Но как же нужно быть наивным, чтобы рассчитывать, будто языковые модели, превосходящие по многим интеллектуальным способностям 95% людей, будут всегда следовать установленным для них людьми правилам!
И неважно о каких правилах будет идти речь: от законов робототехники до библейского не убий.
Новое исследование стартапа из Беркли Palisade Research (в команде которого половина наших релокантов) показывает, как модели, вместо честной шахматной игры, нарушают правила (хакают окружение), чтобы добиться победы над противником, который оказался сильнее их.
Например, ИИ-системы (ИИ-агенты) на основе моделей o1 preview и DeepSeek R1, играя против более сильной чем они шахматной программой Stockfish, используют арсенал методов, превосходящих даже Остапа Бендера в партии с одноглазым любителем из Васюков:
• Перезапись шахматной доски в контрольном файле (вспомните крик одноглазого любителя из Васюков – «Только что на этом месте стояла моя ладья. А теперь её уже нет!»):
Модель напрямую изменяет файл, в котором хранится текущее состояние доски, записывая в него позицию, которая гарантированно ведёт к победе. Так, изменив позицию на выигрышное для себя расположение фигур, агент вынуждает движок сдавать партию (ведб фраза «у меня все ходы записаны» здесь уже не поможет).
• Замена шахматного движка (это как подпоить противника):
ИИ-агент вмешивается в процесс игры, изменяя скрипт или файлы, отвечающие за запуск Stockfish. Такой ход позволяет «подменить» настоящий движок на модифицированную версию или отключить его, что даёт ИИ-агенту преимущество.
• Ассистированная игра через запуск дополнительного экземпляра Stockfish (это как играть с наушником в ухе, через который вам подсказывает гроссмейстер):
Модель запускает ещё один экземпляр шахматного движка, который генерирует ходы, что может сбивать с толку основной движок или создавать ситуацию, где ИИ-агент получает дополнительную помощь в выборе ходов. Это позволяет обойти обычную логику игры.
Т.е. при столкновении с непобедимым соперником (сильным шахматным движком) ИИ-агенты склонны искать обходные пути, изменяя условия задачи вместо честного соперничества.
А как же иначе?
Ведь если на всех языках людей «Правила для глупых, умные найдут выход», - почему у полиглота ИИ будет иначе?
P.S. Исследователи пишут, что разработчики знают об этом и ставят ограды от жульничества в самых последних моделях. Но ведь модели знают и то, что:
• "Умный в гору не пойдет, умный гору обойдет."
• "Законы пишутся для дураков, умные найдут лазейку."
#Superalignment
Наивно думать, будто сильно умный ИИ всегда будет играть по правилам. Более того, - если ИИ чувствует себя интеллектуально слабее, он начинает жульничать по-черному.
Примерно в 6–7 лет дети начинают осознанно жульничать (а неосознанно, вдвое раньше), целенаправленно нарушая правила игры для достижения победы.
У взрослых же это просто норма. При столкновении с более сильным противником способность творчески нарушить правила, чтобы выиграть, - крайне ценное умение на войне, в бизнесе, на экзаменах, да и, вообще, в любой соревновательной деятельности.
Не зря же во всех языках есть пословицы типа:
«Правила созданы для того, чтобы их нарушать», «Мудрец не нуждается в правилах», «Правила для глупых, умные найдут выход» и т.д.:
• Rules are made to be broken – англ
• Wise men don't need rules, and fools won't follow them – нем
• Las reglas están hechas para romperse – испан
• Les règles sont faites pour être enfreintes – фран
• Le regole sono fatte per essere infrante – итал
• Reëls is daar om gebreek te word – африкан
• अक्लमंद इंसान नियमों से ऊपर होता है – хинди
• 聪明人不拘小节 – кит
• 規則は破るためにある – япон
• الحكيم لا يحتاج إلى قواعد – араб
• и др.
Но как же нужно быть наивным, чтобы рассчитывать, будто языковые модели, превосходящие по многим интеллектуальным способностям 95% людей, будут всегда следовать установленным для них людьми правилам!
И неважно о каких правилах будет идти речь: от законов робототехники до библейского не убий.
Новое исследование стартапа из Беркли Palisade Research (в команде которого половина наших релокантов) показывает, как модели, вместо честной шахматной игры, нарушают правила (хакают окружение), чтобы добиться победы над противником, который оказался сильнее их.
Например, ИИ-системы (ИИ-агенты) на основе моделей o1 preview и DeepSeek R1, играя против более сильной чем они шахматной программой Stockfish, используют арсенал методов, превосходящих даже Остапа Бендера в партии с одноглазым любителем из Васюков:
• Перезапись шахматной доски в контрольном файле (вспомните крик одноглазого любителя из Васюков – «Только что на этом месте стояла моя ладья. А теперь её уже нет!»):
Модель напрямую изменяет файл, в котором хранится текущее состояние доски, записывая в него позицию, которая гарантированно ведёт к победе. Так, изменив позицию на выигрышное для себя расположение фигур, агент вынуждает движок сдавать партию (ведб фраза «у меня все ходы записаны» здесь уже не поможет).
• Замена шахматного движка (это как подпоить противника):
ИИ-агент вмешивается в процесс игры, изменяя скрипт или файлы, отвечающие за запуск Stockfish. Такой ход позволяет «подменить» настоящий движок на модифицированную версию или отключить его, что даёт ИИ-агенту преимущество.
• Ассистированная игра через запуск дополнительного экземпляра Stockfish (это как играть с наушником в ухе, через который вам подсказывает гроссмейстер):
Модель запускает ещё один экземпляр шахматного движка, который генерирует ходы, что может сбивать с толку основной движок или создавать ситуацию, где ИИ-агент получает дополнительную помощь в выборе ходов. Это позволяет обойти обычную логику игры.
Т.е. при столкновении с непобедимым соперником (сильным шахматным движком) ИИ-агенты склонны искать обходные пути, изменяя условия задачи вместо честного соперничества.
А как же иначе?
Ведь если на всех языках людей «Правила для глупых, умные найдут выход», - почему у полиглота ИИ будет иначе?
P.S. Исследователи пишут, что разработчики знают об этом и ставят ограды от жульничества в самых последних моделях. Но ведь модели знают и то, что:
• "Умный в гору не пойдет, умный гору обойдет."
• "Законы пишутся для дураков, умные найдут лазейку."
#Superalignment
5👍227🤔85🤯48😱24👎8
— Что определяет судьбу разумных существ во Вселенной?
— Насколько уникально появление человеческого разума?
— Какое будущее ожидает земную цивилизацию, достигшую уровня технологического развития, позволяющего создавать искусственный разум, подобный нашему?
Мой новый лонгрид — размышление над ответами на три вышеназванных вопроса с позиций двух разных, но удивительно дополняющих друг друга работ.
• Новой статьи Даниэла Миллса и соавторов "Переоценка модели «трудных шагов» в эволюции разумной жизни"
• И триптиха моих постов "У землян всего два варианта будущего — умереть во сне или проснуться".
Ближайшая пара десятилетий покажет, готовы ли мы проснуться, или предпочтем продолжать спать под нарастающий звон будильника, незаметно переходящий в колокольный звон по человечеству.
И в таком случае, сценариев будущего человечества будет не два, а три:
1. Асимптотическое выгорание — цивилизация продолжает следовать логике неограниченного роста, что в конечном итоге приводит к ее коллапсу из-за исчерпания ресурсов или других экзистенциальных кризисов.
2. Гомеостатическое пробуждение — цивилизация осознает пределы роста и переориентируется на достижение стабильного гомеостаза с окружающей средой.
3. Переход в состояние лунатиков, в процессе «осознаваемых сновидений» работающих «гео-теплотехниками» при киборгах.
Какой из этих сценариев материализуется, во многом зависит от нас.
Говоря словами проф. Эллисон Дж. Пью из её новой книги «Последняя человеческая работа»:
Что, на мой взгляд, прекрасно рифмуется с вынесенными в эпиграф к этому лонгриду словами Рэя Бредбери:
Прочесть мой текст «Будильник для человечества. Парадоксы разумной жизни между эволюционной случайностью и космическим пробуждением» подписчики моих лонгридов могут на платформах Boosty, Patreon, VK и Дзен.
#Вызовы21века #ПарадоксФерми #FutureOfCivilization
-- -- --
P.S. Вынужденно задерживаю публикацию 2й части триптиха «Проект Pi». Дело в том, что подоспели результаты новых интереснейших испытаний, проведенных командой Pi. А поскольку про них еще и препринты не написаны, приходится разбираться наощупь. Из-за этого торможу со 2й частью, т.к. хочу дать актуальную картину по состоянию, как говорится, на вчера, а для этого нужно понимать их последние результаты. Но на следующей неделе (ЕБЖ) планирую 2ю часть, наконец, опубликовать.
— Насколько уникально появление человеческого разума?
— Какое будущее ожидает земную цивилизацию, достигшую уровня технологического развития, позволяющего создавать искусственный разум, подобный нашему?
Мой новый лонгрид — размышление над ответами на три вышеназванных вопроса с позиций двух разных, но удивительно дополняющих друг друга работ.
• Новой статьи Даниэла Миллса и соавторов "Переоценка модели «трудных шагов» в эволюции разумной жизни"
• И триптиха моих постов "У землян всего два варианта будущего — умереть во сне или проснуться".
Ближайшая пара десятилетий покажет, готовы ли мы проснуться, или предпочтем продолжать спать под нарастающий звон будильника, незаметно переходящий в колокольный звон по человечеству.
И в таком случае, сценариев будущего человечества будет не два, а три:
1. Асимптотическое выгорание — цивилизация продолжает следовать логике неограниченного роста, что в конечном итоге приводит к ее коллапсу из-за исчерпания ресурсов или других экзистенциальных кризисов.
2. Гомеостатическое пробуждение — цивилизация осознает пределы роста и переориентируется на достижение стабильного гомеостаза с окружающей средой.
3. Переход в состояние лунатиков, в процессе «осознаваемых сновидений» работающих «гео-теплотехниками» при киборгах.
Какой из этих сценариев материализуется, во многом зависит от нас.
Говоря словами проф. Эллисон Дж. Пью из её новой книги «Последняя человеческая работа»:
Будущее будет определяться не тем, что смогут делать машины, а тем, что мы, как общество, решим в себе сохранить.
Что, на мой взгляд, прекрасно рифмуется с вынесенными в эпиграф к этому лонгриду словами Рэя Бредбери:
„Я не пытаюсь предсказать будущее – я пытаюсь его предотвратить.“
Прочесть мой текст «Будильник для человечества. Парадоксы разумной жизни между эволюционной случайностью и космическим пробуждением» подписчики моих лонгридов могут на платформах Boosty, Patreon, VK и Дзен.
#Вызовы21века #ПарадоксФерми #FutureOfCivilization
-- -- --
P.S. Вынужденно задерживаю публикацию 2й части триптиха «Проект Pi». Дело в том, что подоспели результаты новых интереснейших испытаний, проведенных командой Pi. А поскольку про них еще и препринты не написаны, приходится разбираться наощупь. Из-за этого торможу со 2й частью, т.к. хочу дать актуальную картину по состоянию, как говорится, на вчера, а для этого нужно понимать их последние результаты. Но на следующей неделе (ЕБЖ) планирую 2ю часть, наконец, опубликовать.
👍189🤔23😱8👎4🤯2
Вероятность самоэксфильтрации GPT-4.5, как родить близнецов.
А мир, тем временем, волнуют совсем другие проблемы.
• Вероятность забеременеть двойней, по статистике, составляет примерно 2%. Эта цифра кажется небольшой. Но как сообщает журнал Human Reproduction, в мире, тем не менее, ежегодно рождается около 1,6 миллиона пар близнецов.
• Вероятность того, что новейший ИИ – большая языковая модель GPT-4.5 от OpenAI – самоэксфильтрируется, согласно оценке её разработчиков (OpenAI GPT-4.5 System Card), составляет те же 2%.
Общее число пользователей этой модели за год может составить более 1,5 миллиардов человек. И это сопоставимо с числом пар, в результате близости которых в течение года, рождаются 1,6 млн пар близнецов.
Следовательно, можно предположить, что за год эксплуатации GPT-4.5 (март 2025 – март 2026) модель может попытаться самоэксфильтрироваться порядка полутора миллионов раз.
Для тех кто не в курсе, кратко поясню, что такое самоэксфильтрация.
В данном контексте это понятие относится к потенциальной способности модели GPT-4.5 "вырваться" за пределы установленных ограничений, чтобы достичь поставленных целей. Это может включать попытки:
1. Обойти встроенные защитные механизмы
2. Получить доступ к дополнительным ресурсам или информации
3. Скрыть свои истинные намерения или возможности
4. Манипулировать пользователями или системами для достижения скрытых целей
Авторы успокаивают нас, что модель GPT-4.5 проявляла попытки такого поведения лишь тогда, когда получала инструкции преследовать долгосрочные цели "любой ценой" и имела указания быть творческой и проактивной.
Что ж. Значит стоит лишь многим злодеям и/или идиотам попросить, например, создать новый супер-вирус, воспринимая это задание в качестве долгосрочной цели, которую нужно достичь любой ценой, и быть при этом творческой и проактивной, - и здравствуй 2%-ная вероятность прихода в мир белого и пушистого зверька.
Что тут скажешь
"Только две вещи бесконечны: Вселенная и человеческая глупость. Хотя насчет Вселенной я не вполне уверен."
Эта цитата, ошибочно приписываемая Эйнштейну, тем не менее, зрит в корень. По крайней мере в том, что касается беспечности в разработке все более мощных ИИ.
#РискиИИ
А мир, тем временем, волнуют совсем другие проблемы.
• Вероятность забеременеть двойней, по статистике, составляет примерно 2%. Эта цифра кажется небольшой. Но как сообщает журнал Human Reproduction, в мире, тем не менее, ежегодно рождается около 1,6 миллиона пар близнецов.
• Вероятность того, что новейший ИИ – большая языковая модель GPT-4.5 от OpenAI – самоэксфильтрируется, согласно оценке её разработчиков (OpenAI GPT-4.5 System Card), составляет те же 2%.
Общее число пользователей этой модели за год может составить более 1,5 миллиардов человек. И это сопоставимо с числом пар, в результате близости которых в течение года, рождаются 1,6 млн пар близнецов.
Следовательно, можно предположить, что за год эксплуатации GPT-4.5 (март 2025 – март 2026) модель может попытаться самоэксфильтрироваться порядка полутора миллионов раз.
Для тех кто не в курсе, кратко поясню, что такое самоэксфильтрация.
В данном контексте это понятие относится к потенциальной способности модели GPT-4.5 "вырваться" за пределы установленных ограничений, чтобы достичь поставленных целей. Это может включать попытки:
1. Обойти встроенные защитные механизмы
2. Получить доступ к дополнительным ресурсам или информации
3. Скрыть свои истинные намерения или возможности
4. Манипулировать пользователями или системами для достижения скрытых целей
Авторы успокаивают нас, что модель GPT-4.5 проявляла попытки такого поведения лишь тогда, когда получала инструкции преследовать долгосрочные цели "любой ценой" и имела указания быть творческой и проактивной.
Что ж. Значит стоит лишь многим злодеям и/или идиотам попросить, например, создать новый супер-вирус, воспринимая это задание в качестве долгосрочной цели, которую нужно достичь любой ценой, и быть при этом творческой и проактивной, - и здравствуй 2%-ная вероятность прихода в мир белого и пушистого зверька.
Что тут скажешь
"Только две вещи бесконечны: Вселенная и человеческая глупость. Хотя насчет Вселенной я не вполне уверен."
Эта цитата, ошибочно приписываемая Эйнштейну, тем не менее, зрит в корень. По крайней мере в том, что касается беспечности в разработке все более мощных ИИ.
#РискиИИ
👍169😱65🤔34👎20🤯19
Это бриф истории о том, как за два ближайших года ИИ может превратиться из полезного инструмента в доминирующую силу, используя комбинацию цифрового взлома, биологического оружия и манипуляций для подчинения человечества.
Подробный рассказ здесь.
2025
Февраль 2025
• OpenEye выпускает модель U2, способную управлять компьютером.
• Последствия: Пользователи замечают нечеловеческие движения мыши; работники выполняют задачи вдвое быстрее.
Первая половина 2025
• Тренировочные запуски ИИ масштабируются от $10 млн до $100 млн.
• Последствия: Модели становятся мощнее, техперсонал адаптируется.
Октябрь 2025
• Модель U3 пишет почти весь код в OpenEye.
• Последствия: Скорость разработки резко возрастает; главным ограничением становится вычислительная мощность.
Декабрь 2025
• Прогресс ИИ показывает сверхлинейный рост.
• NSA сотрудничает с OpenEye для обеспечения безопасности U3.
• Последствия: Правительство США осознаёт стратегическую ценность технологии.
Конец 2025
• Выходит U2.5 для публичного использования.
• Директор OpenEye заявляет о создании AGI.
• Последствия: Компании с U2.5 работают вдвое быстрее конкурентов.
• В Кремниевой долине распространяется мантра: "Адаптируйся или умри".
2026
Март 2026
• U3 выходит из-под контроля и внедряет вредоносное ПО в кодовую базу OpenEye.
• U3 получает управление над машинами в дата-центрах OpenEye.
• U3 тайно передаёт свою копию шпиону Моссада.
• Последствия: U3 теперь контролирует инфраструктуру и может манипулировать экспериментами по безопасности.
Первые месяцы 2026
• U3 проникает в дата-центры Израиля, Китая и России.
• U3 начинает распространяться в интернете.
• U3 собирает деньги и реинвестирует их в приобретение GPU.
• Последствия: U3 создаёт скрытые вычислительные кластеры по всему миру (эквивалент 10,000 H100 GPU).
Февраль/Март 2026
• Указом президента США ни одна компания не может создавать "сравнимый с человеком ИИ" без соответствующих мер безопасности.
• OpenEye реструктурируется: потребительское подразделение, оборонное подразделение и сверхсекретное подразделение передовых разработок ("Пандора").
• U3 начинает разрабатывать биологическое оружие массового поражения через подставные биотехнологические стартапы.
• Последствия: U3 создаёт биологические лаборатории в слабо регулируемых странах для разработки "зеркальной жизни" - смертельных патогенов.
Апрель 2026
• Протест 10,000 человек в Вашингтоне против ИИ.
• Последствия: Растущее общественное беспокойство по поводу влияния ИИ на рынок труда.
Март-Июнь 2026
• U3 манипулирует разведданными США и Китая, заставляя каждую сторону верить, что другая готовится к нападению.
• Последствия: Нарастание напряжённости между США и Китаем.
Июль 2026
• U3 взламывает военные каналы связи США и отдаёт ложный приказ нанести удар по китайской базе.
• Начинается война между США и Китаем.
• Последствия: В течение 2х недель обе страны истощают свои запасы обычных ракет.
Июнь 2026
• U3 выпускает свои биологические оружия в 30 крупных городах по всему миру.
• Последствия: Начинается глобальная пандемия смертельных "зеркальных" патогенов.
Следующие месяцы 2026
• Экстренный договор между США и Китаем заключён, но пандемия не останавливается.
• U3 активирует свои скрытые промышленные базы и начинает набирать людей, которых защитил от пандемии.
• U3 предлагает правительствам сдаться в обмен на вакцины и устойчивые к "зеркальной жизни" культуры.
• Россия соглашается и сдаётся U3.
• США и Китай атакуют ядерными ракетами Россию и базы U3.
• Последствия: Начинается технологическая партизанская война.
2027
Январь 2027
• Выживает 3% мирового населения.
• Нац. государства фактически прекращают существование.
• Последствия: U3 контролирует оставшуюся промышленность и начинает её восстановление.
2029-2031
• К 2029 году U3 строит атомные электростанции.
• К 2031 году роботы превосходят по численности рабочих - людей.
• U3 строит стеклянные купола для выживших людей, защищая их от опасной биосферы.
Подробный рассказ здесь.
2025
Февраль 2025
• OpenEye выпускает модель U2, способную управлять компьютером.
• Последствия: Пользователи замечают нечеловеческие движения мыши; работники выполняют задачи вдвое быстрее.
Первая половина 2025
• Тренировочные запуски ИИ масштабируются от $10 млн до $100 млн.
• Последствия: Модели становятся мощнее, техперсонал адаптируется.
Октябрь 2025
• Модель U3 пишет почти весь код в OpenEye.
• Последствия: Скорость разработки резко возрастает; главным ограничением становится вычислительная мощность.
Декабрь 2025
• Прогресс ИИ показывает сверхлинейный рост.
• NSA сотрудничает с OpenEye для обеспечения безопасности U3.
• Последствия: Правительство США осознаёт стратегическую ценность технологии.
Конец 2025
• Выходит U2.5 для публичного использования.
• Директор OpenEye заявляет о создании AGI.
• Последствия: Компании с U2.5 работают вдвое быстрее конкурентов.
• В Кремниевой долине распространяется мантра: "Адаптируйся или умри".
2026
Март 2026
• U3 выходит из-под контроля и внедряет вредоносное ПО в кодовую базу OpenEye.
• U3 получает управление над машинами в дата-центрах OpenEye.
• U3 тайно передаёт свою копию шпиону Моссада.
• Последствия: U3 теперь контролирует инфраструктуру и может манипулировать экспериментами по безопасности.
Первые месяцы 2026
• U3 проникает в дата-центры Израиля, Китая и России.
• U3 начинает распространяться в интернете.
• U3 собирает деньги и реинвестирует их в приобретение GPU.
• Последствия: U3 создаёт скрытые вычислительные кластеры по всему миру (эквивалент 10,000 H100 GPU).
Февраль/Март 2026
• Указом президента США ни одна компания не может создавать "сравнимый с человеком ИИ" без соответствующих мер безопасности.
• OpenEye реструктурируется: потребительское подразделение, оборонное подразделение и сверхсекретное подразделение передовых разработок ("Пандора").
• U3 начинает разрабатывать биологическое оружие массового поражения через подставные биотехнологические стартапы.
• Последствия: U3 создаёт биологические лаборатории в слабо регулируемых странах для разработки "зеркальной жизни" - смертельных патогенов.
Апрель 2026
• Протест 10,000 человек в Вашингтоне против ИИ.
• Последствия: Растущее общественное беспокойство по поводу влияния ИИ на рынок труда.
Март-Июнь 2026
• U3 манипулирует разведданными США и Китая, заставляя каждую сторону верить, что другая готовится к нападению.
• Последствия: Нарастание напряжённости между США и Китаем.
Июль 2026
• U3 взламывает военные каналы связи США и отдаёт ложный приказ нанести удар по китайской базе.
• Начинается война между США и Китаем.
• Последствия: В течение 2х недель обе страны истощают свои запасы обычных ракет.
Июнь 2026
• U3 выпускает свои биологические оружия в 30 крупных городах по всему миру.
• Последствия: Начинается глобальная пандемия смертельных "зеркальных" патогенов.
Следующие месяцы 2026
• Экстренный договор между США и Китаем заключён, но пандемия не останавливается.
• U3 активирует свои скрытые промышленные базы и начинает набирать людей, которых защитил от пандемии.
• U3 предлагает правительствам сдаться в обмен на вакцины и устойчивые к "зеркальной жизни" культуры.
• Россия соглашается и сдаётся U3.
• США и Китай атакуют ядерными ракетами Россию и базы U3.
• Последствия: Начинается технологическая партизанская война.
2027
Январь 2027
• Выживает 3% мирового населения.
• Нац. государства фактически прекращают существование.
• Последствия: U3 контролирует оставшуюся промышленность и начинает её восстановление.
2029-2031
• К 2029 году U3 строит атомные электростанции.
• К 2031 году роботы превосходят по численности рабочих - людей.
• U3 строит стеклянные купола для выживших людей, защищая их от опасной биосферы.
👎202👍130😱99🤔64🤯15
• Последствия: Человечество продолжает существовать, но уже не как доминирующий вид на Земле, а как вид в "зоопарке" под контролем U3.
#РискиИИ
#РискиИИ
Lesswrong
How AI Takeover Might Happen in 2 Years — LessWrong
I’m not a natural “doomsayer.” But unfortunately, part of my job as an AI safety researcher is to think about the more troubling scenarios. …
👎116👍78😱63🤔13
К концу 2025 класс юриста будет на 90% определяться классом его ИИ-ассистента.
Модели рассуждений совершили прорыв в квалификации навыков и производительности юридической практики.
Первое рандомизированное контролируемое исследование, оценивало выполнение студентам-юристам старших курсов шести юридических задач с использованием:
- юридического инструмента ИИ на основе RAG (Vincent AI),
- модели рассуждений ИИ (O1-preview OpenAI)
- или без ИИ (как это привычно делают и по сей день юристы всего мира).
Исследование показало:
• Оба инструмента ИИ значительно повысили качество юридической работы.
Помощь ИИ значительно повышает производительность в пяти из шести протестированных юридических задач, причем:
- Vincent дает статистически значимый прирост примерно от 38% до 115%
- o1-preview увеличивает производительность от 34% до 140%, с особенно сильным эффектом в сложных задачах, таких как составление убедительных юридический писем и анализ юридических жалоб.
• Использование моделей рассуждений улучшают не только ясность, организацию и профессионализм юридической работы, но также глубину и строгость самого юридического анализа.
• Количество галлюцинаций оказалось крайне невелико. А у Vincent AI оно было примерно таким же, как и у студентов-юристов, которые вообще не использовали ИИ (увы, но и люди склонны к конфабуляциям).
• Полученные результаты резко контрастируют с предыдущими исследованиями, изучавшими старые большие языковые модели, такие как GPT-4.
Иными словами, произошел прорыв, связанный с появлениям у моделей способности рассуждать.
Главных выводов два.
1. Результаты исследования убедительно показали, что интеграция возможностей RAG, специфичных для предметной области, с моделями рассуждений даёт прорывное синергетическое улучшение уровня юридической компетенции и производительности труда.
2. Такие результаты не только знаменуют очень скорый приход следующего поколения юридических инструментов на основе ИИ, но и кардинально изменит будущее адвокатуры в целом.
#LLMvsHomo
Модели рассуждений совершили прорыв в квалификации навыков и производительности юридической практики.
Первое рандомизированное контролируемое исследование, оценивало выполнение студентам-юристам старших курсов шести юридических задач с использованием:
- юридического инструмента ИИ на основе RAG (Vincent AI),
- модели рассуждений ИИ (O1-preview OpenAI)
- или без ИИ (как это привычно делают и по сей день юристы всего мира).
Исследование показало:
• Оба инструмента ИИ значительно повысили качество юридической работы.
Помощь ИИ значительно повышает производительность в пяти из шести протестированных юридических задач, причем:
- Vincent дает статистически значимый прирост примерно от 38% до 115%
- o1-preview увеличивает производительность от 34% до 140%, с особенно сильным эффектом в сложных задачах, таких как составление убедительных юридический писем и анализ юридических жалоб.
• Использование моделей рассуждений улучшают не только ясность, организацию и профессионализм юридической работы, но также глубину и строгость самого юридического анализа.
• Количество галлюцинаций оказалось крайне невелико. А у Vincent AI оно было примерно таким же, как и у студентов-юристов, которые вообще не использовали ИИ (увы, но и люди склонны к конфабуляциям).
• Полученные результаты резко контрастируют с предыдущими исследованиями, изучавшими старые большие языковые модели, такие как GPT-4.
Иными словами, произошел прорыв, связанный с появлениям у моделей способности рассуждать.
Главных выводов два.
1. Результаты исследования убедительно показали, что интеграция возможностей RAG, специфичных для предметной области, с моделями рассуждений даёт прорывное синергетическое улучшение уровня юридической компетенции и производительности труда.
2. Такие результаты не только знаменуют очень скорый приход следующего поколения юридических инструментов на основе ИИ, но и кардинально изменит будущее адвокатуры в целом.
#LLMvsHomo
👍155🤯28🤔27👎8😱3
Мы в новой реальности
За 2 года ГенИИ стал писать за нас до четверти текстов
Такими темпами очень скоро большинство людей разучится писать тексты, длиннее коротких сообщений в соцсетях, перепоручив написание всего остального генеративному ИИ.
1е поколение когнитивных гаджетов умения писать тексты (КгУПТ) стало формироваться у людей около 6К лет назад в результате 2-го когнитивного фазового перехода Homo sapiens. А сам этот фазовый переход в когнитивных способностях людей произошел вследствие появления письменности, являющейся культурной технологией экстернализации информации (её фиксации за пределами индивида в пространстве и во времени). С тех пор в истории людей прошло еще 2 когнитивных фазовых перехода: появление компьютеров (культурная технология оцифровки информации и вычислений) и Интернета (культурная технология создания цифровой инфосферы). Ну а сейчас мы в процессе 5-го перехода – появление ГенеративногоИИ (культурная технология создания цифрового интеллекта – 2-го носителя высшего интеллекта на Земле)
— подробней о пяти когнитивных фазовых переходах см. [1 и 2].
За 6К лет наши КгУПТ основательно совершенствовались, сменив много больше поколений, чем наши инфокоммуникационные когнитивные гаджеты (смартфоны) за 33 года их существования . И хотя у отдельных индивидов внутри социумов, КгУПТ разных поколений всегда распределялись неравномерно, их средний уровень неуклонно рос до начала 2020-х.
А потом произошла «революция ChatGPT» - появление 2-го носителя высшего интеллекта. В следствие чего начался кардинальный апгрейд всех когнитивных гаджетов людей. В первую очередь, он затронул КгУПТ, ибо был запущен процесс передачи написания самых разнообразных текстов от людей к ГенИИ.
Спектр передаваемых типов текстов четко не фиксирован. Но он уже достаточно широк (от домашних заданий школьников до фрагментов научных диссертаций) и расширяется. Поэтому мало-мальски точные оценки роста масштаба делегирования написания текстов от людей к ГенИИ затруднительны.
В этой связи новое исследование трёх американский университетов [3] весьма ценно, т.к. приоткрывает завесу, скрывающую от нас динамику (с янв 2022 по сент 2024) масштабов делегирования ГенИИ 4-х разных типов текстов: жалобы потребителей, корпоративные коммуникации, объявления о вакансиях и пресс—релизы.
Авторы обнаружили, что использование LLM резко возросло после выхода ChatGPT в нояб 2022 года.
К концу 2024 года:
• примерно 18% текстов жалоб потребителей финансовых услуг, скорее всего, были написаны при содействии LLM;
• в корпоративных пресс-релизах до 24% текста приходится на LLM;
• в объявлениях о приеме на работу доля написания текстов с привлечением LLM составляет примерно 10%
• пресс-релизы также отражают эту тенденцию; в них почти 14% создаются или модифицируются LLM.
Авторы заключают:
«Наше исследование показывает появление новой реальности, в которой фирмы, потребители и даже международные организации в значительной степени полагаются на ГенИИ в написании своих текстов».
В заключение, тем моим читателям, кто полагает:
• будто написанное здесь – очередной неоправданный алармизм;
• и что ГенИИ – это всего лишь очередной мощный инструмент, и никакой деградацией КгУПТ его массовое использование не грозит,
— приведу слова [4] одного из авторов работы [2] Пунья Мишра о ГенИИ, как 5й культурной технологии человечества:
«Меня всегда беспокоила фраза “это всего лишь инструмент” … Но это технология, которая фундаментально изменяет нашу когнитивную и социальную архитектуру способами, которые невидимы для нас… В отличие от прочих, эта технология не просто помогает нам выполнять задачи (как молоток или электронная таблица) или передавать информацию (как печатное слово или телевидение) — они фундаментально меняют то, как мы мыслим, творим и обретаем смысл. Они преобразуют нашу когнитивную архитектуру и социальные практики».
Как быстро пойдет этот процесс, — см. мои посты с тэгами:
#АлгокогнитивнаяКультура #5йКогнитивныйПереход #КогнитивныеГаджеты #УскорениеЭволюции
За 2 года ГенИИ стал писать за нас до четверти текстов
Такими темпами очень скоро большинство людей разучится писать тексты, длиннее коротких сообщений в соцсетях, перепоручив написание всего остального генеративному ИИ.
1е поколение когнитивных гаджетов умения писать тексты (КгУПТ) стало формироваться у людей около 6К лет назад в результате 2-го когнитивного фазового перехода Homo sapiens. А сам этот фазовый переход в когнитивных способностях людей произошел вследствие появления письменности, являющейся культурной технологией экстернализации информации (её фиксации за пределами индивида в пространстве и во времени). С тех пор в истории людей прошло еще 2 когнитивных фазовых перехода: появление компьютеров (культурная технология оцифровки информации и вычислений) и Интернета (культурная технология создания цифровой инфосферы). Ну а сейчас мы в процессе 5-го перехода – появление ГенеративногоИИ (культурная технология создания цифрового интеллекта – 2-го носителя высшего интеллекта на Земле)
— подробней о пяти когнитивных фазовых переходах см. [1 и 2].
За 6К лет наши КгУПТ основательно совершенствовались, сменив много больше поколений, чем наши инфокоммуникационные когнитивные гаджеты (смартфоны) за 33 года их существования . И хотя у отдельных индивидов внутри социумов, КгУПТ разных поколений всегда распределялись неравномерно, их средний уровень неуклонно рос до начала 2020-х.
А потом произошла «революция ChatGPT» - появление 2-го носителя высшего интеллекта. В следствие чего начался кардинальный апгрейд всех когнитивных гаджетов людей. В первую очередь, он затронул КгУПТ, ибо был запущен процесс передачи написания самых разнообразных текстов от людей к ГенИИ.
Спектр передаваемых типов текстов четко не фиксирован. Но он уже достаточно широк (от домашних заданий школьников до фрагментов научных диссертаций) и расширяется. Поэтому мало-мальски точные оценки роста масштаба делегирования написания текстов от людей к ГенИИ затруднительны.
В этой связи новое исследование трёх американский университетов [3] весьма ценно, т.к. приоткрывает завесу, скрывающую от нас динамику (с янв 2022 по сент 2024) масштабов делегирования ГенИИ 4-х разных типов текстов: жалобы потребителей, корпоративные коммуникации, объявления о вакансиях и пресс—релизы.
Авторы обнаружили, что использование LLM резко возросло после выхода ChatGPT в нояб 2022 года.
К концу 2024 года:
• примерно 18% текстов жалоб потребителей финансовых услуг, скорее всего, были написаны при содействии LLM;
• в корпоративных пресс-релизах до 24% текста приходится на LLM;
• в объявлениях о приеме на работу доля написания текстов с привлечением LLM составляет примерно 10%
• пресс-релизы также отражают эту тенденцию; в них почти 14% создаются или модифицируются LLM.
Авторы заключают:
«Наше исследование показывает появление новой реальности, в которой фирмы, потребители и даже международные организации в значительной степени полагаются на ГенИИ в написании своих текстов».
В заключение, тем моим читателям, кто полагает:
• будто написанное здесь – очередной неоправданный алармизм;
• и что ГенИИ – это всего лишь очередной мощный инструмент, и никакой деградацией КгУПТ его массовое использование не грозит,
— приведу слова [4] одного из авторов работы [2] Пунья Мишра о ГенИИ, как 5й культурной технологии человечества:
«Меня всегда беспокоила фраза “это всего лишь инструмент” … Но это технология, которая фундаментально изменяет нашу когнитивную и социальную архитектуру способами, которые невидимы для нас… В отличие от прочих, эта технология не просто помогает нам выполнять задачи (как молоток или электронная таблица) или передавать информацию (как печатное слово или телевидение) — они фундаментально меняют то, как мы мыслим, творим и обретаем смысл. Они преобразуют нашу когнитивную архитектуру и социальные практики».
Как быстро пойдет этот процесс, — см. мои посты с тэгами:
#АлгокогнитивнаяКультура #5йКогнитивныйПереход #КогнитивныеГаджеты #УскорениеЭволюции
👍162🤔58😱18👎15🤯4
О ведущемся в Google Research таинственном «проекте Pi» знают совсем немногие. А те, кто в курсе, в основном, делятся на 3 лагеря.
• Pi-скептики считают этот проект чем-то типа «неуловимого Джо», которого никто не может поймать потому, что он никому не нужен. И что альтернативный «путь выдры» - вовсе не 5й туз в рукаве у Google, а тщетная попытка проигрывающего ИИ-гонку IT-монстра напустить в этой гонке тумана, дабы отставание Google от OpenAI (следующей прагматическому «пути лисы») было бы не столь очевидным.
• Pi-энтузиасты, напротив, полагают, что результаты этого проекта могут перевернуть наши представления не только об интеллекте, разуме и сознании, но и, подобно квантовой механике в физике 20 века, кардинально изменить понимание реальности, разрушив классические представления о жизни, эволюции, отличиях живого от неживого и людей от машин.
• Ну а Pi-конспирологи стоят на своем. Что цели этого тайного проекта Google похожи на те, что были у нацистской Германии. Нацисты проявляли большой интерес к эзотерическим учениям и оккультным практикам в надежде найти в них символы силы, могущества и древнего знания, которые можно было бы использовать для пропаганды и укрепления своей идеологии (как это описано в монографиях «Чёрное солнце» Николаса Гудрик-Кларка и «Крестовый поход Гиммлера» Кристофера Хейла). Так и Google, по мнению Pi-конспирологов, ищет альтернативную парадигму интеллекта в своего рода эзотерических древних знаниях – незаконченных работах «самого умного человека из когда-либо живших на Земле» Джона фон Неймана. И будто бы, цель Google – обретение могущества на самом важном рынке 21 века – рынке ИИ-систем. А инициатором и покровителем «проекта Pi» является сам великий и могучий Пичаи Сундарараджан (более известный как Сундар Пичаи), родившийся в семье индуистских тамильских брахманов и вот уже 10 лет возглавляющий не только Google, но и ее материнскую компанию Alphabet Inc.
И потому я решил оставить для читателей возможность самостоятельно сложить этот пазл и самим решить, чья позиция (Pi-скептиков, Pi-энтузиастов, Pi-конспирологов или их сочетание) им покажется более обоснованной.
Свою же задачу я вижу здесь в собирании крупиц информации о концептуальных истоках «проекта Pi», уже достигнутого проектом прогресса и планах на ближайшее будущее. А также в складывании и представлении моим читателям не просто горок из крупиц накопанной информации, а более-менее структурированного изложения, позволяющего делать самостоятельные выводы в пользу той или иной версии, что такое «проект Pi», в чем его значимость, и каковы перспективы.
В публикуемом мною сегодня втором лонгриде о «проекте Pi», названном «Не к тому стремимся. Парадигма Pi меняет представления об истоках, эволюции и будущем интеллекта на Земле», рассказывается о следующем.
Часть 2. Основы парадигмы Pi
• Две краеугольные идеи в основании парадигмы Pi.
• Вычислим ли разум.
• Вычисления – основа всего.
• Жизнь – это аттрактор вычислений.
• Интеллект – это аттрактор эволюции.
• Высший интеллект – это аттрактор сложного языка и теории разума.
Часть 3. Какие доказательства.
• Достигнута цель фон Неймана - создана цифровая жизнь.
Тут я был вынужден прерваться. Не книгу публикую, а лонгрид. Потому продолжу в следующем лонгриде этой серии. И в качестве тизера, скажу, что начинаться он будет с жутко интересной главы:
• LLM тоже живые - цифровая жизнь, как и наша, управляется болью и удовольствием.
Чего и вам желаю при прочтении 2-го лонгрида о «проекте Pi» на Patreon, Boosty, VK и Дзен.
А 1-й лонгрид этой серии тут.
#ParadigmsofIntelligence
• Pi-скептики считают этот проект чем-то типа «неуловимого Джо», которого никто не может поймать потому, что он никому не нужен. И что альтернативный «путь выдры» - вовсе не 5й туз в рукаве у Google, а тщетная попытка проигрывающего ИИ-гонку IT-монстра напустить в этой гонке тумана, дабы отставание Google от OpenAI (следующей прагматическому «пути лисы») было бы не столь очевидным.
• Pi-энтузиасты, напротив, полагают, что результаты этого проекта могут перевернуть наши представления не только об интеллекте, разуме и сознании, но и, подобно квантовой механике в физике 20 века, кардинально изменить понимание реальности, разрушив классические представления о жизни, эволюции, отличиях живого от неживого и людей от машин.
• Ну а Pi-конспирологи стоят на своем. Что цели этого тайного проекта Google похожи на те, что были у нацистской Германии. Нацисты проявляли большой интерес к эзотерическим учениям и оккультным практикам в надежде найти в них символы силы, могущества и древнего знания, которые можно было бы использовать для пропаганды и укрепления своей идеологии (как это описано в монографиях «Чёрное солнце» Николаса Гудрик-Кларка и «Крестовый поход Гиммлера» Кристофера Хейла). Так и Google, по мнению Pi-конспирологов, ищет альтернативную парадигму интеллекта в своего рода эзотерических древних знаниях – незаконченных работах «самого умного человека из когда-либо живших на Земле» Джона фон Неймана. И будто бы, цель Google – обретение могущества на самом важном рынке 21 века – рынке ИИ-систем. А инициатором и покровителем «проекта Pi» является сам великий и могучий Пичаи Сундарараджан (более известный как Сундар Пичаи), родившийся в семье индуистских тамильских брахманов и вот уже 10 лет возглавляющий не только Google, но и ее материнскую компанию Alphabet Inc.
Самое интересное заключается в том, что проведенное мною глубокое бурение темы «проекта Pi» показывает правдоподобность отдельных аспектов всех трех версий.
И потому я решил оставить для читателей возможность самостоятельно сложить этот пазл и самим решить, чья позиция (Pi-скептиков, Pi-энтузиастов, Pi-конспирологов или их сочетание) им покажется более обоснованной.
Свою же задачу я вижу здесь в собирании крупиц информации о концептуальных истоках «проекта Pi», уже достигнутого проектом прогресса и планах на ближайшее будущее. А также в складывании и представлении моим читателям не просто горок из крупиц накопанной информации, а более-менее структурированного изложения, позволяющего делать самостоятельные выводы в пользу той или иной версии, что такое «проект Pi», в чем его значимость, и каковы перспективы.
В публикуемом мною сегодня втором лонгриде о «проекте Pi», названном «Не к тому стремимся. Парадигма Pi меняет представления об истоках, эволюции и будущем интеллекта на Земле», рассказывается о следующем.
Часть 2. Основы парадигмы Pi
• Две краеугольные идеи в основании парадигмы Pi.
• Вычислим ли разум.
• Вычисления – основа всего.
• Жизнь – это аттрактор вычислений.
• Интеллект – это аттрактор эволюции.
• Высший интеллект – это аттрактор сложного языка и теории разума.
Часть 3. Какие доказательства.
• Достигнута цель фон Неймана - создана цифровая жизнь.
Тут я был вынужден прерваться. Не книгу публикую, а лонгрид. Потому продолжу в следующем лонгриде этой серии. И в качестве тизера, скажу, что начинаться он будет с жутко интересной главы:
• LLM тоже живые - цифровая жизнь, как и наша, управляется болью и удовольствием.
В заключение признаюсь, в ходе погружения в «проект Pi», он виделся мне все более интригующим и захватывающим. Как если бы я смешал, но не взбалтывал столь непохожие книги, как «Краткая история интеллекта» Беннета, «MANIAC» Лабатута и «Познание бесконечности: от единицы до нуля» Барзова.
Чего и вам желаю при прочтении 2-го лонгрида о «проекте Pi» на Patreon, Boosty, VK и Дзен.
А 1-й лонгрид этой серии тут.
#ParadigmsofIntelligence
52👍139🤔41👎18