Малоизвестное интересное
71.7K subscribers
222 photos
2 videos
11 files
1.93K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН. Заркало канала - https://dzen.ru/the_world_is_not_easy
Рекламы и ВП в канале нет.
Пишите на @karelovs
Download Telegram
Цена исхода в Метаверс определилась.
Это окончательная потеря приватности.

В том мире, где мы все живем, цена приватности и так не высока. За нами повсюду следят алгоритмы (сообщая кому надо все, что те хотят о нас знать).
• Наша жизнь в физической реальности контролируется через камеры целой армией алгоритмов - где мы, что делаем, куда направляемся, с кем встречаемся и т.д.
• Наши цифровые следы в цифровой реальности Интернета постоянно отслеживает и анализирует другая огромная армия алгоритмов – какую информацию, товары, услуги мы предпочитаем и потребляем, что и кто нам интересен, наши планы, контакты, коммуникации – все здесь под контролем.
• Наши все более умные гаджеты предоставляют массу дополнительной информации обеим названным армиям алгоритмов, следя за нашей жизнью в обеих реальностях (физической и цифровой).

Лишь в третьем виде реальности – реальности наших мыслей и чувств, - мы до сих пор могли рассчитывать на сохранение (хотя бы частичное) приватности.
Пусть «они» знают о нас всё, что касается наших действий. Но наши мысли и чувства им не подконтрольны. И мы можем думать, например, о Дяде Отечества (см. KGBT+), что угодно, и при этом испытывать к нему сколь угодно мерзопакостные чувства.

Увы, но этих остатков приватности люди лишатся в мирах Метавселенной, где им довольно скоро предстоит жить и работать все более значительную часть своего физического существования.

Анонсированная корпорацией – прародительницей Метавселенной, - новейшая гарнитура виртуальной реальности под названием Quest Pro – это прототип гарнитур, в которых десятки и сотни миллионов людей в ближайшие 10-15 лет будут жить и работать в самых разнообразных мирах Метаверса.

Отличительное свойство Quest Pro – наличие 10-ти камер слежения. Причем:
• 5 камер следят за внешним миром – окружающем метапоселенца миром смешанной реальности;
• а 5 других – следят за внутренним миром метапоселенца - реальностью его мыслей и чувств, которая анализируется и реконструируется по его взгляду, мимике и языку тела.

Естественно, творцы Метавселенной объясняют необходимость камер контроля за внутренним миром совершенно безобидно и даже прикольно.
Ведь эти камеры позволяют:
1. экономить вычислительные ресурсы, отслеживая взгляд и улучшая качество изображения смешанной реальности лишь в тех местах пространства, куда смотрит метапоселенец;
2. делать более реалистичными аватаров метапоселенцев, повторяя 1 в 1 их мимику, выражение глаз и язык тела – вот так.

О том, что с помощью данных, следящих за внутренним миром метапоселенцев, уже сейчас примерно можно (а через 10-15 лет будет можно точно) алгоритмически контролировать их эмоциональные реакции на происходящее там с ними, естественно, не афишируется.

Также не афишируется, что данные о мимике и движениях глаз пользователя Quest Pro могут передаваться другим компаниям. А в политике конфиденциальности для гарнитур говорится, что данные, передаваемые внешним компаниям, «будут регулироваться их собственными условиями и политиками конфиденциальности». Ну а что будет написано в этих политиках, не знает никто.

Так что прощайте остатки нашей приватности мыслей и чувств в Метаверсе. Ведь вряд ли многие из нас захотят и будут способны перед погружением в Метаверс пройти спецподготовку агентов по управлению мимикой и жестикуляцией. И скорее всего, даже это не поможет. Ибо в какой-то из следующих версий мета-гарнитур будут уже использоваться мозговые импланты.

Тренд на «политику нулевой приватности» определился. И его уже вряд ли изменить.

PS В развитие темы, можете почитать VR-гарнитура Meta собирает личные данные прямо с вашего лица
#Metaverse #Приватность
​​22-го января сотни миллионов китайцев уйдут в Метаверс на супер-шопинг.
Впервые в истории до половины населения Поднебесной встретят Китайский Новый год в онлайне.

Taobao, один из крупнейших китайских интернет-магазинов, принадлежащий Alibaba, проводит финальные испытания своего первого виртуального мира для прямых трансляций в Метаверсе, дебют которого запланирован на 22 января в преддверии Лунного Нового года. Этот виртуальный мир будет использован для организации истинной новогодней феерии покупок.

Люди смогут размещать заказы в этом виртуальном мире в реальном времени через гигантские рекламные экраны.

Невиданные уникальные функции (например, 360-градусный осмотр товаров, виртуальная примерка AR и VR, взаимодействие в ходе шопинга) поразят покупателей совершенно новым опытом, сочетающим в себе виртуальный шопинг с услугами логистики покупок и доставки в физическом мире.

Супер-шопинг в Метаверсе будет сопровождаться иммерсивным онлайн-фестивалем празднования Китайского Нового года.

Детали супер-мероприятия хранятся в тайне. Но выглядеть это будет примерно так и так.

О том, что еще китайцы собираются делать в Метавселенной, смотрите мои посты по тэгам:
#Metaverse #Китай
​​В Метавселенной на всех места не хватит.
Поэтому занимать место нужно уже сейчас.

Позавчера в открытый доступ выложен отчет TIPO (Агентства Интеллектуальной собственности при Минэкономики Тайваня) - 258 страниц аналитики о технологиях, связанных с Метавселенной.
Целей у этого анализа было две.
1. Обрисовать пространство векторов развития технологий для Метавселенной.
2. Определить «кто есть кто» в этом пространстве – его главные игроки сегодня и на горизонте 10 лет.


К ответу на вопрос №1 авторы шли путем скрупулезного исследования мировой базы 107 тыс патентов, связанных с Метавселенной.
Результаты этого анализа, проанализированные в логике 7-уровневого фреймворка Метаверса (с учетом приоритетов и финансовых возможностей разных стран и коорпораций), позволяют сориентироваться в вопросе №2.

Пересказывать обширные выводы тайваньских аналитиков не буду (кому интересно, автопереводчиков хватает).
Отмечу лишь два ключевых метавывода, показавшиеся мне самым важным в отчете.

A. Анализ состава патентов подтверждает, что представление о сути Метавселенной, как о технологии перемещения в графическое трехмерное пространства, заселенное аватарами, - неверное.
a. Метаверс не 2-ух, 3-ёх или 7-и мерен. И даже не обязательно графический.
b. Его суть и назначение в полной дематериализации физического пространства (расстояний и объектов) и вытекающей из этого возможности гибкого масштабирования времени, затрачиваемого на что угодно: от покупок до путешествий.
B. 2й метавывод вынесен в заголовок поста.
Он вытекает:
a. из огромного отрыва четверки стран-лидеров по патентам технологий Метаверса: США 17 239 заявки (35,9%), Китай - 14 291 (29,7%), Юж. Корея - 7 808 (16,2%), Япония – 6450 (13,4%);
b. из не менее огромного отрыва корпоративных лидеров по патентованию: в ТОР20 компаний из других стран просто нет (см. приложенный график) - №1 LG, далее: SONY, SAMSUNG, SEIKO, MICROSOFT, GOERTEK, META и т.д.
c. Похоже, что Россию авторы отчета вообще не видят в контексте технологий Метавселенной, поскольку ни единого упоминания про Россию (俄罗斯) на 258 стр. поиск не находит.

#Metaverse #Китай #США
👍2
​​Китай решил заселять не Марс, а Метаверс.
Началось заселение Метавселенной трехмерными цифровыми китайцами.

Прагматизм китайцев проявляется и в технологиях. Если Илон Маск обещает начать заселение Марса лишь через годы, то китайский стартап «Синьчанъюань» уже выводит на рынок Китая технологическую платформу на базе мультимодального ИИ для генерирации 3D виртуальных цифровых людей (как цифровых копий реальных людей, так и аватаров несуществующих людей).

Для генерации цифровых копий задействована установка из 22 камер (16 для тела и 6 для лица). Полученный набор данных используется для тонкой настройки генеративной модели. После чего, полученный 3D аватар анимируется и рендерится в реальном времени при разрешении 1024х1024 и 25 кадрах в сек.
Новый метод обучения аватаров в полный рост AvatarReX на основе NeRF по видеоданным обеспечивает выразительное использование языка тела, языка мимики и, в очередной версии, языка глаз. Обеспечивается полный контроль над телом, лицом и руками аватаров. Синхронизация губ и речи и генератор эмоций способны передавать тонкие выразительные оттенки эмоций: от гнева и печали до радости и счастья. Что особенно важно, допускается интеграция виртуальных цифровых людей в реальные сцены без нарушения физических законов.

Каким образом годовалому китайскому стартапу с ангельским финансированием удалось сделать инженеров великого и ужасного Цукерберга, остается неясным. Известно лишь, что Цю Цзяньмин - соучредитель и генеральный директор Xinchangyuan, - имеет почти 20-летний опыт работы в области технологий. Он доктор философии в области электронной инженерии в Университете Цинхуа и директор Центра исследований и разработок виртуального цифрового человека Шэньчжэньского университета Цинхуа. А в команде стартапа собраны инженеры Университета Цинхуа, Microsoft, Alibaba и других известных компаний.

Авторы пишут, что платформу AvatarReX отличает короткий производственный цикл и низкая стоимость, а также простое и удобное использование и обслуживание.И они обещают, что со следующего года Китай начнет массовое заселение Метавселенной цифровыми китайцами. Так что, может статься, к моменту достижения Маском Марса, китайцы уже вовсю заселят Метаверс.

Видеорассказ об можно посмотреть здесь
Подробное описание здесь
#Китай #Metaverse
👍1
1-й из Цукербринов хочет стать Гольденштерном.
На этом рисунке обновленный вчера «Индекс вычислительной вооруженности» мировых лидеров главной технологической гонки 21 века https://www.stateof.ai/compute
• вверху – число вычислительных кластеров на основе графических процессоров A100 от NVIDIA (лучшие в мире процессоры для высокопроизводительных вычислений на задачах класса ИИ)
• внизу - число вычислительных кластеров на основе графических процессоров H100 от NVIDIA (лучшие в мире процессоры для расчетов графики задач типа «метавселенной»)

Абсолютное первенство компании Цукерберга заставляет серьезно относиться к объявленным им планам https://bit.ly/3Sxt2Hz своего превращения из «одного из цукербринов» в единственного и несравненного «Гольденштерна» (полуолигарха-полубога, которому на Земле никто не указ).
#ИИ #Metaverse
👍95😱47🤔31🤯20
Третий бастион чувств взят.
Открыт путь ко «второму Я» и «телепортации запахов».
«”Настоящий Метаверс“ появится лишь в 2030х после широкого развертывания 6G. В таком Метаверсе все аватары будут типа ”второе Я“, т.е. полное впечатление, что вы все это реально видите, слышите и чувствуете: чувствуете запахи, слушаете, что происходит вокруг - полное ощущение. При этом ваш аватар будет находиться не только в цифровой реальности, но и в физической реальности. Там будет работать сильно интеллектуальный дрон, оснащенный всеми системами камер и датчиков, способных вам передать все реальные ощущения, которые вы будете видеть, нюхать, чувствовать, находясь в своем собственном теле… Весь туризм изменится. У каждого свой ИИ-дрон, имитирующий индивидуальное ”второе Я“. Телепортируясь с вами в саванну, мы видим, слышим, чувствует – от аромата грязного носорога до чего угодно. Причем вы видите меня, я вижу вас, … и мы летим над саванной, видя и слыша ее под собой и через запахи ощущая ее реальность …»

Так я рассказывал почти 2 года назад о фантастических перспективах “туристической телепортации“ нашего ”второго Я“, что появится в 2030х с переходом технологий Метаверся на 6G.

Тогда же в 2022, объясняя детали в посте «Шестичувственный VR для Метаверса уже рядом», я писал, что задача полного погружения в 6SVR Метаверса требует задействовать: зрение, слух, вкус, обоняние, осязание ивестибулярный аппарат (чувство равновесия и положения в пространстве, ускорение). И что главным затыком с обонянием тогда было отсутствие у запахов некоего универсального конструктора (типа RGB для кодирования цвета), позволяющего кодировать любой запах сочетанием элементов конструктора.

Но все преодолимо. И как я тогда писал «через 10 лет мир запахов будет стандартной фичей Метаверса». Ибо гарнитуры уже учились источать не только простые запахи (типа запаха роз, клубники или шоколада), но и сложные комбинированные запахи (типа запаха пляжа, требующего сочетание запахов песка, морского бриза и солнцезащитного крема). Однако, 2 года назад все эти гарнитуры были далеки от совершенства, необходимого для «телепортации» чувств. И я заканчивал тот пост, что «в ближайшие годы предстоит решить 3 главные задачи».

И вот не через 3, а через 2 года проект компании Osmo, так и названный «Телепортация запахов», увенчался успехом.

«Мы сделали это!» - написали авторы в блоге компании. И как нынче становится все чаще, - ключевая роль в успехе принадлежит ИИ.

• ИИ дематериализует и оцифровывает комбинации молекул, воспринимаемых нами, как запах.
• Эти данные становятся координатами на Карте основных ароматов (сложная модель, которая отображает запахи в многомерном пространстве для более точного воссоздания) — новаторском инструменте на основе ИИ, который может предсказывать формулу того, как пахнет определённое сочетание молекул.
• Эта формула отправляется одному из роботов-синтезаторов запахов, который воспринимает её как рецепт и смешивает различные ароматы для воспроизведения нашего образца.

Скоро компания планирует открыть демо для общественности, чтобы люди могли лично испытать телепортацию запаха. Пользователя попросят выбрать цветок или фрукт из обширной коллекции, а затем дадут ему или ей возможность хорошенько запомнить этот запах, пока компания анализирует образец в своей лаборатории. За один сеанс компания воссоздаст выбранный аромат и распылит его обратно к пользователю. А затем наступит момент истины: отзыв пользователя, насколько точным было воспроизведение запаха.

#Metaverse #Запах
👍154🤔26🤯20😱10👎1
Четвертый бастион чувств взят
Открыт путь к «телепортации» лёгких касаний, дистант-осязанию и тактильной коммуникации в соцсетях
После взятия 3-го бастиона «телепортации чувств» – передачи запахов по Интернету, – прошло всего 7 месяцев. И вот уже началось взятие 4-го бастиона – «телепортации» лёгких касаний (технологии передачи тактильных ощущений по Интернету).

Представьте, например, что ободряющее рукопожатие друга или утешающее поглаживание подруги можно «поставить на громкую связь» и передать на другой континент так же легко, как эмодзи в мессенджере. Без костюмa Haptic Suit за пару тысяч долларов, без громоздких перчаток с пневмокамерами – только микрофон размером с монету и пара наушников.


Звучит как фантастика?

Но группа французских нейроинженеров Александры де Лагард и Луизы Кирш из Сорбонны доказывает обратное, превращая прикосновения в музыку эмоций.

Прежде чем сказать, к чему это может привести уже завтра, немного деталей.

Во-первых, что они сделали?
Записали вибрации четырёх базовых жестов – поглаживание, потирание, постукивание, шлепок – прямо с кожи предплечья с помощью скрипичного пьезодатчика.
Превратили эти «кожные аккорды» в аудиофайлы и дали послушать ничего не подозревающим испытуемым (N = 51). Те узнали жесты с точностью до 95% без каких-либо подсказок.
Добавили слой эмоций – любовь, симпатию, радость, страх, гнев, внимание. Здесь угадываемость была ниже, но всё равно осталась выше случайности; положительные и отрицательные чувства уверенно разводились по разным полюсам валентности.
• Наконец, сравнили «кожа-кожа» (пальцы экспериментатора на голом предплечье человека) с «алюминий-пластик» (вместо руки алюминиевый «палец», которым выполняли те же жесты по пластине из полиметил-метакрилата). И вот фишка: ухо безошибочно ловит «звучание кожи». Природа буквально ставит уникальные «водяные знаки» на живой коже при тактильных вибрациях.

Во-вторых, почему это важно
1. Новая сенсорная грамматика. Если зрение мы уже «оцифровали» (фото/видео), слух – тем более, то тактильный канал оставался «аналоговым последним самураем». Аудиосонификация кожи – это ASCII-таблица для прикосновений.
2. Реабилитация и психотерапия на расстоянии. Кричит младенец в инкубаторе – пока медсестра бежит, колонка у кроватки может шёпотом «проиграть» мамину ласковую ладонь. У пожилого на удалёнке меньше тоски – «звонок-обнимашка» действительно звучит, а не только мигает.
3. VR 3.0. Виртуальные барышни-NPC (Non-Player Character) пока шлют визуальные сердечки. Завтра они «погладят» игрока треком .wav, и мозг достроит остальное. Эргономика эмпатии без километров проводов.
4. Нейромаркетинг и дизайн. Бренд косметики может заставить покупателей «услышать» бархат крема, даже листая Instagram.

В-третьих, как всегда, «обратная сторона Луны»
Фейковые прикосновения. Уже знаем про дипфейки видео и голоса; следующий рубеж – deep touch: звук «материнской ласки» как инструмент манипуляции.
Расслоение общества по «тактильному капиталу»: одни купят подписку на «аудио-объятия» с живым звуком кожи, другие останутся на жестком пластике.
Новые этические засады. Можно ли проигрывать звук боли, чтобы вызвать сочувствие? А чтобы вызвать страх? Где граница между терапией и пыткой?

Что в итоге
Статья де Лагард и коллег – не просто любопытный гиммик. Это перфоратор, способный пробить стену, отделяющей нас от тактильной коммуникации в соцсетях. Если гипотеза о звучащей коже подтвердится в нейронных и клинических тестах, мы встретим 2030-е с новым чувством – «дистант-осязание». И тогда привычная пара «смартфон + смайлик» покажется такой же архаикой, как телефонная будка по сравнению с FaceTime.

N.B.
• Слушайте кожей и чувствуйте ухом. Возможно, именно так уже зарождается Spotify для эмоций.
• И думайте сами, решайте сами – каких прикосновений вам не хватает, а какие вам и задаром не нужны.


#Metaverse #Осязание
👍170😱65🤔59👎17🤯6