Сегодня логика принятия решений машиной, зачастую, не понятна никому.
Главным бенефитом для человечества, уже вкушающего плоды развития технологий глубокого машинного обучения, является автоматизация процессов принятия решений: от решений типа – сколько магазину заказать на складе йогуртов и какой марки, до решений типа – запустить ракету по противнику или нет.
А главной проблемой при вкушении этих плодов оказывается:
- не точность принимаемых машиной решений,
- не отсутствие необходимых данных,
- не скорость принятия решений,
а нарастающее НЕПОНИМАНИЕ людьми ПОЧЕМУ машина принимает эти, а не иные решения.
По сути, это и есть ключевая задача дальнейшего развития парадигмы Big Data, о которой я упомянул в конце предыдущего поста.
Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA .
В августе этого года они запустили проект Explainable Artificial Intelligence (XAI) - Объяснимый Искусственный интеллект http://www.darpa.mil/program/explainable-artificial-intelligence
Цель проекта – создать инструментарий для объяснений ПОЧЕМУ машина принимает те или иные решения.
Как популярно объясняют генералы – кураторы проекта в DARPA, сегодня, наблюдая за решениями, принимаемыми машинами, или их рекомендациями, которая машина нам дает, мы не понимаем (до конца или вообще):
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?
Планируется, что в результате проведения проекта XAI (эта аббревиатура навевает ассоциации с новым романом Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами»)) американские генералы (а потом, возможно, и весь мир) смогут, наконец, понять логику принятия решений машиной, получая ответы на вышеприведенные 5 вопросов.
Чем не сюжет для нового романа Пелевина?
P.S. Во второй половине 90ых Пелевин, вдохновившись технологическими идеями компании Silicon Graphics (российским отделением которой руководил я), написал роман «Generation „П“». Почему бы и теперь ему не вдохновиться идеями XAI?
#XAI #Пелевин
Главным бенефитом для человечества, уже вкушающего плоды развития технологий глубокого машинного обучения, является автоматизация процессов принятия решений: от решений типа – сколько магазину заказать на складе йогуртов и какой марки, до решений типа – запустить ракету по противнику или нет.
А главной проблемой при вкушении этих плодов оказывается:
- не точность принимаемых машиной решений,
- не отсутствие необходимых данных,
- не скорость принятия решений,
а нарастающее НЕПОНИМАНИЕ людьми ПОЧЕМУ машина принимает эти, а не иные решения.
По сути, это и есть ключевая задача дальнейшего развития парадигмы Big Data, о которой я упомянул в конце предыдущего поста.
Как бывало и ранее, первыми к решению этой задачи подступились американские военные ученые из DARPA .
В августе этого года они запустили проект Explainable Artificial Intelligence (XAI) - Объяснимый Искусственный интеллект http://www.darpa.mil/program/explainable-artificial-intelligence
Цель проекта – создать инструментарий для объяснений ПОЧЕМУ машина принимает те или иные решения.
Как популярно объясняют генералы – кураторы проекта в DARPA, сегодня, наблюдая за решениями, принимаемыми машинами, или их рекомендациями, которая машина нам дает, мы не понимаем (до конца или вообще):
1) Почему машина выбрала или предложила именно такое решение, а не другое?
2) А что было бы, если бы было принято иное решение?
3) Как понять, было ли это лучшее решение?
4) Насколько можно доверять конкретному выбору решения машиной?
5) И главное – как нам исправить ситуацию, если принятое машиной решение окажется ошибочным?
Планируется, что в результате проведения проекта XAI (эта аббревиатура навевает ассоциации с новым романом Пелевина «Лампа Мафусаила, или Крайняя битва чекистов с масонами»)) американские генералы (а потом, возможно, и весь мир) смогут, наконец, понять логику принятия решений машиной, получая ответы на вышеприведенные 5 вопросов.
Чем не сюжет для нового романа Пелевина?
P.S. Во второй половине 90ых Пелевин, вдохновившись технологическими идеями компании Silicon Graphics (российским отделением которой руководил я), написал роман «Generation „П“». Почему бы и теперь ему не вдохновиться идеями XAI?
#XAI #Пелевин
👍1
Между шашечками и ехать Китай выбирает второе.
Опубликованы результаты 1го этапа создания в Китае «объяснимого ИИ».
В США и Китае инвестируются огромные средства в попытки решить проблему «черного ящика ИИ» путем создания ИИ, способного объяснять свои решения (XAI - Explainable AI).
В США лучшие силы от DARPA до Google уже несколько лет палят миллиарды на проекты «объяснимого ИИ». И пока тщетно, т.к. эти «объяснения» не сможет понять ни одни человек (ИИ принимает решения совершенно иным образом, чем люди).
Китай начал свой проект XAI позже. Но он учитывает все грабли, на которые уже наступили американцы. И по деньгам на свой проект китайцы, похоже, уже опережают США.
Поэтому так интересны выводы опубликованного вчера первого отчета по китайскому XAI «Концепция и практика открытия алгоритмов черного ящика», резюмирующего 1й этап совместных работ Tencent Research Institute, Tencent Tianyan Laboratory, Tencent Youtu, Tencent AI Lab.
Ключевой идеей 1го этапа стал послойный анализ алгоритмов ИИ, вскрываемых как матрёшка (Layer-by-layer analysis of "matryoshka-doll-style").
Результат, увы, не сильно вдохновляющий.
Авторы отчета в поэтическом стиле сформулировали его так.
«Откройте черный ящик и он станет белым ящиком. Но в белом ящике появится много-много черных ящиков, и потому создание объяснимого ИИ — это долгий путь».
Как говорил Том Сойер в похожей ситуации – здесь работы лет на 300.
Но самое плохое не это.
Авторы отчета пришли к выводу, что существующие алгоритмы не могут достичь одновременно высокого уровня эффективности и интерпретируемости.
Получается, - либо шашечки, либо ехать.
А значит нужны принципиально иные алгоритмы. Какие? Пока не известно.
А раз так, заключают прагматичные китайцы, - на объяснимость придется пока забить, ибо эффективность важнее в гонке за звание ИИ-супердержавы №1.
Подробней https://www.leiphone.com/category/academic/6L54BorYRiXyqA6c.html
#XAI #Китай
Опубликованы результаты 1го этапа создания в Китае «объяснимого ИИ».
В США и Китае инвестируются огромные средства в попытки решить проблему «черного ящика ИИ» путем создания ИИ, способного объяснять свои решения (XAI - Explainable AI).
В США лучшие силы от DARPA до Google уже несколько лет палят миллиарды на проекты «объяснимого ИИ». И пока тщетно, т.к. эти «объяснения» не сможет понять ни одни человек (ИИ принимает решения совершенно иным образом, чем люди).
Китай начал свой проект XAI позже. Но он учитывает все грабли, на которые уже наступили американцы. И по деньгам на свой проект китайцы, похоже, уже опережают США.
Поэтому так интересны выводы опубликованного вчера первого отчета по китайскому XAI «Концепция и практика открытия алгоритмов черного ящика», резюмирующего 1й этап совместных работ Tencent Research Institute, Tencent Tianyan Laboratory, Tencent Youtu, Tencent AI Lab.
Ключевой идеей 1го этапа стал послойный анализ алгоритмов ИИ, вскрываемых как матрёшка (Layer-by-layer analysis of "matryoshka-doll-style").
Результат, увы, не сильно вдохновляющий.
Авторы отчета в поэтическом стиле сформулировали его так.
«Откройте черный ящик и он станет белым ящиком. Но в белом ящике появится много-много черных ящиков, и потому создание объяснимого ИИ — это долгий путь».
Как говорил Том Сойер в похожей ситуации – здесь работы лет на 300.
Но самое плохое не это.
Авторы отчета пришли к выводу, что существующие алгоритмы не могут достичь одновременно высокого уровня эффективности и интерпретируемости.
Получается, - либо шашечки, либо ехать.
А значит нужны принципиально иные алгоритмы. Какие? Пока не известно.
А раз так, заключают прагматичные китайцы, - на объяснимость придется пока забить, ибо эффективность важнее в гонке за звание ИИ-супердержавы №1.
Подробней https://www.leiphone.com/category/academic/6L54BorYRiXyqA6c.html
#XAI #Китай
👍1