Объяснимый искусственный интеллект для распознавания речи
В последние годы искусственный интеллект набирает все большую популярность в роли инструмента решения различных задач для улучшения качества жизни человека. Примерами таких систем являются отрасль беспилотных автомобилей, здравоохранение и другие. Однако, у многих пользователей формируется недоверие к системам подобного рода, так как нет четкого объяснения как тот или иной алгоритм принимает решения. Также возникают правовые и этические вопросы: «Кто несет ответственность за принятые решения?» Проблемы лежащие в основе интерпретации работы алгоритмов относят к области XAI. В этой работе будут исследованы методы объяснения искусственного интеллекта на основе обученной модели для распознавания речи. В перспективе эта работа может быть использована для формирования рекомендаций при постановке медицинских диагнозов для людей с психическими отклонениями.
Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Постановка задачи . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Обзор литературы . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Глава 1. Распознавание эмоций в аудиоданных с использова-
нием глубоких нейронных сетей . . . . . . . . . . . . . 8
1.1. Предварительная обработка . . . . . . . . . . . . . . . . . 8
1.2. Выделение признаков . . . . . . . . . . . . . . . . . . . . . 10
Глава 2. Нейронная сеть . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1. Сверточная нейронная сеть . . . . . . . . . . . . . . . . . 13
2.2. Предсказание на реальных данных . . . . . . . . . . . . . 19
Глава 3. XAI алгоритмы . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1. Обзор популярных методов XAI . . . . . . . . . . . . . . . 21
3.1.1 Внутренне интерпретируемые методы. . . . . . . . . . 23
3.1.2 Модельно-агностические объяснения . . . . . . . . . . 25
3.1.3 Объяснения на основе примеров. . . . . . . . . . . . . 28
3.2. SHAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3. LIME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Результаты работы XAI методов . . . . . . . . . . . . . . . 38
Выводы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Список литературы . . . . . . . . . . . . . . . . . . . . . . . . . . 53
Приложение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
В настоящее время искусственный интеллект все чаще применяется
для извлечения пользы из различных задач машинного обучения. В послед-
ние годы такие системы стокнулись с проблемой потери “прозрачности”и
понятности, в особенности для конечных пользователей. В этой работе бу-
дут исследованы методы обьяснения искусственного интеллекта на основе
обученной модели для распознавания речи.
XAI или обьяснимый искусственный интеллект, это область ИИ, ко-
торая имеет набор интрументов, алгоритмов и методов, которые могут ге-
нерировать интуитивно понятные и интерпретируемые обьяснения для че-
ловека.
Глубокие нейронные сети используются в системах которые напря-
мую влияют на качество жизни человека. Примерами тому являются здра-
воохранение и беспилотный транпорт. Закрытые системы принятия реше-
ний, называются черными ящиками, и на данный момент не пользуются
доверием у пользователей.[1]
Интерпретируемость глубоких нейронных сетей, область машинного
обучения которая появилась совсем недавно. Результат ее работы нацелен
на лучшее понимание того как модели проводят отбор признаков, а также
получают решения своих задач[2].
Ежегодно публикуется неколько статей-обзоров, с посследними до-
стижениями в этой области, подробробнее остановимся на “Opportunities
and Challenges in Explainable Artificial Intelligence (XAI): A Survey”[1]. Клю-
чевыми этапами развития для таких популярных алгоритмов, как LIME
и SHAP обозначены усовершенствания классических моделей и примене-
ние существующих методов, в новых, неисследованных областях. Приме-
рами новых интерпретаций алгоритмов, могут служить: SLIME, QLIME,
KernelSHAP и др.
Основная сфера иссследования и примения агоритмов обьяснения мо-
делей машинного обучения, это медицина. Алгоритмы отлично себя про-
явлили во многих задачах от работы с изображениями до обработки есте-
ственного языка.[3] В этом исследовании, объединены последние тенденции
XAI и применение его для распознавания эмоций, которые в свою очередь
могут использоваться в медицине для помощи в постановке диагноза для
людей страдающих психическими расстройствами.
Для проведения исследования используется два набора данных. Пер-
вый включает в себя аудиозаписи актеров, разных полов: CREMA-D[4],
RAVDES[5], SAVEE[6], TESS[7]. Второй DAIC-WOZ Database Description
содержит клинические интервью, предназначенные для поддержки диагно-
стики психологических дистресс-состояний, таких как тревога, депрессия
и посттравматическое стрессовое расстройство[8].
Свидетельством того, что это направление набирает обороты, мож-
но связать с запуском первой глобальной конференции, посвященной ис-
ключительно этой развивающейся дисциплине, Международной совмест-
ной конференции по искусственному интеллекту: семинар по объяснимому
искусственному интеллекту (XAI)[9].
Европейский Союз ввел право на объяснение в Общем праве на за-
щиту данных (GDPR) как попытку справиться с потенциальными пробле-
мами, вытекающими из растущей важности алгоритмов. В Соединенных
Штатах страховые компании должны быть в состоянии объяснить свои
решения о ставках.[1] Другим примером является, использование XAI в
колл-центре для классификации звонков в соответствии с эмоциями, в
последствиии это применяется в качестве параметра производительности
для анализа разговоров, таким образом идентифицируя неудовлетворен-
ного клиента, удовлетворенность клиентов и т. д. Примение XAI способно
оказать помощь компаниям в улучшении их услуг. Он также может быть
использован в бортовой системе автомобиля, основанной на информации о
психическом состоянии водителя, которая может быть предоставлена си-
стеме для инициирования его/ее безопасности, предотвращающей несчаст-
ные случаи.[2]
Постановка задачи
Исследование можно разделить на две части:
1) решение задачи классификации распознавания речевых эмоций;
2) использование алгоритма XAI для объяснения результатов.
В первой части используются наборы аудиовизуальных данных: Crema-
D, Ravdess, Savee, Tess. Строим волновые диаграммы и спектограммы, из-
влекаем признаки и строим модель нейронной сети.
Вторая часть включает обьяснение результатов алгоримов XAI и при-
ведение результатов.
Обзор литературы
Работа началась cо знакомства с популярным предшественником объ-
яснимого ИИ, рекомендательными системами. Популярные в 70-80 гг. про-
шлого века, они включали в себя механизм вывода и базу знаний. Область
медицинской диагностики, ощутила на себе в числе первых, где они были
опробованы. Ранней версией экспертной системы была MYCIN, разрабо-
танная в 70х в Стэнфордском университете. MYCIN разрабатывалась для
работы с бактериями, а именно диагностировались те, что вызывают тя-
желые болезни, например, менингит. В том числе изучалось количество
необходимых антибиотиков, для благоприятного исхода болезни. Реализа-
ция была простой и включала в себя ответы «Да» или «Нет» на вопро-
сы медиков, в конце выдавалась рекомендация по дальнейшим действиям.
Система была описана в работе “Rule-based Expert System – The MYCIN
Experiments of the Stanford Heuristic Programming Project”. [10] Одним из
критериев новых систем подразумевалась понятность решений для профес-
сионалов своей области, а не только для IT специалистов.
Например, применение интерпретируемости в медицинских исследо-
ваниях, улучшит работу многих специалистов:
1) практикующие врачи смогут впоследствии использовать эти мето-
ды для рекомендаций в постановке диагнозов;
2) понимание решений ИИ, впоследствии обернется большим количе-
ством идей для реализации в медицинской практике.[11]
Открытыми остаются вопросы: «Кто несет ответственность за непра-
вильный прогноз и лечение?». Тот же вопрос задает автор работы ““Why
Should I Trust You?” Explaining the Predictions of Any Classifier”[12]. В ка-
честве пути решения, автор предлагает побороть недоверие к модели или
прогнозу. В роли инструментов для объяснения результатов, алгоритмы
XAI, дающие понятную интерпретацию работы модели.
Для анализа полученных результатов будут использованы алгоритмы
Построение моделей и умение делать правильные предсказания явля-
ются важнейшими задачами современного мира. В долгосрочной перспек-
тиве нынешние инициативы по искусственному интеллекту состоят в том,
чтобы внести свой вклад в разработку, проектрирование и внедрение ори-
ентирвоанных на человека систем ИИ. Агенты которых сотрудничали бы
с человеком интерпретирумым и объяснимым образом, чтобы обеспечить
принятие справедливых решений, а также их прозрачность. Для достиже-
ния этой цели, одними из инструментов реализации предлагаются алгорит-
мы XAI, а именно SHAP и LIME. Предполагаемая предметная область для
использования инструмента медицинская диагностика.
Первая глава посвящена обзору наборов аудиоданных и выделению
признаков из них.
Вторая глава описывает общую структуру работы нейронной сети
Третья глава формализует методы XAI, далее демонстрируется прак-
тическая часть применения двух алгоритмов обьяснения SHAP и LIME.
LIME – отличный инструмент для объяснения того, что делают клас-
сификаторы (или модели) машинного обучения.Он не зависит от модели,
использует простые и понятные идеи и не требует больших усилий для
запуска.Как всегда, даже при использовании LIME важно правильно ин-
терпретировать вывод.
SHAP – подходит для понимания любых моделей машинного обуче-
ния, а также имеет несколько других плюсов, например, может обьяснить
как индивидуальные результаты, так и общее решение, а также имеет хо-
рошую теоритическую основу из теории игр.
На пути к справедливым и прозрачным моделям, основанным на ИИ,
остатется много открытых вопросов, например как оценка рисков, избега-
ние алгоритмических и социальных предубеждений. Алгоритмы обьясни-
мого ИИ должны нести ответсвенность перед заинтересованными сторона-
ми за свое решение, а также оно должно подчиняться анализу, в котором
должна быть понятна степень прозрачности алгоритма.
Обьяснимые методы ИИ также могут быть использованы для выявле-
ния потенциальных рисков, например проверка модели на справедливость.
Будущее взаимодействие между людьми и машинами имеет важное
значение, для адаптивных обьяснимых моделей важно участие опытных
исследователей из предметной области. Коллективный опыт знания из раз-
личных областей (например, здравоохранение, финансы, медицина, без-
опасность, оборона) могут способствовать дальнейшему развитию иссле-
дований ИИ, ориентированных на человека. Таким образом, существует
необходимость в растущем интересе к междисциплинарным исследовани-
ям для продвижения ориентированного на человека искусственного интел-
лекта, а также XAI в критически важных исследованиях для различных
областей.
[1] Arun Das, Paul Rad Opportunities and Challenges in Explainable Artificial
Intelligence (XAI): A Survey . arXiv:2006.11371, 2020
Последние выполненные заказы
Хочешь уникальную работу?
Больше 3 000 экспертов уже готовы начать работу над твоим проектом!