 
					Объяснимый искусственный интеллект для распознавания речи
В последние годы искусственный интеллект набирает все большую популярность в роли инструмента решения различных задач для улучшения качества жизни человека. Примерами таких систем являются отрасль беспилотных автомобилей, здравоохранение и другие. Однако, у многих пользователей формируется недоверие к системам подобного рода, так как нет четкого объяснения как тот или иной алгоритм принимает решения. Также возникают правовые и этические вопросы: «Кто несет ответственность за принятые решения?» Проблемы лежащие в основе интерпретации работы алгоритмов относят к области XAI. В этой работе будут исследованы методы объяснения искусственного интеллекта на основе обученной модели для распознавания речи. В перспективе эта работа может быть использована для формирования рекомендаций при постановке медицинских диагнозов для людей с психическими отклонениями.
Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .                       3
Постановка задачи . . . . . . . . . . . . . . . . . . . . . . . . . . .                          5
Обзор литературы . . . . . . . . . . . . . . . . . . . . . . . . . . .                           6
Глава 1. Распознавание эмоций в аудиоданных с использова-
         нием глубоких нейронных сетей . . . . . . . . . . . . .                                 8
    1.1. Предварительная обработка . . . . . . . . . . . . . . . . .                             8
    1.2. Выделение признаков . . . . . . . . . . . . . . . . . . . . .                          10
Глава 2. Нейронная сеть . . . . . . . . . . . . . . . . . . . . . . . .                         13
    2.1. Сверточная нейронная сеть . . . . . . . . . . . . . . . . .                            13
    2.2. Предсказание на реальных данных . . . . . . . . . . . . .                              19
Глава 3. XAI алгоритмы . . . . . . . . . . . . . . .        .   .   .   .   .   .   .   .   .   21
    3.1. Обзор популярных методов XAI . . . . . .           .   .   .   .   .   .   .   .   .   21
       3.1.1 Внутренне интерпретируемые методы.             .   .   .   .   .   .   .   .   .   23
       3.1.2 Модельно-агностические объяснения .            .   .   .   .   .   .   .   .   .   25
       3.1.3 Объяснения на основе примеров. . . .           .   .   .   .   .   .   .   .   .   28
    3.2. SHAP . . . . . . . . . . . . . . . . . . . . .     .   .   .   .   .   .   .   .   .   30
    3.3. LIME . . . . . . . . . . . . . . . . . . . . .     .   .   .   .   .   .   .   .   .   33
    3.4. Результаты работы XAI методов . . . . . .          .   .   .   .   .   .   .   .   .   38
Выводы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .                      50
Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .                      51
Список литературы         . . . . . . . . . . . . . . . . . . . . . . . . . .                   53
Приложение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .                        57
В настоящее время искусственный интеллект все чаще применяется
для извлечения пользы из различных задач машинного обучения. В послед-
ние годы такие системы стокнулись с проблемой потери “прозрачности”и
понятности, в особенности для конечных пользователей. В этой работе бу-
дут исследованы методы обьяснения искусственного интеллекта на основе
обученной модели для распознавания речи.
     XAI или обьяснимый искусственный интеллект, это область ИИ, ко-
торая имеет набор интрументов, алгоритмов и методов, которые могут ге-
нерировать интуитивно понятные и интерпретируемые обьяснения для че-
ловека.
     Глубокие нейронные сети используются в системах которые напря-
мую влияют на качество жизни человека. Примерами тому являются здра-
воохранение и беспилотный транпорт. Закрытые системы принятия реше-
ний, называются черными ящиками, и на данный момент не пользуются
доверием у пользователей.[1]
     Интерпретируемость глубоких нейронных сетей, область машинного
обучения которая появилась совсем недавно. Результат ее работы нацелен
на лучшее понимание того как модели проводят отбор признаков, а также
получают решения своих задач[2].
     Ежегодно публикуется неколько статей-обзоров, с посследними до-
стижениями в этой области, подробробнее остановимся на “Opportunities
and Challenges in Explainable Artificial Intelligence (XAI): A Survey”[1]. Клю-
чевыми этапами развития для таких популярных алгоритмов, как LIME
и SHAP обозначены усовершенствания классических моделей и примене-
ние существующих методов, в новых, неисследованных областях. Приме-
рами новых интерпретаций алгоритмов, могут служить: SLIME, QLIME,
KernelSHAP и др.
     Основная сфера иссследования и примения агоритмов обьяснения мо-
делей машинного обучения, это медицина. Алгоритмы отлично себя про-
явлили во многих задачах от работы с изображениями до обработки есте-
ственного языка.[3] В этом исследовании, объединены последние тенденции
 XAI и применение его для распознавания эмоций, которые в свою очередь
могут использоваться в медицине для помощи в постановке диагноза для
людей страдающих психическими расстройствами.
     Для проведения исследования используется два набора данных. Пер-
вый включает в себя аудиозаписи актеров, разных полов: CREMA-D[4],
RAVDES[5], SAVEE[6], TESS[7]. Второй DAIC-WOZ Database Description
содержит клинические интервью, предназначенные для поддержки диагно-
стики психологических дистресс-состояний, таких как тревога, депрессия
и посттравматическое стрессовое расстройство[8].
     Свидетельством того, что это направление набирает обороты, мож-
но связать с запуском первой глобальной конференции, посвященной ис-
ключительно этой развивающейся дисциплине, Международной совмест-
ной конференции по искусственному интеллекту: семинар по объяснимому
искусственному интеллекту (XAI)[9].
     Европейский Союз ввел право на объяснение в Общем праве на за-
щиту данных (GDPR) как попытку справиться с потенциальными пробле-
мами, вытекающими из растущей важности алгоритмов. В Соединенных
Штатах страховые компании должны быть в состоянии объяснить свои
решения о ставках.[1] Другим примером является, использование XAI в
колл-центре для классификации звонков в соответствии с эмоциями, в
последствиии это применяется в качестве параметра производительности
для анализа разговоров, таким образом идентифицируя неудовлетворен-
ного клиента, удовлетворенность клиентов и т. д. Примение XAI способно
оказать помощь компаниям в улучшении их услуг. Он также может быть
использован в бортовой системе автомобиля, основанной на информации о
психическом состоянии водителя, которая может быть предоставлена си-
стеме для инициирования его/ее безопасности, предотвращающей несчаст-
ные случаи.[2]
 Постановка задачи
      Исследование можно разделить на две части:
1) решение задачи классификации распознавания речевых эмоций;
2) использование алгоритма XAI для объяснения результатов.
      В первой части используются наборы аудиовизуальных данных: Crema-
D, Ravdess, Savee, Tess. Строим волновые диаграммы и спектограммы, из-
влекаем признаки и строим модель нейронной сети.
      Вторая часть включает обьяснение результатов алгоримов XAI и при-
ведение результатов.
 Обзор литературы
     Работа началась cо знакомства с популярным предшественником объ-
яснимого ИИ, рекомендательными системами. Популярные в 70-80 гг. про-
шлого века, они включали в себя механизм вывода и базу знаний. Область
медицинской диагностики, ощутила на себе в числе первых, где они были
опробованы. Ранней версией экспертной системы была MYCIN, разрабо-
танная в 70х в Стэнфордском университете. MYCIN разрабатывалась для
работы с бактериями, а именно диагностировались те, что вызывают тя-
желые болезни, например, менингит. В том числе изучалось количество
необходимых антибиотиков, для благоприятного исхода болезни. Реализа-
ция была простой и включала в себя ответы «Да» или «Нет» на вопро-
сы медиков, в конце выдавалась рекомендация по дальнейшим действиям.
Система была описана в работе “Rule-based Expert System – The MYCIN
Experiments of the Stanford Heuristic Programming Project”. [10] Одним из
критериев новых систем подразумевалась понятность решений для профес-
сионалов своей области, а не только для IT специалистов.
     Например, применение интерпретируемости в медицинских исследо-
ваниях, улучшит работу многих специалистов:
     1) практикующие врачи смогут впоследствии использовать эти мето-
ды для рекомендаций в постановке диагнозов;
     2) понимание решений ИИ, впоследствии обернется большим количе-
ством идей для реализации в медицинской практике.[11]
     Открытыми остаются вопросы: «Кто несет ответственность за непра-
вильный прогноз и лечение?». Тот же вопрос задает автор работы ““Why
Should I Trust You?” Explaining the Predictions of Any Classifier”[12]. В ка-
честве пути решения, автор предлагает побороть недоверие к модели или
прогнозу. В роли инструментов для объяснения результатов, алгоритмы
XAI, дающие понятную интерпретацию работы модели.
     Для анализа полученных результатов будут использованы алгоритмы
Построение моделей и умение делать правильные предсказания явля-
ются важнейшими задачами современного мира. В долгосрочной перспек-
тиве нынешние инициативы по искусственному интеллекту состоят в том,
чтобы внести свой вклад в разработку, проектрирование и внедрение ори-
ентирвоанных на человека систем ИИ. Агенты которых сотрудничали бы
с человеком интерпретирумым и объяснимым образом, чтобы обеспечить
принятие справедливых решений, а также их прозрачность. Для достиже-
ния этой цели, одними из инструментов реализации предлагаются алгорит-
мы XAI, а именно SHAP и LIME. Предполагаемая предметная область для
использования инструмента медицинская диагностика.
      Первая глава посвящена обзору наборов аудиоданных и выделению
признаков из них.
      Вторая глава описывает общую структуру работы нейронной сети
      Третья глава формализует методы XAI, далее демонстрируется прак-
тическая часть применения двух алгоритмов обьяснения SHAP и LIME.
      LIME – отличный инструмент для объяснения того, что делают клас-
сификаторы (или модели) машинного обучения.Он не зависит от модели,
использует простые и понятные идеи и не требует больших усилий для
запуска.Как всегда, даже при использовании LIME важно правильно ин-
терпретировать вывод.
      SHAP – подходит для понимания любых моделей машинного обуче-
ния, а также имеет несколько других плюсов, например, может обьяснить
как индивидуальные результаты, так и общее решение, а также имеет хо-
рошую теоритическую основу из теории игр.
      На пути к справедливым и прозрачным моделям, основанным на ИИ,
остатется много открытых вопросов, например как оценка рисков, избега-
ние алгоритмических и социальных предубеждений. Алгоритмы обьясни-
мого ИИ должны нести ответсвенность перед заинтересованными сторона-
ми за свое решение, а также оно должно подчиняться анализу, в котором
должна быть понятна степень прозрачности алгоритма.
      Обьяснимые методы ИИ также могут быть использованы для выявле-
 ния потенциальных рисков, например проверка модели на справедливость.
     Будущее взаимодействие между людьми и машинами имеет важное
значение, для адаптивных обьяснимых моделей важно участие опытных
исследователей из предметной области. Коллективный опыт знания из раз-
личных областей (например, здравоохранение, финансы, медицина, без-
опасность, оборона) могут способствовать дальнейшему развитию иссле-
дований ИИ, ориентированных на человека. Таким образом, существует
необходимость в растущем интересе к междисциплинарным исследовани-
ям для продвижения ориентированного на человека искусственного интел-
лекта, а также XAI в критически важных исследованиях для различных
областей.
[1] Arun Das, Paul Rad Opportunities and Challenges in Explainable Artificial
Intelligence (XAI): A Survey  . arXiv:2006.11371, 2020
 
						Хочешь уникальную работу?
Больше 3 000 экспертов уже готовы начать работу над твоим проектом!
