03.12.2022

Объяснение модели машинного обучения черного ящика для построения сети знаний

1 min read

Машинное обучение имеет большой потенциал для улучшения продуктов, процессов и исследований. Но компьютеры обычно не объясняют своих прогнозов, что является препятствием для внедрения машинного обучения. Эта статья о том, как сделать модели машинного обучения и их решения интерпретируемыми.
Таблица содержания
Введение
Что такое объяснимый ИИ (XAI)?
Значение интерпретируемости в машинном обучении
Интерпретирующий текст Microsoft
LIME Объяснение
Объяснение ELI5 для линейной модели
Введение
Интерпретация моделей машинного обучения больше не является роскошью, но необходимость привела к быстрому внедрению ИИ в отрасли. Эта статья является продолжением моей серии статей, посвященных «Объясняемому искусственному интеллекту (XAI)». Идея здесь состоит в том, чтобы прорваться сквозь шумиху и предоставить инструменты и методы, необходимые для начала интерпретации любой модели машинного обучения черного ящика. По мере того, как технологии на базе ИИ распространяются на предприятии, термин «объяснимый ИИ» (XAI) стал широко распространенным языком. XAI — это набор инструментов, методов и фреймворков, предназначенных для того, чтобы помочь пользователям и разработчикам систем искусственного интеллекта понять свои прогнозы, включая то, как и почему системы пришли к ним. Отчет IDC за июнь 2020 года показал, что лица, принимающие бизнес-решения, считают, что объяснимость является «критическим требованием» для ИИ. С этой целью объяснимость упоминается как руководящий принцип для разработки ИИ в DARPA, Группе экспертов высокого уровня Европейской комиссии по ИИ и Национальном институте стандартов и технологий. Появляются стартапы, которые предлагают «объяснимую услугу», как Truera, а технологические гиганты, такие как IBM, Google и Microsoft, открыли исходный код как инструментальных средств, так и методов XAI.
Что такое объяснимый ИИ (XAI)?
Вообще говоря, в XAI есть три типа объяснений: глобальное, локальное и социальное влияние.
Глобальные объяснения проливают свет на то, что делает система в целом, а не на процессы, которые приводят к прогнозу или решению. Они часто включают краткое изложение того, как система использует функцию для прогнозирования, и «метаинформацию», например, тип данных, используемых для обучения системы.
Местные объяснения предоставляют подробное описание того, как модель пришла к конкретному прогнозу. Они могут включать информацию о том, как модель использует функции для генерации выходных данных или как ошибки во входных данных повлияют на результат.

Объяснения социального влияния относятся к тому, как «социально значимые» другие, то есть пользователи, ведут себя в ответ на прогнозы системы. Система, использующая такого рода объяснение, может отображать отчет о статистике принятия модели или рейтинге системы пользователями с аналогичными характеристиками (например, людьми старше определенного возраста).
Какое значение имеет интерпретируемость в машинном обучении?
В традиционной статистике мы строим и проверяем гипотезы, исследуя данные в целом. Мы строим модели для построения правил, которые мы можем включить в наши модели умственных процессов. Например, маркетинговая фирма может построить модель, которая коррелирует данные маркетинговой кампании с финансовыми данными, чтобы определить эффективную маркетинговую кампанию. Это нисходящий подход к науке о данных, и интерпретируемость жизненно важна, поскольку это краеугольный камень определенных правил и процессов. Поскольку корреляция часто не равняется причинно-следственной связи, для принятия решений и их объяснения необходимо твердое понимание модели.
Мы делегируем аспекты бизнес-процесса моделям машинного обучения, применяя восходящий подход к науке о данных. Кроме того, машинное обучение позволяет реализовать совершенно новые бизнес-концепции. Наука о данных снизу вверх обычно связана с автоматизацией ручных и трудоемких операций. Например, производственная компания может установить датчики на свое оборудование и провести профилактическое обслуживание. Инженеры по техническому обслуживанию могут работать более эффективно, и им не придется проводить дорогостоящие периодические проверки. Интерпретируемость модели требуется для того, чтобы гарантировать, что модель работает, как ожидалось, и завоевать доверие пользователей, а также облегчить переход от ручных к автоматизированным процедурам.
Специалистов по анализу данных часто беспокоит точная настройка моделей для достижения оптимальной производительности. «Учитывая данные X и пометку y, найти модель с наименьшим количеством ошибок» — это распространенный способ представления науки о данных. Хотя умение обучать высокопроизводительные модели жизненно важно для специалиста по данным, важно также видеть общую картину. Интерпретируемость данных и моделей машинного обучения — одна из наиболее важных частей реальной «полезности» конвейера обработки данных, поскольку она гарантирует, что модель согласована с проблемой, которую вы пытаетесь решить. Хотя при разработке моделей легко увлечься экспериментами с передовыми методами, правильная оценка результатов является важным компонентом процесса анализа данных.