Исследователи University of Waterloo разработали новую модель объяснимого искусственного интеллекта (Explainable Artificial Intelligence, XAI), позволяющую уменьшить предвзятость и повысить доверие и точность в процессе принятия решений и организации знаний на основе машинного обучения.
Медицина - одна из областей, где необъективные результаты машинного обучения чреваты серьезными последствиями. Сотрудники больниц и медицинские работники опираются на наборы данных, содержащие тысячи медицинских записей, и сложные компьютерные алгоритмы для принятия важнейших решений по уходу за пациентами. Машинное обучение используется для сортировки данных, что позволяет экономить время. Однако отдельные группы пациентов с редкой симптоматикой могут остаться незамеченными, а неправильно помеченные данные и аномалии могут повлиять на результаты диагностики. Такая необъективность и запутанность шаблонов приводит к ошибочным диагнозам и несправедливым результатам в здравоохранении для отдельных групп пациентов.
Благодаря новому исследованию, проведенному под руководством д-ра Эндрю Вонга, профессора Университета Ватерлоо, инновационная модель призвана устранить эти барьеры путем распутывания сложных закономерностей в данных, чтобы связать их с конкретными глубинными причинами, на которые не влияют аномалии и неправильно помеченные данные. Это может повысить доверие и надежность XAI.
"Это исследование представляет собой значительный вклад в область XAI, - сказал Вонг. - Анализируя огромное количество данных о связывании белков, полученных с помощью рентгеновской кристаллографии, моя команда выявила статистику физико-химических закономерностей взаимодействия аминокислот, которые были замаскированы и перемешаны на уровне данных из-за запутанности множества факторов. Мы впервые показали, что запутанная статистика может быть распутана и дать правильное представление о глубоких знаниях, упущенных на уровне данных, с помощью научных доказательств".
Это открытие привело Вонга и его команду к разработке новой модели XAI, получившей название Pattern Discovery and Disentanglement (PDD).
"С помощью PDD мы стремимся преодолеть разрыв между технологиями ИИ и человеческим пониманием, чтобы обеспечить надежное принятие решений и раскрыть глубокие знания из сложных источников данных", - сказал доктор Пэйюань Чжоу, ведущий исследователь в команде Вонга.
Профессор Энни Ли, соавтор и сотрудник University of Toronto, специализирующийся на обработке естественного языка, предвидит огромную ценность вклада PDD в принятие клинических решений.
В различных тематических исследованиях PDD демонстрирует способность предсказывать результаты лечения пациентов на основе их истории болезни. Система PDD также может обнаруживать новые и редкие закономерности в наборах данных. Это позволяет как исследователям, так и практикам обнаруживать неверные метки или аномалии в машинном обучении.
Полученный результат показывает, что медицинские работники могут ставить более надежные диагнозы, подкрепленные строгой статистикой и объяснимыми закономерностями, для более точных рекомендаций по лечению различных заболеваний на разных стадиях.
Исследование "Theory and rationale of interpretable all-in-one pattern discovery and disentanglement system" опубликовано в журнале npj Digital Medicine.
Иллюстрация: Unsplash/Steve Johnson
Комментарии
(0) Добавить комментарий