Группа исследователей из Университета Тохоку представила модель глубокого обучения, которая может определять заболевания глаз на фотографии. Эта "легкая" модель может быть обучена на небольшом количестве изображений, даже с высокой степенью шума, и является ресурсоэффективной, что означает возможность ее использования на мобильных устройствах.
В условиях старения общества и нехватки медицинского персонала во многих странах самомониторинг на основе моделей глубокого обучения и телескрининг заболеваний становятся все более обыденными. Тем не менее, алгоритмы глубокого обучения, как правило, ориентированы на конкретные задачи и идентифицируют или обнаруживают общие объекты, такие как люди, животные или дорожные знаки.
Идентификация заболеваний, с другой стороны, требует точного измерения опухолей, объема тканей или других видов отклонений. Для этого необходимо, чтобы модель рассматривала отдельные изображения и отмечала границы в процессе, известном как сегментация. Но для точного прогнозирования требуется большая вычислительная мощность, что затрудняет их применение на мобильных устройствах.
"Когда речь идет о моделях глубокого обучения, всегда существует компромисс между точностью, скоростью и вычислительными ресурсами, - говорит Тору Накадзава, соавтор исследования и профессор кафедры офтальмологии Университета Тохоку. - Разработанная нами модель обладает лучшей точностью сегментации и повышенной воспроизводимостью обучения модели, даже при меньшем количестве параметров, что делает ее эффективной и более легкой по сравнению с другими коммерческими программами".
Разработанная облегченная модель точно и быстро обнаруживает аномалии изображений, связанные с заболеваниями глаз. Ожидается, что модель обеспечит точный анализ на мобильных устройствах/одноплатных компьютерах с низким ресурсом CPU-GPU.
"Наша модель также способна с высокой точностью обнаруживать/сегментировать диски зрительных нервов и кровоизлияния на фундус-изображениях", - добавил Накадзава.
Подробности были опубликованы в журнале Scientific Reports.
Комментарии
(0) Добавить комментарий