• Главная
  • Искусственный интеллект в здравоохранении: поиск этического пути к цифровой трансформации

Искусственный интеллект в здравоохранении: поиск этического пути к цифровой трансформации

30 ноября 2021 г.
Образование
Искусственный интеллект в здравоохранении: поиск этического пути к цифровой трансформации

29 ноября в рамках работы НМИЦ по оргздраву эксперты ФГБУ «ЦНИИОИЗ» Минздрава России провели всероссийскую научно-практическую конференцию «Этические проблемы применения искусственного интеллекта в здравоохранении». Последние 20 лет мы наблюдаем активную интеграцию цифровых технологий в сферу здравоохранения. Внедрение ИИ в реальную медицинскую практику происходит медленно и осторожно, ведь цена ошибки может быть слишком велика. В рамках мероприятия спикеры обсудили как ИИ поможет решить ряд важнейших задач в здравоохранении и какие может нести за собой этические сложности.

В своем вступительном слове Ольга Сергеевна Кобякова, д.м.н., профессор, директор ЦНИИОИЗ сказала, что поддерживает развитие искусственного интеллекта. Она отметила, что «сегодня важно думать, спорить и обсуждать все те риски, которые возникают с активным распространением технологий ИИ. Независимо от того, к какому "лагерю" принадлежит каждый из нас, нам предстоит выработать нормативное урегулирование этого вопроса, обеспечить безопасность наших пациентов, а также улучшить качество медицинской помощи. Мы живем во времена, когда биоэтика переживает второе рождение и мы задаем себе вопросы, о которых еще 50 лет назад не могли и подумать».

 

 

Цифровые технологии в разработке и применении лекарств. Принципы биоэтики

Хохлов Александр Леонидович, член-корреспондент РАН, профессор, доктор медицинских наук, заведующий кафедрой клинической фармакологии и этики применения лекарств ЮНЕСКО ФГБОУ ВО ЯГМУ Минздрава России отметил в своем докладе, что сегодня цифровые технологий принимают особое назначение. «Клиническая фармакология – это наука, которая изучает действия лекарств на организм человека, и она как мостик соединяет науку и практику. Сегодня этот мостик все более и более состоит из цифровых камней. Из тех, которые обеспечивают надежность и тесную связь этих двух направлений».

Указом Президента РФ от 10.10.2019 г. №490 «О развитии искусственного интеллекта в РФ»  были сформированы базовые принципы развития  ИИ в России:

  • ИИ-продукты должны быть безопасными;
  • ИИ-продукты должны быть понятными с точки зрения принятия решений;
  • Россия должна иметь технологический суверенитет;
  • Целостность инновационного цикла;
  • Поддержка конкуренции.

Ключевой целью стандартов стало определение методологических основ технических и клинических испытаний систем ИИ. Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение «цифры» в жизнь:

  • дискриминация;
  • потеря приватности;
  • потеря контроля над ИИ;
  • причинение вреда человеку ошибками алгоритма;
  • применение в неприемлемых целях.

В завершение спикер процитировал академика Ивана Тимофеевича Фролова: «В основе этических правил для ученых должны лежать те же принципы, что и для каждого человека и человечества в целом».

 

Обеспечение защиты интересов и прав пациентов при создании и эксплуатации систем искусственного интеллекта в здравоохранении

Зайченко Николай Михайлович, к.ю.н., Партнер Nevsky IP Law, рассказал об основных медицинских продуктах с использованием ИИ и об обеспечении защиты интересов и прав пациентов.

«Мы, как юристы выделяем следующие риски, связанные с ИИ:

  1. Достоверность данных при вводе;
  2. Верификация математических моделей и программных инструментов;
  3. Неправильное использование аналитических инструментов;
  4. Нарушение целостности данных при их обработке.

Хочу подчеркнуть, что ни одно доказательство не имеет заранее предустановленной силы: люди склонны абсолютизировать собственный опыт и абсолютизировать значение технологий».

 

Проблемы и подходы к формированию доверия к системам искусственного интеллекта, предназначенным для применения в клинической практике

Гусев Александр Владимирович, директор по развитию проекта Webiomed, главный специалист, эксперт в области применения искусственного интеллекта ЦНИИОИЗ рассказал о том, что проблема доверия к технологиям в наши дни действительно существует и выделил два ключевых направления обеспечения доверия: доверие с точки зрения безопасности и доверие с точки зрения доказательств эффективности.

Существуют 3 «кита» доверия к разработчику программных продуктов на основе ИИ-технологий:

  1. Доверие к производителю. Независимая сертификация разработчика на наличие системы менеджмента качества.
  2. Доверие к методикам. Развитие опыта и экспертизы в части оценки безопасности и клинической эффективности СИИ на независимых наборах данных.
  3. Доверие к эксплуатации. Постоянный автоматический контроль качества работы ИИ-моделей на основе эталонных дата-сетов.

 

Этические принципы проведения клинических испытаний систем искусственного интеллекта

Шарова Дарья Евгеньевна, заместитель руководителя отдела инновационных технологий ГБУЗ «Научно-практический клинический центр диагностики и телемедицинских технологий ДЗМ г. Москвы» подняла вопрос актуальности этических вопросов в процессе жизненного цикла при взаимодействии объектов (исследователи, IT-специалисты, врачи) с СИИ.

«ИИ в медицине сегодня в зоне строгого контроля: требуется активное вмешательство регулирующих органов для оказания безопасной, высококачественной и эффективной медицинской помощи».

 

Ответственность за ошибочные решения, принятые медицинскими работниками на основе рекомендаций искусственного интеллекта

Панов Александр Анатольевич, партнер практики Здравоохранение и технологии BGP LITIGATION, преподаватель НИУ ВШЭ, основатель и председатель академического совета магистерской программы «Правовое регулирование в фармацевтике и биотехнологиях» НИУ ВШЭ, член экспертного совета комитета по здравоохранению Совета Федераций рассказал об ответственности, которая может замедлять внедрение инноваций, искусственного интеллекта, аналитических систем и т.д.

«Важно выработать общую схему распределения ответственности. От производителя и вплоть до медицинского работника. То как мы построим модель ответственности – это очень важный момент и по сути он предопределит судьбу будущих решений и доверия медицинского сообщества к этим решениям. Чем больше правовой определенности в этой области, тем больше у нас шансов быстрее внедрить все необходимые решения».

 

По итогам конференции спикеры пришли к выводу о необходимости создания единых этических норм использования технологий искусственного интеллекта, а также четкой модели распределения ответственности в сфере распространения цифровых технологий в медицине.

Сотрудники института, упоминаемые в новости

0,3229 s
29
cache