• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Доклад С.Ю. Шевченко "Этика медицинского ИИ: мягкие принципы против жестких предвзятостей"

16 ноября в рамках научного семинара «Искусственный интеллект в мире людей: гуманистические, этические и правовые аспекты развития цифровых технологий» был заслушан доклад С.Ю. Шевченко "Этика медицинского ИИ: мягкие принципы против жестких предвзятостей". Ниже мы приводим краткие итоги встречи.

Сейчас в этике искусственного интеллекта довольно широко обсуждается проблема доверия. Чаще всего мы встречаем ее упоминание, когда говорим об этике искусственного интеллекта в медицине, хотя, с полной уверенностью можно сказать, что эта проблема релевантна и для других областей применения ИИ. Современная этика искусственного интеллекта предполагает, что существует множество документов и статей, в которых описаны принципы искусственного интеллекта. В основном эти принципы заимствованы из биоэтики и насчитывают 5 основных положений: 4 биоэтических принципа - о не причинении вреда; благодеянии; уважении автономии пользователя и всех, людей, вовлеченных в использование искусственного интеллекта; справедливость и 5-ый принцип - прозрачность/ объяснимость. Именно с 5-ым принципом связана проблема доверия. Объектами доверия могут выступать как выводы или итоги, которые дают нам системы искусственного интеллекта (действующие как черный ящик), так и сами процессы. Которые приводят к этим выводам. Соответственно формируется такая этическая позиция, как релайабилизм, которая утверждает, что обоснованность убеждений зависит не от свидетельств, но от надежности источников убеждения, к примеру, памяти, восприятия, интроспективных состояний и процессов. Это можно рассматривать как попытку воспроизвести этику добродетели применительно к нечеловеческим агентам. Процесс принятия искусственным интеллектом решений (процесс получения им выводов) рассматривается как надежный и надежный на столько, что мы можем ему доверять, как и человеческому актору. В этой связи необходимо удерживать в поле зрения те 5 биоэтических принципов, озвученных выше, особенно в том случае, если мы говорим о медицинском применении.

Несмотря на то, что эти принципы находятся в этическом поле, в их толковании важную роль играет эпистемология. Когда мы занимаемся предвзятостями, значительная часть вопросов связана с тем, что мы не так учим систему ИИ, создаем не ту выборку, делаем ее предвзятой в виду чего сам искусственный интеллект наследует эти предвзятости. Будучи тесно связанными, эпистемические и этические проблемы имеют достаточно четкую классификацию: 1. Конфликты между принципами (когда этические принципы не могут быть согласованы друг с другом); 2. Конфликты, связанные с применением отдельных принципов и по их воплощению в конкретную техническую форму. Значительная часть этих проблем может быть охвачена через термин «реификация». Реификация — овеществление, понимается в трех парадигмах. Эпистемологическая реификация (предложена Джоном Дюпре) рассматривается на примере неправильности моделей, предсказывающих динамику пандемии Covid19. Этическая реификация понимается в смысле конфликта между принципами и здесь сразу легко имплементируется вся критическая теория. Конфликт внутри принципа (касающийся недоопределенности) в контексте реификации может пониматься как процесс репрезентации данных или процесс создания прокси-объектов. Описывая какой-то феномен внешнего (оффлайн) мира, мы создаем некоторый прокси-объект и вписываем его в логику искусственного интеллекта — это называется реификацией в техническом смысле. Здесь речь идет не о простой эквивокации (или анемии) этих трех пониманий реификации. Все они связаны друг с другом равно, как и с проблемой неопределенности этических принципов.

         Д. Дюпре, как философ биологии, рассматривает то, каким образом было репрезентирован вирус в системах с машинным обучением, которые должны были предсказывать динамику пандемии, особенно в первый ее год. Философ пишет, что несмотря на то, что вирус является одной из самых быстроменяющихся сущностей на нашей планете, он был репрезентирован так, как если бы его генетический код был постоянен, а его патогенность и другие важные характеристики были константными. Такой подход соответственно предлагал представление о том, что и эффекты от прививок будут стабильны, что, конечно, привело к обманутым надеждам со стороны людей и многим другим негативным последствиям. Дюпре пишет о том, что есть два вида реификации (понимая ее как гиперстабилизацию):

1. Реификация от феномена к объекту, когда мы неправильно репрезентируем некоторый феномен (в данном случае вирус) и создаем на его основе определенные модели. При этом, даже если созданные модели являются динамическими, в них все равно будут изначально заложены определенные несвободы, чем у самого вируса. Этот вид реификации можно назвать эпистемологическим, поскольку в данном случае мы имеем дело с ошибкой в процессе познания,неправильному переходу от мира к моделям искусственного интеллекта.

2. Реификация, производимая во время процесса принятия решения, когда понимание некоторого феномена, как фиксированного, задает вектор создания стратегии действия. В случае с пандемией, это характерно для способов лечения и диагностики, выбранных на основе представления о вирусе, как о стабильной субстанции. Этот тип реификации представляется более этически нагруженным в сравнении с первым типом.

          

         Как могут быть воплощены этические принципы в программный код? Немецкий философ и социолог Аксель Хоннет утверждает, что если мы стремимся к некоторому межгрупповому равенству, то это равенство должно заключаться в том, что мы должны наносить разным социальным группам одинаковые социальные травмы в таком объеме, чтобы эти группы в конечном счете были одинаково несчастны. Понятие недоопределенности технического кода (и вообще любых правил кодифицированных в законодательные или soft-law объекты) может быть характеризована главным образом, как недоопределенность перевода - невозможность перевести технические термины в этические термины исчерпывающим образом. Помимо этого, существуют также эпистемические проблемы, приобретающие этическое значение. В частности, предвзятость, вписанная в алгоритм предсказания тяжести протекания заболевания у ковид-больных. Программа ориентировалась на то, стоя или лежа сделана КТ, по которому определяется тяжесть болезни. Для тех, чье КТ проводилась стоя, алгоритм ИИ предсказывал более легкое протекание болезни в силу того, что пациент в логике машины мог стоять, а значит чувствовал себя лучше в сравнении с пациентом, которому КТ делали лежа. Эти алгоритмы предсказания напрямую влияли на принятие решений о предоставлении большего количества врачебных ресурсов тем пациентам, кого ИИ посчитал более склонным к выздоровлению. В этих метриках, если мы задаем вопросы к этим алгоритмам, с позиции обычных видов угнетения и предвзятостей, мы замечаем, что та самая справедливость, как честность, (fairness) оказывается поврежденной,поскольку не учитывает контекст. В случае, если это действительно было бы связано не с моделью медицинского оборудования, на котором делается снимок, а с реальной тяжестью состояния пациента, мы могли бы принять этот алгоритм. Однако в случае, если в определенной больнице есть только определенный вид аппарата КТ (в частности, горизонтальный), эта больница получит меньше ресурсов просто в силу предвзятости алгоритма ИИ.

  Возможные решения лежат в сфере вписанных в практику этических нормативов по типу ELSI (Ethical, Legal and Social Issues). Такая методология предполагает работу этиков в составе междисциплинарных команд с самого начала, формулирующих цели, задачи и возможного социального блага, в процессе разработки какой-либо системы ИИ. Еще один подход - система

Responsible Research and Innovation рассматривается как более тяготеющая к исследованию социальных влияний. Здесь уместен вопрос внедрения систем ИИ в медицинскую практику и рутинизации их применения - способны ли они сделать людей еще более нечувствительными и слепыми к разным аспектам реификации, к тому, что отдельные сферы жизни воспринимаются как сферы товарных отношений? В конечном счете это приводит к разного рода феноменам, которые мы можем охарактеризовать как модификации, отчуждение или как-то иначе, когда человек начинает осознавать себя, как носитель некоторого биологического ресурса.