• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Состоялся круглый стол «Этическая экспертиза в сфере искусственного интеллекта»

15 ноября 2021 г. под эгидой семинара «Искусственный интеллект в мире людей» прошёл круглый стол «Этическая экспертиза в сфере искусственного интеллекта».

Состоялся круглый стол «Этическая экспертиза в сфере искусственного интеллекта»

Руководитель семинара А. В. Углева отметила, что у философов есть все ресурсы для прогнозирования будущего, выявления социогуманитарных рисков, их предупреждения и формирования принципов оптимального взаимодействия с ИИ.

Участники семинара (Е. А. Алексеев, П. Н. Барышников, Д. В. Винник, Д. Э. Гаспарян, Д. Н. Дроздова, Д. И. Дубровский, А. Г. Игнатьев, Ю. Ю. Петрунин, А. В. Углева, Н. А. Ястреб) обсудили, возможен ли консенсус между гуманитарными и техническими специалистами в понимании смысла ключевой терминологии — прежде всего, в том, что собой представляет ИИ. Также были подняты вопросы, какова функция этической экспертизы в сфере ИИ и каков статус эксперта в области этики ИИ. Много обсуждался Кодекс этики искусственного интеллекта, созданный в России в октябре 2021 года. Эксперты согласились, что кодекс представляет собой скорее общую рамку подходов и меморандум, чем регулятивный документ.

Участники круглого стола стремились разграничить различные уровни ИИ и связанные с ними проблемы. А. Г. Игнатьев выделил три аспекта понятия ИИ: междисциплинарное научное направление, комплекс технологий и свойство сложной автоматизированной системы, которое способно имитировать интеллект человека. Проблемы этики ИИ А. Г. Игнатьев разделил на три блока:  цивилизационное развитие под влиянием ИИ, этику разработчика и этику пользователя ИИ.

Ю. Ю. Петрунин выразил уверенность, что стандартные приёмы прикладной этики вполне применимы для решения таких проблем ИИ, как проблемы автомобиля-беспилотника, летального оружия, отбора персонала, анализа данных в маркетинге.

П. Н. Барышников на примере с генератором текстов GPT3 указал на то, что человек — плохой источник для имитации и обучения ИИ.

Е. А. Алексеева предложила разделить ИИ как большой исследовательский проект и "интеллектуальные системы", которые выполняют конкретные прикладные задачи.

Д. Э. Гаспарян указала на то, как базовое понятие «интеллект» различается у инженеров ИИ и у философов. Инженеры видят интеллект в перспективе от третьего лица — как набор когнитивных функций, которые проявляются как некоторое явление при условии вынесения за скобки того, что в философии называется перспективой первого лица. Поэтому инженерное понятие интеллекта лишено того, что всегда присутствует в понятии философском понятии интеллекта — целеполагания и свободы.

Н. А. Ястреб считает, что гуманитарная экспертиза ИИ понадобится там, где разработчик ИИ не в состоянии проанализировать неопределённости, связанные с выходом технологии на рынок.

Д. И. Дубровский обратил внимание на опасность возникновения общего ИИ.

Д. В. Винник подчеркнул необходимость присутствия человека в качестве "последнего судьи", который в отличие от ИИ должен принимать морально значимые  решения.

Д. Н. Дроздова указала на сходность иррационального принятия решений у человека и непрозрачности алгоритмов ИИ.

А. Ю. Алексеев отметил, что этика ИИ должна базироваться на общей этике науки.


В заключение круглого стола А. В. Углева обратила внимание на то, что гуманитарная экспертиза должна заниматься выявлением связанных с ИИ рисков и определением соответствия ожиданий от ИИ существующим в различных сообществах образам будущего.