• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Доклад "Искусственный интеллект и консервативная революция" Д.А. Баюка и А.В. Поповой

20 октября в рамках научного семинара «Искусственный интеллект в мире людей: гуманистические, этические и правовые аспекты развития цифровых технологий» был заслушан доклад "Искусственный интеллект и консервативная революция" кандидата физико-математических наук Д. А. Баюка и доктора юридических наук А. В. Поповой. Ниже мы приводим краткие итоги встречи.

Среди красноречивых примеров использования искусственного интеллекта в целях надзора можно обратить внимание на систему городского видеонаблюдения, которая широко используется по всему миру от Китая до США. В России такая система носит название «Безопасный город» и в список ее функционала помимо видеонаблюдения входит технологическая и интеллектуальная обработка данных, контроль передвижения автотранспорта, прогнозирование и принятие управленческих решений, а также многое другое. Система постоянно модернизируется и самообучается. Так, в 2010 году алгоритмы ИИ, используемые в камерах видеонаблюдения, допускали 28% ошибок при распознавании лиц (это практически в 4 раза больше, чем статистика человеческих ошибок, составляющая 5%). К 2017 году показатели ощутимо изменились и перегнали человеческие, выдавая только 2,3% ошибок. Помимо городских инфраструктур системы видеонаблюдения и распознавания лиц используются с целью определения эмоций человека (так, например, в Китае по выражению лица участника партийного заседания определяют степень его приверженности партии), а также, в частности, степени вовлеченности студента в учебный процесс. Одной из характерных черт надзорной политики является усиление роли государства и симметричное ослабление роли частных компаний. Причиной этому является информационный монополизм, носителем которого и становится государство, а не частный политический сектор, вопреки расхожей логике понимания капитализма.

Говоря об искусственном интеллекте и консервативной революции, а также о рисках внедрения искусственного интеллекта для построения кибергосударства или киберанархии, мы должны понимать в каких сферах ИИ начинает превалировать над человеческим интеллектом и где человек уже не может, в силу своих способностей, проверить правильность решения и предотвратить последствия действий искусственного интеллекта. Тотальное проникновение ИИ уже наблюдается в сфере частной жизни каждого из людей, обладающих смартфоном. Отслеживание геолокации, прослушивание разговоров и анализ поисковых запросов, используемый с целью создания таргетированных рекламных предложений, а также куда более настораживающих манипуляций. Еще одно поле применения ИИ наблюдается в сфере медицины периода Covid. С 2022 года в России упразднен процесс вызова на дом врача из поликлиники. Теперь существует единый телефонный номер звонки по которому обрабатывает робот-помощник. Именно алгоритм искусственного интеллекта, вшитый в бота, определяет куда направить звонок пациента и принимает решение необходим ли пациенту вызов доктора на дом. Та же самая система работает в банковской сфере телефонного обслуживания клиентов. Проблема нормативности установления правил работы ИИ в 2011 году мотивировала страны мира приступить к созданию единых этических и правовых кодексов искусственного интеллекта. Ключевая проблема возникающая в этом контексте - частое несовпадение интересов разработчиков с теми юридическими последствиями, к которым может привести «открытие» новых разработок алгоритмов работы ИИ. Здесь возникают и проблемы возложения ответственности, и проблемы доверия, и проблемы связанные с непониманием действия того или иного алгоритма ИИ на уровне простого пользователя. Дабы снизить количество появляющихся проблем был разработан Кодекс искусственного интеллекта, впервые примененные в сфере беспилотных автомобилей. В Кодекс вошли 7 правовых принципов регулирования ИИ:

1.   Принцип недопустимости причинения вреда человеку;

2.   Принципы уважения человеческого достоинства и конфиденциальности;

3.   Презумпция невинности человека при решении ИИ вопросов, связанных с правомерным поведением человека;

4.   Принцип раскрытия информации о разработке, производстве и использовании роботов ИИ;

5.   Принцип автономности воли;

6.   Принцип информированного согласия или презумпция несогласия;

7.   Принцип справедливости.

Отдельным особняком стоит вопрос о регуляции деятельности искусственного интеллекта на различный уровнях: международном - транснациональны компании, частные организации, бизнесы, использующие технологии ИИ в своих продуктах; и локальном - этические кодексы, в соответствии с которыми будут строиться национальные законодательства и будет применяться искусственный интеллект государствами или отдельными частными правообладателями.

         В ходе широких дискуссий, которые ведутся еще с середины XX века (см. «Три закона робототехники Айзека Азимова»), были сформулированы 6 ключевых этических правила взаимодействия с ИИ:

1.    Доверие - Системы ИИ должны быть понятны человеку, т.к. должно быть сформировано ощущение правильности выбора варианта решения проблемы программы-советчика («опыт оператора»);

2.    Соблюдение прав и свобод человека и гражданина - В алгоритмы работы ИИ и других технологических систем должны быть заложены принципы защиты персональных данных индивида, уважения к семейной жизни, защиты интересов личности, ее права на труд и др;

3.    Инклюзивность - Потребности всех людей должны приниматься во внимание таким образом, чтобы каждый человек мог принести пользу себе и всем людям, ИИ должны быть предложены наилучшие возможные условия для саморазвития человека;

4.    Ответственность- Системы ИИ должны работать надежно и уважать конфиденциальность пользователей те, кто проектирует и внедряет использование ИИ, должны действовать ответственно перед настоящим и будущим поколением людей;

5.    Беспристрастность - Запрещено создавать условия и обстоятельства, которые могут быть оценены как предвзятые, необходимы гарантировать соблюдение принципов справедливости по отношению к человеку, охраны его чести и достоинства;

6.    Надежность - Системы искусственного интеллекта должны быть способны работать надежно.

Именно эти принципы должны лечь в основе создания сильного искусственного интеллекта. Вопрос остается только в том: в каких областях этот интеллект будет использоваться и насколько прочно войдет в наши жизни?