• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Доклад Анны Кулешовой «Этические парадоксы искусственной социальности»

24 января на базе семинара "Искусственный интеллект в мире людей" Анна Викторовна Кулешова (к.с.н., председатель Совета по этике научных публикаций) прочитала доклад "Этические парадоксы искусственной социальности". Содокладчиком выступил Олег Владимирович Грешнев (Synesis Group, руководитель компании VINGRID, эксперт в области программных решений для управления техникой и обработки данных).

По словам А. В. Кулешовой, искусственная социальность — эмпирический факт участия агентов ИИ в социальных взаимодействиях. Искусственная социальность — новая среда развития, которая проникает во все сферы жизни — от экономики до личной жизни, от науки до политики и задаёт новые правила. Мы живём в ситуации, когда ИИ может имитировать общение, генерировать изображения, лица людей, и в такой ситуации мы не сможем отличить искусственное лицо от живого человека.

Докладчики отметили, что научное сообщество выглядит очень перспективным для проникновения искусственной социальности, так как оно подвержено "квантофрении эффективных менеджеров". К сожалению, именно этот фактор стал одним из проводников ИИ в науку, но со знаком "минус" — через генерацию фейковых статей и машинный перевод иностранных статей. Одна нейросеть, которая училась писать научную статью, сымитировала также и ссылки, для которых выдумала имена, должности, названия журналов.

О. В. Грешнев особо заострил внимание на эффектах ИИ для деятельности учёного. ИИ предлагает науке широкие возможности: разработку индивидуальной траектории обучения, поиск по всему объёму научной литературы и данных, проверку гипотез, выявление скрытых связей в данных и публикациях. Но уже сегодня ИИ способен генерировать псевдонаучные статьи, которые на первый взгляд неотличимы от настоящих. Завтра он сможет генерировать научные данные любого происхождения. 

С другой стороны, благодаря ИИ в последние годы стала возможной систематическая борьба с плагиатом и "мусорными" дубликатами статей, публикуемыми недобросовестными учёными. Ни один человек или группа людей не сможет справиться с лавиной информации, производимой многими современными физическими и астрономическими экспериментами. Некоторые из них ежедневно записывают терабайты данных — и поток только увеличивается. Радиотелескоп Square Kilometer Array будет ежегодно генерировать примерно столько же трафика данных, сколько и весь Интернет. 

Создание гипотез долгое время было чисто человеческой сферой. Однако теперь учёные начинают использовать машинное обучение для получения оригинальных идей. Они разрабатывают нейронные сети (тип установки машинного обучения со структурой, вдохновлённой человеческим мозгом), которые предлагают новые гипотезы, основанные на закономерностях, которые сети находят в данных, вместо того, чтобы полагаться на человеческие предположения. Многие области могут вскоре обратиться к "музе" машинного обучения в попытке ускорить научный процесс и уменьшить человеческие предубеждения.

По словам докладчиков, основная коллизия искусственной социальности следующая: мы управляем ИИ, чтобы он решал задачи, важные для человека, но оставляем за собой принятие окончательных решений. ИИ учится помогать нам принимать эти решения и постепенно обучается эффективно влиять на самого человека. ИИ — это рывок вперёд человечества в своём развитии. В области самообучающегося сильного искусственного интеллекта возможны невероятные открытия и технологические прорывы, потому что человеку нужна компьютерная система, которая сама решает разные новые задачи, сама подстраивается под изменяющиеся условия. Сильный ИИ отличается от слабого креативностью, он универсален, автономен, обучаем и умеет действовать в условиях неопределённости. Сильный ИИ пользуется компонентами креативного интеллекта, такими как активная генерация гипотез и замыслов. Он может эффективно достигать поставленных целей, дробить сложные задачи на более простые, способен оценивать результаты своих действий, корректировать планы.

Особенности искусственной социальности — ситуация traceable 'by design', когда среда накапливает данные обо всех взаимодействиях и событиях, возможность перманентного слежения за человеком, мгновенная передача информации и постоянно растущий объём данных. Искусственная социальность — это среда, с которой человек взаимодействует через посредников — устройства. Как следствие мы наблюдаем киборгизацию человека. У нас становится всё меньше уверенности в источниках информации и партнёрах по коммуникации. Возникают трудности в идентификации человека как человека. Вместе с этим растёт степень индивидуализации среды под конкретного человека. Появляются новые возможности контроля и цензурирования информации. Некоторые вызовы, возникающие в связи с искусственной социальностью весьма тревожные — манипуляция общественным мнением людей через соцсети (в т.ч. с использованием ботов и фейковых аккаунтов), выявление мыслепреступлений и новые ресурсы для подавления инакомыслия, ограничение свободы слова, неограниченный сбор данных о человеке, симуляция разного уровня (соцсети, научные статьи и пр.), новые возможности цензуры и модерации контента, формирование цифрового тоталитаризма. Поэтому встаёт необходимость выработки новых практик цифровой гигиены. 

ИИ-система с положительной обратной связью оценивает "перспективность" темы на основе аналогов. Как результат — возникают неожиданные проявления автоцензуры: те или иные темы резко ограничиваются в распространении из-за того, что алгоритмы изначально сочли их неудачными, либо разработчики указали их как нежелательные. В правосудии может появиться ИИ-шовинист — в США бот подсказывал судьям обратить внимание на цвет кожи, или появляется бытовой расизм у смарт-устройств. Если вы светлокожий человек, у вас сработает система для сушки рук. Если тёмная кожа, не сработает. Другие социальные эффекты работы алгоритмов ИИ — формирование "эхокамер" — максимально комфортной и непротиворечивой информационной среды для каждого пользователя. Одно из самых ярких и негативных последствий такого рода эффектов — радикализация взглядов и отсутствие диалога с целью понять позицию противоположной стороны.

В связи с высказанными опасениями, в заключение О. В. Грешнев выразил надежду на движение ИИ в сторону "гуманистического" ИИ, в центре которого будет стоять человек. Однако, по его мнению, это та область, в которой "технарям"-создателям интеллектуальных систем необходимо будет отойти в сторону и дать слово "гуманитариям", которые помогут сформулировать этические нормы в работе ИИ.