• A
  • A
  • A
  • АБВ
  • АБВ
  • АБВ
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта

Доклад Луи Поля Вервурта "Are AI-based consciousness and ethical robots possible?"

30 марта в рамках научного семинара «Искусственный интеллект в мире людей: гуманистические, этические и правовые аспекты развития цифровых технологий» с докладом "Are AI-based consciousness and ethical robots possible?" выступил PhD Монреальского университета, преподаватель Факультета Гуманитраных Наук НИУ ВШЭ Луи Поль Вервурт. Здесь мы публикуем краткий отчет о прошедшей встрече.

Могут ли будущие роботы и системы искусственного интеллекта (ИИ) обладать сознанием и подлинно человеческим интеллектом — или даже сверхчеловеческим интеллектом? Могут ли они вести себя этично? В своем докладе Луи Поль Вервурт рассмотрел эти вопросы с точки зрения философии сознания и ИИ и продемонстрировал, что эти вопросы связаны - ответ на них зависит от одного и того же условия. Начав с анализа концепций сознания и свободы воли, широко изучаемых в философии сознания, автор доклада показал, что ключевой способностью, которой должны обладать компьютеры и роботы, чтобы подражать человеческому познанию и (этическому) сознанию, является способность учиться и применять «согласованные сети теорий». Докладчик предположил, что там, где классический ИИ был, по сути, «управляемым данными», самым большим шагом вперед был бы «управляемый теорией» ИИ. В докладе с целью подтверждения этого утверждения были рассмотрены работы в области глубинного обучения, а также концепты когнитивной нейробиологии.

Существенным компонентом модели сознания, которую автор предлагает рассмотреть в своем докладе, является следующее положение - свобода воли тесно связана с сознанием, а сущность свободы воли непосредственно заключается в наших (когнитивных) способностях сознательно контролировать наши действия. Если принимать в расчет эту идею, перед нами возникает множество вопросов: обладает ли, например, совсем маленький ребенок способностью совершать выбор свободно? В каком возрасте начинает формироваться эта способность? Происходит ли это постепенно или скачкообразно? Ответы на эти вопросы могут быть даны при прояснении некоторых положений:

Для определения понятия «свободного действия» в докладе используется теория Манера-Бунге, также некоторые положения теории Айера:

Ключевое положение: Действие «А» животного «В» является «свободным» или «совершенным по собственной воле», если и только если:

(i) действие A не ограничено (нет запрограммированного или внешнего принуждения), и

(ii) действие A является сознательным в том смысле, что оно отслеживается (записывается, анализируется, контролируется или отслеживается) какой-либо другой умственной деятельностью в мозге В.

Исходя из этих базовых положений, далее выводится «Теория Сознательного Мониторинга» (ТСМ). Эта модель призвана ответить на вопрос о том каким образом мозг «отслеживает (т. е. записывает, анализирует и контролирует) действия и умственную деятельность (например, наличие идей, намерений, восприятий и т. д.)? Автор доклада предлагает, чтобы этот мониторинг всегда включал в себя некоторые предположения, убеждения, причины или, в интеллектуально требовательных контекстах, «теории». Например, когда мы «свободно» решаем, какой костюм выбрать для работы, мы можем «использовать убеждение» или можем «быть в убеждении», что костюм А больше подходит для сегодняшней задачи, чем костюм Б. Или, свободно выбирая, помогать ли ближнему, мы можем придерживаться мировоззрения или «теории», согласно которой альтруизм является источником удовлетворения. Или, когда капитан космического корабля должен выбирать между «50 МВт влево» или «1000 МВт вправо», он использует теорию механики. По мнению автора, процесс сознательного мониторинга (ii), который является ключевым условием «свободы воли», выражается именно в «пропускании» мотивации к действию через теоретические рамки: гипотезы, причины, убеждения. 

         Модель ТСМ является компатибилистской по своей сути и фокусируется на «рациональном»/ «познавательном» сознании и свободе воли. Ее синтетический характер позволяет решать проблемы конкурирующих теорий, таких как теории Франкфурта, Вольфа, Фишера, Равиззы и Канта. 

Согласно ТСМ, если действие не вызвано чисто рефлексами, инстинктивными чувствами (например, страхом), на уровне сознания всегда происходит мониторинг, анализ и контроль действия, выбора или решения относительно или внутри, убеждения, причины, а в общем смысле - некой теории. С этой точки зрения, искусство выбрать правильное свободное решение — это умение использование наиболее адекватные убеждения/ теории. Эта модель позволяет нам взаимодействовать с ИИ и когнитивной нейробиологией.

         Это представление о свободе воли и сознании может быть применимо и к машинам с внедренными алгоритмами ИИ. Однако, чтобы ответить на вопрос обладает ли искусственный интеллект сознанием, необходимо провести важное разграничение, представленное в недавних результатах когнитивной нейронауки. Существует 3 уровня понимания сознания/ познания: 

·      Уровень C0: бессознательные процессы в мозге.

·      Уровень C1: сознание, названное авторами «глобальной доступностью», «соответствует транзитивному значению сознания (как в «Водитель осознает свет»). Он относится к отношениям между когнитивной системой и конкретным объектом мысли, таким как мысленное представление «света топливного бака». Информация, которая в этом смысле сознательна, становится глобально доступной для организма; например, мы можем вспомнить это, воздействовать на это и говорить об этом» (Dehaene et al. 2017, p. 486). C1-сознание — это способность мозга хранить информацию и делать ее доступной для дальнейшей обработки.

·      В то время как C1 является транзитивным, объектно-ориентированным, C2 или «самоконтроль» является рефлексивным, самоориентированным. «Это относится к самореферентным отношениям, в которых когнитивная система способна контролировать свою собственную обработку и получать информацию о себе. Люди много знают о себе, в том числе такую разнообразную информацию, как строение и положение своего тела, знают ли они что-то, воспринимают ли они что-либо или просто совершили ошибку. Это чувство сознания соответствует тому, что обычно называют самоанализом или тем, что психологи называют «метапознанием» — способностью воспринимать и использовать внутренние представления о собственных знаниях и способностях» (Dehaene et al. 2017, стр. 486).

Одним из выводов работы современных нейроученых является то, что, если машины хотят имитировать человеческое сознание, они должны быть в состоянии реализовать C2-сознание, однако на данный момент ИИ-системы далеки от уровня С2, они скорее находятся на уровне C0, что соответствует бессознательной обработке в человеческом мозге. Высшая форма человеческого сознания типа С2, предполагающая самоконтроль, включающий, по мнению авторов, способность представлять себя, и «знание того, что знаешь» обладает и еще одной функцией - функцией «оценки и «исправления ошибок». Дабы приблизить будущий ИИ к такому типу процессинга, необходимо внедрить систему самоконтроля машины - функцию ведения списка своих подпрограмм, вычисления оценки вероятности их успеха в различных задачах и постоянного их обновления. Большинство современных систем машинного обучения лишены какого-либо самоконтроля; они вычисляют (C0), не представляя степени и пределов своих знаний или того факта, что у других может быть точка зрения, отличная от их собственной» (там же, с. 491).

         Таким образом, сознание, понимаемое, как способность агента контролировать свои действия (или их ментальные/ мозговые представления) посредством когнитивных структур и теорий — это высшая когнитивная функция типа С2, которая на данном этапе не может быть доступна алгоритмам ИИ. «Грааль» передовых исследований искусственного интеллекта в автоматизированных научных открытиях заключается в создании механизма, который мог бы открывать концепции, законы и, в конечном счете, теории. Если бы алгоритмы ИИ действительно могли это сделать, то, согласно модели ТСМ, они обладали бы ключевым компонентом (рационального) сознания. Но насколько далеко они на самом деле? Каково их современное состояние?

         И «мониторинг», и особенно выведение «теорий» все еще находятся в зачаточном состоянии. «Мониторинг» в этих системах изначально осуществляется людьми: они обучают системы, загружая в них партии примеров, и указывая, какие результаты являются успешными. Системы необходимо обучать для каждого физического контекста (определяемого законами). Они не могут распознавать ситуации/ контексты, на которых они не были обучены. Но самое главное, что «теории», которые эти механизмы могут освоить чрезвычайно узки по объему — это не теории в том смысле, в каком мы их понимаем, а конкретные законы (закономерности и тенденции). Другими словами, эти механизмы распознавания специализируются на крошечной части всех «данных», с которыми агент (человек или робот) может столкнуться в реальном мире. В частности, эти механизмы специализируются на физических данных, а НЕ на произвольных данных, данных из повседневной жизни, данных, описывающих психологические или социологические контексты, которые часто несравнимо более сложны. Существуют ли теории для этих контекстов? Можем ли мы их кодифицировать?

         Расширенный мониторинг действия (запись, анализ, контроль или отслеживание) включает не только распознавание данных и прогнозирование будущего поведения наблюдаемой системы, но и целенаправленное «использование», «применение», «внедрение» полученной информации. Роботы, эмулирующие/имитирующие сознание, должны будут изучить/освоить «аксиологические» теории. «Социальные» роботы должны будут освоить социальные теории. Этические роботы должны будут освоить этические теории. Это приводит к идее, что человекоподобный механизм ИИ должен быть в состоянии освоить связную «паутину теорий».

         Таким образом, исходя из модель ТСМ, ключевым компонентом естественного или искусственного сознания является способность «овладевать» последовательной паутиной теорий. Некоторые из самых передовых исследований в области ИИ ищут «автоматизированное открытие теории» (и применение/ освоение теорий для предсказания траектории). Эти новые вычислительные мощности открывают дверь для искусственного сознания и этических роботов. Однако, уровень освоения этих теории у ИИ находится в зачаточном состоянии. На данный момент никто не знает, как формально описать «синтез» законов в теории. К сожалению, теории для построения теории не существует.