• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: Старая Басманная ул., д. 21/4, стр. 1, каб. 414в
Телефон: +7 495 772-95-90*22692
Email: aengovatova@hse.ru

Руководство
Руководитель школы Павлов Александр Владимирович
Научный руководитель Порус Владимир Натанович
Заместитель руководителя Шулятьева Дина Владимировна
Менеджер по работе с преподавателями Захарова Наталия Владимировна

+7 (495) 772-95-90 *22685

Книга
Через линию

Юнгер Э.

Ад Маргинем Пресс, 2026.

Препринт
Dynamic Epistemic Logic of Resource Bounded Information Mining Agents

Dolgorukov V., Gladyshev M., Galimullin R.

arxiv.org. Computer Science. Cornell University, 2024

В НИУ ВШЭ обсудили роль искусственного интеллекта в ответственных исследованиях и инновациях

26 марта 2025 года в Школе философии и культурологии НИУ ВШЭ состоялась открытая дискуссия «Роль искусственного интеллекта в улучшении рамочных условий для ответственных исследований и инноваций (RRI)». Мероприятие прошло в рамках семинара «Искусственный интеллект в мире людей: гуманистические, этические и правовые аспекты развития цифровых технологий» и собрало ведущих исследователей из России, Китая и Европы.

Ключевой темой обсуждения стало то, как ИИ может не только быть объектом этического регулирования, но и инструментом для развития ответственных исследований и инноваций.

ИИ как инструмент для ответственной науки

Профессора Университета Китайской Академии Наук Ван Дачжоу и Чжан Чжихуэй представили концепцию использования искусственного интеллекта для совершенствования этических стандартов в науке и технологиях. Они предложили стратегию «ИИ для ИИ», согласно которой искусственный интеллект может стать инструментом саморегулирования, обеспечивая баланс между инклюзивностью и оперативностью принятия решений.

Доверие, безопасность и ответственность

Важным аспектом дискуссии стало общественное доверие к ИИ. Александра Казакова (Университет Китайской Академии Наук) отметила, что прозрачность алгоритмов и вовлечение общества в процессы разработки технологий играют ключевую роль в снижении опасений по поводу искусственного интеллекта.

О вопросах безопасности говорил Алексей Дурнев (ИТМО). Он подчеркнул, что современные ИИ-модели, обладая высокой степенью автономности, требуют новых подходов к объяснимости алгоритмов и распределенной ответственности. В этом смысле этическое регулирование должно развиваться одновременно с технологическими инновациями.

Проблему границ доверия и ответственности подняла Елена Труфанова (Институт философии РАН). Она отметила, что стремление использовать ИИ в принятии решений может привести к технократизации, когда люди начнут перекладывать ответственность на алгоритмы. Главной задачей гуманитарной экспертизы, по ее мнению, является определение пределов автономии ИИ в чувствительных сферах, таких как медицина, право и экология.

Философские и социальные аспекты

В ходе дискуссии был затронут и более широкий философский контекст. Олег Гуров (ГАУГН) отметил, что вместо киборгизации общества фокус постепенно смещается к цифровой инклюзии, которая должна обеспечивать равные возможности для уязвимых групп, особенно в образовании и здравоохранении.

Луи Вервурт (НИУ ВШЭ) представил исследование причинно-следственного мышления в ИИ, протестировав философские концепции на языковых моделях, таких как ChatGPT, DeepSeek и Gemini. Он отметил, что современные ИИ-системы уже демонстрируют способность к анализу сложных причинных связей, что может изменить подходы к философским исследованиям.

Владимир Ветров (ИМЭМО РАН, Институт философии РАН) предложил рассматривать ИИ в триединой роли: как объект этического регулирования, как пример ответственной технологии и как инструмент принятия решений в науке и инновациях.

Завершил дискуссию Александр Михайловский (НИУ ВШЭ), подняв вопрос о различиях в подходах к ИИ в западной и восточной философских традициях. По его мнению, политическая философия ИИ должна учитывать многополярность мира и разнообразие социальных и этических концепций.

Итоги

Дискуссия показала, что развитие искусственного интеллекта требует комплексного подхода, сочетающего технические, философские и социальные аспекты. Участники сошлись во мнении, что ИИ может стать не только объектом этического регулирования, но и инструментом для его совершенствования, если будут разработаны механизмы прозрачности, распределенной ответственности и общественного контроля.