• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: Старая Басманная ул., д. 21/4, стр. 1, каб. 414в
Телефон: +7 495 772-95-90*22692
Email: aengovatova@hse.ru

Руководство
Руководитель школы Павлов Александр Владимирович
Научный руководитель Порус Владимир Натанович
Заместитель руководителя Шулятьева Дина Владимировна
Менеджер по работе с преподавателями Захарова Наталия Владимировна

+7 (495) 772-95-90 *22685

Статья
Живая истина и ее «критерии»

Куликов А. К.

Вопросы философии. 2025. № 4. С. 126-137.

Глава в книге
Шесть вопросов о Боге

Павлов И. И.

В кн.: Существование Бога? Современные позиции и подходы. СПб.: Умозрение, 2025. С. 583-586.

Препринт
Dynamic Epistemic Logic of Resource Bounded Information Mining Agents

Dolgorukov V., Gladyshev M., Galimullin R.

arxiv.org. Computer Science. Cornell University, 2024

В НИУ ВШЭ обсудили роль искусственного интеллекта в ответственных исследованиях и инновациях

26 марта 2025 года в Школе философии и культурологии НИУ ВШЭ состоялась открытая дискуссия «Роль искусственного интеллекта в улучшении рамочных условий для ответственных исследований и инноваций (RRI)». Мероприятие прошло в рамках семинара «Искусственный интеллект в мире людей: гуманистические, этические и правовые аспекты развития цифровых технологий» и собрало ведущих исследователей из России, Китая и Европы.

Ключевой темой обсуждения стало то, как ИИ может не только быть объектом этического регулирования, но и инструментом для развития ответственных исследований и инноваций.

ИИ как инструмент для ответственной науки

Профессора Университета Китайской Академии Наук Ван Дачжоу и Чжан Чжихуэй представили концепцию использования искусственного интеллекта для совершенствования этических стандартов в науке и технологиях. Они предложили стратегию «ИИ для ИИ», согласно которой искусственный интеллект может стать инструментом саморегулирования, обеспечивая баланс между инклюзивностью и оперативностью принятия решений.

Доверие, безопасность и ответственность

Важным аспектом дискуссии стало общественное доверие к ИИ. Александра Казакова (Университет Китайской Академии Наук) отметила, что прозрачность алгоритмов и вовлечение общества в процессы разработки технологий играют ключевую роль в снижении опасений по поводу искусственного интеллекта.

О вопросах безопасности говорил Алексей Дурнев (ИТМО). Он подчеркнул, что современные ИИ-модели, обладая высокой степенью автономности, требуют новых подходов к объяснимости алгоритмов и распределенной ответственности. В этом смысле этическое регулирование должно развиваться одновременно с технологическими инновациями.

Проблему границ доверия и ответственности подняла Елена Труфанова (Институт философии РАН). Она отметила, что стремление использовать ИИ в принятии решений может привести к технократизации, когда люди начнут перекладывать ответственность на алгоритмы. Главной задачей гуманитарной экспертизы, по ее мнению, является определение пределов автономии ИИ в чувствительных сферах, таких как медицина, право и экология.

Философские и социальные аспекты

В ходе дискуссии был затронут и более широкий философский контекст. Олег Гуров (ГАУГН) отметил, что вместо киборгизации общества фокус постепенно смещается к цифровой инклюзии, которая должна обеспечивать равные возможности для уязвимых групп, особенно в образовании и здравоохранении.

Луи Вервурт (НИУ ВШЭ) представил исследование причинно-следственного мышления в ИИ, протестировав философские концепции на языковых моделях, таких как ChatGPT, DeepSeek и Gemini. Он отметил, что современные ИИ-системы уже демонстрируют способность к анализу сложных причинных связей, что может изменить подходы к философским исследованиям.

Владимир Ветров (ИМЭМО РАН, Институт философии РАН) предложил рассматривать ИИ в триединой роли: как объект этического регулирования, как пример ответственной технологии и как инструмент принятия решений в науке и инновациях.

Завершил дискуссию Александр Михайловский (НИУ ВШЭ), подняв вопрос о различиях в подходах к ИИ в западной и восточной философских традициях. По его мнению, политическая философия ИИ должна учитывать многополярность мира и разнообразие социальных и этических концепций.

Итоги

Дискуссия показала, что развитие искусственного интеллекта требует комплексного подхода, сочетающего технические, философские и социальные аспекты. Участники сошлись во мнении, что ИИ может стать не только объектом этического регулирования, но и инструментом для его совершенствования, если будут разработаны механизмы прозрачности, распределенной ответственности и общественного контроля.