• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
Контакты

Адрес: Старая Басманная ул., д. 21/4, стр. 1, каб. 414в
Телефон: +7 495 772-95-90*22692
Email: aengovatova@hse.ru

Руководство
Руководитель школы Павлов Александр Владимирович
Научный руководитель Порус Владимир Натанович
Заместитель руководителя Шулятьева Дина Владимировна
Менеджер по работе с преподавателями Захарова Наталия Владимировна

+7 (495) 772-95-90 *22685

Книга
Через линию

Юнгер Э.

Ад Маргинем Пресс, 2026.

Препринт
Dynamic Epistemic Logic of Resource Bounded Information Mining Agents

Dolgorukov V., Gladyshev M., Galimullin R.

arxiv.org. Computer Science. Cornell University, 2024

Доклад «Парадокс AGI, стохастический попугай и осьминог: что метафоры и определения (не)говорят о способностях ИИ» в НИГ «Философия науки».

Мероприятие завершено
3 февраля в НИГ «Философия науки» состоится доклад В.Э. Тереховича «Парадокс AGI, стохастический попугай и осьминог: что метафоры и определения (не)говорят о способностях ИИ». В докладе критически рассматриваются четыре популярные метафоры об ИИ (Тупица, Китайская комната, Стохастический попугай, Осьминог) и их скрытые философские предпосылки о природе «подлинного» понимания, интенциональности и семантического заземления. Будут представлены аргументы других авторов о том, что синтаксис все-таки может порождать форму семантики через структурированные паттерны языка, отражающие мир. Второй фокус доклада сосредоточен на парадоксе: понятие AGI сравнивает ИИ с человеком, хотя сам интеллект обычно принято определять лишь через когнитивные способности, хотя интеллект людей неотделим от их агентности и сознания.

Мы рады сообщить, что 3 февраля (18:00) в НИГ «Философия науки» прочитает доклад В.Э. Терехович. Тема доклада: «Парадокс AGI, стохастический попугай и осьминог: что метафоры и определения (не)говорят о способностях ИИ». Аннотация доклада приведена ниже:

«Доклад посвящен концептуальным неточностям, которые специалисты совершают при обсуждении способностей ИИ. Начнем с парадокса: технические определения ИИ от Дж. Маккарти (1956) до EU AI Act (2024) намеренно избегают прямого сравнения с человеческим интеллектом, описывая лишь функции и поведение ИИ-систем. Все чаще избегается даже слово "имитация", как что-то неопределенное. При этом определения AGI (Общего искусственного интеллекта) почти всегда включают это сравнение. Этот парадокс требует анализа, как минимум, по трем прагматическим причинам. Причина инженерная: каждое архитектурное решение (RLHF, chain-of-thought или ИИ-агенты), неявно опирается на определенную теорию мышления. Без осознания этой теории вы просто следуете за трендами, не понимая, что выбираете. Причина эпистемическая: без концептуальной рамки результаты бенчмарков остаются непрозрачными. Смысл выражения "модель прошла тест на AGI" зависит от вашего понимания того, что такое интеллект человека и интеллект вообще. Причина экономическая: инвесторы и государство не доверяют системам без их объяснимости и концептуальной ясности о том, как они принимают решения.

Основное содержание доклада строится вокруг четырех популярных метафор об ИИ: Тупица (Блок, 1981), Китайской комнаты (Серл, 1980), Стохастического попугая (Бендер и др., 2021) и Осьминога (Бендер & Коллер, 2020). Каждая из них указывает на реальные проблемы – невозможность манипуляции символами порождать смысл, отсутствие прямого доступа к миру, обучение только на паттернах. Но каждая также скрывает философские предпосылки, основанные на ложных, по мнению автора, дихотомиях: синтаксис или семантика, имитация или понимание, заземление в мире или обработка формальной информации. Анализируя возражения современных исследователей показано, что эти дихотомии далеко не так строги. Текстовые данные все же содержат информацию о структуре мира, закодированную в статистических закономерностях языка. RLHF создает косвенное семантическое и прагматическое заземление через обратную связь от человека. А синтаксис может порождать форму семантики через обучение на примерах и структурированные репрезентации.

В заключении для объяснения парадокса определения AGI предлагается гипотеза, что "интеллект" принято определять через когнитивные и лишь в небольшой степени через поведенческие способности, исключая агентность и сознание. Хотя у людей три уровня – когнитивный, аффективный и агентный – образуют единую интегрированную интеллектуальную систему.

Основная цель доклада в том, чтобы показать взаимную пользу встречного движения – с одной стороны, философский критический анализ понятий, используемых в архитектурах ИИ-систем, с другой стороны, использование конкретных инженерных результатов для серьезной ревизии устоявшихся понятий в академических дискуссиях».

Доклад пройдет в корпусе на Ст. Басманной 21/4 в 18:00. Аудитория 503, корпус А. Также будет доступна онлайн-трансляция, ссылку на которую можно получить, заполнив форму ниже.

Если Вы не из ВШЭ, Вы можете заполнить форму ниже для оформления разового пропуска в здание.

До встречи!