Доклад Татьяны Болтенковой "«Метрики оценки этичности в решениях на основе искусственного интеллекта для психологии»
30 октября на регулярном семинаре "Искусственный интеллект в мире людей" со своим докладом выступила Татьяна Болтенкова - капитана команды-победителя конкурса Школы Цифровой Этики 2023 НЕЙМАРК.
атьяна рассказала о результатах работы команды над проектом по разработке метрик для оценки этичности решений на основе искусственного интеллекта (ИИ) в сфере психологии.
В ходе исследования команда выяснила, что более 75% респондентов испытывают тревогу, около 30% уже обращались к специалистам, а 78% готовы попробовать консультацию с ИИ-психологом. Было выделено несколько плюсов ИИ-консультирования: бесплатность, круглосуточная доступность и высокая анонимность. Однако респонденты также отметили недостатки: недостаток эмоциональной поддержки и сомнения в способности ИИ правильно интерпретировать эмоции и предоставлять квалифицированные советы.
По итогам анализа команда сформулировала три ключевые этические проблемы: дискриминация, прозрачность и риск причинения вреда. Для их решения были предложены подходы: использование репрезентативных наборов данных и методов обезличивания для снижения дискриминации, уведомления пользователей и ведение документации для прозрачности, а также внедрение маркеров психического состояния для предотвращения вреда. Также команда разработала контрольный список и процентную шкалу для оценки прозрачности, математическую формулу для определения дискриминационных рисков и показатели для оценки потенциального вреда.
Разработанная формула позволяет оценивать этичность ИИ-системы по шкале, где результат, приближенный к 100, свидетельствует о более высокой этичности. Предложенные метрики помогут в создании безопасных и этичных ИИ-решений, что укрепит доверие между пользователями и разработчиками в сфере цифровой психологии.
Семинар продолжился обсуждением вопросов этичности использования ИИ-систем в психологии, свои мнения высказали ведущие специлисты в области философии, психологии и права.