Ученые из Университета Пердью выявили дисбаланс в ценностях, которые заложены в данных для обучения искусственного интеллекта (ИИ). Основная проблема заключается в том, что системы ИИ ориентированы преимущественно на информацию и утилитарные ценности, игнорируя такие аспекты, как эмпатия, справедливость и права человека.
В ходе исследования ученые проанализировали три открытых набора данных, используемых ведущими американскими ИТ-компаниями для обучения ИИ. Для этого была создана система классификации человеческих ценностей, включающая такие аспекты, как благополучие, информация, справедливость, права человека и животных, ответственность и эмпатия.
Результаты показали, что в наборах данных чаще всего встречаются примеры, связанные с поиском информации и знанием, а вот темы, связанные с правами человека или справедливостью, представлены крайне слабо. Это создаёт проблему, поскольку ИИ-системы, обученные на таких данных, могут неадекватно реагировать на социальные вопросы, что влияет на их этическую составляющую, особенно в таких сферах, как здравоохранение и право.
По словам ученых, важно, чтобы ИИ отражал широкий спектр общественных ценностей, что позволит обеспечить более этичное взаимодействие с пользователями.