ИИ может стать жертвой собственных данных, показало исследование

ИИ может стать жертвой собственных данных, показало исследование Ученые обнаружили серьезную проблему в развитии искусственного интеллекта (ИИ): обучение моделей на основе данных, сгенерированных другими ИИ, может привести к их деградации. Это явление получило название «коллапс модели».

ИИ может стать жертвой собственных данных, показало исследование

Ученые обнаружили серьезную проблему в развитии искусственного интеллекта (ИИ): обучение моделей на основе данных, сгенерированных другими ИИ, может привести к их деградации. Это явление получило название «коллапс модели».

Nature

В своей работе ученые продемонстрировали, как последующие поколения ИИ-моделей, обученных на данных предыдущих, постепенно теряют способность к обучению. Вместо осмысленного контента они начинают генерировать бессмысленные повторы.

Исследователи предупреждают, что бесконечное обучение ИИ на собственных данных может привести к катастрофическим последствиям. Для предотвращения этого необходимо тщательно фильтровать данные, используемые для обучения моделей.

Одновременно с этим, компании, которые используют для обучения ИИ исключительно человеческие данные, могут получить существенное преимущество в развитии своих технологий.

Ученые подчеркивают важность использования качественных и разнообразных данных для обучения искусственного интеллекта, чтобы избежать негативных последствий.