Новое исследование Массачусетского технологического института (MIT) и Университета штата Пенсильвания выявило проблемы в использовании больших языковых моделей (LLM) для домашнего видеонаблюдения. Модели могут рекомендовать вызов полиции даже в случаях, когда видео не показывает преступной активности.
Изученные модели показали непоследовательность в том, какие видео они отмечают для вмешательства полиции. Например, одно видео с угоном автомобиля может быть отмечено, а другое с аналогичной активностью нет.
Ученые обнаружили, что модели часто неадекватно применяют социальные нормы к видеозаписям, что затрудняет прогнозирование их поведения в различных контекстах. Это также демонстрирует проблемы с прозрачностью и объяснимостью моделей, поскольку они могут проявлять неожиданные предвзятости, основанные на демографических данных.