В то время как искусственный интеллект обещает большие возможности для разработки программного обеспечения, появляется и темная сторона: некачественные отчеты об ошибках, созданные им, вызывают головную боль у разработчиков. Кто виноват? Чрезмерное доверие к таким инструментам, как Bard и Copilot.
Проблема не только теоретическая. Дэниел Стенберг, создатель curl и libcurl, столкнулся с лавиной фиктивных сообщений об уязвимостях, многие из которых были созданы искусственным интеллектом. Эти отчеты, как он считает, тратят драгоценное время разработчиков на поиск несуществующих дефектов.
Один из примеров: отчет, утверждающий, что он предсказывает будущую уязвимость, который Стенберг позже развенчал как «галлюцинацию ИИ», смешивающую реальные и сфабрикованные детали.
Стенберг призывает к осторожности, подчеркивая необходимость человеческого контроля. Хотя ИИ может помочь в поиске ошибок, окончательный выбор всегда должен оставаться за человеком. Даже Феросс Абухадиджех, генеральный директор компании Socket, использующей ИИ для обнаружения уязвимостей в пакетах, подчеркивает, что для уменьшения количества ложных срабатываний очень важны люди.
Спор идет не об искоренении помощи ИИ, а об ответственном использовании. Разработчики должны понимать ограничения этих инструментов и не поддаваться соблазну автоматизации в ущерб точности.
Потраченное впустую время разработчиков, отложенные исправления и подорванное доверие к системе сообщений об уязвимостях — все это может оказаться пагубным.