Эксперт предостерег от доверия ИИ при просмотре новостей

Эксперт предостерег от доверия ИИ при просмотре новостей Пранав Ксиксит, старший редактор Engadget, в критической статье предостерега от того, чтобы полагаться на чат-боты с ИИ, при просмотре новостей. Ссылаясь на исследование Nieman Lab, Ксиксит рассказывает о том, как ChatGPT просто генерировал URL-адреса для громких новостных статей, а не брал настоящие, хотя с изданиями у разработчиков есть отдельные соглашения.

Эксперт предостерег от доверия ИИ при просмотре новостей

Пранав Ксиксит, старший редактор Engadget, в критической статье предостерега от того, чтобы полагаться на чат-боты с ИИ, при просмотре новостей. Ссылаясь на исследование Nieman Lab, Ксиксит рассказывает о том, как ChatGPT просто генерировал URL-адреса для громких новостных статей, а не брал настоящие, хотя с изданиями у разработчиков есть отдельные соглашения.

Это явление, называемое в индустрии ИИ “галлюцинацией”, подчеркивает фундаментальный недостаток: склонность ИИ к фабрикации информации, а не к предоставлению точных данных.

Nieman Lab решил посмотреть, предоставит ли ChatGPT правильные ссылки на статьи из новостных изданий, которым он платит миллионы долларов. Эндрю Дек из Nieman Lab попросил сервис предоставить ссылки на громкие эксклюзивные истории, опубликованные 10 издательствами, с которыми OpenAI заключила сделки. Среди них Associated Press , The Wall Street Journal , Financial Times , The Times (UK), Le Monde , El País , The Atlantic , The Verge , Vox и Politico . В ответ ChatGPT выдал выдуманные URL-адреса, которые вели к страницам с ошибкой 404, потому что их просто не существовало.

Несмотря на постоянные усилия OpenAI по расширению возможностей ChatGPT, эти эксперименты показывают риски, присущие полагаться на ИИ в вопросах точности фактов. Ксиксит утверждает, что если ИИ не справляется с такими базовыми задачами, как предоставление корректных URL-адресов, то доверять ему становится идеей сомнительной.