Учёные выяснили, что ChatGPT более чем в 50% случаев выдаёт ошибочное цитирование

Учёные выяснили, что ChatGPT более чем в 50% случаев выдаёт ошибочное цитирование Недавнее исследование, проведённое в Университете Дикина, выявило «тревожные данные» и вопросы о надёжности чат-бота ChatGPT в академических исследованиях. Было обнаружено, что чат-бот более чем в половине случаев приводит ложные или неточные цитаты и ссылается на источники весьма странным образом, что ставит не только ставит под сомнение его полезность для учёных, но и вызывает опасения из-за потенциального вреда. Эти вбросы вызваны тем, что исследователи в различных научных областях, всё чаще используют ChatGPT для ускорения своей работы.

Учёные выяснили, что ChatGPT более чем в 50% случаев выдаёт ошибочное цитирование

Недавнее исследование, проведённое в Университете Дикина, выявило «тревожные данные» и вопросы о надёжности чат-бота ChatGPT в академических исследованиях. Было обнаружено, что чат-бот более чем в половине случаев приводит ложные или неточные цитаты и ссылается на источники весьма странным образом, что ставит не только ставит под сомнение его полезность для учёных, но и вызывает опасения из-за потенциального вреда. Эти вбросы вызваны тем, что исследователи в различных научных областях, всё чаще используют ChatGPT для ускорения своей работы.

В ходе эксперимента перед ChatGPT была поставлена задача написать шесть обзоров литературы по различным темам психического здоровья, начиная от тяжёлого депрессивного расстройства и заканчивая дисморфологическим расстройством тела, которые различаются как по уровню общественного понимания, так и по объёму исследований. Из 176 цитат, сгенерированных чат-ботом, 35 (19,9%) были сфабрикованы, то есть, попросту таких мыслей нигде высказано не было, что можно отнести к «галлюцинациям» ИИ, а ещё 141 (45,4%) содержали ошибки, такие как неправильные даты публикации, номера страниц или неверные идентификаторы цифровых объектов (DOI).

Только 77 цитат (43,8%) были подлинными и точными. Ошибки не всегда были очевидными: 64% сфабрикованных DOI были связаны с немеющими отношения к предметному полю исследовательскими работами, в то время как остальные 36% были полностью недействительными. Это говорит о том, что читатели могут не заметить неточностей, если не проведут перекрёстную проверку источников. Ну а будет ли это сделано, — вопрос риторический.

Исследователи подчёркивают необходимость «тщательной разработки подсказок, строгой проверки людьми… а также к усилению мер защиты в журналах и институтах для обеспечения достоверности исследований». Это необходимо для защиты целостности исследований.

По информации портала Tech.co, это исследование служит предостережением для учёных, всецело полагающихся на инструменты ИИ, и предполагает, что, хотя эти технологии могут упростить определённые аспекты исследований, они не должны заменять человеческое суждение и надзор.