Стремительное проникновение искусственного интеллекта (ИИ) в науку и образование порождает сложные этические дилеммы. Специалисты пытаются определить, где заканчивается допустимое использование технологий и начинается академическое нарушение. На эти вопросы отвечает Юрий Чехович, кандидат физико-математических наук, эксперт в области академической этики, машинного обучения и ИИ, заведующий лабораторией № 42 в ИПУ РАН и основатель сервиса интеллектуальной проверки академических работ domate.
Этика служит механизмом саморегуляции профессионального сообщества, защищающим его от деградации. В сфере образования этот принцип критически важен, поскольку от него зависит качество подготовки будущих специалистов.
Человек естественно стремится облегчить свой труд, включая интеллектуальный. Если можно переложить часть задач на поисковик или ИИ, большинство так и поступит.
Но именно в этом кроется противоречие: цель образования — развить способность самостоятельно решать сложные задачи, а если для этого использовать ИИ, мы рискуем попросту оставить этот навык без изменений.
Юрий Чехович
Основатель сервиса интеллектуальной проверки академических работ domate
Это создаёт конфликт между личным комфортом и задачей образования — научить человека думать. Ситуацию усугубляет отсутствие чётких правил использования ИИ. Сообщество ещё не определило, где заканчивается допустимая помощь и начинается злоупотребление.
Необходимы новые правила
Создание этических норм для ИИ в образовании — не только возможная, но и неизбежная задача. Сообществу предстоит выработать правила, аналогичные нормам академической добросовестности. Уже сегодня ясно, что списывать или покупать работы — неэтично. Так же со временем будут определены границы использования ИИ.
Один из подходов — явное указание разрешённых инструментов для каждого задания, будь то ИИ, интернет или только собственные знания. Это создаст понятные «правила игры». Однако одних формальных запретов может быть недостаточно. Требуется пересмотр формата обучения, например, по модели «перевёрнутого класса», когда теорию изучают дома, а практику отрабатывают в аудитории под контролем преподавателя.
Научные журналы также адаптируются, вводя требования об обязательном указании использования ИИ на разных этапах исследования. Это обеспечивает прозрачность. При этом многие издания уже запретили применять ИИ для рецензирования статей, чтобы сохранить независимость экспертов и предотвратить утечки данных.
Ответственность автора и разработчика
Ключевой критерий этичности — личная вовлечённость исследователя. Если автор использует ИИ для составления списка литературы, он обязан проверить достоверность и релевантность каждого источника. Автоматическое создание списка без проверки является нарушением.
В то же время, разработчики ИИ несут скорее моральную, чем юридическую ответственность. Нейросети склонны к «галлюцинациям» — генерации правдоподобной, но ложной информации. Современные модели запрограммированы давать ответ любой ценой, даже если приходится «сочинять». Некоторые компании, осознавая риски, вводят внутренние ограничения, например, запрещая ИИ давать медицинские или юридические консультации.
Риски для науки и образования
Игнорирование этических норм грозит снижением качества образования и науки. Если студенты начнут повсеместно заменять собственное мышление работой ИИ, уровень их подготовки упадёт.
Наука во многом держится на доверии и на общих представлениях о том, что допустимо, а что — нет. Если в сообществе появится значительное число людей, которые считают приемлемыми плагиат, недобросовестное цитирование или манипуляции с текстами — это разрушит саму систему научных ценностей.
Юрий Чехович
Основатель сервиса интеллектуальной проверки академических работ domate
Это может привести к уходу из науки добросовестных исследователей и деградации всей среды.
Простые правила для авторов
Главное правило — критически оценивать любые результаты, полученные с помощью ИИ, и всегда перепроверять факты. Особенно это важно в незнакомых областях знаний. Также полезно задавать себе вопрос: допустимо ли в данной ситуации использовать ИИ? Если его применение приходится скрывать, это сигнал о нарушении.
Если вы можете открыто признать: «Да, я использовал ИИ для этой задачи», — и это не вызывает диссонанса, значит, вы действуете в рамках этики. Если же использование инструмента нужно скрывать от других, это сигнал о нарушении.
Юрий Чехович
Основатель сервиса интеллектуальной проверки академических работ domate
Будущее — за институционализацией этичных практик, а не за запретами.