Группа известных специалистов по этике искусственного интеллекта (ИИ) написала ответное письмо на предложение приостановить разработку моделей ИИ, таких как GPT-4. Они считают, что такой шаг не имеет смысла и не решает реальных проблем, связанных с использованием ИИ.
Ранее тысячи людей, включая Стива Возняка и Илона Маска, подписали открытое письмо, в котором выразили свою обеспокоенность возможными угрозами от неконтролируемого ИИ. Они предложили ввести мораторий на разработку таких систем до тех пор, пока не будут созданы механизмы их регулирования .
Однако специалисты по этике ИИ возразили этому предложению. Они утверждают, что опасность исходит не от гипотетического сильного будущего искусственного интеллекта, а от того, как алгоритмы используются сегодня. Специалисты указывают на такие проблемы, как эксплуатация рабочих, кража данных, концентрация власти в меньшем количестве рук и вред для окружающей среды.
По мнению экспертов, нужно не приостанавливать разработку ИИ, а контролировать её. Они призывают к прозрачности и регулированию со стороны государства и общества. Они также подчеркивают необходимость участия разнообразных групп людей в процессе создания и оценки ИИ.
Вы не должны бояться ИИ. Вы должны бояться людей, которые его строят
Джессика Мэтьюз
основательница Uncharted Power