В Силиконовой долине обеспокоились разрешением ИИ убивать людей

В Силиконовой долине обеспокоились разрешением ИИ убивать людей Дискуссия об «автономном оружии» нарастает, поскольку влиятельные лица Силиконовой долины начали высказываться о его разработке. Соучредитель Shield AI Брендон Ценг, например, недавно заявил, что американское оружие никогда не станет полностью автономным.

В Силиконовой долине обеспокоились разрешением ИИ убивать людей

Дискуссия об «автономном оружии» нарастает, поскольку влиятельные лица Силиконовой долины начали высказываться о его разработке. Соучредитель Shield AI Брендон Ценг, например, недавно заявил, что американское оружие никогда не станет полностью автономным.

Однако всего через несколько дней соучредитель Anduril Палмер Лакки оспорил эту точку зрения, поставив под сомнение моральное превосходство противников автономного оружия, в то время как «противники используют возможности ИИ».

Комментарии Лакки спровоцировали дальнейшее обсуждение: пресс-секретарь Anduril Шеннон Прайор уточнила, что компания не поддерживает идею, что роботы должны принимать решения о смертельных ударах самостоятельно, но обеспокоена «плохими людьми, использующими плохой ИИ».

Тем временем соучредитель Palantir Джо Лонсдейл выразил недовольство бинарным подходом к вопросу, призывая к более «тонкому пониманию автономии в оружейных системах».