Как ИИ может испортить вам жизнь, помимо безработицы

Как ИИ может испортить вам жизнь, помимо безработицы Как только ИИ стал доступен широкому кругу пользователей, его возможности тут же начали тестировать не только обыватели, но и профессионалы из разных сфер. Но у этого инструмента, как и у любого другого, есть не только преимущества, но и недостатки. «Пристально смотрите на солнце в течение 5-30 минут, и это будет полезно для здоровья» — такие советы иной раз сегодня выдаёт. И уже есть люди, которые пострадали от контента, сгенерированного с применением нейросетей. О потенциальном вреде применения искусственного интеллекта в разных сферах, об ограничениях и запретах на генерацию контента нейросетями рассказала основатель маркетингового агентства PRO M8 Регина Яковлева.

Как ИИ может испортить вам жизнь, помимо безработицы

Как только ИИ стал доступен широкому кругу пользователей, его возможности тут же начали тестировать не только обыватели, но и профессионалы из разных сфер. Но у этого инструмента, как и у любого другого, есть не только преимущества, но и недостатки. «Пристально смотрите на солнце в течение 5-30 минут, и это будет полезно для здоровья» — такие советы иной раз сегодня выдаёт. И уже есть люди, которые пострадали от контента, сгенерированного с применением нейросетей. О потенциальном вреде применения искусственного интеллекта в разных сферах, об ограничениях и запретах на генерацию контента нейросетями рассказала основатель маркетингового агентства PRO M8 Регина Яковлева.

Сферы, в которых генерация контента может нанести вред здоровью и жизни людей

Нейросети упрощают и облегчают работу многих профессионалов. Они уже нашли свое применение, к примеру, в медицине, логистике, сельском хозяйстве, науке и многих других областях. Но в отдельных сферах к их использованию нужно подходить с осторожностью.

Использование ИИ в медицине: первые успехи и неудачи

В 2019 году международная группа исследователей разработала и протестировала систему, использующую ИИ для диагностики рака груди. Анализируя маммограммы, алгоритм определял, есть ли у пациента такое заболевание. Система показала высокую точность в постановке диагноза (94,5%), но оказалась несовершенной.

Еще один любопытный эксперимент с привлечением ИИ к диагностике рака показал хорошие предварительные результаты. Ранее для изучения опухоли и установления ее границ с нормальной тканью приходилось довольно долго ждать. ИИ смог провести диагностику за 3 минуты. Врачи надеются, что это в дальнейшем может стать прорывом, и все нужные действия по удалению опухоли можно будет проводить в 1 операцию, а не в 2-3.

ИИ умеет быстро диагностировать заболевания на основе типичных симпотомов, но выводы, к которым приходит нейросеть, нужно многократно перепроверять врачам
abireg.ru

Но, несмотря на такие многообещающие результаты, нужно помнить: хотя ИИ ошибается в небольшом количестве случаев, за каждым из них стоит человеческая судьба, здоровье и жизнь.

Медицинские советы от ИИ Microsoft Copilot оказались смертельно опасны

Из-за неправильной интерпретации или игнорирования клинического контекста нейросетью кто-то может начать ненужное ему агрессивное лечение с серьезными побочными эффектами, а кто-то станет заниматься здоровьем слишком поздно. Каждый диагноз, выставляемый ИИ, должен быть перепроверен реальным врачом.

Дипфейки — от шуток до ударов по репутации и общественных волнений

ИИ активно используют для синтеза человеческого голоса и изображения. Видео, созданные с использованием нейросети, настолько реалистичные, что сходу можно и не понять, что это дипфейки. И овладеть технологией их создания может даже человек без большого багажа специализированных знаний и умений.

Некоторые пользователи используют ИИ для шуток над друзьями или для генерации коммерческого контента. При этом доступность технологии уже породила массу скандальных ситуаций — например, Том Хэнкс появился в рекламе стоматологии, но никто не согласовал с ним ее содержание. Гонорара, конечно же, актер тоже не получил. Взяли на вооружение дипфейки и мошенники. Они подделывают голос и изображение на видео, чтобы представляться другими людьми или же ставить жертву в неловкое положение (и шантажировать ее созданными материалами).

Один из нашумевших случаев — злоумышленник связался с поклонницей Илона Маска и, притворившись знаменитостью, выманил у жертвы около 50 000 долларов. Кореянка сначала настороженно отнеслась к новому знакомому, но он высылал ей фото и даже связался с ней по видео, чтобы «подтвердить» личность.

В России уже известны случаи, когда мошенники создавали аудио и видео с детьми, чтобы поживиться деньгами их родителей. Схема вроде «Мам, я попал в неприятности, просто вышли денег» вышла на новый уровень. Люди на эмоциях не всегда могут быстро проанализировать новость и критически посмотреть на ситуацию.

Дипфейки могут использовать и для нанесения урона репутации политиков, общественных деятелей, публичных лиц, для создания хаоса и манипулирования мнением сотен и тысяч людей. Именно поэтому сейчас активно обсуждаются возможные меры борьбы с дипфейками, в том числе на законодательном уровне.

Опасная литература, сгенерированная ИИ

Семья приобрела книгу «Грибы Великобритании: руководство по сбору безопасных и съедобных грибов», не зная, что она была написана с использованием ИИ. Нейросеть сгенерировала не только текст, но и изображения. Из-за недостоверной информации в книге семья оказалась в больнице.

ИИ Google советует есть камни для улучшения пищеварения и готовить пиццу с клеем
Google

А что будет, если нейросети начнут привлекать к созданию учебных пособий? Что, если тот же врач или фармацевт получат из таких книг неправильные сведения?

Автопилот и цена ошибки программы

ИИ применяется в беспилотном управлении машинами, но эти программы еще очень далеки от совершенства. Например, при тестах в 2018 году еще на этапе испытаний автомобиль с автопилотом сбил человека насмерть. Трагедия произошла из-за некорректных настроек чувствительности к распознаванию опасных объектов.

И такие случаи не единичны. Автопилот может неверно оценить дорожную обстановку и неправильно отреагировать на ситуацию. Например, Джошуа Браун активно тестировал машину Tesla и ее функционал, и был полностью уверен в эффективности автопилота. Однако это в итоге привело к ДТП с печальным финалом — программа неверно распознала белую боковину прицепа, и автомобиль столкнулся с ним.

Как минимизировать риски от сгенерированного контента

На мой взгляд, помочь снизить риски от контента, созданного ИИ, можно комплексом мер. Всю информацию, полученную от нейросети, нужно тщательно проверять. Во-первых, уже сейчас для выявления подобного контента есть сервисы. Они не всегда точны, но в целом показывают весьма неплохие результаты. Они работают не только с текстами, но и с видео, распознавая дипфейки.

Популярный ИИ обвинили в самоубийстве ребенка

Во-вторых, стоит подумать о том, чтобы обязать авторов напрямую указывать, что они использовали в своей работе ИИ — например, чтобы об этом была пометка на обложке книги. Так покупатель сможет решить, готов ли он приобретать такую литературу. В-третьих, нужно развивать у детей и молодежи критическое мышление. Почему-то в обсуждениях проблемы недостоверности информации от ИИ этому аспекту уделяют мало внимания. А ведь именно благодаря критическому мышлению человек может отфильтровать недостоверные сведения, перепроверить информацию, используя разные источники.

Полный запрет или частичное ограничение на использование ИИ

Возможно, в будущем нас ждет полный запрет на использование ИИ при генерации контента в тех сферах, в которых ошибки могут стоить людям жизни и здоровья. В частности, это медицина, образование.

Я полагаю, что запреты могут коснуться также юриспруденции и журналистики. Фейковые новости могут посеять панику. А некорректная информация из области юриспруденции может создать путаницу, и люди неверно будут трактовать законы.

Как бороться с некачественным и вредным контентом от ИИ на глобальном и локальном уровнях

Применение ИИ может значительно упростить работу многих специалистов и открыть для них новые возможности. Но это инструмент, и использовать его стоит грамотно и осмотрительно.

Представлена технология, распознающая дипфейки в реальном времени

Международное сотрудничество может помочь выработать единые правила и стандарты, которые можно было бы использовать в дальнейшем для создания локальных законов в каждой отдельно взятой стране. Ведь у каждого государства свои социальные и правовые особенности.

А пока таких единых правил и законодательных норм нет, каждый из нас должен осознать, что ИИ может выдавать не только полезный, но и весьма сомнительный контент. И учиться фильтровать информацию, перепроверять факты.