Нейросети засоряют интернет: 7 ситуаций, в которых ИИ​ делает всем только хуже

Нейросети засоряют интернет: 7 ситуаций, в которых ИИ​ делает всем только хуже

17
Аватар автора

Екатерина Лебедева

хранит фото

Страница автора

Часто ИИ-контент встречается там, где не ожидаешь его увидеть: в фотобанках, поисковой выдаче, отзывах на маркетплейсах.

Как и любой инструмент, нейросети можно использовать не только во благо. Количество созданных с их помощью текстов, изображений, видео- и аудиозаписей уже таково, что это влияет на весь интернет. И не всегда речь о невинных генерациях: массово производят вводящий в заблуждение или попросту некачественный контент.

Расскажу про ситуации, где нейросети уже ощутимо влияют на работу сервисов и уровень доверия к информации.

СИТУАЦИЯ № 1

Ненастоящие картинки в фотобанках

Если на Adobe Stock поискать фотографии по случайному запросу, например с полицейскими машинами, сразу же попадется нейрокартинка. Да, на ней отмечено, что она сгенерирована с помощью ИИ. Однако это не то, что ожидаешь найти в фотобанке, куда пользователи заходят за реальными снимками, которые продаются за деньги.

Хотя картинки помечены и в выдаче, и на странице с полным размером, в потоке легко не заметить отметку. Во всех фотобанках нейроконтент надо маркировать при загрузке: обычно есть галочка AI-generated, Created with artificial intelligence или что-то аналогичное. Но на практике ставят ее не всегда.

Клиенты фотобанков справедливо воспринимают генерации в фотостоках как подделку. Поэтому пытаются распознавать ИИ-картинки на глаз: обращают внимание на перенасыщенные цвета, неправильную анатомию, нереалистичное размещение объектов в пространстве, неверный текст.

Кроме Adobe есть и другие стоковые платформы, которые тоже принимают сгенерированные изображения, например Dreamstime, Freepik, Unsplash, 123RF. А на GettyImages, Depositphotos или Pond5 это запрещено. Но люди все еще могут заливать генеративные картинки, выдавая их за реальные.

Затем такими нейрокартинками СМИ иллюстрируют новости и статьи, в качестве источника указывая фотобанк. Даже если изначально стоковое изображение было помечено как сгенерированное, оно начинает жить в интернете просто как снимок из фотобанка. Вряд ли обычные пользователи пойдут проверять источник на оригинальном сайте.

Баланс пока не найден: понятно, почему фотостоки продают сгенерированный контент, — его легче производить, чем делать реальные фото. Но при этом компании теряют доверие клиентов и попадают в скандалы с фейками.

СИТУАЦИЯ № 2

Ненастоящие картинки в поисковой выдаче

Нейросети начинают искажать поисковую выдачу. Если попробовать поискать в Гугле «пейзаж Исландии», «современный интерьер», «дизайнерскую мебель», многие результаты будут сгенерированными. На первый взгляд понять, что в выдачу просочились нейрокартинки, сложно — приходится присматриваться к деталям.

«Гугл» включил в стандарт метаданных  изображений поля для ИИ-работ. Планируется, что в поисковой выдаче сгенерированные картинки будут помечены. А если пользователь ищет именно фото, ему их не покажут. Также разрабатывают инструменты, которые будут распознавать нейроконтент и маркировать его самостоятельно. Но все это пока не работает.

К тому же это никак не решает проблему: если по запросу «современный интерьер» я хочу получить выдачу не из генеративных картинок, а реальные рендеры от дизайнерских студий, то нужно указывать «современный интерьер, рендеры, созданные людьми»? Это превращает поиск в интернете в абсурд.

Бывают и более серьезные случаи, когда поисковая выдача может переписывать историю. Так, в октябре 2023 года по запросу «неизвестный бунтарь»  в Гугле первой картинкой появлялось сгенерированное селфи мужчины на фоне танков. Такого фото никогда не существовало. Причем изображение запостил пользователь Reddit в разделе, посвященном Midjourney — то есть его не пытались выдавать за реальное. После того как новость разошлась в СМИ, сервис исправил ошибку.

СИТУАЦИЯ № 3

Ненастоящие тексты в блогах и статьях

Многие сайты и блоги начали использовать нейросети для создания контента, особенно в нишах с высокой конкуренцией. Если погуглить популярные кулинарные сайты, то легко наткнуться на площадки, где все тексты и иллюстрации созданы нейросетями — они даже вырвались в лидеры в англоязычном сегменте интернета. Статьи написаны ChatGPT по одной и той же незатейливой структуре, картинки сгенерированы в Dall-E.

Цель — вывести сайт в топ поисковой выдачи. А будет ли написанное полезно пользователям — как повезет. Хорошо, если люди редактируют эти тексты. А если нет, то туда легко может попасть ложная, непроверенная или вредоносная информация.

SEO-тексты пишут исключительно ради ключевых слов — это проблема интернета уже лет двадцать. Но теперь многие генерируют такие статьи дешево и быстро, не приоретизируя качество и содержание. Кроме того, нейросети позволяют автоматически производить не самые достоверные тексты вроде гороскопов.

Тексты из нейросетей уже влияют на качество доступной и достоверной информации в интернете в целом. В 2023 году объем сгенерированных текстов в поисковой выдаче Гугла оценивали в 10%. Можно предположить, что процент будет только возрастать. К тому же генеративные тексты выходят и за пределы интернета: работы из ChatGPT не раз публиковали в научных журналах.

Cами нейросети обучаются на информации из интернета — получается замкнутый круг. Это может привести к еще большему снижению качества контента, так как ошибки и неточности будут многократно воспроизводиться. В итоге интернет заполнится однотипными и поверхностными материалами.

СИТУАЦИЯ № 4

Ненастоящие новости

Обычно от новостных сайтов ожидают достоверной информации. Там встречается много контента с фото- или видеоподтверждениями, некоторые сразу вызывают эмоциональный отклик. Однако громкие новости могут оказаться неправдой.

Популярные примеры инфоповодов, контент для которых генерировали в нейросетях, — Папа Римский в пуховике Balenciaga, звонки Джо Байдена, призывавшего игнорировать праймериз, мошеннические сборы на помощь пострадавшим после землетрясения в Турции. Все это быстро опровергли мировые СМИ с репутацией.

Еще в мае 2023 года в The Guardian писали минимум о 49 новостных сайтах с полностью сгенерированным контентом. Это только те, на которых встречались автоматические сообщения вроде «I cannot complete this prompt» или «as an AI language model». Обычно эти фразы встречаются в ответах нейросетей, когда они не могут выполнить запрос или указывают на ограничения. В реальности таких сайтов куда больше, если авторы подчищают ошибки в текстах за нейросетями.

Ловят на публикации сгенерированных текстов даже солидные издания с серьезной репутацией. В 2023 году скандал затронул Sports Illustrated — американский журнал с 70-летней историей. На сайте издания обнаружили написанные с помощью нейросетей обзоры, которые заказывали у стороннего подрядчика. Тот работал также со многими другими газетами и порталами.

Такие новости, с одной стороны, снижают доверие к любой информации вообще, а с другой — позволяют манипулировать общественным мнением. Это очень заметно, например, в период выборов в разных странах.

СИТУАЦИЯ № 5

Ненастоящие товары в рекламе

Сгенерировать тысячи иллюстраций для рекламных целей гораздо проще, чем отрисовать их или сделать и обработать фото. В некоторых случаях это не вызывает этических споров: например, в рекламе услуг или учебных курсов картинка служит для привлечения внимания и может быть более или менее произвольной. Однако сгенерированные изображения используют и в рекламе товаров — там, где пользователь рассчитывает увидеть настоящее фото.

К примеру, рестораны формата дарк-китчен  в американских службах доставки DoorDash и Grubhub ставят нейроарт на карточки с хот-догами. Что приедет клиенту, неизвестно. Да, часто компании обрабатывают фото фастфуда, чтобы в рекламе он выглядел лучше, чем в реальности, — но все же эти снимки хотя бы основаны на сфотографированных хот-догах.

А бывает, что товар вообще не совпадает с картинкой, если сервисы доставки ставят на лот с газировкой «Спрайт» сгенерированное изображение яблочного мартини, а на рулетики с ветчиной — странное месиво из мяса и хлебных палочек. Это даже не введение в заблуждение, а откровенный обман клиента.

СИТУАЦИЯ № 6

Ненастоящие музыканты в стримингах

Представьте: вы слушаете плейлист с новинками в Spotify, понравилась песня, хочется узнать об артисте. И обнаруживаете, что музыканта не существует: фотографий нет, описания в стриминге и никакой информации в интернете тоже. На Reddit считают, что такие треки генерируют в нейросети Suno AI.

Чаще всего они попадаются в плейлистах с инструментальной музыкой для работы или спорта. Их легко распознать: они звучат похоже, на аватарках артистов стоят обложки их же альбомов, в описании нет текста и ссылок на соцсети, а выкладывать треки они начали в 2023—2024 годах.

У артистов Awake Past 3 и Gutter Grinders, которых, предположительно, не существует, сервис даже ставил синюю галочку «Подтвержденный исполнитель», хотя сейчас их треки удалены с платформы.

При этом Spotify признавал проблему. В 2023 году компания удалила десятки тысяч песен, созданных нейросетями. Для накрутки счетчиков прослушиваний тоже использовали ботов. А в сентябре того же года пользователи жаловались, что почти весь плейлист Radar с новинками от начинающих музыкантов был забит сгенерированным контентом — на это сервис уже не отреагировал.

В манипуляциях со сгенерированной музыкой в плейлистах подозревают сам Spotify, потому что, предположительно, ненастоящие артисты часто встречаются в популярных плейлистах с миллионами сохранений. Логика простая: c помощью сгенерированной музыки компания может не выплачивать роялти за прослушивания настоящим музыкантам, а оставлять деньги себе.

СИТУАЦИЯ № 7

Ненастоящие отзывы

Заказывать или бронировать через интернет — всегда риск. Принять решение помогают отзывы на товары, отели или рестораны. Однако если это все сгенерировано ИИ, никакой пользы не вынести. Вбросы автоматически написанных отзывов и обзоров в соцсетях на сайтах с оценками и на страницах интернет-магазинов стали массовыми еще несколько лет назад, но с появлением нейросетей производить их стало проще.

Раньше ненастоящие отзывы можно было легко распознать по чрезмерной похвале — они казались рекламными и приукрашенными. ChatGPT пишет правдоподобнее. Хотя текст все еще может казаться формальным и несколько «механическим», с короткими предложениями и странным выбором слов, эти особенности уже не так очевидны для большинства пользователей. ИИ умеет подражать обычному стилю, создавая впечатление, что отзыв написан реальным человеком, который был краток в своих высказываниях.

Доходит и до создания дипфейков знаменитостей, которые якобы рекомендуют разные товары. Тому Хэнксу уже приходилось объяснять, что он не пьет БАДы, а все рекламные отзывы с ним — подделка. Ранее распространяли сгенерированные аудиозаписи с голосом звезды кантри Люком Комбсом, который якобы похудел на чудодейственных жевательных конфетах и всем их рекомендовал.

Федеральная торговая комиссия США пыталась выработать новые правила с 2022 года. В августе 2024 процесс завершился. Теперь компаниям прямо запрещено использовать отзывы от тех, с кем она на самом деле не взаимодействовала, в том числе сгенерированные нейросетями. Получится ли это применять в реальности, пока неизвестно.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Екатерина ЛебедеваГде вы сталкивались со сгенерированным контентом, вводящим в заблуждение? Расскажите в комментариях: