Шрифт:
Интервал:
Закладка:
Тизерные сети также предлагают возможности широкого показа фейкового контента, в том числе самая мощная тизерная сеть Рунета «Яндекс. Дзен». Достаточно выполнить простые требования к формату сообщения, заплатить за раскрутку – и пожалуйста, вброс пошёл.
Биржи контента для социальных сетей. Для социальных сетей также существуют биржи по размещению контента. Там можно купить размещение статьи от имени каких-то аккаунтов или в группах. Есть биржи, где продаётся накрутка лайков, комментариев, перепостов. Такие сервисы особенно развиты в Китае и США.
Мессенджеры. Вбросы в группы в мессенджерах не дают мгновенного результата за несколько часов, как в интернет-СМИ и соцсетях[33], зато сообщение в них пользователи передают из рук в руки, совершенно добровольно, в течение достаточно долгого времени, иногда неделями.
Например, во время паники по поводу коронавируса в России в группы WhatsApp вбрасывали аудиофайл с записью взволнованного женского голоса, сообщавшего, что «власти скрывают», а «на самом деле» в Москве десятки тысяч заражённых вирусом. Этот файл распространялся преимущественно в родительских группах начальных классов.
Каналы в мессенджерах, например в Telegram, напротив, представляют собой полный аналог СМИ, ведущих вещание на широкую аудиторию, но при этом анонимных и не несущих никакой ответственности даже по закону о СМИ, так что в каналы можно вбрасывать любые фейки. Более того, часть каналов Telegram и позиционируют себя как каналы сумасшедших новостей, компромата, конспирологии, диких теорий и фейков.
Большинство каналов Telegram берут деньги за размещение контента. Крупные каналы (с количеством подписчиков 50–100 тысяч) берут много, могут вникать, достоверный материал или нет; а мелкие каналы (5, 10, 15 тысяч подписчиков) более неразборчивы и дёшевы – у них бывает нехватка горячего контента.
Развитие технологий вывело создание фейков на принципиально новый уровень. При помощи нейросетей сейчас можно создавать фейковые видеозаписи, практически неотличимые от настоящих, и аудиозаписи, на которых будет убедительно звучать практически любой голос. Обобщённо такие технологии называются «дипфейк».
Дипфейк – синтетическое медиа, в котором один человек в существующем медиа (фото, видео, аудио) заменяется другим. Название составлено из слов deep learning – «глубокое обучение» и fake – «подделка». Дипфейки наиболее часто используют в рекламе, порнофильмах, порномести, фейковых новостях и для финансового мошенничества.
Безусловно, подобная технология имеет целью не только создание подделок – она успешно применяется и в кинематографе, и в рекламе. Так, проект VeraVoice, работающий над синтезом человеческой речи, предназначен в основном для создания интерактивных приложений, озвучки аудиокниг, игр, фильмов. Но, конечно, создатели фейков не могли пройти мимо столь мощного инструмента.
В марте 2019 года в Великобритании дипфейк был использован для крупного хищения. Посредством нейросети мошенники сымитировали голос исполнительного директора энергетической компании, с помощью чего отдали распоряжение о переводе 220 тысяч евро третьим лицам. У сотрудника, исполнившего поручение, не возникло ни тени сомнения, что приказ поступил от директора. Следствие так и не сумело установить личности злоумышленников[34].
Ещё более мощными являются инструменты, способные подменить в видеоролике лицо персонажа лицом (и фигурой) нужного человека. Подобные программы существуют уже сравнительно давно, непрерывно совершенствуются, а многие из них, например Deepfacelab, находятся в открытом доступе. Результатом работы таких программ становится вполне реалистичное видео. При желании на YouTube можно найти десятки видеороликов, в которые с помощью таких инструментов «вживлены» известные мировые политики.
Не обошёл прогресс и классические текстовые фейки. Существуют программы, способные генерировать связный текст в объёме многих страниц. Таковы, например, сети BERT и GPT, созданные компанией Google и ассоциацией OpenAI соответственно.
Более того, нейросеть можно обучить и стилевой правке текста: для этого сеть анализирует тексты авторства нужного человека и обучается характерным для него стилевым приёмам, после чего становится возможным генерировать тексты, выполненные в нужной авторской манере, или корректировать под неё уже написанный текст.
Настоящий, хорошо сделанный фейк очень трудно отличить от естественной горячей новости. Обычно вбрасываемый фейк полностью соответствует ожиданиям публики, их архетипам:
• «народ живёт всё хуже»;
• «чиновники воруют»;
• «селебрити жируют и развратничают»;
• «олигархи замышляют плохое, расхищают народное добро и наслаждаются жизнью»;
• «всё разваливается, депутаты принимают нелепые законы»;
• «власть ведёт наступление на права и благосостояние граждан и распродаёт недра».
В итоге люди добровольно и с удовольствием распространяют их, считая, что помогают правде.
С нашей точки зрения, распознать фейковую новость автоматически, только техническими средствами и по тексту нельзя. Для понимания того, что новость фальшивая, нужна проверка, нужно убедиться в том, что там написана фактическая ложь. Это невозможно сделать автоматически, поскольку машина должна понимать контекст новости, а также знать факты. Именно поэтому не существует автоматических фильтров для фейков.
Более того, во многих случаях с новостью типа «в Сирии совершена химическая атака» или «в “Зимней вишне” 400 трупов» в момент её появления вообще нет никаких способов понять, фальшивая ли это новость, – ни автоматических, ни ручных.
Искусственный интеллект и нейронные сети здесь не помогут. Это, увы, пока дело самого пользователя.
Тем не менее есть несколько внешних признаков, по которым можно на глаз распознать фейк.
Богатство контента и график распространения
По количеству разных версий события и характеру распространения зачастую можно уверенно определить степень искусственности новости.
У настоящей новости о реальном событии много свидетелей и участников, они все рассказывают о событии своими словами, сами публикуют эти рассказы. То есть настоящая новость имеет много разных оригиналов, версий и «пробулькивается» сразу во многих местах, причём часто в очень популярных СМИ и блогах. Появление новости в медийном пространстве похоже на круги от дождя на воде.