chitay-knigi.com » Разная литература » Экономическая наука в тяжелые времена. Продуманные решения самых важных проблем современности - Эстер Дюфло

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 41 42 43 44 45 46 47 48 49 ... 111
Перейти на страницу:
относятся к ним скептично, в то время как пожилые люди, привыкшие доверять быстро растущему авторитету телевизионных ведущих, более доверчивы.

Существуют и другие опасения. Во-первых, распространение новостей в социальных сетях убивает производство надежных новостей и их анализ. Производство фейковых новостей, очевидно, очень дешево и очень выгодно экономически, так как их распространители, не стесненные реальностью, легко могут предоставить своим читателям именно то, что они хотят прочитать. Но если вы не хотите ничего выдумывать, вы также можете просто скопировать что-то из другого места. Исследование показало, что 55 % контента, распространяемого новостными сайтами и средствами массовой информации во Франции, почти полностью изготовляется методом копирования, при этом источник указывается только в менее чем 5 % случаев[274]. Если новость, подготовленная командой журналистов, сразу же копируется множеством других сайтов, то как первоначальный источник получит вознаграждение за свою продукцию? Неудивительно, что число журналистов в Соединенных Штатах резко сократилось за последние несколько лет – с почти 57 000 в 2007 году до почти 33 000 в 2015 году[275]. При этом снижается как общее число журналистов, так и их число на одну газету. В упадок приходит экономическая модель, которая поддерживала журналистику в качестве места для «общественного пространства» (и корректной информации). Без доступа к достоверным фактам легче заниматься ерундой.

Второе опасение заключается в том, что интернет допускает бесконечные повторения. Проблема эхо-камер связана не только с тем, что мы подвергаемся воздействию исключительно тех идей, которые нам нравятся; мы также подвергаемся им снова и снова, бесконечно, в течение всего дня. Поддельные пользователи, которых используют для продвижения историй в Facebook, а также реальные люди, которые платят за «лайки», обостряют естественную тенденцию к повторению некоторых сообщений и обретению ими собственной жизни. Бесконечное повторение доводит людей до исступления (это похоже на то, как повторяющиеся речевки применяются на политических демонстрациях), что мешает им остановиться и проверить факты.

И даже если правда в конечном итоге выйдет наружу, многочисленные повторения лжи могут заострить спорный вопрос и ожесточить экстремистские взгляды. Вспомним хотя бы бесконечные разговоры о мексиканцах (которым мы никогда не доверяли в любом случае) и не факт, что иммигранты первого поколения, легальные или нет, на самом деле менее склонны быть преступниками, чем урожденные американцы[276]. Разумеется, это создает очень сильные стимулы наводнить рынки альтернативными фактами. Сто пятнадцать благоприятных для Трампа фейковых новостей, которые распространялись до президентских выборов 2016 года, были просмотрены 30 миллионов раз (существовали также и благоприятные для Клинтон фейковые новости, но они были просмотрены только 8 миллионов раз)[277].

Третье опасение связано с тем, что раздраженный язык интернет-коммуникации (который Twitter доводит до крайности) поощряет прямые и краткие высказывания, что способствует эрозии норм гражданского дискурса. В результате Twitter превратился в лабораторию, где испытываются самые последние мерзкие слухи. Политические предприниматели с удовольствием выкладывают свои самые смелые заявления в Twitter, а затем смотрят, как они воспринимаются, с оглядкой на то, не зашли ли они слишком далеко. Если оказывается, что это работает, по крайней мере среди целевой группы (которая измеряется ретвитами или лайками, например), подобная позиция добавляется в пакет потенциальных стратегий на будущее.

В-четвертых, существует автоматическая настройка персонализации. В 2001 году, когда Санстейн писал об эхо-камерах, он был обеспокоен возможностью пользователей выбирать потребляемые ими новости. Теперь же необходимость выбирать все чаще отсутствует. Сложные алгоритмы применяют методы машинного обучения, чтобы попытаться выяснить, что нам может понравиться, основываясь на том, кто мы есть, что мы искали раньше и так далее. Цель, совершенно очевидно, состоит в том, чтобы дать людям то, что им нравится, чтобы они посвятили этому больше времени.

Facebook столкнулся с давлением за то, что алгоритмы отбора новостей использовались для продвижения тех или иных историй и в 2018 году руководство Facebook пообещало изменить приоритет их показа в ленте, чтобы пользователи видели в первую очередь сообщения от своих друзей и семьи. Но вам не нужно быть зарегистрированным в этой социальной сети, чтобы это произошло. Например, 2 июля 2018 года на домашней странице Эстер в Google оказались ссылки: на статью из The Atlantic «Торговый дефицит – проблема Китая»; последнюю колонку Пола Кругмана из New York Times; статью из New York Times о социалистах-миллениалах; статью о чемпионате мира по футболу; статью из Boston Globe о Лоуренсе Бэкоу, новом президенте Гарварда; статью о похоронах Симоны Вейль; статью из Huffington Post о мнении сенатора Сьюзен Коллинз по поводу предстоящего назначения судьи Верховного суда; а также неизбежную статью о часах Pixel Watch. Было только две истории, которые ее явно не интересовали – одна о преступнике, сбежавшем из французской тюрьмы на вертолете (что оказалось очень забавно), а другая, из Fox News, о столкновении Бизи Филиппс с компанией Delta Air Lines, которая перебронировала ее с ребенком на разные рейсы. Только последняя новость была из правого медиа. Подобная персонализация повсеместна. Больше того, например, приложение National Public Radio (или NRP One, для знатоков) рекламируется как «Пандора общественного радио», поскольку это приложение подбирает для слушателя те передачи разных радиостанций, которые ему понравятся, основываясь на том, что он слушал в прошлом. В эхо-камере для либеральных идей, которой является NPR, алгоритм будет фильтровать для пользователя именно то, что он, вероятно, захочет услышать.

Это важно, потому что, когда пользователи активно выбирают то, что читают, они по крайней мере осознают, что делают. Они могут предпочесть читать статьи из знакомых источников, но быть при этом достаточно искушенными, чтобы увидеть свои собственные предубеждения, отраженные в этих источниках. Необычный эксперимент из Южной Кореи показал, что подобная искушенность вполне реальна. Два молодых корейца создали приложение, которое с февраля по ноябрь 2016 года предлагало пользователям доступ к подборке статей из прессы по актуальным вопросам и регулярно опрашивало их мнение по этим статьям и по рассматриваемым ими вопросам. Сначала все пользователи получали случайно выбранную статью по каждому вопросу. После нескольких раундов некоторые случайно отобранные пользователи получили возможность выбирать источники новостей, из которых они получали свои статьи, в то время как другие продолжали получать случайно выбранные статьи. Эксперимент позволил получить три важных вывода. Во-первых, пользователи действительно реагировали на то, что они читали, и изменяли свои взгляды. Во-вторых, как и ожидалось, те, кому предоставлялся выбор, выбирали статьи, в целом соответствующие их партийным предпочтениям. В-третьих, однако в конце эксперимента те, кто получил возможность выбирать статьи самостоятельно, изменили свои предпочтения больше, чем те, кто этого не делал, и, как правило, их предпочтения сдвигались в сторону центра! Это противоречит эффекту эхо-камеры. В целом возможность выбора материала определенного направления сделала пользователей менее пристрастными. Объясняется это тем, что они точно понимали, насколько предвзятым был выбранный ими источник, а поэтому корректировали воспринимаемую ими информацию. С другой стороны, те пользователи, которые получали новости из случайных источников, не осознавали предвзятости и поэтому оставались скептически настроенными

1 ... 41 42 43 44 45 46 47 48 49 ... 111
Перейти на страницу:

Комментарии
Минимальная длина комментария - 25 символов.
Комментариев еще нет. Будьте первым.