Facebook манипулирует людьми. Блог американского ученого

21.11.2016 в 13:00
1558
Facebook манипулирует людьми. Блог американского ученого
Иллюстрация / Фото: из открытых источников
Объясняют ли алгоритмы фильтров Facebook, почему так много либералов получили ложную уверенность в победе Клинтон?
После неожиданной победы Дональда Трампа возникло немало вопросов относительно того, какую роль сыграл Facebook в распространении некорректной и предвзятой информации во время избирательной кампании, и повлияло ли это на исход выборов.

Некоторые приуменьшали значимость Facebook – в частности, его CEO Марк Цукерберг, заявивший, что фейковые новости вряд ли оказали влияние на выборы. Но вопрос политической значимости соцсетей заслуживает внимания.

Объясняют ли алгоритмы фильтров Facebook, почему так много либералов получили ложную уверенность в победе Клинтон? (Как и сторонники Ромни в 2012?) И не из-за фальшивых ли новостей сторонники Трампа нормально отнеслись к лживым заявлениям своего кандидата?

Популярное убеждение, что «пузыри фильтров» являются причиной процветания фальшивых новостей на Facebook почти наверняка ошибочно. Если сеть подталкивает людей к тому, чтобы верить неправде – а это еще не доказано – то, вероятнее всего, проблема состоит в том, как платформа взаимодействует с базовыми человеческими социальными тенденциями.

Дезинформированное общество

Роль Facebook в распространении политических новостей очевидна. В мае 2016 года 44% американцев сказали, что узнают новости именно из этой соцсети. Количество дезинформации, распространяемой через Facebook, также отрицать нельзя.

Этим можно объяснить то, почему у такого количества американцев сложились ложные представления о политической ситуации.

Я начал изучать роль интернета в продвижении ложных убеждений во время выборов 2008 года, а внимание на роль социальных медиа переключил в 2012 году. Во время этого исследования я почти не нашел доказательств того, что последовательное использование социальных сетей способствовало принятию ложных сведений о кандидатах, несмотря на распространенность дезинформации. Социальные медиа не оказывали заметного воздействия на убеждения людей.

Но давайте предположим, что в 2016 году все было по-другому (эти выборы были и в других отношениях уникальны).

Если Facebook продвигает платформу, из-за которой людям сложнее отличить правду от лжи, это серьезная угроза американской демократии. Но озвучить проблему недостаточно – чтобы справиться с потоком лживой информации, нужно понять, в чем причина сложившейся ситуации.

Дело не в «пузырях фильтров»

Facebook хочет, чтобы его пользователи реагировали на контент, а не были завалены им, поэтому использует программное обеспечение, фильтрующее новостные ленты пользователей и определяющее, какой контент те увидят. Риск в том, каким образом осуществляется эта подгонка.

Есть достаточно доказательств того, что люди предпочитают новости, которые подтверждают их политическую точку зрения. Программное обеспечение Facebook ориентируется по прошлым действиям пользователей; оно пытается угадать, на какие посты они, вероятно, кликнут или какими новостями решат поделиться. Доведенный до крайности, этот алгоритм создает пузырь фильтров, в котором пользователи видят только то, что соответствует их взглядам.

Казалось бы, все просто. Убрать персонализированные пузыри, и все будет хорошо. Но на самом деле это не так. Большинство людей сталкиваются в своих новостных лентах с информацией, ставящей под вопрос их взгляды – они просто не верят этой информации.

Facebook = злобные и предвзятые люди?

Если изоляция от правды действительно является главным источником неточной информации, выход прост: сделать правду более видимой.

К сожалению, ответ не так прост. И это возвращает нас к вопросу Facebook: есть ли у этой социальной сети другие аспекты, влияющие на убеждения пользователей?

Мы знаем о Facebook две вещи, способные помочь распространению ложной информации. Первая – эмоции заразны, и они могут распространяться через Facebook. Неудивительно, что в опросах почти половина всех пользователей описывают политическую дискуссию как «злобную». Вторая – Facebook, похоже, укрепляет политическую идентичность людей, способствуя еще большему расколу взглядов.

Именно эти два фактора – то, как гнев распространяется через Facebook и за его пределы, и как социальные сети могут сделать политическую принадлежность пользователя более значимой для него – объясняют ошибочные убеждения пользователей лучше, чем «пузыри фильтров».

Если это правда, то нас ждет серьезный вызов. Facebook может оказаться вынужден поработать над своими алгоритмами, чтобы распространять более точную информацию. Google уже этим занимается.

Но это никак не решает главную проблему, которая и способствует в первую очередь распространению ложной информации: эмоции и люди, которые окружают вас в социальных сетях. И нам предстоит подумать о том, как справиться с этой проблемой.
Интересные новости всегда под рукой в нашем Telegram-канале
Точка зрения авторов, статьи которых публикуются в разделе «Мнения», может не совпадать с мнением редакции.
Аватар nomid Дмитрий Вовчок / nomid
Главред GolosInfo
21.11.2016 13:00 1558
0.0
Комментарии: 0
Войдите, чтобы оставить комментарий.