Истории

Директор по развитию Facebook рассказал о новых алгоритмах, хейтспиче и борьбе с фейками

16 июля 2018, 19:08
7 мин чтения
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
Добавить в закладки

Любую статью можно сохранить в закладки на сайте, чтобы прочесть ее позже.

Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.
Режим чтения

Режим чтения увеличивает текст, убирает всё лишнее со страницы и даёт возможность сосредоточиться на материале. Здесь вы можете отключить его в любой момент.

Директор по развитию продуктов Facebook Крис Кокс работает в компании с 2005 года. До мая этого года он отвечал только за Facebook, но весной его назначили директором отделов развития Instagram, WhatsApp и Messenger. С самого начала карьеры в Facebook Кокс работал с алгоритмами в лентах новостей, поэтому последними изменениями с ранжированием постов занимался именно его отдел.
Издание Wired поговорило с Крисом Коксом о борьбе с фейками, новых алгоритмах для новостей и свободе слова в соцсети. Публикуем главные тезисы интервью.

Крис Кокс

Новые правила борьбы Facebook с фейками

Представители компании много говорили о том, что соцсеть начнет бороться с недостоверной информацией. Делать это будут так:

  • Алгоритмы определяют посты, которые набирают популярность и становятся вирусными.
  • Такой контент отправляется профессиональным факт-чекерам. Сейчас специалисты по проверке информации в Facebook работают из 15 стран, но компания хочет расширить их географию.
  • Все новости, которые получают факт-чекеры, расставлены по приоритетности. В первую очередь проверке подлежит контент, вовлекающий наибольшее количество пользователей.
  • После проверки достоверности информации распространение фейков останавливают, а тех, кто собирается ими поделиться, предупреждают о недостоверном контенте.
  • Все виральные фото будут анализировать по двум параметрам: не сфальсифицированы ли снимки и не вырваны ли они из контекста. Этот принцип будут применять и к другим мультимедийным форматам в Facebook и Instagram.
  • Последний этап — использование искусственного интеллекта, который будет анализировать реакцию людей на фейк, — признали ли пользователи информацию неправдивой. Кроме того, алгоритмы будут искать и удалять новости, похожие на уже найденные фейки.

Крис Кокс говорит, что так как факт-чекеры имеют большой опыт и работают в институциях с четкими профессиональными стандартами, компания может принимать решения, доверяя их выводам. Это позволяет соцсети полагаться на профессионалов в те моменты, когда им самим сложно принять взвешенное решение. Одна из таких ситуаций — обложка журнала Time, где плачущая девочка, которую разлучили с матерью-эмигранткой, снизу вверх смотрит на Трампа. Хотя ребенок плакал из-за того, что ее отобрали у мамы, подпись к фотографии была «Welcome to America». Эта манипуляция вызвала большую дискуссию среди факт-чекеров, главный вопрос которой — можно ли назвать такую отфотошопленную обложку «фейком». На Facebook картинку не удалили.

Новые принципы работы алгоритмов

Первый и главный принцип, по которому разработаны новые алгоритмы Facebook — это приоритеты людей. По словам Криса Кокса, сотрудники компании ежедневно показывают тысячам пользователей контент и спрашивают: «Что вам нравится больше, что бы вы предпочитали видеть в своей ленте?» Ответ в большинстве случаев: «Больше всего мне интересны друзья и семья». Именно поэтому в январе 2018 года соцсеть в очередной раз изменила подход к ранжированию новостей. В Facebook пришли к выводу, что масштабный поток контента из пабликов затмевал новости близких для пользователя людей.
Во-вторых, директор по развитию Facebook утверждает, что люди не хотят пассивно потреблять контент, им надо участвовать в обсуждениях. Кокс приводит пример: если человек, идущий в людное место, сидит там один и ни с кем не говорит, он начинает грустить; если в том же месте он поговорит с 5-6 людьми, которые в курсе интересных для человека новостей, он будет себя чувствовать гораздо лучше. Человек почувствует социальную поддержку. Кокс утверждает, что об этом должны думать цифровые медиа — вместо того, чтобы создавать пассивный опыт, они должны строить с аудиторией отношения. Поэтому после смены алгоритмов в январе, разработчики не только поставили в приоритет новости от близких людей, но и постарались способствовать обсуждениям на релевантные темы между незнакомыми пользователями.
Третий аспект алгоритмов соцсети — концентрация на качестве. В первую очередь это касается новостей в Facebook. Сейчас руководство пытается снизить приоритеты для кликбейтного, сенсационного контента, на который люди нажимают из-за громких заголовков, а потом чувствуют себя обманутыми.
В интервью Кокс также упомянул о медиа, которые имеют пейволы. Директор развития Facebook уважает такие СМИ, ведь их политика сразу свидетельствует о серьезных намерениях построить долгосрочные отношения с аудиторией. Однако о приоритетах в ленте новостей для таких изданий Кокс не упомянул.

О влиянии Facebook на выборы в разных странах

Теперь руководители соцсети не волнуются по поводу грядущих выборов, так как они создали специальную команду, контролирующую ход электоральных процедур и кампаний. Например, перед выборами в Мексике Facebook закрыл 10 000 страниц, групп и аккаунтов в самой стране и по всему латиноамериканскому региону. Главная причина бана — нарушение контентной политики соцсети. Также в Facebook удалили 200 000 фейковых лайков на постах и страницах, продвигающих мексиканских кандидатов в президенты.

О фильтре оскорбительных комментариев

Недавно Instagram нанял людей для оценивания комментариев на предмет расизма, сексизма и других проявлений языка ненависти. Эти люди помогли запрограммировать алгоритмы, которые теперь отслеживают комментарии в соцсети и удаляют все агрессивные высказывания. В Facebook будет работать похожая система. Люди будут анализировать, что может стать поводом для разжигания вражды, какие комментарии могут быть небезопасными для других пользователей. Руководство Facebook также посчитало эффективным инструмент голосования за комментарии. Он позволит людям самим определять полезные и бесполезные записи. Первые будут подниматься в блоке комментариев вверх, а вторые — высвечиваться последними. Алгоритмы соцсети довольно быстро фиксируют большинство комментариев с террористическими призывами, например, связанными с ИГ, но с хейтспичем дела обстоят сложнее. Кокс объясняет это тем, что человеческие суждения могут иметь различный смысл в зависимости от контекста.

О свободе слова в Facebook

Соцсеть пытается балансировать между свободой слова и безопасностью для своих пользователей. В апреле был опубликован гайд по стандартам сообщества, регулирующий контент на платформе. Представители соцсети создали двухстраничный отчет, где прописаны все вещи, недопустимые в Facebook. Отдельный документ подробно объясняет, что считается хейтспичем в соцсети. Крис Кокс утверждает, что при разработке правил сообщества представители компании сотрудничают с экспертами со всего мира, а компания Facebook всегда открыта к обсуждению своей политики.

Нашли ошибку? Выделите ее и нажмите Ctrl+Enter

ЧИТАЙТЕ ТАКЖЕ
БИЗНЕС
Tinder для доставки груза. Рассказываем о сервисе перевозок, соединяющем водителей и отправителей
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
28 апреля 2022, 10:00 3 мин чтения
БИЗНЕС
Целеустремленность. Как PeopleForce работает во время войны?
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
25 апреля 2022, 14:00 7 мин чтения
БИЗНЕС
Все о грантах. Что это такое, кто может получить и как привлечь
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
09 апреля 2022, 14:00 9 мин чтения
БИЗНЕС
Конец опенспейсов и осознанное потребление. Как будет развиваться рынок гибких офисов Украины в 2022 году
Материал успешно добавлен в закладки Достигнуто максимальное количество закладок
09 февраля 2022, 09:00 8 мин чтения
Загрузка...