YouTube для настройки алгоритмов, чтобы перестать рекомендовать видео теории заговора

Особенности

  • YouTube переоснастит свой алгоритм рекомендаций, который предлагает новые видео
  • Изменение алгоритмов является результатом шестимесячной длительной работы.
  • YouTube заявил, что будет применяться менее чем к одному проценту контента

В пятницу YouTube заявил, что он переоснащает свой алгоритм рекомендаций, который предлагает новые видео пользователям, чтобы предотвратить продвижение заговоров и ложной информации, отражая растущую готовность подавить дезинформацию на крупнейшей в мире видео платформе после нескольких публичных ошибок.

В блоге, который YouTube опубликовал в пятницу, компания заявила, что пристальный взгляд на то, как это может уменьшить распространение контента, который приближается к. но не совсем пересекает черту нарушать его правила. YouTube подвергается критике за то, что он направляет пользователей к заговорам и ложному контенту, когда они начинают смотреть законные новости.

Изменение так называемых рекомендательных алгоритмов компании является результатом шестимесячной технической работы. Сначала он будет небольшим. YouTube заявил, что он будет применяться к менее чем одному проценту контента сайта. и затрагивает только англоязычные видеоролики, а это означает, что много нежелательного контента все равно будет проскальзывать через трещины.

Компания подчеркнула, что ни одно из видео не будет удалено с YouTube. Они все равно будут доступны для людей, которые ищут их или подписываются на заговорщические каналы.

YouTube для настройки алгоритмов, чтобы перестать рекомендовать видео теории заговора

Мы считаем, что это изменение устанавливает баланс между поддержанием платформы для свободы слова и выполнением нашей ответственности перед пользователями, пост в блоге сказал.

YouTube, который исторически давал широкие возможности для свободы слова, не запрещает теории заговора или другие формы ложной информации. Компания запрещает разжигание ненависти, но несколько узко определяет ее как речь, которая пропагандирует насилие или ненависть к уязвимым группам.

Адвокаты говорят, что эта политика не заходит достаточно далеко, чтобы не допустить, чтобы люди подвергались вводящей в заблуждение информации, и что собственное программное обеспечение компании часто подталкивает людей к политическим рамкам, кормя их экстремистским контентом, который они не искали.

Функция рекомендаций YouTube предлагает новые видео пользователям на основе видео, которые они смотрели ранее. Алгоритм учитывает смотреть время. или количество времени, которое люди проводят за просмотром видео. и количество просмотров в качестве факторов при принятии решения о предложении части контента. Если видео просматривалось много раз до конца, программное обеспечение компании может распознать, что оно было качественным, и автоматически начать продвигать его другим. С 2016 года компания также включила показатели удовлетворенности, симпатии, антипатии и другие показатели в свои системы рекомендаций.

Но из основного видео алгоритм часто принимает резкий поворот, чтобы предлагать экстремистские идеи. В декабре газета «Вашингтон пост» сообщила, что Youtube продолжает рекомендовать ненавистные и заговорщические видео, которые подпитывают расистский и антисемитский контент.

Совсем недавно YouTube разработал программное обеспечение, чтобы не допустить распространения вирусных теорий заговора во время последних новостей. После школьной стрельбы в Паркленде в феврале прошлого года, теория заговора, утверждающая, что подросток, переживший школьную стрельбу, был так называемым кризисный актер был самым популярным товаром на YouTube. В дни, последовавшие за бойней в октябре 2017 года в Лас-Вегасе, видеоролики о том, что стрельба была обманом, собрали миллионы просмотров.

Отдельная функция поиска YouTube также была призвана для пропаганды заговоров и ложного контента. В начале этого месяца, например, поиски RBG, инициалы судьи Верховного суда Рут Бадер Гинзбург, вернули большое количество крайне правых видеороликов, торгующих заговорами. и мало достоверного контента, связанного с новостями, что она отсутствовала в суде, в то время как восстанавливается после операции.

Шесть месяцев назад YouTube начал набирать людей-оценщиков, которым было предложено просмотреть контент на основе набора рекомендаций. Затем компания взяла отзывы оценщиков и использовала их для обучения алгоритмов, которые генерируют рекомендации.

YouTube для настройки алгоритмов, чтобы перестать рекомендовать видео теории заговора