YouTube, платформа для обмена видео, на протяжении многих лет подвергалась различной критике, особенно в отношении модерации контента, оскорбительного контента и монетизации. YouTube подвергался критике за некоторые аспекты своей деятельности, [1] его рекомендательные алгоритмы, увековечивающие видео, которые пропагандируют теории заговора и ложь, [2] размещение видео, якобы предназначенных для детей, но содержащих жестокий или сексуально подстрекательский контент с участием популярных персонажей , [3] видео несовершеннолетних, привлекающих педофильную деятельность в своих разделах комментариев, [4] и меняющиеся политики в отношении типов контента, который может быть монетизирован с помощью рекламы. [1]
YouTube также был заблокирован несколькими странами. По состоянию на 2018 год публичный доступ к YouTube был заблокирован такими странами, как Китай , Северная Корея , Иран , Туркменистан , [5] Узбекистан , [6] [7] Таджикистан , Эритрея , Судан и Южный Судан .
Спорный контент включал материалы, связанные с отрицанием Холокоста и катастрофой в Хиллсборо , в которой 96 футбольных болельщиков из Ливерпуля были раздавлены насмерть в 1989 году. [8] [9] В июле 2008 года Комитет по культуре и СМИ Палаты общин Соединенного Королевства заявил, что он «не впечатлен» системой YouTube по контролю за своими видео, и утверждал, что «проактивная проверка контента должна быть стандартной практикой для сайтов, размещающих пользовательский контент». YouTube ответил следующим образом:
У нас есть строгие правила относительно того, что разрешено, и система, которая позволяет любому, кто видит ненадлежащий контент, сообщать об этом нашей круглосуточной команде по рассмотрению и оперативно решать этот вопрос. Мы информируем наше сообщество о правилах и включаем прямую ссылку с каждой страницы YouTube, чтобы сделать этот процесс максимально простым для наших пользователей. Учитывая объем контента, загружаемого на наш сайт, мы считаем, что это, безусловно, самый эффективный способ убедиться, что крошечное меньшинство видео, которые нарушают правила, быстро удаляется. [10] (Июль 2008 г.)
В октябре 2010 года конгрессмен США Энтони Вайнер призвал YouTube удалить со своего сайта видеоролики имама Анвара аль-Авлаки . [11] YouTube удалил некоторые видеоролики в ноябре 2010 года, заявив, что они нарушают правила сайта. [12] В декабре 2010 года YouTube добавил возможность отмечать видеоролики, содержащие террористический контент. [13]
В 2018 году YouTube представил систему, которая автоматически добавляла информационные блоки к видео, которые, по мнению его алгоритмов, могут содержать теории заговора и другие фейковые новости , заполняя информационные блоки контентом из Encyclopaedia Britannica и Wikipedia в качестве средства информирования пользователей для минимизации распространения дезинформации без ущерба для свободы слова. [14] [15] Фонд Wikimedia заявил в своем заявлении, что «ни Wikipedia, ни Фонд Wikimedia не являются частью официального партнерства с YouTube. Мы не были уведомлены заранее об этом объявлении». [16]
После пожара в соборе Парижской Богоматери 15 апреля 2019 года несколько загруженных пользователями видеороликов с знаменательным пожаром были автоматически помечены системой YouTube статьей в Encyclopaedia Britannica о ложных теориях заговора вокруг атак 11 сентября . Несколько пользователей пожаловались YouTube на эту ненадлежащую связь. Представители YouTube извинились за это, заявив, что их алгоритмы неправильно идентифицировали видеоролики пожара и автоматически добавили информационный блок, и предпринимают шаги для исправления этой ситуации. [17]
Чтобы ограничить распространение дезинформации и фейковых новостей через YouTube, компания разработала комплексную политику в отношении того, как она планирует бороться с технически смонтированными видеороликами. [18]
18 апреля 2023 года YouTube обнародовал изменения в обработке контента, связанного с расстройствами пищевого поведения . Правила сообщества этой платформы социальных сетей теперь запрещают контент, который может поощрять подражание со стороны пользователей из группы риска. Этот контент включает поведение, демонстрирующее строгое отслеживание калорий и очищение после еды. Однако видеоролики, демонстрирующие позитивное поведение, например, в контексте восстановления, будут разрешены на платформе при двух условиях: пользователь должен иметь зарегистрированную (вошедшую в систему) учетную запись и быть старше 18 лет. Эта политика была создана в сотрудничестве с некоммерческими организациями, а также Национальной ассоциацией по расстройствам пищевого поведения. Гарт Грэм, глобальный руководитель отдела здравоохранения YouTube, рассказал в интервью CNN, что это изменение политики было направлено на то, чтобы эта платформа для обмена видео предоставляла возможность для «восстановления сообщества и ресурсов», обеспечивая при этом постоянную защиту зрителей. [19]
YouTube заключает с компаниями контракты на найм модераторов контента, которые просматривают контент, помеченный как потенциально нарушающий политику YouTube в отношении контента, и определяют, следует ли его удалить. В сентябре 2020 года бывший модератор контента, сообщивший о развитии у него посттравматического стрессового расстройства (ПТСР) после 18-месячного периода работы, подал коллективный иск. Бывший модератор контента заявила, что ее регулярно заставляли превышать установленный YouTube лимит в четыре часа в день на просмотр графического контента. В иске утверждается, что подрядчики YouTube практически не проводили обучение или не поддерживали психическое здоровье своих модераторов, заставляли потенциальных сотрудников подписывать соглашения о неразглашении, прежде чем показывать им какие-либо примеры контента, которые они могли увидеть во время просмотра, и цензурировали все упоминания о травмах на внутренних форумах. В нем также утверждается, что запросы на размытие, уменьшение размера или монохромность крайне графического контента в соответствии с рекомендациями Национального центра по пропавшим и эксплуатируемым детям были отклонены YouTube как не имеющие высокого приоритета для компании. [20] [21] [22]
Пять ведущих создателей контента, чьи каналы были основаны на материалах ЛГБТК+ , подали федеральный иск против YouTube в августе 2019 года, утверждая, что алгоритмы YouTube отвлекают внимание от их каналов, влияя на их доходы. Истцы утверждали, что алгоритмы препятствуют контенту со словами типа «лесбиянка» или «гей», которые преобладали бы в контенте их каналов, и из-за почти монополизации YouTube онлайн-видеосервисов они злоупотребляют этим положением. [23] В начале 2021 года иск был отклонен на основании неспособности истцов доказать, что YouTube действовал от имени правительства, а также из-за раздела 230. [ 24]
В июне 2022 года группа по контролю за СМИ Media Matters сообщила, что гомофобный и трансфобный контент, в котором представители ЛГБТ называются «хищниками» и «ухажёрами», становится всё более распространённым на YouTube. [25] В отчёте также упоминаются распространённые обвинения в видеороликах YouTube в том, что представители ЛГБТ психически больны . [25] В отчёте говорится, что контент, по-видимому, нарушает политику YouTube в отношении языка вражды. [25]
В конце 2020 года благотворительная организация по защите животных Lady Freethinker обнаружила на YouTube 2053 видеоролика, в которых утверждалось, что животным «намеренно причиняют вред ради развлечения или показывают, что они испытывают сильный психологический стресс, физическую боль или мертвы» [26] .
В 2021 году Lady Freethinker подала иск, обвинив YouTube в нарушении договора, поскольку компания разрешила размещать на своем сайте большое количество видеороликов, демонстрирующих жестокое обращение с животными, и не удалила их после получения уведомления. YouTube ответил, заявив, что они «расширили свою политику в отношении видеороликов, демонстрирующих жестокое обращение с животными», в 2021 году, и с момента введения новой политики «удали сотни тысяч видеороликов и закрыли тысячи каналов за нарушения». [27]
В 2022 году Google отразила иск Lady Freethinker , постановив, что YouTube защищен разделом 230 Закона о благопристойности в коммуникациях, который защищает интернет-платформы от судебных исков, основанных на контенте, размещенном их пользователями. [28]
В 2023 году YouTube заявил, что жестокому обращению с животными «не место на их платформах, и они работают над удалением контента (такого рода)». [29] [30] [31] [32] [33] [34]
YouTube подвергся критике за использование алгоритма, который отдает предпочтение видеороликам, продвигающим теории заговора, ложь и подстрекательские маргинальные рассуждения. [35] [36] [37] Согласно расследованию The Wall Street Journal , «рекомендации YouTube часто направляют пользователей на каналы, на которых представлены теории заговора, партийные точки зрения и вводящие в заблуждение видеоролики, даже если эти пользователи не проявляли интереса к такому контенту. Когда пользователи проявляют политическую предвзятость в том, что они выбирают для просмотра, YouTube обычно рекомендует видеоролики, которые отражают эти предвзятости, часто с более экстремальными точками зрения». [35] [38] Когда пользователи ищут политические или научные термины, алгоритмы поиска YouTube часто отдают предпочтение мистификациям и теориям заговора. [37] [39] После того, как YouTube вызвал споры из-за того, что выставил на первое место видеоролики, пропагандирующие ложь и теории заговора, когда люди задавали вопросы о срочных новостях во время стрельбы в Лас-Вегасе в 2017 году , YouTube изменил свой алгоритм, чтобы отдать большую значимость основным источникам СМИ. [35] [40] [41] [42] В 2018 году сообщалось, что YouTube снова продвигал маргинальный контент о срочных новостях, отдав большую значимость видеороликам о теориях заговора о смерти Энтони Бурдена . [43]
В 2017 году выяснилось, что реклама размещалась на экстремистских видеороликах, включая видеоролики апологетов изнасилования, антисемитов и проповедников ненависти, которые получали рекламные выплаты. [44] После того, как компании начали прекращать размещение рекламы на YouTube в связи с этим репортажем, YouTube извинился и заявил, что предоставит компаниям больший контроль над тем, где будет размещаться реклама. [44]
Алекс Джонс , известный своими крайне правыми теориями заговора, собрал огромную аудиторию на YouTube. [45] YouTube подвергся критике в 2018 году, когда удалил видео из Media Matters, в котором были собраны оскорбительные заявления Джонса, заявив, что оно нарушает его политику в отношении «преследований и издевательств». [46] Однако 6 августа 2018 года YouTube удалил страницу Алекса Джонса на YouTube после нарушения правил контента. [47]
Профессор Университета Северной Каролины Зейнеп Туфекчи назвала YouTube «Великим радикализатором», заявив, что «YouTube может быть одним из самых мощных радикализирующих инструментов 21-го века». [48] Джонатан Олбрайт из Центра цифровой журналистики Тоу при Колумбийском университете описал YouTube как «экосистему заговора». [37] [49]
В январе 2019 года YouTube заявил, что ввел новую политику, начиная с Соединенных Штатов, направленную на прекращение рекомендации видео, содержащих «контент, который может дезинформировать пользователей вредоносным образом». YouTube привел в качестве примеров теории плоской Земли , чудесные исцеления и правдоподобные заявления об 11 сентября . [50] Попытки в рамках разработки YouTube прекратить рекомендовать пограничные экстремистские видео, которые едва не соответствуют запрещенным языкам ненависти, и отслеживать их популярность изначально были отклонены, поскольку они могли помешать вовлечению зрителей. [51]
В январе 2019 года сайт объявил, что будет реализовывать меры, направленные на «повышение авторитетного контента и сокращение пограничного контента и вредной дезинформации». [52] В июне того же года YouTube объявил, что будет запрещать отрицание Холокоста и неонацистский контент. [52] YouTube заблокировал загрузку неонацистского пропагандистского фильма «Европа: Последняя битва» . [53]
Множество исследований изучали случаи дезинформации на YouTube. В исследовании, проведенном в июле 2019 года на основе десяти поисковых запросов на YouTube с использованием браузера Tor, связанных с климатом и изменением климата, большинство видеороликов представляли собой видеоролики, в которых высказывались взгляды, противоречащие научному консенсусу по вопросу изменения климата . [54] Исследование, проведенное в мае 2023 года, показало, что YouTube монетизировал и получал прибыль от видеороликов, содержащих дезинформацию об изменении климата. [55] Расследование BBC в 2019 году поисковых запросов на YouTube на десяти разных языках показало, что алгоритм YouTube продвигал дезинформацию о здоровье, включая поддельные лекарства от рака. [56] В Бразилии YouTube был связан с продвижением псевдонаучной дезинформации по вопросам здравоохранения, а также с усилением крайне правого дискурса и теорий заговора. [57] На Филиппинах многочисленные каналы распространяли дезинформацию, связанную с выборами на Филиппинах в 2022 году . [58] Кроме того, исследование распространения убеждений в плоской Земле в социальных сетях показало, что сети каналов YouTube образуют эхо-камеру, которая поляризует аудиторию, кажущуюся подтверждением уже существующих убеждений. [59]
До 2019 года YouTube принимал меры по удалению определенных видео или каналов, связанных с супремасистским контентом, которые нарушали его политику приемлемого использования, но в остальном не имели общесайтовой политики против разжигания ненависти . [60]
После атак на мечеть Крайстчерча в марте 2019 года YouTube и другие сайты, такие как Facebook и Twitter, которые допускали размещение контента пользователями, подверглись критике за то, что они не предпринимали практически никаких действий по сдерживанию и контролю распространения языка вражды, что считалось одним из факторов, обусловивших атаки. [61] [62] На эти платформы оказывалось давление с целью удаления такого контента, но в интервью The New York Times главный директор по продуктам YouTube Нил Мохан сказал, что в отличие от такого контента, как видеоролики ИГИЛ , которые имеют определенный формат и поэтому легко обнаруживаются с помощью компьютерных алгоритмов, общий язык вражды сложнее распознать и обработать, и поэтому его нельзя было легко удалить без человеческого вмешательства. [63]
В мае 2019 года YouTube присоединился к инициативе, возглавляемой Францией и Новой Зеландией, с другими странами и технологическими компаниями по разработке инструментов, которые будут использоваться для блокировки языка вражды в Интернете , и по разработке правил, которые будут реализованы на национальном уровне и будут применяться к технологическим фирмам, которые не предприняли шагов по удалению таких высказываний, хотя Соединенные Штаты отказались участвовать. [64] [65] Впоследствии, 5 июня 2019 года, YouTube объявил о существенном изменении своих условий обслуживания, «в частности, запрещая видеоролики, в которых утверждается превосходство группы с целью оправдания дискриминации, сегрегации или исключения на основе таких качеств, как возраст, пол, раса, каста, религия, сексуальная ориентация или статус ветерана». YouTube указал конкретные примеры таких видеороликов, как те, которые «продвигают или прославляют нацистскую идеологию, которая по своей сути является дискриминационной». YouTube также заявил, что «удалит контент, отрицающий, что имели место хорошо задокументированные насильственные события, такие как Холокост или стрельба в начальной школе Сэнди Хук ». [60] [66]
В августе 2019 года канал белого националистического сайта VDARE был забанен. Запрет был позже отменён. [67] Канал был навсегда забанен в августе 2020 года за нарушение политики YouTube против разжигания ненависти . [68]
В сентябре 2018 года YouTube ограничил доступ к некоторым видео Red Ice , мультимедийной компании, выступающей за превосходство белой расы, после того, как она опубликовала видео, в котором утверждалось, что белых женщин «заставляют» вступать в межрасовые отношения. [69] В октябре 2019 года YouTube заблокировал основной канал Red Ice за нарушения, связанные с разжиганием ненависти. У канала было около 330 000 подписчиков. Лана Локтефф и Red Ice создали резервный канал, пытаясь обойти запрет. [70] [71] Неделю спустя резервный канал также был удален YouTube. [72] [73]
В июне 2020 года YouTube подвергся критике за то, что он годами позволял размещать на своей платформе контент с расистскими взглядами после того, как объявил, что пожертвует 1 миллион долларов на борьбу с расовой несправедливостью. [74] Позже в том же месяце он запретил несколько каналов, связанных с расизмом, в том числе каналы Стефана Молинье , Дэвида Дьюка и Ричарда Б. Спенсера , заявив, что эти каналы нарушают их политику в отношении языка вражды. Запрет произошел в тот же день, когда Reddit объявил о запрете нескольких подфорумов с расистскими высказываниями, включая r/The Donald . [75]
После распространения на YouTube дезинформации, связанной с пандемией COVID-19 , о том, что технология связи 5G ответственна за распространение коронавирусной инфекции 2019 года, что привело к поджогам нескольких вышек 5G в Соединенном Королевстве, YouTube удалил все подобные видеоролики, связывающие 5G и коронавирус таким образом. [76]
В сентябре 2021 года YouTube распространил эту политику на видеоролики, распространяющие дезинформацию, связанную с любой вакциной, включая давно одобренные против кори или гепатита В, которые получили одобрение местных органов здравоохранения или Всемирной организации здравоохранения . [77] [78] Платформа продолжила удалять аккаунты активистов, выступающих против вакцинации, таких как Роберт Ф. Кеннеди-младший и Джозеф Меркола . [78]
Google и YouTube ввели политику в октябре 2021 года, чтобы отказать в монетизации или получении дохода рекламодателям или создателям контента, которые пропагандируют отрицание изменения климата , что «включает в себя контент, в котором изменение климата упоминается как обман или мошенничество, заявления, отрицающие, что долгосрочные тенденции показывают, что глобальный климат потеплеет, и заявления, отрицающие, что выбросы парниковых газов или деятельность человека способствуют изменению климата». [79] В январе 2024 года Центр по противодействию цифровой ненависти сообщил, что отрицатели изменения климата вместо этого продвигают другие формы отрицания изменения климата, которые еще не были запрещены YouTube, включая ложные заявления о том, что глобальное потепление «полезно или безвредно», и которые подрывают климатические решения и климатическую науку . [80] [81]
В июле 2022 года YouTube объявил о политике по борьбе с дезинформацией, касающейся абортов , например, с видеороликами с инструкциями по выполнению методов аборта, которые считаются небезопасными, и видеороликами, содержащими дезинформацию о безопасности абортов . [82]
YouTube распространил модерацию дезинформации на немедицинские области. В течение нескольких недель после президентских выборов в США 2020 года сайт добавил политику удаления или маркировки видеороликов, пропагандирующих заявления о мошенничестве на выборах; [83] [84] однако он отменил эту политику в июне 2023 года, сославшись на то, что отмена была необходима для «открытого обсуждения политических идей, даже тех, которые являются спорными или основаны на опровергнутых предположениях». [85] [86]
После президентских выборов в США 2024 года YouTube сообщил, что работает над удалением контента, который пропагандирует вмешательство в выборы , вводит избирателей в заблуждение или поощряет политическое насилие . Платформа также пообещала удалить дезинформацию о выборах, созданную искусственным интеллектом . [87]
В 2017 году наблюдалось значительное увеличение количества видеороликов, связанных с детьми, в сочетании с популярностью родителей, ведущих видеоблоги о своей семейной жизни, и тем, что предыдущие создатели контента отходили от контента, который часто критиковался или демонетизировался, в пользу семейного контента. В 2017 году YouTube сообщил, что время просмотра семейных видеоблогеров увеличилось на 90%. [88] [89] Однако с увеличением количества видеороликов с участием детей сайт начал сталкиваться с несколькими противоречиями, связанными с безопасностью детей . Во втором квартале 2017 года владельцы популярного канала FamilyOFive , на котором они показывали себя, разыгрывающими своих детей, были обвинены в жестоком обращении с детьми . Их видеоролики в конечном итоге были удалены, а двое из их детей были отстранены от опеки. [90] [91] [92] [93] Похожий случай произошел в 2019 году, когда владелицу канала Fantastic Adventures обвинили в жестоком обращении с ее приемными детьми. Позже ее видеоролики были удалены. [94]
Позже в том же году YouTube подвергся критике за показ ненадлежащих видеороликов, ориентированных на детей и часто показывающих популярных персонажей в жестоких, сексуальных или иных тревожных ситуациях, многие из которых появились на YouTube Kids и привлекли миллионы просмотров. Термин « Elsagate » был придуман в Интернете и затем использовался различными новостными агентствами для обозначения этого спора. [95] [96] [97] [98] 11 ноября 2017 года YouTube объявил, что усиливает безопасность сайта, чтобы защитить детей от неподходящего контента. Позже в том же месяце компания начала массово удалять видеоролики и каналы, которые ненадлежащим образом использовали семейных персонажей. В рамках более широкой обеспокоенности по поводу безопасности детей на YouTube волна удалений также затронула каналы, на которых дети участвовали в ненадлежащих или опасных действиях под руководством взрослых. В частности, компания удалила Toy Freaks , канал с более чем 8,5 миллионами подписчиков, на котором отец и его две дочери были в странных и расстраивающих ситуациях. [99] [100] [101] [102] [103] По данным специалиста по аналитике SocialBlade, до своего удаления в ноябре 2017 года он приносил до 11,2 млн долларов в год. [104]
Даже для контента, который, по-видимому, нацелен на детей и содержит только контент, подходящий для детей, система YouTube допускает анонимность того, кто загружает эти видео. Эти вопросы поднимались в прошлом, поскольку YouTube приходилось удалять каналы с детским контентом, которые, становясь популярными, затем внезапно включали неподходящий контент, замаскированный под детский контент. [105] Альтернативно, некоторые из самых просматриваемых детских программ на YouTube исходят от каналов, у которых нет идентифицируемых владельцев, что вызывает опасения относительно намерений и целей. Одним из каналов, вызывающих беспокойство, был « Cocomelon », который предоставлял многочисленные массовые анимационные видеоролики, нацеленные на детей. Вплоть до 2019 года он получал до 10 миллионов долларов США в месяц в виде дохода от рекламы и был одним из крупнейших детских каналов на YouTube до 2020 года. Право собственности на Cocomelon было неясным за пределами его связей с «Treasure Studio», которая сама по себе неизвестна, что вызывало вопросы относительно цели канала, [105] [106] [107] но Bloomberg News удалось подтвердить и взять интервью у небольшой группы американских владельцев в феврале 2020 года относительно «Cocomelon», которые заявили, что их цель для канала — просто развлекать детей, желая сохранить свою индивидуальность, чтобы избежать внимания внешних инвесторов. [108] Анонимность такого канала вызывает опасения из-за отсутствия знаний о том, какой цели они пытаются служить. [109] Сложность определения того, кто управляет этими каналами, «усугубляет отсутствие ответственности», по словам Джоша Голина из Кампании за детство без рекламы , и образовательного консультанта Рене Черноу-О'Лири, что видео были разработаны для развлечения, а не для обучения, что привело к тому, что критики и родители были обеспокоены тем, что их дети будут слишком увлечены контентом с этих каналов. [105] Создатели контента, которые искренне делают детские видеоролики, обнаружили, что им трудно конкурировать с более крупными каналами, не имея возможности производить контент с той же скоростью, что и они, и не имея тех же средств продвижения с помощью алгоритмов рекомендаций YouTube, которыми поделились более крупные сети анимационных каналов. [109]
В январе 2019 года YouTube официально запретил видеоролики, содержащие «вызовы, поощряющие действия, которые несут в себе риск нанесения серьезного физического вреда» (например, Tide Pod Challenge ), а также видеоролики с розыгрышами, которые «заставляют жертв поверить, что они находятся в физической опасности» или вызывают эмоциональный стресс у детей. [110]
Также в ноябре 2017 года в СМИ было обнаружено, что многие видеоролики с участием детей, часто загруженные самими несовершеннолетними и демонстрирующие невинный контент, такой как дети, играющие с игрушками или выполняющие гимнастические упражнения, привлекали комментарии педофилов [111] [112], причем преступники находили видео через закрытые плейлисты YouTube или вводили определенные ключевые слова на русском языке. [112] Другие ориентированные на детей видеоролики, изначально загруженные на YouTube, начали распространяться в темной паутине и загружаться или встраиваться в форумы, известные как используемые педофилами. [113]
В результате споров, которые усилили беспокойство по поводу «Элсагейта», несколько крупных рекламодателей, чья реклама показывалась против таких видео, заморозили расходы на YouTube. [98] [114] В декабре 2018 года The Times обнаружила более 100 случаев груминга, в которых незнакомцы манипулировали детьми, заставляя их вести себя сексуально недвусмысленно (например, снимать одежду, принимать откровенно сексуальные позы и прикасаться к другим детям ненадлежащим образом). [115] После того, как репортер пометил спорные видео, половина из них была удалена, а остальные были удалены после того, как The Times связалась с отделом по связям с общественностью YouTube. [115]
В феврале 2019 года видеоблогер YouTube Мэтт Уотсон выявил «червоточину», которая заставляла алгоритм рекомендаций YouTube привлекать пользователей к этому типу видеоконтента и заставляла весь рекомендуемый контент этого пользователя содержать только эти типы видео. [116] Большинство этих видео содержали комментарии от сексуальных хищников, комментирующих с временными метками, когда дети были показаны в компрометирующих позах или иным образом делали непристойные замечания. В некоторых случаях другие пользователи повторно загружали видео в незарегистрированной форме, но с входящими ссылками из других видео, а затем монетизировали их, распространяя эту сеть. [117] После разногласий служба сообщила, что они удалили более 400 каналов и десятки миллионов комментариев, и сообщили о пользователях-нарушителях в правоохранительные органы и Национальный центр по пропавшим и эксплуатируемым детям . Представитель объяснил, что «любой контент, включая комментарии, который подвергает опасности несовершеннолетних, является отвратительным, и у нас есть четкая политика, запрещающая это на YouTube. Еще многое предстоит сделать, и мы продолжаем работать над улучшением и более быстрым выявлением случаев насилия». [118] [119] Несмотря на эти меры, AT&T , Disney , Dr. Oetker , Epic Games и Nestlé убрали свою рекламу с YouTube. [117] [120]
Впоследствии YouTube начал демонетизировать и блокировать рекламу на типах видео, которые привлекли эти хищные комментарии. Служба объяснила, что это временная мера, пока они изучают другие методы устранения проблемы. [121] YouTube также начал помечать каналы, на которых в основном присутствуют дети, и заранее отключать их разделы комментариев. «Доверенные партнеры» могут запросить повторное включение комментариев, но тогда канал станет ответственным за модерацию комментариев. Эти действия в основном нацелены на видео малышей, но видео детей старшего возраста и подростков также могут быть защищены, если они содержат действия, которые можно интерпретировать как сексуальные, например, гимнастику. YouTube заявил, что также работает над лучшей системой для удаления комментариев на других каналах, которые соответствуют стилю хищных детей. [122] [123]
Связанная с этим попытка алгоритмически помечать видео, содержащие ссылки на строку «CP» (аббревиатура от « детская порнография »), привела к некоторым заметным ложным срабатываниям, связанным с несвязанными темами, использующими ту же аббревиатуру, включая видео, связанные с мобильной видеоигрой Pokémon Go (которая использует «CP» как аббревиатуру статистики «Combat Power»), и Club Penguin . YouTube извинился за ошибки и восстановил затронутые видео. [124] Отдельно онлайн-тролли пытались добиться того, чтобы видео были помечены для удаления или удаления, комментируя заявления, похожие на то, что говорили хищники детей; эта деятельность стала проблемой во время соперничества PewDiePie против T-Series в начале 2019 года. YouTube заявил, что они не принимают мер в отношении любых видео с этими комментариями, кроме тех, которые они пометили как те, которые могут привлечь активность хищников детей. [125]
В июне 2019 года The New York Times процитировала исследователей, которые обнаружили, что пользователям, которые смотрели эротические видео, можно рекомендовать, казалось бы, безобидные видео с детьми. [126] В результате сенатор Джош Хоули заявил о планах ввести федеральное законодательство, которое запретит YouTube и другим сайтам обмена видео включать видео, в которых преимущественно участвуют несовершеннолетние, в качестве «рекомендуемых» видео, за исключением тех, которые были «профессионально созданы», например, видео телевизионных талант-шоу. [127] YouTube предложил потенциальные планы по удалению всех видео с участием детей с основного сайта YouTube и переносу их на сайт YouTube Kids , где они будут иметь более сильный контроль над системой рекомендаций, а также другие важные изменения на основном сайте YouTube в рекомендуемой функции и системе автоматического воспроизведения. [128]
В отчете Центра по противодействию цифровой ненависти , британского аналитического центра, за август 2022 года говорится, что на YouTube процветают преследования женщин. В нем отмечается, что каналы, исповедующие идеологию, схожую с идеологией влиятельного человека, борющегося за права мужчин Эндрю Тейта, используют YouTube для расширения своей аудитории, несмотря на то, что Тейт был забанен на платформе. [129] В своей книге 2022 года «Нравится, комментирует, подписывается: внутри хаотичного восхождения YouTube к мировому господству » репортер Bloomberg Марк Берген сказал, что многие женщины-создатели контента сталкиваются с преследованиями, издевательствами и преследованием. [129]
В августе этого года YouTube объявил, что больше не позволит создателям монетизировать видеоролики, в которых «неправильно используются семейные персонажи». Сегодня он делает еще один шаг, чтобы попытаться контролировать этот жанр.