Вопрос о том, можно и нужно ли убирать опасные видео из интернета, зреет уже долгое время, но отвечают на него все по-разному.
Очередным поводом для новой волны обсуждений стал инцидент в новозеландских мечетях, где в результате стрельбы погибло не менее 50 человек. Нападение на мечеть «Аль-Нур» на свою страницу в Facebook транслировал сам нападавший, австралиец Брентон Таррант.
В связи с трагедией в Facebook пообещали поработать над ограничениями для прямых трансляций, чтобы избежать подобных ситуаций в будущем.
Австралийское правительство пошло ещё дальше и уже приняло строгие меры. В соответствии с ними владельцы веб-платформ, где опубликованы ролики со сценами жестокости и насилия, будут наказаны повисшей строгости закона.
В законопроекте говорится, что владельцев платформы ждут взыскания, если они не успеют достаточно быстро удалить «отвратительный материал с применением насилия». К такому контенту относятся: террористические акты, убийства, изнасилования, пытки и похищения людей.
Речь идет о штрафах до 10,5 млн. австралийских долларов (около 7,5 млн. долларов США) или 10% годового оборота. Также руководителям компаний или «тем, кто предоставляет интернет-услугу», может грозить реальный тюремный срок до трех лет. Неслабо.
Никто не против?
Инициатором этого закона стал премьер-министр Австралии Скотт Моррисон. При этом он сам считает, что в данный момент закон «некорректен» и требует правок.
Эксперты по правовым вопросам обращают внимание на то, что закон в нынешней его форме может привести к ужесточению цензуры в интернете, а также мешает распространять некоторую информацию, которую всё-таки необходимо показывать обществу. Однако вносить правки раньше выборов в Австралии никто не будет.
А что там с YouTube?
Как сообщает Bloomberg, у руководителей YouTube отношение к присутствию токсичного контента на их платформе диаметрально противоположное, поскольку ключевым понятием и бизнес-целью здесь является вовлечённость. Что это значит?
В последние годы многие сотрудники YouTube и Google (которой YouTube принадлежит), выражали обеспокоенность по поводу массы дезинформирующего, экстремистского и токсичного контента, который распространяется посредством крупнейшего в мире видеосайта. Несмотря на эти опасения, корпоративное руководство YouTube «не может или не желает принимать меры по этим внутренним вопросам из-за боязни последствий.
автор Bloomberg
Сложные вопросы с контентом
YouTube не даёт комментариев, но в заявлении, предоставленном Bloomberg, основной задачей компании названо решение сложных проблем с контентом. Как компания это регулирует? Вот некоторые из мер, принятых для решения проблемы токсичного контента:
- Обновление системы рекомендаций для предотвращения распространения дезинформации. Данный механизм призван добавить меру «социальной ответственности» в алгоритм рекомендаций, который содержит информацию о соотношении «лайков» и «дизлайков» на видео. А также о том, сколько раз люди им поделились.
- Улучшение работы с новостными источниками путём добавления ссылок на результаты Новостей Google в результатах поиска YouTube, а также размещение «авторитетных» источников из авторитетных СМИ в своих разделах новостей;
- Кроме того, в самой Google количество сотрудников, ответственных за публикуемое содержимое, увеличили до 10 000 человек;
- Еще YouTube инвестирует в развитие ИИ для более быстрого поиска и удаления контента, который нарушает политику платформы;
- Политика компании постоянно пересматривается и обновляется (только в 2018 году вышло более 30 обновлений);
- И на десерт: было удалено более 8,8 миллионов каналов за нарушение правил платформы.
Тем не менее, многие считают данные меры недостаточными.
Миллиард часов просмотров в день
Изначально целью руководства YouTube было создание и развитие свободного сайта, способного заинтересовать людей в просмотре и хостинге любительских видео. В то время платформа являлась убыточной, однако проблемы со спорным контентом были уже тогда.
По причине резкой популярности роликов, пропагандирующих анорексию, штатные модераторы сразу начали активно блокировать видео. Заодно они выставляли ограничения по возрасту и проводили прочие меры по избавлению от нежелательного контента.
Политика компании изменилась, когда в 2012 году YouTube пришла к другой концепции. Чем выше трафик на сайте, тем больше откручивается рекламы.
Тогда лучшими инструментами для продвижения новой идеи стали автовоспроизведение и система подбора рекомендаций для каждого конкретного пользователя.
На этот уровень YouTube вышла уже под управлением Сьюзен Войжитски в октябре 2016 года.
Нейронная сеть, отвечающая за алгоритм подбора видео для рекомендаций и автовоспроизведения на YouTube, была описана в том же году и, надо заметить, со своей целью — удержанием людей на сайте — она отлично справляется. Проблема в том, что распознать при этом дезинформирующие или содержащие насилие видео система может не всегда.
Мнение Wylsacom
На эту тему выходил ролик на канале, где Валентин делится мыслями и опытом о том, как выжить на просторах злобного российского YouTube.
Психология отношений в реальной жизни — штука очень непростая, а уж как разобраться с незнакомыми людьми в интернете — вообще загадка. Но что делать с тем контентом, который появляется на площадке YouTube, почему крупнейший сервис не особо стремится изменить положение?
YouTube не интересуется тем, что происходит, если это не касается рекламных денег. Так было с детским контентом, так было с экстремистским контентом. Это не теория заговора, просто там такое безразличное отношение к роликам, пока не ударило по заработку.
«Пограничный контент»
Основная часть спорного контента на YouTube не нарушает правил платформы, и в январе 2019 года для таких видео появилась отдельная категория под названием «пограничный контент»: такие ролики не удаляются с площадки, но в рекомендации они больше не попадают. Несмотря на это, многие считают данные меры недостаточными, и вот почему.
Одним из ярких примеров можно назвать канал iHealthTube.com, который лондонская антиэкстремистская фирма Moonshot CVE определила как один из самых влиятельных генераторов антипрививочных теорий на YouTube. К слову, в популярных видео iHealthTube.com есть ролик и не о вакцинах. Это семиминутный клип под названием: «Любой рак можно вылечить за несколько недель». И хотя YouTube заявляет, что больше не рекомендует такие видео для зрителей, это не помешало ролику набрать более 7 миллионов просмотров.
Стоит признать, что проблемы со спорным контентом на YouTube до сих пор нельзя назвать решёнными полностью. Более того, есть риск, что при недостаточном контроле со стороны руководства платформы, эту роль на себя попытаются примерить правительства разных стран, как это уже случилось в Австралии. Только вряд ли подобный подход приведет к чему-то кроме ужесточения цензуры в интернете.
Получается, что истина, как всегда, лежит где-то посередине, и до неё ещё предстоит добраться. Или нет? Что думаете на этот счёт, как быть с цензурой и нормами морали?