fbpx
Соцсети

СЕО Ютуба: «Мы можем работать лучше, но пока на пути к этому»

Почти каждую неделю на Ютубе возникает какая-то новая проблема с модерацией контента. Но решить их, похоже, невозможно.

В интервью New York Times СЕО компании Сьюзен Войжитски рассказала о том, как именно Ютуб борется с дезинформацией, агрессивными, опасными, эксплуатационными видео. И как принимают решения о том, что считать плохим контентом.

Для примера сложности этого вопроса Сьюзан рассказала о так называемом «condom challenge». Люди вдруг принялись набирать воду в презерватив и бросать друг другу на голову. Задача состояла в том, что презерватив в итоге растянулся вокруг головы и не лопнул. Невинная забава или возможность задохнуться?

Компания в итоге выступила против челленджа. Но каждую минуту, пока в офисе шли размышления, на Ютуб заливали 500 часов видео участников флешмоба.

Но проблемы с модерацией выходят за рамки глупых челленджей. Не так давно на Ютубе обнаружили в комментариях под детскими видео переписки педофилов. Соцсеть очень быстро отреагировала на находку и закрыла комментарии в категории детских видео.

Сьюзен Войжитски отметила, что благодаря новой политике удалось всего за два дня отключить комментарии в миллионах видео. Ещё совсем недавно команде понадобилось бы несколько месяцев, чтобы только уладить все конфликты с владельцами видео.

Всего через несколько недель после этого пользователей Ютуба ошеломили записи массовой стрельбы в Новой Зеландии. Каждую секунду на платформу заливали одно видео. Тогда руководство соцсети приняло решение отключить возможность поиска этих видео по ключевым словам. А заботу о модерации поручили не людям, а компьютеру. Иначе просто не успевали бы блокировать их.

И вроде бы в компании успевают отреагировать на тревожные сигналы очень оперативно. Тем не менее, просто отключать какие-то функции в нужный момент — это не решение проблемы. А что, если ситуация дойдёт до такого пика, когда придётся отключить всю платформу?

В компании сейчас наблюдается борьба между постоянным ростом и вовлечённостью пользователей и обратной, иногда жуткой, стороной этого роста. Ранее в этом месяце журналисты Bloomberg разбирали эту проблему в своём материале. Они обвиняли руководство Ютуба, и Войжитски в том числе, в закрытии глаз на текущие проблемы с контентом в угоду вовлечённости пользователей.

Тогда в соцсети ответили, что «ответственность остаётся главным приоритетом» и что компания «предпринимает ряд важных шагов, включая изменения в рекомендательной системе, чтобы предотвратить распространение вредной дезинформации» среди прочих инициатив. Тем не менее, на прошлой неделе вместе с появлением первой фотографии чёрной дыры возникла очередная проблема. На этот раз с алгоритмами, которые начали выдавать в рекомендациях бредовое видео с конспиративными теориями. А уже на этой неделе, 15 апреля, алгоритм снова неприятно удивил: во время просмотра видео о пожаре в парижском Нотр-Даме он предлагал почитать о трагедии 11 сентября.

Сьюзен Войжитски ответила на это Times, что «компания может работать лучше, но мы на пути к этому». В принципе это же самое, что говорят СЕО любых других технологических компаний, когда речь идёт о проблемах с их платформами.

Никто не говорит, что Ютуб должен обязательно находить и банить каждое видео с вредным контентом ещё до того, как его загрузят на сайт. Но если алгоритмы и люди допускают такие большие ошибки, значит, с ними явно что-то не так. Оправдываться нет смысла. И СЕО Ютуба стоило бы на самом деле взять ответственность за контент и поставить работу над модерацией на первое место, а не следить только лишь за количеством регистраций в соцсети.

52580509