Компания Meta объявила о масштабном внедрении продвинутых систем искусственного интеллекта для борьбы с нежелательным контентом. Новые AI-инструменты возьмут на себя обнаружение и удаление материалов, связанных с терроризмом, эксплуатацией детей, наркоторговлей, мошенничеством и другими противоправными действиями. Параллельно компания намерена существенно сократить зависимость от сторонних подрядчиков в сфере модерации.
Результаты первых тестов выглядят убедительно: новые системы выявляют вдвое больше контента с сексуальными домогательствами для взрослых, снижают долю ошибок более чем на 60%, а также ежедневно обнаруживают около 5000 попыток мошенничества. По сути, речь идёт о качественном скачке в скорости и точности реагирования на угрозы.
В компании подчёркивают, что живые модераторы никуда не исчезнут — их роль лишь трансформируется. «Люди по-прежнему будут проверять контент, однако эти системы смогут взять на себя задачи, которые лучше поддаются автоматизации: однообразный просмотр графических материалов или области, где злоумышленники постоянно меняют тактику, — например, продажа наркотиков или мошенничество», — говорится в официальном заявлении Meta. Ключевые же решения останутся за специалистами: «Эксперты будут проектировать, обучать, контролировать и оценивать наши AI-системы, измерять их эффективность и принимать наиболее сложные решения с высокими последствиями».
Контекст этих изменений непрост. На протяжении последнего года — по мере того как Дональд Трамп вступил в должность президента США во второй раз — Meta последовательно смягчала правила модерации контента. Компания свернула программу проверки фактов сторонними организациями, заменив её моделью Community Notes по образцу платформы X, и сняла ряд ограничений на обсуждение острых общественных тем. Критики усматривают в этом опасное противоречие: алгоритмы становятся мощнее, но общий вектор политики — либеральнее.
Дополнительное давление на компанию оказывают судебные иски: Meta, как и другие технологические гиганты, сталкивается с волной разбирательств, связанных с вредом, который платформы наносят детям и подросткам. В этом свете ставка на AI-модерацию выглядит не только технологическим решением, но и попыткой продемонстрировать регуляторам и общественности готовность к ответственности.
Переход к AI-driven модерации отражает общую тенденцию в отрасли: социальные сети всё активнее используют автоматизацию там, где объём контента давно превысил возможности человеческого контроля. Вопрос в том, способны ли алгоритмы — даже самые совершенные — стать надёжным фильтром в условиях, когда правила игры намеренно делаются мягче.