YouTube устанавливает границы для дипфейков с политиками и журналистами

По мере роста распространения дипфейков, YouTube расширил доступ к своей системе обнаружения сходства на основе искусственного интеллекта для пилотной группы государственных служащих, журналистов и кандидатов в политики. Этот шаг последовал за более ранним внедрением инструмента для авторов, участвующих в Партнёрской программе компании.

Инструменты для создания видео с помощью ИИ стали легко доступны, а производимый ими контент становится всё более реалистичным, заполняя платформы социальных сетей, включая YouTube. Проблемы возникают, когда этот контент используется не только для развлечения, но и для фабрикации материалов и распространения дезинформации. Ранее Help Net Security уже сообщал об этой проблеме, в том числе о её роли в геополитических конфликтах.

«YouTube — это место, где мир узнаёт о событиях, формирующих жизнь людей: от экстренных новостей до дебатов, движущих общественный дискурс. По мере развития контента, созданного ИИ, людям, находящимся в центре этих обсуждений, необходимы надёжные инструменты для защиты своей личности», — заявил Рене Ричи, руководитель редакционного отдела и связей с авторами на YouTube.

Инструмент работает по принципу Content ID, автоматизированной системы YouTube, которая помогает владельцам авторских прав находить и контролировать свой материал на платформе, но фокусируется на сходстве с человеком, сканируя сгенерированные ИИ видео на предмет имитации личности.

Если совпадение найдено, человек может просмотреть контент и запросить его удаление в случае нарушения правил конфиденциальности. Само по себе обнаружение не гарантирует удаления.

«YouTube имеет долгую историю защиты свободы выражения и контента, представляющего общественный интерес, включая сохранение таких материалов, как пародия и сатира, даже когда они используются для критики мировых лидеров или влиятельных фигур», — отметила компания в сообщении блога.

Чтобы предотвратить злоупотребления и гарантировать, что инструмент используют только те, для кого он предназначен, участники должны подтвердить свою личность перед подключением к системе обнаружения сходства. Информация, предоставленная при настройке, используется исключительно для верификации личности и работы функции безопасности и не применяется для обучения генеративных моделей ИИ Google, заявила компания.

YouTube также отметил, что продолжит выступать за усиление правовой защиты, поддерживая законодательные инициативы, такие как закон NO FAKES Act, чтобы охранять сходство людей и устанавливать стандарты ответственного использования ИИ.

Не раскрывается, какие именно политики или должностные лица входят в первую группу тестировщиков.