И снится нам клип новый нейросети…о регулировании Deepfake в будущем

Опубликовано at 09.07.2020
119 0

Команда ученых из Бостона создала алгоритм, который позволит защитить выкладываемые в интернет видео и фотографии от deepfake-редактуры. Сообщается, что алгоритм покрывает фото или видео невидимым фильтром, и когда злоумышленник пытается использовать нейронную сеть для манипуляций с этими медиафайлами, то встроенный фильтр отображает пиксели таким образом, что изображение становится неузнаваемым и непригодным для изготовления дипфейков.

Член совета Госдумы по информационной политике, информационным технологиям и связи Евгений Лифшиц полагает, что ситуацию с дипфейками нужно регулировать самим соцсетям и принимать для этого соответствующие меры. А защита от редактирования видео должна встраиваться в социальные сети на уровне программного кода:

Это очень интересная и перспективная тема, и Deepfake, учитывая резонанс современной медиасреды безусловно, нужно регулировать глобально. На законодательном уровне такие попытки уже предпринимались: в продвинутой Калифорнии, например, законом уже с прошлого года запрещено любое размещение deepfake-видео с кандидатами на выборах за 60 дней до голосования, а жители штата могут подать в суд на вставивших их лицо в порнографический дипфейк.

Возможно мы сейчас живем в уникальный период экспериментального «окна», как в первые годы существования интернета, когда технология (нейросети) есть и доступна каждому, но еще не зарегулирована на глобальном уровне. И это «окно», судя по новостям, уже стремительно сокращается.

Очевидно, что с нынешним темпом производства в соцсетях контента и мгновенным серьезным эффектом, который оказывает его распространение, только регуляторных мер недостаточно, и ситуацию с deepfake нужно брать в свои руки самим соцсетям. Пробовали помечать фейковый контент: отлично работает, хотя роботы пока еще плохо разбираются в отредактированных видео.

Защита от редактирования нейросетью загружаемых в соцсеть картинок и видео, которую предлагают разработчики, может стать идеальным решением (надо только понять, как она будет встраиваться и адекватно работать в коде соцсети). Да, мы лишимся смешных мемов, вроде Илона Маска, поющего «Земля в иллюминаторе», но зато не будет ситуации массовых беспорядков, когда, допустим в какой-то кризисный момент станет вирусным условное фейковое видео Трампа с призывом к линчеванию митингующих.

Для будущего проблема теоретически будет решена, но в настоящем остается проблема архивов: если алгоритм будет работать только с новым создаваемым контентом, то это не окажет практически никакого влияния на медиаперсон, роликов с которыми в интернете и так уже миллионы, т.к. материала для обработки deepfake и так больше, чем можно желать.

Если планируется каким-то образом применить защиту от обработки к уже присутствующему в интернете (например, на YouTube) контенту, то встает масса других этических и технологических вопросов по реализации. Но в целом идея разработчиков очень интересная и актуальная.

(полная версия комментария, опубликованного в «Российской газете»).

Подписываемся, следим @CyberAgency

Related Post