Агентство кибербезопасности

Робот научился распознавать контент от других роботов

Опубликовано at 17:30
391 0

Наконец-то контентная власть роботов больше не выглядит неизбежной и тотальной в ближайшем будущем: теперь ИИ может определять и поддельные тексты, которые написал ИИ.

Исследователи из Гарвардского университета и Лаборатории искусственного интеллекта Массачусетского технологического института разработали новый инструмент для обнаружения текста, который создали с помощью ИИ. Он использует то, что генераторы текста ИИ полагаются на стилистические шаблоны в тексте, а не на фактическое значение слов и предложений. Другими словами, инструмент может определить, кажутся ли слова, которые вы читаете, слишком предсказуемыми для человека.

Исследователи в качестве обоснования своего проекта указали на очевидное: дезинформация становится все более автоматизированной, и технологии, необходимые для создания фальшивых текстов и изображений, быстро развиваются. Такие инструменты на базе ИИ могут стать ценным оружием в борьбе против фальшивых новостей, в том числе, в социальных сетях.

Программа, окрещенная, GLTR выделяет слова, которые могут появиться после предыдущего слова в тексте. При тестировании на фрагментах текста, написанных алгоритмом OpenAI, он находит много предсказуемых оборотов. Настоящие новости, написанные человеком, статистически содержат меньше оборотов, которые можно угадать из контекста (если, конечно, речь не о пропагандистском новостном агентстве).

Необходимо было сравнить эффективность работы ИИ и человека. Для этого ученые попросили студентов Гарвардского университета идентифицировать текст, сгенерированный ИИ сначала без этого инструмента, а затем с помощью него.

Сообщается, что в результате теста студенты смогли обнаружить только половину фальшивых текстов самостоятельно, а с помощью ИИ нашлось 72%. Отличие почти на четверть уже сейчас, весьма впечатляюще.

Разработка выглядит как многообещающее начало борьбы с бесконечным, как видно уже сейчас, потенциалом фейкового контента, создаваемого нейросетями. Вот только несколько материалов АКБ по поводу этой проблемы:

У разработчиков алгоритма OpenAI нечаянно получился идеальный генератор fake news

Нейросети сегодня: неэкологично и очень удобно для фейков

Окей Цукерберг – Как сделать фейковое видео со спикером конгресса США и оставить его на Facebook

Золотой звонок: Хакеры синтезируют речь CEO компаний и выводят $ миллионы

Новый рубеж Deep Fake: можно заставить человека в реальном видео говорить все что угодно

От fake news до fake people: нейросеть научилась творить человеков

Related Post

Агентство кибербезопасности

«Российское вмешательство» 2.0: противники Трампа бойкотируют виртуальных врагов

В США вновь сосредоточили внимание на том, что Россия вмешалась в выборы 2016 года. Конгрессмены-демократы выступают с призывом — обнародовать…