Наконец-то контентная власть роботов больше не выглядит неизбежной и тотальной в ближайшем будущем: теперь ИИ может определять и поддельные тексты, которые написал ИИ.
Исследователи из Гарвардского университета и Лаборатории искусственного интеллекта Массачусетского технологического института разработали новый инструмент для обнаружения текста, который создали с помощью ИИ. Он использует то, что генераторы текста ИИ полагаются на стилистические шаблоны в тексте, а не на фактическое значение слов и предложений. Другими словами, инструмент может определить, кажутся ли слова, которые вы читаете, слишком предсказуемыми для человека.
Исследователи в качестве обоснования своего проекта указали на очевидное: дезинформация становится все более автоматизированной, и технологии, необходимые для создания фальшивых текстов и изображений, быстро развиваются. Такие инструменты на базе ИИ могут стать ценным оружием в борьбе против фальшивых новостей, в том числе, в социальных сетях.
Программа, окрещенная, GLTR выделяет слова, которые могут появиться после предыдущего слова в тексте. При тестировании на фрагментах текста, написанных алгоритмом OpenAI, он находит много предсказуемых оборотов. Настоящие новости, написанные человеком, статистически содержат меньше оборотов, которые можно угадать из контекста (если, конечно, речь не о пропагандистском новостном агентстве).
Необходимо было сравнить эффективность работы ИИ и человека. Для этого ученые попросили студентов Гарвардского университета идентифицировать текст, сгенерированный ИИ сначала без этого инструмента, а затем с помощью него.
Сообщается, что в результате теста студенты смогли обнаружить только половину фальшивых текстов самостоятельно, а с помощью ИИ нашлось 72%. Отличие почти на четверть уже сейчас, весьма впечатляюще.
Разработка выглядит как многообещающее начало борьбы с бесконечным, как видно уже сейчас, потенциалом фейкового контента, создаваемого нейросетями. Вот только несколько материалов АКБ по поводу этой проблемы:
У разработчиков алгоритма OpenAI нечаянно получился идеальный генератор fake news
Нейросети сегодня: неэкологично и очень удобно для фейков
Окей Цукерберг – Как сделать фейковое видео со спикером конгресса США и оставить его на Facebook
Золотой звонок: Хакеры синтезируют речь CEO компаний и выводят $ миллионы
Новый рубеж Deep Fake: можно заставить человека в реальном видео говорить все что угодно
От fake news до fake people: нейросеть научилась творить человеков