Нейросеть GPT-3 вела блог по повышению продуктивности. Никто не заметил разницы.

Опубликовано at 18:22
59 0

Неплохая реклама (может даже сознательная) новой нейросети GPT-3 от OpenAI.  Этот новый алгоритм написания текстов под вымышленным именем Liam Porr вел мотивационный блог, который за две недели посетили 26 тысяч человек.

Автор эксперимента Мануэль Араос утверждает, что никто, кроме одного пользователя, не догадался, что блог ведет не человек до самого раскрытия интриги. И то этот пользователь скорее выразил недовольство структурой текста, мол, автор разводит «воду», как будто это писала нейросеть.

Араос писал заголовок статьи и вступление, добавлял фото, а нейросеть писала остальной текст в жанре мотивационной статьи о продуктивности. За две недели «блогер» привлёк 26 тысяч посетителей, а 60 человек даже на него подписались.

Пока, впрочем, у  алгоритма есть и проблемы с логикой и повторами в тексте. Иногда появлялись и грамматические ошибки, а также алгоритм допускал искажение фактов (неверное авторство цитат). Этого тоже никто не заметил, кроме автора, что, конечно, многое говорит и о самом жанре текстов-советов, и о внимательности их аудитории.

По замечанию Араоса, незначительная человеческая правка может сделать такой текст качественным, и GPT-3 больше подходит для создания эмоциональных текстов, чем исследовательских. Что, в принципе, незаменимо для бесконечной генерации мотивационных простынь:

Выводы автора про то, что можно большую часть новостников просто уволить и заменить нейросетью, кажутся шуткой, только до тех пор, что это уже происходит:

В июне 2020 года Microsoft уволила 77 новостников из редакций Microsoft News и MSN и заменила их нейросетью.

«Я всё время читал о том, что автоматизация и ИИ заберут нашу работу. И вот я здесь — ИИ забрал мою работу».

Араос также пояснил, что у него не было доступа к GPT-3, но он нашел аспиранта, который помогал в этой работе, отказавшись при этом передать ключи API. В заключение он попросил гендиректора OpenAI Сэма Альтмана дать ему доступ к GPT-3.

OpenAI показала GPT-3, предназначенный для написания текстов на основе всего нескольких примеров, в конце мая. Архитектура алгоритма Transformer аналогична GPT-2, но модель обучали на 175 миллиардов параметрах или 570 гигабайтах текста. GPT-3 может отвечать на вопросы по прочитанному тексту, а также писать стихи, разгадывать анаграммы и осуществлять перевод. Ему достаточно от 10 до 100 примеров для обучения.

Читайте также на АКБ:

Создана нейросеть для обмана нейросетей, распознающих обман нейросетей

Подписываемся, следим @CyberAgency

Related Post

Хакеры взяли в заложники Балтимор: 10 тысяч административных компьютеров до сих пор блокированы

Опубликовано - 24.05.2019 0
Очередной американский город пал жертвой всеобщей цифровизации и игр киберпрестолов. Около двух недель назад неизвестные злоумышленники запустили в городскую сеть…

Фишинговая кампания нацелена на пользователей Facebook

Опубликовано - 01.11.2017 0
Спам-кампания Facebook заманивает пользователей на фишинговые страницы, которые пытаются заполучить учетные данные Facebook. Финская фирма по безопасности F-secure обнаружила, что…