Нейросети сегодня: неэкологично и очень удобно для фейков

Опубликовано at 10.06.2019
138 0

Пока в РФ нейросети только-только приходят в массы, на Западе уже полным ходом идет рефлексия на тему того, насколько загрязняющий (буквально и метафорически) эффект оказывает процесс их работы, и к чему это может привести.

Так, ученые Массачусетского технологического института в Амхерсте выяснили, насколько передовые модели машинного обучения искусственного интеллекта вредят окружающей среде в процессе работы, пишет «Коммерсантъ». Для реализации машинного обучения требуются большие мощности, которые в будущем будут лишь увеличиваться. По данным исследования, процесс создания ИИ уже сейчас сопряжен с серьезным ущербом экологии.

Сотрудники колледжа информатики и компьютерных наук изучили работу четырех самых продвинутых программ машинного обучения на нейронных сетях, которые появились в последние годы и сосредоточены на распознавании естественных языков – Transformer, ELMo, BERT и GPT-2. Эти программы достигли результатов в машинном переводе, тестах на завершение предложений и в других типичных для этого направления испытаниях.

Исследователи просто сопоставили потребляемую программами мощность на одном графическом процессоре со временем, необходимым каждой из них для обучения согласно технической документации. Энергопотребление и объемы вредных выбросов увеличивались пропорционально мощности и сложности программ. Базовая модель Transformer выделяет всего 11,8 кг эквивалента углекислого газа (расчет был сделан на базе средней структуры энергопотребления в США).

При этом обучение той же программы при помощи нейронных сетей и с большим набором параметров выделяло в пять раз больше эквивалента CO2, чем в среднем один автомобиль в США за весь цикл от производства до окончания срока его службы: 284 тыс. кг против 57,15 тыс. кг.

«Тренировка одной модели – это минимальный объем работы, который вам необходимо проделать, — пояснила Эмма Страбелл, ведущий автор исследования. — На практике куда более вероятно, что исследователи ИИ будут разрабатывать после этого новую модель с нуля или же адаптировать существующую модель под новый набор данных. И то, и другое потребует множества дополнительных сессий тренировки и настроек». То есть, реальные показатели вредных выбросов в атмосферу от работающей модели ИИ будут в несколько раз больше.

Другая тема, которую, в отличие от физических выбросов, уже достаточно хорошо изучили и разработали – это загрязнения информационные, то есть те самые fake news. И тут возможности нейросетей безграничны. Исследователи в ведущих мировых лабораториях искусственного интеллекта оттачивают технологии, которые имитируют, как пишут люди. Новая технология может помочь кампаниям по дезинформации остаться незамеченными, генерируя огромное количество фальшивых сообщений.
Так, в последние месяцы сразу две американские лаборатории – OpenAI в Сан-Франциско и Институт искусственного интеллекта Аллена в Сиэтле – создали мощные примеры этой технологии.

ИИ изучает нюансы использования языка, анализируя огромное количество текста, написанного людьми, в том числе тысячи самостоятельно опубликованных книг, статей в Википедии и другого интернет-контента. После «обучения» всех этих данных он может просмотреть небольшую строку текста и угадать, что будет дальше. С весьма высокой вероятностью.

«Существует реальная угроза от непроверенных систем генерации текста, особенно с учетом того, что технология продолжает развиваться», — сказал Делип Рао, вице-президент по исследованиям в AI Foundation из Сан-Франциско, который специализируется на выявлении ложной информации в Интернете.

Специалисты опасаются, что ложные новости, создаваемые ИИ, могут сделать проблему более масштабной и сложной для решения.

В принципе, правильно опасаются, считают эксперты АКБ. Достаточно вспомнить недавние прецеденты:

  1. Некоммерческая лаборатория OpenAI, созданняа в 2015 году при участии Илона Маска и других бизнесменов для развития искусственного интеллекта «на благо человечества», 14 февраля объявила о создании нейросети GPT-2, которая успешно генерирует осмысленные тексты, настолько успешно, что у него выходят вполне убедительные новости на основе одной вступительной фразе.
  2. Разработчик Филипп Ван запустил сайт Thispersondoesnotexist.com – на нем функционирует генератор лиц людей, которых не существует в реальной жизни. При каждом обновлении на странице за пару секунд создается реалистичный портрет человека, почти неотличимый от настоящего. Все лица уникальны и ни разу не повторяются.
  3. В прошлом году Nvidia представила «систему гибридной графики» на основе искусственного интеллекта – сфальсифицировать реальность на фотореалистичном уровне становится возможным УЖЕ СЕГОДНЯ. Напомним, разработка Nvidia умеет отрисовывать городские пейзажи в режиме реального времени. Обученная на видео, снятом в реальном мире, новая ИИ-модель генерирует новые виртуальные пространства с нуля.
  4. Видео с речью представительницы партии Демократов и персональной оппонентки Трампа, госпожи Нэнси Пэлоси (на минуточку, спикер Палаты представителей Конгресса это третий человек в США) неизвестные искусственно замедлили, так, чтобы Пэлоси казалась пьяной и вбросили в Facebook. Facebook признал запись фейком (после того, как ее посмотрели 2,7 млн раз и 50 тысяч раз репостнули), и…оставил ролик дальше распространяться в соцсети. Как это? Ну вот так. Видимо хорошо уплачено. Спустя 32 часа после выхода ролика Facebook начал понижать его приоритет выдачи. «Мы разрешаем людям публиковать видео в качестве формы выражения, но мы не собираемся показывать его в верхней части новостной ленты», — сказали в компании. Еще одна гениальная цитата от одного из миньонов Цукерберга, которая, пожалуй, даже потеснит Касперскую на пьедестале фраз года: «политика социальной сети [Facebook] не предполагает, что размещаемый контент должен быть достоверным». Надо запомнить.

Читайте также на АКБ про другие чудеса из мира нейросетей:

Нейросеть Google обыграла человеков в Quake III.

В MIT представили новую интригующую разработку: по небольшому отрывку человеческого голоса нейросеть воссоздает облик говорящего. И делает это с высокой точностью!

Исследователи из Брауновского университета в США создали робота, который умеет писать на неизвестных ему языках, методом обучения через подражание. А еще он скопировал Мону Лизу.

DeepFake как реальность нам обеспечит запущенная в январе нейросеть-демиург, умеющая придумывать человеков.

…Да, это звучит совсем как киберпанк-фантастика, но тем не менее: эксперт заявляет, что одна из самых опасных тенденций киберпреступности наших дней – это создание «разумов роя», ботнетов, управляемых искусственным интеллектом.

…Международная группа ученых из Канады, США и Шри-Ланки решила дать порулить ИИ и опубликовала доклад о том, как изменится жизнь человека через 50 лет в условиях глобального потепления.  На основе открытых данных ИИ сгенерировал картинки, как через полвека будут выглядеть современные дома в ряде больших городов США, близких к водоемам (спойлер: они будут затоплены). Исторически сложилось так, что две трети всего человечества живет именно в прибрежных территориях.

Подписываемся, следим @CyberAgency

Related Post

Не пробуй эту текилу, Амиго! «Лаборатория Касперского» описала сложнейший мексиканский малварь

Опубликовано - 22.08.2018 0
Локальные вредоносы обычно остаются малоизвестны за рубежом, если только они изначально не были написаны «на экспорт», как северокорейский «хит» WannaCry.…

LinkedIn вне закона

Опубликовано - 09.03.2017 0
LinkedIn отказалась устранить нарушения российского законодательства, указано в сообщении Роскомнадзора. Компания не исполнила требование о локализации баз с персональными данными…

Святая лысина продавала ботнет «Ярость Господня» под видом уровней для GTA

Опубликовано - 19.02.2018 0
Компьютерная игрушка GTA продолжает поставлять беспредел в виртуальный мир, уже без контроля создателей. Группировка хакеров под названием San Calvicie, что…