Пентагон разработал этические правила для боевого ИИ

Опубликовано at 26.02.2020
153 0

В отличие от классической триады Азимова, американские военные сформулировали пять пунктов. По сути, впрочем, они весьма похожи, только перегружены бюрократией применимы на данном этапе не к самому ИИ, а к разрабатывающим его людям (видимо по следам демонстративных протестов работников Google).

Предполагается, что эти принципы будут помогать вооруженным силам США в выполнении правовых, этических и политических обязательств в области ИИ. Этические принципы охватывают пять основных областей:

Ответственный. Персонал Минобороны США будет проявлять надлежащий уровень оценки и осторожности при использовании, развертывании и использовании ИИ.

Равноправный. Ведомство предпримет надлежащие меры для минимизации непреднамеренных предубеждений против возможностей ИИ.

Прослеживаемый. Возможности ИИ будут разрабатываться и развертываться таким образом, чтобы персонал обладал надлежащим пониманием технологий, процессов разработки и методов работы, применимых к ИИ, в том числе с помощью прозрачных и проверяемых методологий, источников данных, а также процедур проектирования и документации.

Надежный. Возможности ИИ будут четко определены, а безопасность, надежность и эффективность таких возможностей будут подвергаться тестированию и проверке на протяжении всего их жизненного цикла.

Управляемый. Ведомство будет проектировать и разрабатывать возможности ИИ для выполнения своих намеченных функций, сохраняя способность обнаруживать и избегать непреднамеренных последствий, а также отключать или деактивировать развернутые системы при необходимости.

У Азимова было иначе, но там и цели были другие:

-Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

-Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

-Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

 

Больше похожа на правду ироничная версия фантаста и критика Дэвида Лэнгфорда:

-Робот не может причинить вреда авторизованному правительственному персоналу, но должен ограничивать слишком назойливых посетителей с особой тщательностью.

-Робот должен выполнять приказы авторизованного персонала, кроме приказов, противоречащих Третьему Закону.

-Робот должен заботиться о своей безопасности с применением противопехотного оружия, потому что робот — чертовски дорогостоящая штука.

Читайте также на АКБ:

Пентагон научился распознавать лица с расстояния в километр

Подписываемся, следим @CyberAgency

Related Post

Исследователи «Лаборатории Касперского» обнаружили недостатки в популярных приложениях для знакомств

Опубликовано - 26.10.2017 0
Популярные приложения знакомств, такие как OkCupid, Tinder и Bumble, имеют уязвимые места в системе, из-за которых для мошенников становится доступной…