Лидеры в разработке ИИ признают опасность автономного вооружения

Полностью автономное оружие, также известное как «роботы-убийцы», с ростом НТП уже способно выбирать цели без вмешательства человека. Прототипы этого оружия, такие как вооруженные беспилотники, разрабатываются и развертываются странами, включая Китай, Израиль, Южную Корею, Россию, Соединенное Королевство и Соединенные Штаты.

Весьма сомнительно, что полностью автономное оружие будет способно соответствовать стандартам международного гуманитарного права, включая правила разграничения, пропорциональности и военной необходимости, в то время как они будут угрожать основополагающему праву на жизнь и принципам человеческого достоинства. Human Rights Watch призывает к превентивному запрету на разработку, производство и использование полностью автономного оружия.

Элон Маск, наряду с более чем 100 лидерами в области робототехники и искусственного интеллекта (AI), написал открытое письмо для предупреждения ООН о некоторых видах обычного оружия о «смертельных» роботах.

Авторы послания предостерегают, что автономное оружие создаст новую революцию в ВПК и нуждается в тщательном контроле.

«Как компании, строящие технологии в области искусственного интеллекта и робототехники, которые могут быть переработаны для разработки автономного оружия, мы чувствуем особую ответственность за повышение этой тревоги», — говорится в письме.

«После того, как они будут разработаны, они позволят вооруженному конфликту иметь масштаб, который больше, чем когда-либо, и в разы быстрее, чем люди могут понять и отреагировать. Это может быть оружие террора, которое диктаторы или террористы используют против ни в чем не повинных людей, или вышедшее из под контроля в результате програмных ошибок.»

Письмо было подписано 116 лидерами со всего мира, которые занимаются разработкой искусственного интеллекта.Маск, в частности, был давним критиком ИИ и потенциальных опасностей, которые он может вызвать.

«AI — редкий случай, когда я думаю, что нам нужно быть активным в регулировании, а не пасивно наблюдать», — сказал он в июле.

«Потому что я думаю, что к тому времени, когда мы будем реагировать на регулирование ИИ, может быть уже слишком поздно». Специальная группа экспертов из ООН должна была встретиться в первый раз на этой неделе, чтобы обсудить смертоносные системы автономного оружия, но совещание было отложено до ноября 2017 года.

Письмо заканчивается предупреждением: «Как только ящик Пандоры откроется, закрыть его будет сложно».

Эксперты убеждены, что ученые хорошо знают об угрозе искусственного интеллекта и учитывают его при разработке систем.

«Все исследователи ИИ хорошо знакомы с этой идеей — они называют это «сценарием Терминатора», — объясняет футуролог доктор Ян Пирсон.

Оцените статью
Добавить комментарий