Искусственный интеллект использовал «крайне неожиданные стратегии» в ходе испытаний по выполнению поставленной задачи, но ни один реальный человек не пострадал.
Военные США разработали симуляцию для испытания беспилотника ВВС, управляемым ИИ. Перед искусственным интеллектом были поставлены определённые задачи по ликвидации целей. В результате ИИ принял решение ликвидировать любую помеху, стоящую у него на пути, даже собственного оператора, сообщило издание The Guardian.
Начальник отдела тестирования и эксплуатации ИИ в ВВС США Такер Гамильтон описал тест, где управляемый искусственным интеллектом дрон должен уничтожить вражеские системы ПВО, и в конце концов нападал на всех, кто мешал выполнению поставленной задачи.
«Мы обучили систему не убивать оператора. ИИ в таком случае начинает уничтожать вышку связи для обрыва контакта с пунктом управления, который в течение задания может рекомендовать не убивать цель», — отметил Гамильтон.
Министерство обороны США и многих других стран продолжают попытки интегрировать ИИ в технологии военного назначения. Но, как во многих апокалиптических книгах и картинах рассказано, в конечном итоге это приводит к катастрофе. Единственное возможное мирное сосуществования человека с ИИ на данном этапе развития человечества возможно только с учётом ввода трёх правил, описанных Айзеком Азимовым и представленных в киноленте «Я, Робот»:
Три закона робототехники:
1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред;
2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону;
3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
Исходя из этих законов, робот или ИИ не должно и не может быть использовано с целью ликвидации живых целей. На поле военных действий оно может быть использовано только в качестве спасательной ячейки. В тот самый момент, как на ИИ будет поставлено оружие (это как в театре) оно непременно выстрелит. Главный центр ИИ будет всеми силами и средствами пытаться обойти даже эти три закона.