Идея полностью автономного робота, способного мыслить и принимать решения без участия человека, очаровала людей со времен промышленной революции.
Наше увлечение искусственным интеллектом только набирает скорость. Исследование подлинного искусственного интеллекта (ИИ) было оценено в 1,2 триллиона долларов. К чести сторонников ИИ, утверждают, что искусственный интеллект решит множество проблем, вызванных человеком, таких как изменение климата, и проблемы, ориентированные на человека, такие как лекарство от рака. Но то, что люди могут что-то построить, не значит, что мы должны это делать.
В аргументе в пользу создания смертоносного военного роботизированного оружия вопрос о том, «должны ли» мы его создавать, часто приносился в жертву на алтаре новой гонки технических вооружений между народами. Другими словами, мы должны строить это, потому что наши противники строят это.
В любой момент в Соединенных Штатах есть десятки беспилотных летательных аппаратов (БПЛА) в воздухе, выполняющих различные миссии от наблюдения до ракетных ударов. Но такие дроны всегда контролируются человеком-оператором, и для нанесения удара требуется, по крайней мере, некоторая степень человеческого командования и контроля.
Но автономные технологии разрабатываются в нескольких странах. Что происходит, когда мы даем машинам полномочия принимать решения об убийстве или избавлении людей?
С ИИ или без него, автономная система оружия может быть запрограммирована для стрельбы по любому законному вражескому бойцу. Но вот где этические проблемы становятся темными.