В 1940-х годах американский писатель Исаак Азимов разработал «Три закона робототехники», утверждая, что интеллектуальные роботы должны быть запрограммированы таким образом, чтобы при столкновении они должны были соблюдать и соблюдать следующие три закона:
- Робот не может причинить вред человеку или, по причине бездействия, позволить человеку причинить вред.
- Робот должен подчиняться приказам, данным ему людьми, за исключением тех случаев, когда такие приказы противоречат Первому Закону.
- Робот должен защищать свое существование, если такая защита не противоречит Первому или Второму Закону.
Впервые законы робототехники Исаака Азимова были впервые представлены в короткометражной научной фантастике Runaround (PDF), опубликованной в мартовском выпуске «Поразительная научная фантастика» 1942 года.
Перенесемся через почти 80 лет в настоящее время. Сегодня Три закона робототехники Азимова представляют больше проблем и конфликтов, чем они решают.
Роботисты, философы и инженеры постоянно обсуждают этику машин. Машинная этика – это практическое предложение о том, как одновременно разрабатывать и обеспечивать этические санкции для роботов.
Кто или что будет нести ответственность, когда или если автономная система работает со сбоями или наносит вред людям?
В настоящее время исследователи следуют тенденции, которая направлена на содействие разработке и внедрению искусственных систем со встроенным морально приемлемым поведением.
Этика – это раздел философии, который изучает поведение человека, моральные оценки, понятия добра и зла, добра и зла, справедливости и несправедливости. Концепция робоэтики вызывает фундаментальные этические размышления, связанные с конкретными проблемами и моральными дилеммами, возникающими при разработке роботизированных приложений.
Робоэтика или машинная этика имеют дело с кодексом поведения, который инженеры-роботы-разработчики должны применять в искусственном интеллекте робота. Посредством такого рода искусственной этики роботы должны гарантировать, что автономные системы смогут демонстрировать этически приемлемое поведение в ситуациях, когда роботы или любые другие автономные системы, такие как автономные транспортные средства, взаимодействуют с людьми.
Этические проблемы будут продолжать расти, пока в дело вступает более продвинутая робототехника. В «Этическом ландшафте робототехники» (PDF) Павла Лихоцки и др., Опубликованном журналом IEEE Robotics and Automation Magazine, исследователи перечисляют различные этические проблемы, возникающие в двух наборах роботизированных приложений: служебные роботы и смертоносные роботы.
Служебные роботы созданы, чтобы мирно жить и взаимодействовать с людьми, в то время как смертельные роботы созданы для отправки на поле битвы в качестве военных роботов.
Согласно «Этическому ландшафту робототехники», Ноэль Шэнки утверждает, что «когнитивные возможности роботов не совпадают с возможностями человека, и поэтому смертельные роботы неэтичны, поскольку они могут совершать ошибки легче, чем люди». А Рональд Аркин считает, что «хотя беспилотная система не сможет идеально вести себя на поле боя, она может действовать более этично, чем люди».