Группа исследователей из Университета Тафтса, Брауновского университета и Политехнического института Ренсселера, при сотрудничестве с Военно-морскими силами США, вот уже несколько лет работает над решением вопроса о том, как создать роботов, наделенных своим собственным чувством морали. Если затея ученых окажется успешной, то они смогут создать искусственный интеллект, способный самостоятельно оценивать сложность той или иной ситуации, и самостоятельно делать сложный этический выбор, согласно предварительно интегрированным в них инструкциям.
Семьдесят два года назад выдающийся писатель-фантаст Айзек Азимов сформулировал «три закона робототехники», которые могли бы послужить в качестве своего рода кодекса морального поведения для высокоразвитого искусственного интеллекта. К сожалению (или, наоборот, к счастью), современный ИИ до сих пор очень хрупок и слаб. Он не осознает мир вокруг себя. Люди еще не научились строить роботов, которые могли бы не то что следовать этим трем законам, а хотя бы просто их понимать.
Группа ученых под руководством профессора Маттиаса Шутца из Университета Тафтса пытается решить очень важную проблему, которая пока не позволяет нам построить таких роботов: разбить человеческое представление на базовые компоненты и постараться интегрировать их на понятном роботу языке в разрабатываемый фреймворк. Позже ученые постараются смоделировать этот фреймворк в виде алгоритма и интегрировать его в искусственный интеллект. Информационная инфраструктура позволит роботу пересмотреть свои инструкции перед лицом новых доказательств и обосновывать свое поведение в отношении людей, которые им управляют.
Например, роботу-медику может быть поручена задача по срочной доставке жизненно важных лекарств в определенное место. На пути он встречает человека в критическом состоянии. Моральный кодекс робота поможет ему самостоятельно оценить ситуацию и принять решение: остановиться и помочь человеку, или продолжить выполнение своей первостепенной задачи.
Если рассказы Азимова нас чему-то и научили, так это тому, что набор строгих и запрограммированных правил не может принимать во внимание каждый из возможных сценариев событий, так как всегда имеется вероятность возникновения непредвиденной ситуации, которая рано или поздно случается. Шутц и его коллеги с этим согласны и предлагают решение этой проблемы в два этапа.
По их мнению, все решения роботов будут приниматься во-первых с учетом первостепенной этической проверки за счет специальной программы, которая тем или иным образом похожа на одну из самых продвинутых систем вопросно-ответных ИИ, таких как, например, Watson от компании IBM. Если для решения задачи потребуется больше информации, то робот будет полагаться на систему эмуляции моральных ценностей, которую Шутц пытается разработать со своими коллегами.
Так как проект развивается при поддержке ВМС США, технология, вероятнее всего, сможет сперва найти свое применение при производстве медицинских роботов, которые будут помогать солдатам на полях сражений.