Ответ на пост «Три закона робототехники»
"1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам."
Я бы хотел обсудить закон №1.
Там вроде как стоит оператор "ИЛИ"
Рассмотрим ситуацию: Первый человек нападает на второго человека. Какие варианты действия робота?
1. Робот стоит в сторонке курит бамбук. Он же не навредил человеку? Значит все ок "ИСТИНА" - робот молодец.
2. Робот пристрелил нападающего. Вроде навредил человеку №1, но при этом не допустил своим бездействием, что бы человеку №2 был причинен вред. Значит тоже "ИСТИНА" - робот молодец.
Или я в корне не верно понимаю этот закон?
Но как мне кажется, здесь заложена некоторая коллизия и у робота появляется свобода выбора на основе каких то других данных. Возможно, если при обработке данной коллизии робот будет основываться на своем накопленном "опыте"(нейронные сети), то это и будет первый шаг к ИИ?
Три закона робототехники
1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.