«Законы робототехники» Айзека Азимова пользуются исключительным авторитетом и являются своего рода заповедями для многих сторон этически-философского дискурса вокруг искусственного интеллекта. Практическое применение этих «законов», однако, сталкивается с принципиальными трудностями, причины которых исследованы в этой статье. В частности, первый «закон» о недопущении вреда человеку не уточняет, об ущербе кому идёт речь; второй «закон» о подчинении робота человеку не уточняет, кому из претендентов на управление роботом следует отдать предпочтение. На элементарных примерах показано, что при наличии конфликта интересов оба этих абстрактно-гуманистических «закона» теряют смысл и являются жизненно несостоятельными. Кроме того, даже в отсутствие такого конфликта «недопущение вреда» требует от робота предвидения последствий тех или иных действий в сколь угодно далёком будущем, однако возможность такого прогноза противоречит законам физики и биологии. Наконец, показано, что формулировки всех трёх «законов», очевидно абсурдные для неодушевлённых инструментов, предполагают наличие у роботов свободы действия, ошибочно наделяя их субъектностью. Этот ложный антропоморфизм, характерный для современных обсуждений искусственного интеллекта, закрепился в устойчивых языковых формах. Система выявленных искажений представляет собой чуждую традиционным культурам когнитивно-мировоззренческую матрицу, угрожающую безопасности общества на переходе к новым техноукладам.