李开阳,李佳华在《自然辩证法研究》2026年第2期撰文指出:具身AI领域存在众多用于实现价值对齐的伦理安全标准。标准过强会对具身AI的发展形成限制,标准过弱则会增加非对齐风险,缺乏一个理论模型对技术发展与技术安全的矛盾做一个精准的阐述。通过设定较为平衡的伦理安全标准,即道德行动有限性,并以此为依据借助Spot机器狗的具体案例进行深入分析,证实道德行动有限性满足“不可能三角”,即泛化能力、数据效率、道德行动有限性无法同步优化。当平衡的伦理标准都无法解决矛盾时,其他伦理标准对比道德行动有限性只会更为侧重技术与伦理中的某一端。因此道德行动有限性所揭示的“不可能三角”,可以用作对狭义的价值对齐和广义的价值对齐的评估与区分。为政策制定者在确定、选择具身AI价值对齐标准时提供一个合适思考原点,实现对不同价值对齐方案的横向对比。