田海平在《东南大学学报(哲学社会科学版)》2025年第3期撰文指出:人工智能(以下简称AI)在自主决策和自主行动不断提升的“主体性”维度,面临如何避免“‘类人化’僭越‘人类化’”所带来的伦理风险。问题的“紧迫性”来自AI“类人化”所造成的伦理影响的历史性和世界性。解决这一问题的关键途径是确立AI“类人化”的伦理限度。AI伦理治理的端点在于“类人化”的“它世界”伦理构型如何合理地建立在“人类主体”与“机器主体”之间的“主体性差异”的基础之上。这个问题涉及AI伦理影响的治安型、自我技术型和文明觉悟型三大课题。一方面,要在伦理的价值对齐上发掘“失控”的“美妙”以避免“不美妙”的发生;另一方面,要把“它世界”伦理构型的统治及其权力逻辑“解构”为类生命的伦理治安、个体生命的伦理自我技术和“类人化”的伦理文明觉悟。AI类人化的伦理限度由三条价值对齐的原则构成:生存性整体性伦理禁令——“机器不可完全‘可代理化’人和人类性”;生存性实例性伦理指令——“机器不可完全‘可欲化’人和人类性”;生存性独特性伦理律令——“机器不可完全‘可对象化’人和人类性”。机器重构“人”和“人类性”尽管可能会展开一个“无比美妙”的后人类文明,但它必须以上述三条伦理的价值对齐为底线原则。唯有如此,我们才能合理对待并使得AI“类人化”保持在它应有的伦理限度内。