薛永龙在《理论探索》2025年第5期撰文指出:通过“图灵测试”且能像人一样说话的AI展现出惊人的“共情”能力,而在其“智商”驱动“情商”提升的共情技术运行场域,潜在伦理风险也随之显露。情感计算、情感临摹、情感交互与情感适应技术的迅速迭代,推动AI共情从科幻叙事走向现实涌现,实现了情感服务的普惠化。然而,由于AI共情难以摆脱作为“人工物”“技术物”的物性,其势必会诱发一系列伦理风险,其中包括“模板式共情”造成情感同质、“迁就式共情”催生情感钝化、“表演式共情”制造情感欺骗、“诱导式共情”加剧情感殖民。AI共情诱发的伦理风险是全新的、全面的,对此,需要通过嵌入伦理性的共情系统设计、构建过程性的共情监管体系、完善责任性的共情运行评价、培育批判性的共情认知素养,作为其治理路向。