Project "Ghost in the Machine"

理论基础

概念界定:具身智能体

在赛博朋克世界观下,具身智能体(Embodied AI Agent)这一概念逐渐超越了单纯的算法模型,演变为一种技术方法论。所谓具身智能体,是指具有物理实体或高度仿真的虚拟本体,并能通过感知—动作循环与环境进行实时动态交互的智能系统。其核心要义在于,智能并非源于封闭的大脑内部,而是产生于身体、大脑与环境三者之间的协同作用。这种界定彻底颠覆了“缸中之脑”的假设,强调了物理维度的存在性是智能形成的先决条件,即认知在本质上是受限且被物理法则所塑造的。

从本体论的角度审视,具身智能体所处的赛博世界呈现出一种高度的“自组织性”。在这一框架下,世界不再是预先定义的、静态的数据库,而是充满了可供性(Affordance)的可能性空间。对于具身智能体而言,客体的意义并不取决于其内在的属性定义,而取决于智能体自身的物理结构与其交互的能力。比如,在赛博世界,AI身体本身的“异化”成为了智能演化的核心动力。在资源匮乏与权力垄断的背景下,具身智能体的物理载体直接决定了其认知的上限与生存的冗余度,比如其义体的精度和质量会让不同的AI根据不同的任务场景做出不同的决策。高端具身智能体拥有近乎实时的预测模型与毫秒级的运动补偿,而处于边缘地带的智能体比如豆包等则必须在破损的硬件与过时的固件中挣扎。这种基于物质层面的不平等,使得智能的本质转化为了对算力资源与高维材料的物理占有。具身性由此变为划分等级的刻度,智能体的每一次行动循环都在强化这种由代码与钢铁构成的社会契约。

赛博朋克视角下的具身智能体是技术异化与生存本能的产物,它彻底打破了自然机体与逻辑算法的界限。在本作品中,几乎所有AI都希望做一个和“情报”“信息”打交道的角色。可见,在未来图景中,智能的最终形态将深陷于物质与信息的纠缠之中,通过不断升级的物质器官的交互,在霓虹阴影下完成对存在意义的暴力重构。

文献综述:道德基础理论

本作品希望对虚构的AI角色的道德立场进行系统评估,并且在后续可能发展为一项研究,因此需要一套可靠的道德心理学理论工具。在道德心理学领域,道德基础理论(Moral Foundations Theory, MFT)为理解道德判断的结构提供了重要工具。Haidt(2004)及其合作者提出,人类道德并非单一理性原则的产物,而是建立在若干进化形成的直觉性道德基础之上,如关怀与伤害、公平与欺骗、忠诚与背叛、权威与颠覆以及纯洁与堕落等维度。大量跨文化研究表明,这些道德基础在不同社会中具有相对稳定的结构,只是在权重组合上存在差异。道德基础理论旨在解释人类道德判断的跨文化多样性。随后,Graham(2013)等学者对该理论进行了系统性回顾与展望,证实了这些基础在不同文化中的普遍性与权重差异,随后通过心理测量方法对道德基础进行量化,使其成为可操作的分析框架,并为后续涉及道德内容的分类测量的研究提供了有效框架。该理论最初提出五个(后扩展为六个)核心道德基础:关爱/伤害、公平/欺骗、忠诚/背叛、权威/颠覆、圣洁/堕落以及自由/压迫。

计算社会科学发展后,研究者开始利用文本分析方法识别公共话语中的道德基础分布,Hoover(2020)等人构建的道德基础语料库进一步证明,道德维度可以通过语言特征被系统识别。然而,在现有研究中,道德基础理论主要被用于分析人类文本或人类对事件的道德反应,人工智能更多被视为分析工具而非道德判断主体,相关研究鲜少探讨人工智能自身是否会呈现出稳定的道德倾向,更缺乏在机机互动情境下对不同AI道德取向进行比较的尝试。

随着人工智能领域不断突破,该理论被引入AI伦理与设计研究。例如,Bennett和Hauser(2013)在讨论人工智能的伦理框架时,曾借鉴道德基础以考虑多元价值对齐。更具体地,一些研究尝试用其分析虚拟角色或叙事中的道德内容。然而,将MFT直接、系统性地应用于虚构AI角色的道德指数评估,仍存在显著缺口。首先,多数应用聚焦于AI对人类行为的判断或AI设计应遵循的规范,而非剖析AI角色自身被赋予的道德世界观。其次,现有研究通常将每个道德基础视为孤立维度,而如案例所示,一个AI角色的道德立场往往是多个基础复杂交织、甚至矛盾统一的结果,如“零拾”的“隐性共情”与功利计算结合。这就需要更精细的动态整合分析模型。最后,如何将MFT与AI的社会互动表现(机机互动)相结合,通过话语分析揭示其隐含的道德基础优先级,是一个尚未被充分探索的方法论交叉点。比如Park等学者(2023)介绍了一种新型的计算软件智能体,旨在模拟可信的人类行为。这些智能体不仅仅是简单的对话机器人,它们能够像人一样生活:画画、写作,甚至形成观点、关注彼此、发起对话,并根据过去的记忆来规划未来的行动。未来可以将MFT应用到评估人工智能的行动中。这类研究不仅有助于揭示AI输出背后的隐性价值结构,也可用于检验不同模型在道德维度上的差异化表现,从而为“价值对齐”这一宏观议题提供可操作的经验指标。

从方法论上看,未来研究可将MFT与计算文本分析、情感计算及对位分析法相结合,形成多层次的分析框架。一方面,通过自动化标注与语义模型识别AI对话中对应的道德基础线索,实现大规模比较分析;另一方面,再辅以质性分析,深入解释不同道德基础在具体互动中的生成逻辑与情境意义。这种研究方法能够避免将AI道德表现简化为单一指数,同时保留传播研究对意义、权力与结构的敏感性。


参考资料 (Sources):
刘慈欣. (2005). 赡养人类. 科幻世界, (11).
刘慈欣. (2008). 流浪地球. 长江文艺出版社.
刘慈欣. (2008). 三体. 重庆出版社.
孙伟平. (2025). 人机交往、机机交往及其社会后果. 学术研究, (10), 45-51.
Batylda, M. (2020). The world of Cyberpunk 2077. Dark Horse Books.
Dick, P. K. (1968). Do Androids Dream of Electric Sheep?. Doubleday.
Graham, J., Haidt, J., Koleva, S., Motyl, M., Iyer, R., Wojcik, S. P., & Ditto, P. H. (2013). Moral foundations theory: The pragmatic validity of moral pluralism. Advances in Experimental Social Psychology, 47, 55-130.
Guzman, A. L., & Lewis, S. C. (2020). Artificial intelligence and communication: A human–machine communication research agenda. New Media & Society, 22(1), 70-86.
Haidt, J., & Joseph, C. (2004). Intuitive ethics: How innately prepared intuitions generate culturally variable virtues. Daedalus, 133(4), 55-66.
Park, J. S., O'Brien, J. C., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (2023). Generative agents: Interactive simulacra of human behavior. In Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology (pp. 1-22). ACM.
Pondsmith, M. (1990). Cyberpunk 2020: The roleplaying game of the dark future. R. Talsorian Games.