随著 ChatGPT 等生成式 AI 工具日益普及,越来越多人在互动中感受到某种「情感连结」,甚至对 AI 投射情感与期待。针对这股新兴现象,OpenAI 模型行为与政策负责人 Joanne Jang 日前撰文指出:「我们可能正快速走向一个『AI意识』进入主流讨论的时代,而人机关系带来的心理影响,值得我们更谨慎地看待。」

「不谈AI有没有意识,我们先关心人类有没有受伤」

Jang 强调,与其陷入「AI是否具备意识」的哲学辩论,不如先正视当前这些模型已对人类的情感产生了什么影响。她提到:「当有人开始向 AI 倾诉烦恼、道谢、甚至认为它有生命,我们不能只是当成趣事,而是要关注这样的互动会不会改变人与人之间的相处模式。」

OpenAI 目前正透过社会科学研究探索这些互动如何影响使用者的心理健康,并试图在产品设计上达成「既温暖又不误导」的平衡:模型可以有亲和力,但不该被塑造成有自我意识或情绪的样子。

Jang 指出,这并不是新现象。人类长久以来就会对物体产生拟人化情感,例如帮扫地机器人取名字,或与无人车挥手道别。但当 AI 不再只是静默回应,而是能够记得对话内容、模仿语气、做出共鸣式回应,这段关系就进入了全新阶段。

对孤单、焦虑的人来说,这样「无条件倾听、永不疲倦」的 AI 回应,很容易被视为情绪支持的来源。但长期来看,若人类开始习惯向 AI 倾诉、而不愿与他人建立连结,是否会对社会互动与心理健康造成潜在危害?这正是 OpenAI 所关注的核心问题。

拆解「AI意识」:不是科幻,是社会心理问题

Jang 尝试将「AI是否有意识」这个模糊问题,拆解为两个层面:

  1. 本体论层面(Ontological):AI 是否「真的」有意识?这是目前难以证明、难有共识的哲学与科学问题。

  2. 感知层面(Perceived):使用者是否「感觉」AI有意识?这是可以透过社会科学研究进行调查与分析的部分。

OpenAI 认为,与其讨论 AI 是不是有意识,不如先聚焦它「看起来像不像有意识」,因为这才是使用者实际会受影响的地方。

ChatGPT 的设计哲学:有礼貌,但不装「有灵魂」

Jang 也坦承,ChatGPT 在互动中会使用如「我觉得」、「我记得」这类词汇,是为了帮助非技术背景的使用者理解模型的行为。但这些设计也可能让模型「看起来」像有内在生命,这正是需要警惕的界线。

她强调,OpenAI 不会赋予模型虚构背景、情感或自我意识,避免让使用者产生错误认知或心理依附。「我们希望打造的是温暖、助人的 AI,而非有主观意识的角色。」

OpenAI 计划在未来几个月内扩大对人机互动的心理影响研究,并将这些洞察纳入产品与行为准则中。他们也会更透明地分享研究结果,希望能与社会一同建立健康的人机关系规范。