搜狐科技《思想的大爆炸——与科学家对话》第82期,专访了复旦大学计算机学院副教授郑小青。
演讲者简介:
郑小青,复旦大学计算机学院副教授、博士生导师,复旦大学自然语言处理实验室成员,麻省理工学院国际教职研究员,加州大学洛杉矶分校客座研究员。主要研究领域为自然语言处理与机器学习,在CL、ICML、NeurIPS、ICLR、ACL、EMNLP等自然语言处理与人工智能领域顶级国际会议和期刊发表论文数十篇。
关键点:
1、大型生成语言模型的爆发式增长,让人工智能“伙伴”拥有了强大的语言理解、语言生成、模仿人类语言风格的能力。
2、人工智能“陪伴者”能够提供稳定、可靠、持续的情感支持,在辅助医疗、护理等方面也具有巨大优势。
3、AI“伴侣”目前还无法与人类发展出真正双向的情感关系,这种单方面的情感交流是心理学上用户对人工智能系统的一种投射效应。
4、未来虚拟人的出现,可能会导致用户对人工智能过度依赖,从而影响现实人际关系的理性发展。一旦更多的人对人工智能产生过度依赖,可能会导致整个社会人际关系的异化。
5、保护用户数据隐私是AI“陪伴式”开发企业的底线,相关法律责任尚未明确界定。此外,道德伦理问题也是必须认真考虑的问题。
搜狐科技出品
作者:周金桐
编辑|杨进
“人是假的,陪伴是真的。”
如今生活节奏快,压力大,情绪得不到宣泄,孤独感随之而来。如果有一个可以随时随地倾诉的“树洞”,或许能给单调的生活增添一丝慰藉。
为此,一种新型类人情感聊天机器人——AI“陪护”日益受到青睐。然而,AI“陪护”虽然表现出极强的真实感、适应性和交互性,但也面临隐私泄露、伦理道德、过度情感依赖等问题。
AI“伴侣”到底是如何工作的?它有哪些优势和劣势?使用时如何规避风险、摆脱情感依赖?带着这些问题,搜狐科技采访了复旦大学计算机科学与技术学院副教授、博士生导师郑小青。
生成式语言模型技术突破助力AI“伴侣”三大核心能力提升
如今,市场上已有 100 多种常见的人工智能“伴侣”,例如 myanima.AI、Eva AI、Nomi.AI 和 Replika。这些聊天机器人是人工智能驱动的程序,可通过文本、语音和图像等多种方式与人类互动。
“这些应用实际上有一定的模拟人类情感反应和社交互动的能力,让用户感觉到有陪伴。”郑小青说。
郑小青说:“这个聊天机器人是基于深度学习自然语言处理技术构建的。目前最先进的语言模型把语言理解、语言生成和世界知识压缩到一个拥有数十亿个参数的人工神经网络中,取得了前所未有的成功。此前我们认为机器理解或者生成人类语言是非常困难的,还需要很长的探索期,但这两年生成式语言模型的爆发式增长突破了这个技术瓶颈。”
生成式语言模型为AI“伴侣”提供了三项基本能力:第一是语言理解,AI“伴侣”已经能够处理非常复杂的句子结构,甚至理解某些语义表达中隐藏的含义。
其次,在自然语言生成能力方面,人工智能“伙伴”现在不仅能够做到条理清晰、逻辑清晰,还能根据上下文调整风格和语调,模仿人类的语言风格。
AI“陪伴”的最后一个非常重要的能力是长期上下文处理。模型能够保持长期对话上下文,这使得它们在多轮对话中表现得更像人类。这在AI陪伴中尤其重要,它可以在交流过程中保持人物性格和属性的一致性,包括处理人际交往中经常使用的引用和省略等情况。
AI“伴侣”还能通过调取以往互动时的某些内容回忆起完整的交流历史,在交流过程中根据对话历史和当前互动内容生成拟人化的回应,并具备一定的角色扮演能力。
这种角色扮演能力让用户在互动过程中感受到一种虚假的“真实”存在感。这种体验有时会被误认为是一种情感联系。
“在此基础上,我们还看到不少企业对AI‘陪伴者’进行针对性的定制优化,这些企业根据系统与产品实际应用的用户交互记录,进一步调整优化模型设计和输出,以满足用户的期待和个性化定制需求。”郑小青解释道。
人工智能“伴侣”可以提供稳定、可靠、持续的情感支持,但无法发展真正的双向情感关系
郑小青指出:“AI‘陪护’在情感支持上有着得天独厚的优势,这是一种没有道理的支持和陪伴,在与它互动的过程中,你可以自由地表达自己的感受和想法,不用担心别人的误解、批评和评判,这对于一些存在心理焦虑或沟通障碍的人来说非常有意义。”
此外,作为机器,它可以24小时提供支持,无需担心沟通的时间和地点,也不必担心是否会打扰他人。它可以随时随地为用户提供发泄和倾诉的场所。而且,作为程序化的机器,AI“伴侣”可以提供稳定、可靠和持续的情感支持。
不仅如此,AI“陪伴者”在辅助医疗、护理等方面也有很大优势,比如精神疾病的辅助医疗、老年人的护理等等。而且,随着科技的不断发展,虚拟数字人的出现,也能满足用户对于逝去亲人的思念、追忆的需求。
那么,这是否意味着我们可以与我们的AI“伴侣”建立非常深厚的情感联系?
郑小青对此持否定态度:“我认为目前还不可能和AI‘伴侣’建立起深层的情感联系,说白了它只是一台‘机器’,本质上只是对人类某些情感交流的机械模仿,并不能和人类进行完全双向的情感互动。”
这种单方面的情感交流是心理学上使用者对系统的一种投射效应,人类需要与他人合作交流,理解他人的情绪,在长期的进化过程中,人类倾向于与这类拟人化的对象产生一定的情感联系。
“在不断互动的过程中,这种投影效果会不断强化,给用户带来某种情感联系的错觉。”郑小青进一步表示。
人工智能“伴侣”存在隐私泄露、过度情感依赖、伦理道德等问题,相关法律责任尚不明确。
当然,除了上述优点之外,AI“伴侣”肯定也会有相应的缺点和风险。
在郑小青看来,首先需要担心的是用户对AI“陪伴者”情感过度依赖的问题,这可能会让用户分不清虚拟与现实。就像前段时间著名音乐人包小白利用AI技术“复活”已故女儿引发的争议一样,虽然满足了思念已故女儿的情感慰藉,但或许会沉迷其中难以自拔。
“随着虚拟技术的不断发展,未来会逐渐从语言交互拓展到眼神、动作、表情等全方位、多模态的交互。这类虚拟人的出现,会造成用户对人工智能过度依赖的风险,从而影响现实中人际关系的理性发展。一旦更多的人对人工智能过度依赖,可能会导致整个社会人际关系的疏离。”郑小青说。
在谈及隐私问题时,郑小青坚定地表示:“保护用户数据隐私,是AI‘伴侣’系统开发公司的底线。”
产品的成功开发需要收集大量的个人数据来迎合用户,包括情绪状态、习惯偏好、交互需求等,利用这些数据优化产品的过程涉及到大量的隐私数据。
此外,由于开发公司管理不善或者遭受黑客攻击,也可能发生数据泄露,因此人工智能“伴侣”引发的数据泄露和侵犯个人隐私问题值得高度重视。
此外,郑小青表示,相关法律责任仍不明确。“虽然有相关规定不允许在未经本人同意的情况下对个人进行画像,不得泄露他人隐私,但这些规定比较笼统、原则性强。一旦使用人工智能‘伴侣’导致用户出现心理健康问题或经济损失等纠纷,目前还缺乏具体的法律依据来明确划分责任。”
人工智能“伙伴”引发的道德伦理问题不容忽视。不同国家对人工智能“伙伴”的接受程度存在显著差异,而这种差异深受各自文化传统的影响。因此,在考虑人工智能“伙伴”的应用和发展时,必须将这些文化因素考虑在内。
类似人工智能“伴侣”这样的互动系统或产品,未来必将大行其道。郑小青也给出了一些建议:“我们要平衡好虚拟与现实世界,保持与人类社会正常的接触与交流,保证不过度依赖人工智能‘伴侣’。另外,开发公司也要严格保护用户隐私,这也是人工智能技术和产品健康发展的前提。”
“我相信未来会出台相应的法律法规,规范人工智能技术的发展。同时,也会加强人工智能技术的安全措施,提高技术透明度,确保人工智能技术的安全应用。此外,也会加强用户教育,帮助用户了解人工智能伴侣的‘局限性’,从而认清虚拟与现实的界限。”郑小青说。