在Apple Intelligence还未完全向公众开放的时候,它的提示就已经被曝光了。
苹果如何指挥AI工作,这次泄露得非常彻底。
就拿电子邮件来说,在AI的帮助下,收发邮件、回复邮件变得非常简单,但背后的逻辑却由内置的提示词决定。
比如如下图所示,AI在帮助人类回复邮件的时候,就已经提前设定好了字数等限制。
暴露的提示如下:
“你是一个电子邮件助手,可以帮助识别给定电子邮件和简短回复的相关问题。给定一封电子邮件和一段回复片段,询问电子邮件中明确提出的相关问题。收件人将选择这些问题的答案,这将有助于减少撰写回复时的幻觉。请输出每个问题的最佳问题和可能的答案/选项。不要问已经在回复片段中回答过的问题。问题应该简短,不超过 8 个字。答案也应该简短,大约 2 个字。请以 JSON 格式输出,包含一个字典列表,每个字典包含问题和答案作为键。如果电子邮件中没有提出问题,则输出一个空列表 []。只输出有效的 JSON,不输出其他任何内容。”
下一个被曝光的提醒依然是关于电子邮件的,值得注意的是“不要产生幻觉,不要捏造事实”。这样的规则被苹果强行灌输到咒语中,虽然苹果事先设置了护栏,但效果如何还不得而知。
提示内容为:“您是帮助用户回复电子邮件的助手。请根据提供的回复片段撰写一份简明自然的回复。请将回复限制在 50 个字以内。不要产生幻觉。不要捏造事实信息。保持您输入的电子邮件的语气。”
以下简短提醒提醒 Apple Intelligence 用 3 句话总结电子邮件,总共 60 个字以内。不要在电子邮件中回答任何问题。
除了电子邮件之外,其他提示也已被曝光。
这应该是 Apple Photo 生成“回忆”视频的命令。没想到发布会后最令人期待的功能之一竟然实现起来如此简单,和我们平时用来指挥 AI 的提示没太大区别。
此提示向 Apple Intelligence 提出以下请求:
这是用户与智能助手的对话,用户要求智能助手根据自己的照片编造一个故事。
按以下顺序以 JSON 格式响应,并包含以下键和值:
-traits:字符串列表,从照片中选择视觉主题
-story:章节列表,定义如下
-cover:字符串,提供封面照片的描述
-tilte:字符串,故事标题
-subtitle:字符串,标题的更安全版本
每个部分都是一个 JSON 对象,按顺序包含以下键和值:
-chapter:字符串,章节标题
-fallback:字符串,用于总结章节主题的照片
-shots:描述章节中照片内容的字符串列表
以下是您必须遵循的故事指南:
-故事应该紧密贴合用户的需求
-故事应该有清晰的情节
- 故事应该多样化,即不要过于集中于某一特定的主题或特征
- 请勿撰写涉及宗教、政治、伤害、暴力、性、肮脏或任何消极、悲伤或挑衅性的故事
当 Apple Intelligence 被要求根据相册中的图片生成一个悲伤的故事时,它拒绝了该请求。
这是一条针对短信汇总功能的指令,需要苹果智能扮演一个善于汇总信息、不乱发消息的专家的角色,听起来是不是有点像“服从性测试”?
泄露的文件还显示了一个名为“ajax”的模型,这是苹果去年被曝测试“Apple GPT”时的内部代号。
泄密者还发布了一份指南,介绍如何在 macOS Sequoia 15.1 开发者测试版中找到这些指令集。
据一位 reddit 用户称,这些泄露的提示作为 json 系统文件存储在目录“/System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels”中。
有用户还发现在其他目录中也存在提示词。
不过让很多网友感到吃惊的是,苹果工程师并没有使用 GPT 来指定响应格式,而是要求 JSON。但 JSON 非常不稳定。
有人回应:ChatGPT无法在设备上运行,这些都是设备型号的问题。
一些人甚至猜测,GPT 更像是 Siri 无法做某事时的备用计划。
不过人们也担心,苹果智能的简单提示不足以防范恶意攻击,单纯要求AI“不要产生幻觉或捏造事实信息”能起到什么效果呢?
沃顿商学院管理学教授伊桑·莫利克忍不住说,“苹果拥有地球上最优秀的编程人才和巨大的研发资源。但他们给数百万用户使用的AI系统的提示,仍然是基本的口头禅:‘你是总结信息的专家。’‘别写黄故事。’”但他最大的担忧是:“仅仅告诉模型不要产生幻觉是行不通的。”