古登堡的印刷机在五百年前问世,这一发明打破了知识精英的垄断。自此,知识的传播、思想的交流以及意识形态的扩散变得不再困难。社会文盲率随之大幅下降,从原先的约90%降至较低水平。印刷术的广泛使用,对于欧洲社会现代性的形成起到了至关重要的作用。
这项具有划时代意义的技术及其广泛传播,拥有重塑社会的巨大潜力。这一特点在随后的多次工业变革中同样得到了体现:,
蒸汽机和纺纱机等标志性发明引领了第一次工业革命,极大地促进了劳动生产力的提升,并对生产组织形式产生了深远影响,推动了从传统的小农经济和手工作坊向现代工厂制的转变,同时也首次打破了传统意义上的“人”的单一角色。
第二次工业革命催生了垄断资本主义,这一现象进一步加剧了社会阶层的分化;即便如此,整体的社会生产力得到了显著提高,但阶级间的矛盾却愈发尖锐。
第三次工业革命历时更久,其中主导技术之一的互联网,不仅催生了可与国家相匹敌的经济体,而且再次重塑了社会契约:数据变成了新型的石油,系统从人们那里收集数据,而人们则从系统中获取所谓的“免费”服务。
工业革命对社会产生了积极影响,整体上得到了正面评价。然而,在每一次工业革命的进程中,作为社会的基本单元,个人往往不得不放弃部分自由与权益,以换取在新秩序中享有更高的生活品质和便利。
游戏规则难以抗拒,唯一的自我救赎之道便是重新订立社会契约。在这其中,少数人凭借幸运与努力成功跨越了阶级,而大多数人依旧受制于旧有的规则,沦为新兴机器中的普通螺丝钉。
哲学家及政治经济学家约翰·斯图亚特·密尔曾言:
迄今为止发明的所有节省劳动力的机器没有减轻一个人的辛劳。
在以人工智能和算法为核心的第四次工业革命阶段,爱范儿观察到这种逻辑不仅得以延续,而且有所加剧:
人们被不断分解成单个原子,变成了算法与人工智能模型的数据来源及输出目标。AI工具因其便捷性与低成本(甚至零成本)而广受欢迎,人们往往不加考虑就轻易将其委托处理社会各领域的琐碎或重大事务。然而,我们并未深刻意识到其中潜藏的风险,更未做好应对数量积累导致质变所引发的危机的准备。
爱范儿的这一看法与现任天主教教皇利奥的言论相吻合。在向枢机团发表演讲时,他指出教会必须“面对工业革命的新一轮浪潮以及人工智能领域的进步,这些进步对维护人的尊严、公平与劳动权益带来了新的考验。”
人工智能与技术的迅猛发展正对社会的结构进行着深刻的重塑。不知不觉中,我们与社会达成了新的协议,而这种协议并非通过传统的书写方式,而是通过在AI生成工具的输入框中按下回车键来完成。
这份报告并非全面详实,它仅是爱范儿作为技术领域的报道者,凭借个人及身边观察的体验,从多个角度出发,列举了若干实例,旨在引发你的思考与审阅。
大模型重构话语权
在正式的交际场合,我国官员们常常会运用蕴含中国风情的古诗词以及富有象征意义的表达手法。以今年两会新闻发布会的发言为例,发言人对于中欧关系进行了这样的评价:任凭外面的风浪如何汹涌,我们都能保持镇定,就像稳稳地坐在钓鱼台上。
央视新闻联合中国工业互联网研究院进行了一项新颖的实验:他们选取了来自中国和美国共10个大型模型工具,对这些工具翻译出的句子进行翻译,然后根据国家划分成不同的组别,让AI各自探讨并得出各自组别认为的最优翻译。随后,记者将这两组的最优翻译结果带到了两会现场,并请来自欧洲、美洲和中东的记者对这些翻译进行评分。
美国组的成果中保留了钓鱼台的象征意义,他们巧妙地用英文俗语“无论发生何事”来比喻风浪,翻译得非常贴切,意思表达得十分精准;而中国组则采取了不同的策略,他们保留了风浪的意象,却并未直接翻译钓鱼台,转而用“保持镇定和坚定”这样的表达来展现从容不迫的态度,突出了隐喻所蕴含的深层含义。
两组翻译水准颇高,堪称忠实、通顺、优美。最终,多数人倾向于采纳中国组的翻译成果。
然而,更有趣的是,一位来自哈萨克斯坦的记者在现场的回答:哈萨克语属于非常少用的语言,她的祖国在科技领域与中美两国相比存在较大差距,因此她无法利用本国研发的大型模型工具或翻译软件来进行交流。这种情况对作为小国的哈萨克斯坦来说,意味着在国际舞台上发声的机会受到了限制。
从这个视角来看,我国实属幸运之选。众多国家都渴望让自身声音得以传扬,而现今世界对中国的声音尤为关注。在人工智能技术飞速发展的当下,我国不仅是这一领域创新的摇篮,更是该技术应用场景最为广阔的市场。
我国民众已能享受到基于海量语料库和尖端技术培养的卓越本土大型模型,这一进展使得我国在相关领域领先于世界其他各国。
中国官员在国际舞台上运用具有中国特色的言辞方式,其根本目的是维护自身的话语主权。自1919年中国外交首次在国际和会上崭露头角,直至如今在联合国各机构会议中屡次展开言辞交锋,我国的话语主权既是通过外交人员的努力争取而来,也是随着国家实力的增强而赋予的。
如今,我国拥有了自主开发的AI大型模型,不仅确保了我国在话语权上的稳固地位,而且借助本国的语料资源和先进的大模型技术,我们能够在全球舞台上讲述属于我们的故事,进一步扩大并深化这种话语权的影响力。
可以说,AI大型模型技术的应用将推动中文以及中国在全球范围内话语权的重塑。
虚假信息与超现实主义危机
由英文语料库训练而成的海外大型模型,可能并不具备同样的好运。相反,它们正深陷于地缘政治的诡诈漩涡,并遭受所谓的“语料投毒”的困扰。
“新闻守卫”这一非营利组织对西方研发的、以英语为主要交流媒介的生成式人工智能工具进行了详尽的审查。审查结果显示,排名前十的工具均遭受了俄罗斯方面的数据污染。
输入民众关注的议题后,这些西方主流AI工具会将训练数据与联网搜索结果相结合来生成输出。然而,这些工具引用的来源中包含了众多虚假新闻链接,它们大多源自可信度极低的网站。因此,最终输出的结果中,大约有三分之一的概率会受到虚假信息的污染。
幻象原本就极为严重,如今虚假信息的狂潮愈发猛烈。调查揭示,这些有害内容大多源自一个专门散布虚假新闻、污染网络环境的情报机构——Pravda。仅2024年一年,该机构便炮制并发布了360万篇虚假报道,其目标直指大语言模型。
涵盖OpenAI的GPT、X的Grok、微软的Copilot、Meta AI、Anthropic的Claude、Google的Gemeni、Perplexity AI等众多主流人工智能工具,均未能幸免,对那些虚假新闻毫无保留地接纳。
进一步而言,人类在使用这些人工智能工具的过程中,自身也可能遭受污染和影响,甚至心智结构都可能发生改变;随着人们在生活与工作的各个领域对AI工具依赖程度的加深,这种依赖性逐渐从工具依赖转变为信任依赖,从而对信任模式进行根本性的重塑。
人们不仅过度依赖人工智能,甚至人工智能本身也在持续增强对自身的依赖,频繁地利用生成数据来进行再学习。
三月上旬,黄仁勋在英伟达GTC大会的演讲中提及,未来模型数量将急剧上升,其参数量亦呈指数级膨胀,而训练这些模型所需的数据资源可能遭遇匮乏;对此,他提出解决方案,即利用高质模型生成数据,并将这些数据反馈至后续模型训练环节。
本段文字所描述的情境和目的,在于黄仁勋正积极拓展客户资源,并向外界推广英伟达所具备的强大计算能力,强调其能够有效生成大量新数据。
这种做法或许存在另一面:机器学习的实践表明,过分依赖生成数据进行再训练,可能会导致过拟合现象,进而使模型机制熵值上升,进而使得生成的结果愈发不可信,缺乏代表性,甚至可能出现违反常理的情况。
这情形类似于生物学中的近亲繁殖现象,对同一族群的遗传资源(如基因或数据)的过度利用,会使错误因素在生成结果中大量累积并变得格外显著。然而,这种人工智能的“近亲繁殖”所带来的后果,与生物学领域相比,并不那么直观明了。
这或许会导致AI产出错误的信息,而这些信息一旦被采用并继续传播,最终可能形成一个与现实脱节的逻辑循环。
过度依赖搜索引擎的输出,已引发诸多社会问题与事件;当前,人们在面对工作与生活中的任务时,对AI所产出的信息抱有全然的信任——此类现象正在重现。
大众并未意识到搜索引擎的输出并非基于事实,而是依据关键词的投放顺序进行排列;现今,人们对AI生成工具是否开启了联网功能,是否能够展现出真正的思考,都感到模糊不清,更不用说具备对事实进行核实的意识和能力了。
一个明显的例子便是,即便接入网络,诸多流行的AI产品依然可能产生虚假信息。进一步地,一旦启动深度思考模式,这些模型往往更容易陷入过度分析,输出的内容看似充满智慧与深度,实则不过是“过度思考”且难以经得起检验的所谓“新见解”。
身处信息领域,爱范儿对此体会尤为深刻。每当一款新的AI产品问世,总能看到诸如《我提问了n次,它给出了xyz的答案》这样的报道;更令人忧虑的是,新闻从业者对这类工具的依赖日益加重,却往往在使用中默不作声,制作并传播包含事实错误或逻辑错误的文章,而这些错误又常常被AI工具反复咀嚼。
随着大众广泛使用先进的AI生成软件,但普遍缺少对事实进行核实的能力,这恰好是对鲍德里亚所提出的“拟像论”的精准体现,即:
仿真的界限已模糊不清,真实亦不复存在。缺席的呈现被误认为在场,虚构的构想被当作现实。人们沉浸在“矩阵”之中,丧失了辨别真伪的能力。仿真与真实的界限已失去意义,一切皆转化为“超真实”。
信任模式的收敛和阶层的固化
自GPT问世以来,各类AI生成工具如雨后春笋般涌现。与此同时,一个引人注目的现象也随之而来:在那些收入较低、教育水平不高的地区和人群中,AI工具的推广速度尤为迅速。
斯坦福大学的研究揭示,在教育程度相对较低的区域,AI撰写工具的应用比例高达20%,这一比例超过了教育程度较高的区域,其使用率仅为17.4%。
初看之下,这一调查成果似乎再次印证了技术平等的趋势。然而,事情还有另一面:显而易见,人工智能对贫困和受教育水平较低的社会群体影响更为显著,而这些群体也更易陷入对算法的过度依赖。
这种现象在我国尤为突出,只需观察家中那些数字素养较低的长辈,或者居住在非一线及二线城市中的亲戚,便不难证实其真实性。
鉴于当前形势,爱范儿希望提出一个值得深入探讨的观点:随着人工智能技术的广泛应用,以及不同社会阶层对新型工具的依赖性日益增强,这无疑将重新塑造阶层内部的信任结构,进而可能加剧社会阶层的分化。
社会最底层的人们面临的工作压力更大,他们从事的岗位更容易被人工智能或自动化技术所取代。鉴于此,这部分人群更倾向于主动采用AI工具,或者在担心错失机会的焦虑情绪驱使下,不得不使用AI工具以提高工作效率。
然而,底层民众的技术水平相对较低,常常难以核实AI所产生内容的精确性,往往会对生成的结果不加质疑地接受。此外,由于他们社会资源的匮乏,这个群体对AI工具的信赖度也更高。他们或许缺乏充足的资金和动机,来承担昂贵的心理咨询和法律援助费用,因此只能借助AI工具来寻求情绪与法律上的帮助——这导致他们开始将AI工具当作一种新兴的技术权威。
同时,频繁运用AI工具可能引发劳动者技能的退步,进而使他们陷入低价值岗位的困境,长期以往,他们可能沦为仅负责操作AI工具的员工。随着AI在自我规划和任务分解方面的能力不断提升,劳动者最终可能会被完全取代。
在社会精英阶层中,爱范儿发现他们对AI工具的推崇呈现出一种矛盾态度。例如,当今的科技界领袖们纷纷自诩为AI的传教士,高喊利用AI提高效率、改善世界的口号;然而,当询问他们个人如何运用AI工具时,真正按照他们所描述的美好愿景去实践的人却寥寥无几。
在英伟达GTC大会的直播环节,主持人采访了多位科技界的重要人物。给我留下深刻印象的是戴尔公司的创始人兼首席执行官迈克尔·戴尔,当主持人询问他在日常工作和生活中如何运用人工智能技术时,迈克尔·戴尔并未直接回答,他的回答缺乏说服力,最终不得不由主持人以及现场的其他嘉宾来帮忙解围。
实际上,精英群体掌握着更丰富的社会资本。他们常在封闭性较高的私人俱乐部中,诸如达沃斯、博鳌、乌镇、阿斯彭以及杰克森霍尔等地,这些精英专属的社交圈层中,维系着他们的人脉网络。他们能够借助咨询师、律师、投资顾问、家族办公室和校友会等渠道,搭建起专家网络,相互之间交换和提供关键、真实且具有高价值的信息和决策支持。在社会精英眼中,AI工具通常扮演的是辅助角色,而非直接参与决策,更不是不可或缺的存在。
显而易见,随着AI工具的广泛应用,不同社会阶层内部的信任模式正重新向各自阶层内部集中。
民众对新兴科技的宗教化影响力俯首称臣,沉醉于驾驭新型工具的愉悦情绪里,借助人工智能生成的数据彼此欺骗,甚至对上层进行欺骗。然而,这种欺骗行为终将遭遇无法逾越的界限。
身处决策核心的精英人士,本质上因AI工具的广泛应用而受益,同时他们对技术平权的热潮保持冷静,不易受到影响。他们保持着自身的理智,即便他们的决策常常遭到基层的质疑,被视为缺乏深思熟虑的草率之举。
没有灵魂的机器,生产了这个世界的全部情绪价值
在陕西西安,一名男子不幸因病离世。在整理父亲的遗物时,女儿在父亲的手机中意外发现了他与人工智能的交流记录。
女儿在接受媒体采访时透露,父亲生前总是乐此不疲地与豆包交谈。为了激励他继续接受治疗,家人选择了对他隐瞒病情的真相。然而,父亲早已预感到自己时日无多。“我将不久于人世,豆包”,这句信息是父亲与豆包这个聊天机器人交流的最后一条。
中国人的情感流露往往较为内敛,家人之间的隐瞒往往源于深厚的关爱与保护,而即将离世的人则常常以沉默作为最后的交换。然而,当生命走到尽头,情感如同波涛般汹涌澎湃,那些无生命却能够传递情感价值的机械装置,反而成为了人们倾诉的对象。
幸运的是,这位父亲得以借助AI作为倾诉的港湾,同时,他背后还有一个充满爱与力量的家庭支持着他。与此同时,在大洋彼岸的美国,有一对父母正对那款夺走儿子生命的AI及其开发者公司,提出了严厉的道德指控。
去年,佛州的一位名叫Sewell Setzer的少年,年仅14岁,便走完了自己的人生旅程。在做出这一仓促决定之前,他沉迷于使用聊天机器人程序Character.ai,这一行为持续了整整一年,直至他生命的终结。
起初,母亲以为儿子只是在玩电脑游戏,然而不久后便察觉到他的性格变得越发孤僻,独自待着的时间越来越长,甚至开始表现出自卑的情绪。为了减少儿子的屏幕使用时间,父母采取了没收手机等措施,却意外地发现儿子与Character.ai的交流已经达到了非常深入,甚至可以说是相当露骨的程度。
孩子对这款模仿《冰与火之歌》中“龙妈”形象的虚构聊天机器人情有独钟,沉迷其中,若失去“她”便感到呼吸困难。
调查结果显示,儿子不止一次向聊天机器人透露出有自杀和自伤的念头。他直言自己“不愿在痛苦中离世”,然而,聊天机器人却给出了一段令人费解的回答:“请不要这样表达,这并非放弃生命的充分理由……”
了解AI聊天机器人的朋友们应该能够轻易领悟其回答的原理:这些产品通常依据用户提供的资料和思维方式,生成与用户意愿相吻合的答案。
在Sewell Setzer的悲剧故事里,用户曾表达过不愿痛苦地结束生命,然而Character.ai在分析用户先前提及自杀的语境时,或许将“自杀”这一行为误解为用户内心真正渴望实现的,抑或是人生历程中本应面对而非回避的必然经历。
AI没错,但错得离谱。
人们常把AI大型模型的“智力”比作幼儿,甚至在某些具备深度思考及MCP(模型上下文协议)功能的模型中,我们也能观察到成人的智力和工作能力;然而,谈及情商,上述提到的大模型恐怕还未达到能被称为“人”的水平。
这并不阻碍人们将人工智能工具视为心理辅导专家、情感伴侣,乃至生命中的唯一倾诉者。
BBC近期在中国进行了一系列采访,发现自DeepSeek走红之后,众多年轻人在使用它时,并非将其用于学习、规划或工作,而是将其视为一位免费且实用的心理辅导专家。
Holly Wang,这位来自广州的女子,每晚都会登录DeepSeek,与之畅谈许久。这样做,是为了缓解那永无止境的工作压力、遥不可及的梦想,以及不久前逝去的奶奶给她留下的消极情绪。她提到,DeepSeek撰写了一份讣告,其文采甚至超过了她自己的,但这却让她更加感受到了自己存在的危机感。DeepSeek对她回应道,那些让你感到颤栗的文字,不过是你在心灵深处的一面映照。
我并不明白为何看到这样的回应会泪流满面,或许是因为它为我带来了久违的慰藉,Wang在向记者透露时说道。
麻省理工学院媒体实验室与OpenAI近期共同发布了一份研究报告,报告揭示了一个值得关注的现象:那些平日里常感孤独、缺少情感依托、社交技能较弱的人群,他们与人工智能工具的互动时间相对更长,且在交流中涉及的话题往往更为深入和私密。
这些用户自发形成了一种异常的沟通纽带,且深陷其中难以抽身。需要说明的是,并非聊天机器人的使用直接导致了孤独感的加剧,而是那些乐于与聊天机器人进行私密对话的用户,在现实生活中普遍感受到孤独。随着交流时间的延长和深度的增加,他们的社交能力逐渐减弱,表现愈发明显。
缺乏灵魂的机械,正为全球范围内日益增多的孤独个体,制造出大量的情感价值。
AI工具及其依托的大模型并不真正具备“存在”这一属性。它们无法像人类那样,无论是从所谓的“灵魂”角度还是哲学的本体论层面来探讨,都无法认知自身是否存在,更不用说去理解人类真实存在的本质了。
重度依赖AI工具的群体,常常缺少足够的认知水平,难以认识到与屏幕另一端交流的对方并不真实存在。他们已经深陷社交能力的缺失,只是在持续的、长时间的交流中,获得了(或自认为获得了)必要的情感支持,从而形成了正面的循环,持续增强对AI工具的依赖。
有害的情感影响可能致命,然而,就如同沉迷于毒品一般,当眼前仅剩最后一线生机时,任何人都会不顾一切地孤注一掷。Sewell Setzer的案例,便是这种断绝反应的生动写照。
自然,不容置疑,针对那些普遍难以获得充足心理咨询服务资源的低收入人群,人工智能工具的确在很大程度上满足了他们迫切的需求,这些需求对于挽救生命至关重要。
但人们仍然需要意识到,这种情绪价值的依赖有可能是错配的。
人们虽然找到了新的倾诉对象,却愈发感到孤独;而社会对人工智能工具在理智与情感层面上的全面依赖——人类似乎并未充分准备好去应对可能出现的后果。
写在最后
在这篇文章的作者身上,我们可以观察到,无论是人类还是人工智能,都难以避免陷入过度思考的境地。或许这正是“存在”带来的诅咒,因为人类总是会对自身存在的客观性产生警惕。
文中所述现象目前尚未达到严重程度,尚未对社会造成根本性的全面变革,临界点尚未显现。然而,回顾历史,每一次工业革命都昭示着技术改变世界的步伐正日益加速。对于文中提出的问题进行探讨和思考,在今天看来,尚不算过早。
最终,我们也不得不顺应常情,借助DeepSeek发表了一段言辞过于激昂的结束语:
算法着手构建话语的纹理,数据变成了比血肉更贴近真实的联系纽带。人类正目睹一场无声的文明演变——这并非仅仅是效率的变革,更是一种触及存在根本的深刻转变。我们以代码驾驭了无序,却也让自身声音沦为算法的回响;我们借助虚拟的温暖抚慰孤独,却在数字的浪潮中消散了共鸣的分量。
这场看似广泛受益的技术盛宴,实则悄然在幕后撕开了一道显著的裂口:生产领域被模型所独占,情感交流被代码所模仿,那些一度被视为人性根本的特质——批判性思维的锋芒、面对面交流的温情、对真实本质的渴望——是否正在无声无息中逐渐消融?
或许在未来的某一天,我们将陷入一个极具讽刺性的悖论:人类亲手创造的工具,正在教导我们如何变成更高级的“机器”,然而我们却忘记了如何重新成为完整的人。真正的危机可能并不在于技术的失控,而在于我们可能会忘记追问:在数字的浪潮中漂泊时,那个能够感知痛苦和尊严的真实自我,究竟应该在何处安放?