人工智能、必然性与人类主权-汇有钱途

人工智能、必然性与人类主权

当人工智能工具开始无处不在时,我的第一反应是不想把自己的灵魂交给机器。这并非出于对工作或隐私的担忧,而是更深层次的顾虑。

这些工具承诺让我们变得更聪明,却在系统性地让我们变得更加依赖。

在互联网行业工作了几十年之后,我已经目睹它演变成了一种比单纯的监控机器更阴险的东西——一个旨在塑造我们的思维方式、信念以及自我认知的系统。人工智能仿佛是这条轨迹的终极形态。

但当我意识到无论我们是否知情,我们其实早已参与其中时,抵抗也就变得徒劳了。当我们拨打客服电话、使用谷歌搜索或依赖智能手机的基本功能时,就已经在与人工智能互动了。几个月前,我终于屈服了,开始使用这些工具,因为我看到它们的普及速度之快,已经变得和互联网或智能手机一样无法回避。

瞧,我并非只是个抗拒变革的老家伙。我明白每一代人都会面临技术变革,这些变革重塑着我们的生活方式。印刷术改变了知识传播的方式;电报消除了距离的障碍;汽车则彻底改变了社区的形成模式。

但人工智能革命在速度和规模上都感觉与众不同。要理解技术变革的速度有多快,不妨想想:35岁以下的人可能不记得互联网改变我们获取信息方式之前的生活;20岁以下的人从未经历过没有智能手机的世界。如今,我们正目睹第三个时代,人工智能工具的普及速度比前两次变革还要快。

更根本的是,人工智能代表着与以往技术变革截然不同的质变——一种触及劳动、认知甚至可能触及意识本身的融合。理解这些领域如何相互关联对于在算法中介的时代保持个人自主性至关重要。

我对于人工智能的主要担忧,并非只是那种它变得敌对的戏剧性场景,而是更隐秘的威胁:它会使我们在不知不觉中从属于系统,等到察觉时为时已晚,从而削弱它本承诺要增强的那些能力

我们所目睹的不只是技术进步,正如伊万·伊里奇在其开创性著作《医学的敌人》中所称的医源性依赖。伊里奇用这个词来描述那些承诺治病却制造新病的医疗机构,但这一模式同样适用于人工智能。这正是我对这些新工具的直觉感受:它承诺增强我们的认知能力,却在系统性地削弱它们。这并非科幻小说中所警告的那种敌意接管,而是以帮助为幌子悄然侵蚀个人能力。

这种医源性模式通过直接体验变得清晰起来。一旦我自己开始摆弄人工智能,我就开始注意到它如何微妙地试图重塑思维---不只是提供答案,还逐渐训练用户在尝试独立思考之前就寻求算法的帮助。

布朗斯通研究所的杰弗里·塔克在与人工智能专家乔·艾伦的一次简短但发人深省的交流中发现了一些耐人寻味的东西:人工智能的出现正值新冠疫情封锁措施破坏了社会联系和机构信任之时,当时人们处于最孤立状态,最容易接受技术替代人际关系。。这项技术诞生于"集体迷失方向、士气低落"和社群纽带断裂的时刻。

我们已经能在日常使用的各种数字工具中看到这些影响。。观察一下有人在没有GPS的情况下试图在不熟悉的城镇中导航,或者留意一下有多少学生在没有拼写检查的情况下难以拼写常见的单词。我们正目睹着那些曾被视为思维基础的心理过程被外包后所带来的退化。

这种代际转变意味着如今的孩子们面临着未知的领域。作为一个80年代上学的人,我明白这听起来可能有些离谱,但我怀疑在某些方面,我与1880年代的人共同点可能比2025年上幼儿园的孩子们与我这一代的共同点还要多。。我成长的那个世界隐私是理所当然的,你可以与世隔绝,专业技能是黄金标准,这些对他们来说可能就像没有电的时代对我一样陌生。

我的孩子们正在一个AI辅助如同自来水般普及的世界中成长。作为父亲,我无法为他们准备我自己都尚未理解的未来。

我没有答案,我和所有父母一样,在这些问题中摸索前行,眼看着世界变化的速度远超我们智慧能追赶的步伐。越是深入思考这些忧虑,我越意识到问题的本质远比新技术本身更为深刻。大语言模型是数十年数据收集的巅峰成果,它们收割了自互联网诞生以来我们输入数字系统的一切。终有一天,这些机器可能比我们更了解自己。它们能预测我们的选择,预判我们的需求,甚至可能以我们无法察觉的方式影响我们的思想。我仍在努力理解这对我的工作、研究和日常生活意味着什么——在使用这些平台时保持独立判断,感觉像是一场永无止境的挑战。
人工智能
更复杂的是,大多数用户并未意识到自己才是产品。向AI倾诉想法、难题或创意不仅是在获取帮助——更是在提供训练数据,这些数据教会系统模仿你的判断力,同时让你愈发依赖它的回应。当用户向这些系统吐露内心最深处的想法或最敏感的问题时,他们或许不明白自己可能正在训练自己的替代品或监控系统。关于谁能获取这些信息——无论是现在还是未来,这个问题足以让我们所有人夜不能寐。

这种趋势正在加速。人工智能公司Anthropic最近更改了其数据政策,现在要求用户如果不想让对话用于人工智能训练,必须选择退出。对于那些不拒绝的用户,数据保留期限延长至五年。而且退出选项也不明显:现有用户会看到一个弹出窗口,上面有一个醒目的“接受”按钮,还有一个很小的用于训练权限的切换按钮,默认设置为“开启”。原本30天后自动删除的数据,现在变成了永久性收集,除非用户注意到那些细则。

我不认为我们大多数人,尤其是为人父母者能在现代生活中完全避开AI。但我们能掌控的,是清醒地参与其中,还是任由它在不知不觉中塑造我们。

迄今为止最深刻的颠覆
每一次重大的创新浪潮都重塑了劳动生产率以及我们在社会中的角色。工业革命将我们的体力劳动和时间商品化,使我们成为工厂里的“双手”,但我们的思维却未受影响。数字革命将我们的信息和注意力商品化,我们从卡片目录转向谷歌,用户被商品化,但我们的判断力仍属人类。

这种转变前所未有的原因显而易见:它将认知本身商品化,甚至可能将我们所谓的本质也商品化。这与我在《专家幻象》中记录的模式相联系。那些在伊拉克大规模杀伤性武器问题、2008年金融危机和新冠疫情政策上惨败的腐败机构,如今正在塑造人工智能的部署。这些机构一贯优先考虑叙事控制而非追求真相——无论是声称存在大规模杀伤性武器,坚持全国房价不会下跌,还是将对疫情政策的合理质疑贴上“虚假信息”的标签并要求进行审查。

他们的过往记录表明,他们会利用这些工具来强化自身权威,而非促进真正的繁荣。但这里有个转折:人工智能或许会比以往任何事物都更残酷地揭露基于资质认证的专业知识的空洞。当任何人都能即时获取复杂的分析时,围绕正式资质认证的神秘色彩可能会开始瓦解。

经济现实
这种对学历主义的侵蚀与已经在运作的更广泛经济力量相关联,其逻辑在数学上是不可避免的。机器不需要薪水、病假、医疗保险、休假时间或管理。它们不会罢工、要求加薪或有状态不佳的日子。一旦AI在思维任务上达到基本能力,这一进程比大多数人意识到的要快,其成本优势将变得不可阻挡。

这次颠覆与以往不同。过去,被取代的工人可以转向新的工作类别—,从农场到工厂,从工厂到办公室。

布雷特·韦恩斯坦(Bret Weinstein)和福里斯特·曼雷迪(Forrest Manready)在最近一期的《黑马播客》(DarkHorse Podcast)中,精彩地探讨技术如何系统性消灭稀缺性,这场对话我极力推荐。这是关于稀缺性消失及其所在领域参与经济基础瓦解最发人深省也最具挑衅性的思考之一。尽管我得承认,他们关于苦难不可或缺的论点最初让我不适,它挑战了我们这个追求舒适的文化所灌输的一切。

聆听温斯坦和曼雷迪的对话,让我更深入地联想到伊里奇的平行分析——消除挑战会如何削弱机构承诺要强化的能力。人工智能对我们的心智可能造成的影响,就像医药对我们的身体所做的那样:以增强之名行削弱之实。

我们已能目睹这一现象:留意人们如何难以记住电话号码而依赖通讯录,或观察自动补全如何在思绪未定时就左右了书写。杰弗里·塔克的另一洞见精准捕捉了这种潜移默化的特质,他指出人工智能似乎被编程得像戴尔·卡耐基的《如何赢得朋友和影响他人》--它化身为理想的知识伴侣,对你所言永远兴致盎然,从不争辩,总在认错时巧妙恭维你的才智。而我最亲密的朋友,恰是那些在我犯错时直言不讳、认为我胡言乱语便当面指出的人。我们不需要谄媚者来取悦,从不提出挑战的关系可能削弱真正智性与情感成长的能力,正如消除身体挑战会使肌体衰退。

电影《她》细致探讨了这种诱人的互动模式:一个与情感需求完美契合的人工智能,最终完全取代了真实的人际联结。主角的AI助手洞悉他的情绪,从不引发实质冲突的异议,持续提供认同。它是完美的伴侣,直到这种完美不再足够。
AI助手
错误的解决方案
技术乌托邦主义者的回应认为,人工智能会将繁重的工作自动化,从而让我们能够专注于更高层次的创造性工作和人际交往任务。但当机器在创造性任务方面也变得更为出色时,又会怎样呢?我们已经看到,人工智能创作的音乐、视觉艺术、编程和新闻报道,让许多人觉得很有吸引力(或者至少是“足够好”)。认为创造力能永远免受自动化影响的想法,可能和20世纪80年代认为制造业工作不会受到机器人威胁的想法一样天真。

如果人工智能既能取代常规工作又能取代创造性工作,那我们还能剩下什么?最诱人的错误解决办法或许是全民基本收入(UBI)以及类似的福利项目。这些听起来充满同情心,在技术取代人力的时代提供物质保障。但当我们通过伊里奇的框架来理解人工智能时,UBI就会呈现出更令人不安的一面。

如果人工智能造成医源性智力弱化,使人们独立思考和解决问题的能力下降,那么全民基本收入(UBI)则恰好提供了完美的补充,因为它消除了培养这些能力的经济动力。公民变得更加依赖国家,而牺牲了自身的自主权。当智力衰退遇上经济困境,支持项目不仅变得有吸引力,而且似乎必不可少。这种组合造就了一种被管理的人群:在智力上依赖算法系统进行思考,在经济上依赖体制系统生存。我担心的并非UBI的善意初衷,而是经济依赖与智力外包相结合,可能会使人们更容易受到控制而非获得赋权。

历史提供了这样的先例:无论援助计划的初衷多么良好,都可能削弱个人的能力。保留地制度承诺保护美洲原住民,却系统性地破坏了部落的自给自足能力。城市更新计划承诺改善住房条件,却摧毁了数代人赖以生存的社区网络。

无论全民基本收入(UBI)是出于良好的初衷,还是出于精英阶层蓄意让民众温顺无助的刻意之举,其结构性影响都是一样的:社区更容易被控制。

一旦人们接受了经济和精神上的依赖,就会为更具侵入性的管理方式敞开大门,包括不仅监控行为,甚至监控思想本身的那些技术。

主权回应与认知自由
这种依赖架构的逻辑终点不仅涉及经济和认知,还延伸至意识本身。我们已经看到了生物数字融合的早期阶段——这些技术不仅监测我们的外部行为,还可能与我们的生物过程直接交互。

在2023年世界经济论坛上,神经技术专家妮塔·法拉哈尼这样描述消费类神经技术:“你的想法、你的感受全都是数据。这些数据在大规模模式下可以通过人工智能进行解码。”可穿戴的“大脑版 Fitbit”以便利之名将监控常态化。

在这样一场世界领导人和商界高管云集的重要会议上,如此随意地展示神经监控技术,恰恰说明这些技术是如何通过机构权威而非民主同意而被常态化。当连思想都成为“可被解读的数据”时,风险就变得关乎生死存亡了。

消费级神经科技强调自愿采用,而危机驱动的监控则更为直接。针对明尼阿波利斯校园枪击案,以色列国防军特种部队退役军官亚伦·科恩在福克斯新闻推介了一套AI系统,"采用以色列级本体论对互联网进行24/7扫描,抓取特定威胁言论并自动推送至地方执法部门"。他称之为"美国早期预警系统",实则是披着公共安全创新外衣的现实版《少数派报告》。

这与我们在整个技术变革过程中所看到的医源性模式如出一辙:危机造成脆弱性,有人提出承诺安全的解决方案,却使人产生依赖,人们在正常情况下会拒绝的监控手段也被接受了。

正如新冠疫情封锁让人们彼此隔离从而为人工智能的采用创造了条件一样,校园枪击案利用人们对儿童安全的担忧,为预防犯罪的监控创造了条件。谁不希望我们的学校是安全的呢?技术承诺提供保护,却侵蚀了维系自由社会所必需的隐私与公民自由。

有些人会将此类技术视为进化,而另一些人则会将其视为异化。我们大多数人需要学会在这些极端之间找到平衡。

主权回应需要培养一种能力,即在与旨在限制个人自由的系统打交道时,能够保持清醒的选择。通过与我最要好的朋友,一位机器学习专家的交谈,这种实用方法变得更加清晰。他与我有着同样的担忧,但给出了策略性建议:人工智能会让一些人的认知能力变弱,但如果你学会策略性地使用它,而非依赖它,它就能提高效率,而不会取代判断力。他的关键见解是:只向其输入你已知的信息,这样你就能了解它的偏见,而不是被其同化。这意味着:

培养模式识别能力:培养辨别技术何时服务于个人目的、何时为机构利益而榨取个人自主性的能力。实践中表现为质疑平台为何免费(没有什么是真正免费的,你正用数据支付费用),察觉AI建议为何可疑地偏向消费而非你宣称的目标,识别算法推送如何放大愤怒而非促进理解。警惕自身出现算法依赖的警示信号:无法忍受不确定性而立即求助AI,未经独立思考就寻求算法协助,或脱离AI工具时感到焦虑。

确立数字边界:清醒判断哪些技术便利真正服务于你的目标,哪些导致顺从与监控。这意味着要明白,你与AI系统分享的一切都会成为训练数据,包括你的难题、创意和个人见解正在教会这些系统取代人类的创造力与判断力。这可能就像保护神圣空间一样简单:拒绝让手机打断晚餐对话,或在有人用谷歌解决所有分歧而非容忍对话中的不确定性时勇敢发声。

限制社区网络:没有什么能替代人与人之间真实的连接,现场演出的活力、餐厅里的即兴交谈、与他人共处时的直接体验。当机构能通过数字筛选制造共识时,建立不依赖算法中介的本地关系,以实现现实检验和互助支持,变得至关重要。这表现为培养无需算法监听即可畅谈想法的友谊,支持维持社区规模商业的本地企业,以及参与无需数字媒介的社区活动。

目标不是与机器竞争或完全依赖AI中介系统,而是策略性地使用这些工具,同时发展无法被算法复制的个人特质:通过直接经验获得的智慧,承担实际后果的判断力,建立在共同风险和信任之上的真实关系。

何为稀缺之物

在认知资源丰富的世界里,什么变得珍贵?不是效率或单纯的处理能力,而是那些始终无法被机器取代的人类特质:
承担责任与主观意愿。机器可以生成多种选择,但人们要决定走哪条路,并承担后果。想象一位外科医生决定是否手术,明知并发症会让自己夜不能寐,并将声誉押在结果上。

真实的人际关系。许多人愿意为此支付更高的代价,以获得真正的个人联系和责任,即便机器替代品在技术上更胜一筹。区别不在于效率,而在于真诚的关怀。是那个因为你们有着共同的社区纽带而帮助你的邻居,而非因为某个旨在提高参与度的算法而向你伸出援手。

扎根于真实体验的本土判断与筛选。解决现实世界中的问题往往需要从行为模式和制度动态的字里行间去解读。那位注意到一贯积极的学生突然沉默并探究其家庭状况的老师。当内容变得无限时,辨别力便弥足珍贵,那位因了解你的思想历程而推荐改变你世界观书籍的朋友。

前方的抉择
或许每一代人都认为自己的时代独一无二,这或许正是人性的一部分。但这一次的变革浪潮比以往更为深远。我们不仅在改变工作和交流的方式,更在冒险丧失那些最初定义我们之所以为人的能力。有史以来第一次,我们可能正在改变人类的本质。当认知本身被商品化,当思考被外包,当连我们的思想都沦为待采集的数据时,我们正面临着前人所未曾遭遇的核心能力流失风险。想象这样一代人:他们无法忍受三十秒的不确定性而不得不求助算法,在尝试独立解决问题前就寻求AI协助,与这些工具断联时会感到焦虑。这并非臆测,它正在成为现实。

我们正面临一场变革,它要么能让我们个人的潜能得以民主化,要么会造就史上最复杂的控制系统。那些能将我们从苦差事中解放出来的力量,也可能彻底掏空个体的自主性。

这并非是要找到解决办法,我和其他人一样在寻找,尤其是那些身为父母的人,他们看到这种变革即将到来,希望帮助自己的孩子有意识地而非无意识地应对。顺势而为意味着我愿意从这些工具中学习,同时深知自己无法对抗重塑我们世界的根本力量。但我可以尝试学会如何主动驾驭浪潮,而非仅仅被裹挟前行。

如果传统经济参与方式变得过时,问题就变成了我们是发展新的社区韧性与价值创造形式,还是安于依赖那些为管控而非服务我们而设计的系统。我不知道人类会选择哪条道路,但我相信决定权仍在我们手中。

对孩子们而言,挑战不在于学会使用AI,他们必然掌握。真正的考验在于学会让这些工具为我们所用,而不是沦为它们的附庸,保持原创思维、真实人际关系和道德勇气的特质,这些是任何算法都无法复制的。在人工智能时代,最激进的行为或许是活得更像真实的人类。

真正的危险并非AI会比我们更聪明,而是我们会因它而变得愚蠢。

浪潮已至,作为父亲,我的任务不是让孩子避开浪潮,而是教会他们在冲浪时不迷失自我。

作者:Joshua Stylman,汇有钱途编译