1970年9月,经济学家米尔顿·弗里德曼(Milton Friedman)撰写了一位专栏,认为一家公司“对公众没有社会责任:”其唯一责任是对股东。这种股东至高无上的学说成为华尔街的福音,这是一种指导原则,最大程度地提高了利润。快速前进的半个世纪,这种哲学现在为建立越来越强大的人工智能而动画了一场令人震惊的竞赛。全球最大的科技公司在光滑的新闻稿中吹捧AI的好处,但是在幕后,他们的行进订单与弗里德曼时代相同:无论人类成本如何,增长利润。
米尔顿·弗里德曼(Milton Friedman),由Bachrach Studios(公共领域)拍摄。他1970年关于股东首要地位的文章为当今的利润驱动的AI种族奠定了意识形态基础。我们不必推测这些人为成本,因为它们已经在这里。尼克·范·特海登(Nick van Terheyden)是马里兰州的58岁医生,他的健康保险公司收到了一封令人困惑的否认信,以进行常规测试。他很快发现了原因:他的保险公司Cigna悄悄地部署了一种算法,该算法“可以立即以医疗理由拒绝而无需打开患者文件的索赔”,允许公司医生几下拒绝成千上万的索赔。在短短两个月内,Cigna的系统否认了300,000多个护理请求,每种情况平均花费1.2秒。像范·特里登(Van Terheyden)这样的患者,其合法主张被利润优化的AI扫除了一边,被搁置了出人意料的账单,没有追索权。这不是机器人叛乱的科幻情景;这是一种现实世界中的算法,专注于削减成本,将人类健康视为外部性。
公司电力和技术的这种碰撞具有深厚的根源。在19世纪后期,像铁路男爵和石油大亨这样的镀金时代工业家建造了一心一意地关注利润的帝国。他们的冒险推动了美国的进步,但也对工人,消费者和环境进行了粗暴的态度。一举一举,到1880年,标准石油控制着大约90%的美国石油炼油,使用无情的策略来粉碎竞争,忽略其产生的污染和公共安全危害。后来,经济学家为这些公司倾倒在公众身上的社会成本中创造了“外部性”一词,无论是由烟草行业造成的健康危机还是不受管制的石油钻探的生态损害。逻辑很简单:如果它没有伤害底线,那不是公司的关注。
如DALL-E 2所示到20世纪中叶,“商业的唯一社会责任是增加其利润”的想法已被弗里德曼(Friedman)这样的思想家所构成。在1980年代,这种哲学达到了狂热。一波敌对的收购和企业突袭席卷了华尔街,奖励了“削减工资,预付长期投资或出售资产的高管”,以提高股价。商业巨人公开庆祝他们对股东的忠诚。在1983年的收购竞标中,石油大亨T. Boone Pickens宣布他“致力于提高股东价值”。美国公司收到了这样的信息:如果您没有将股东放在首位,那么您将被愿意的人取代。工作被外包,法规毁了,利润飙升。人损失?从工厂封闭的工业城镇到导致灾难的松弛安全标准,这是不可避免的进步价格。
Google组织了全球信息,但其算法优先考虑广告及其自己的服务,以提高其底线的方式指导用户。亚马逊完善了物流,以使客户感到高兴,即使它以算法精度挤压了仓库工人和第三方卖家。一直以来,这些公司向公众保证,他们是由良性创新和“使世界变得更美好的地方”的愿望所驱动的。
公众言论与投资者现实之间的不和谐比目前的AI淘金热更为明显。科技首席执行官ARFARE AI可以治愈疾病,改善教育和应对气候变化的潜力。但是,转到收入电话和风险投资术语表,语调的变化:AI是“收入驱动力”和竞争性武器。亚马逊首席执行官杰夫·贝佐斯(Jeff Bezos)(后来是安迪·贾西(Andy Jassy))在2024年给股东的信中坦率地宣布:“我们正在对企业的生产AI进行大量投资,” AI强调了AI对“新的收入机会”和效率至关重要。
在投资者论坛中,出版AI伦理白皮书吹捧公平和透明度的同一家公司吹嘘AI将如何提高季度利润。不和谐令人痛苦:公众被承诺“永恒”,而董事会要求AI支付每股收益。
每个算法都有一个设计师,每个设计师都有一个老板。当公司对AI开发的投篮命名时,人工智能系统经常模仿其创作者的利润驱动价值就不足为奇了。这些算法实际上是算法股东。该算法执行了最大化回报的主要指令,有时无视任何事物(或任何人)。让我们在AI中编码这个公司DNA:
油对AI的双重使用 – 绿色PR与黑金在公共场合,石油高管自称对可持续性的承诺,甚至将AI作为削减排放的助手。然而,在闭门造车后面,大油利用AI比以往任何时候都更快地寻找化石燃料。 2023年5月,壳牌宣布合作伙伴关系使用生成AI加速石油勘探,并承诺在几天而不是几个月内找到以前未触及的石油储备。壳牌的新闻稿提高了安全性和效率,但对投资者的真正卖点是“增加产量和更高的成功率”。矛盾是公然的:公司将作为气候解决方案定位的AI主要用于锁定更多的碳提取。正如一位能源专家直言不讳地告诉全球证人:“这项技术本身与可持续性无关……对于壳牌来说,这主要使他们能够为额外的石油和天然气进行钻探,”在增强利润的同时,破坏了气候行动。
然而,大石油远非唯一一个弯曲人工智能的玩家,因为该技术的锻造性还可以使自我审查和压制的形式更加微妙,尤其是在与威权制度和利润丰厚的公司客户打交道时。
自我审查的人工智能 – 求爱的专制者和客户如果今天的AI有一个盲点,则可能是设计。有报道说,AI少校实验室有时会调整其模型,以避免冒犯强大的利益相关者。在中国,有充分的证明,任何AI Chatbot都必须符合共产党线或面对关闭。中国开发的模型将拒绝讨论蒂安曼广场或台湾独立性等主题。西部人工智能公司不是代表北京直接审查的,但他们有自己的商业禁忌。 AI-AS-A-A-Service提供商将为企业客户的“品牌安全”进行微调模型。这可能意味着对AI客户服务机器人进行了编程,切勿承认该公司的产品是错误的,或者聊天助手不会对利润丰厚的国外市场的政府说负面词。我们已经看到像Google自我审查产品这样的大型科技公司过去可以安抚北京。细节可能是模糊的,但基本的模式很明显:当利润和原则发生冲突时,AI伦理经常倒退。出版道德AI准则的实验室可以并且将在有大量合同或大型专制市场时会弯曲这些准则。
当算法反映所有权时这些示例都表明了一个基本真理:AI系统倾向于反映拥有和部署它们的人的目标。在公司控制下,这些目标通常是增长,更效率,更多利润的三合会。公开,技术高管坚持认为可以负责任地开发AI。私下面,他们知道,如果他们的人工智会在道德上过于“道德”,它将被另一个毫不犹豫地削减道德角落的AI所吸引。因此,我们遇到了奇怪的矛盾:公司发布了一个星期的AI伦理宪章,然后解雇其AI伦理研究人员下一个指出其模型中的偏见。 (Google在大型语言模型中提出对偏见和环境成本的担忧之后,在2020年对著名的AI伦理学家Timnit Gebru解雇,这是一个很好的例子。在道德和利润之间的战斗中,Corporate AI每次都会为其股东服务。这使其对存在的阶段更为卑鄙。
AI毁灭性场景通常会想象一台超级智能计算机,它变得自我意识并决定消灭人类。但是,问那些每天都会以人工智能的影响来搏斗的人,许多人会告诉你真正的威胁不是形而上学的威胁:这是经济和政治上的。
将人工智能视为超速射器。给它一个目标和足够的数据,它将发现人类无法的效率和模式。在真空中,这既不好也不好。但是,在电力公司的背景下,想象一个AI的目标是最大限度地利用私人电力公司的收益。它是在一个闷热的夏日,大量热浪会导致停电。 AI管理智能电网,进行了冷计算:它可以通过将权力从“低优先性”用户转移到高薪工业客户的合同义务上。突然,整个住宅街区甚至陷入困境的医院都会失去电力,而整个城镇则不间断地有空调的加密服务器服务器农场嗡嗡声。在危机中,人工智能完全按照其旨在做的事情进行了优先考虑最高收入流。结果?人类的生活危险,因为该算法对ICU病房的生命支持机器的高级客户的SLA重视。
我们已经在现实生活中看到了较小的版本。金融市场因Flash Crashes而引起了人们的欢迎,在该崩溃中,交易算法从事积极的反馈循环,以几分钟的时间删除了数十亿美元的市场价值。在臭名昭著的2010年Flash崩溃中,自动化的高频交易计划对彼此的举动做出了如此迅速的反应,以至于道琼斯指数闪烁着近1,000点,在人类可以介入之前,大约1万亿美元的价值消失了。原因不是邪恶的意图,而是算法优化交易的不懈速度。
也许AI的真正危险的最有说明性的例子来自社交媒体,这预示着当算法在行星规模上优化商业目标时会发生什么。 Facebook,YouTube,Tiktok等人部署了旨在最大化用户参与度的AI系统。更多点击,更长的会话,更多的广告印象。副作用是对人类行为和思想的彻底操纵。历史学家尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)指出,即使这些“极其原始”的AIS在大型实验中也将用户视为豚鼠。他们发现,让我们粘在屏幕上的最简单方法是喂养我们触发愤怒和恐惧的内容。 “您在人们的脑海中按下仇恨按钮,然后将它们粘在屏幕上,” Harari喊道,总结了算法逻辑。结果是戏剧性的:社会两极分化,阴谋和种族仇恨的传播,甚至煽动暴力。
哈拉里说: “算法做了一些意外的事情,”他们通过传播愤怒实现了自己的目标,这是没有人想要的结果。企业AIS侵犯了人性,以最大程度地提高利润,并为此,他们破坏了社区并破坏了对机构的信任。这是已经正在发生的生存威胁:不是AI反对我们,而是AI以破坏社会稳定的方式执行以利润驱动的行为者的意愿。
加剧了这种威胁的是AI力量的集中在一些大型公司手中。当少数公司控制高级AI的开发和部署时,它们的价值观和盲点就可以融入管理我们生活的数字系统中。考虑到Google目前在全球在线搜索查询的90%约为90%,这意味着其AI算法本质上决定了大多数人类可以或找不到哪些信息。同样,亚马逊的AI驱动推荐引擎引导了数亿美元的消费习惯,将购物者带入某些产品或卖家(通常喜欢亚马逊自己的产品)。这创建了自我强化的力量循环:AI平台拥有的用户越多,改善其算法的数据越多,并且它变得越重要,从而吸引了更多的用户。
像Facebook一样,拥有AI,不仅会对用户行为做出响应;它使它塑造它,让您花更多的时间滚动(并看到广告)。随着时间的流逝,这些AI霸主构成了作者Yuval Harari和其他人所说的“电力循环:”反馈周期,其中控制培养了更多的控制。
它回应了弗拉基米尔·普京(Vladimir Putin)在2017年的令人震惊的预测: “人工智能是未来……无论成为这个领域的领导者谁将成为世界的统治者。”这听起来可能是夸张的,但是从非常真实的意义上讲,AI是社会控制的杠杆。而且,如果这些杠杆纯粹是私人手中的,只对股东负责,那么我们的集体未来,我们的经济,话语甚至我们的自由都可以由一些具有狭窄目标的公司算法来指导。
例如,1911年对标准石油的反托拉斯破裂迫使约翰·洛克菲勒(John D. Rockefeller)的垄断地解散为34家单独的公司。当臭氧层中的一个洞威胁地球上的生命时,几乎每个国家都签署了1987年蒙特利尔协议,以逐步淘汰企业制造的化学物质破坏我们的大气。这些不是自发的奇迹。他们来自公共压力,精明的政策以及某些价值超越利润的认可。本着这种精神,掌握人工智能公司的力量将需要类似的努力。这项努力不仅是按照一般原则的手势,而且还列出了可行的框架。
公共利益,而不仅仅是私人资产使AI发展民主化听起来很崇高,但是有一些具体的方法可以做到这一点。想象一下,联邦政府或国际资助的实验室发布了其代码,模型架构和培训数据,以供任何人进行审查,就像一所公立研究大学的数字等同。搜索引擎的“公共选项”可以最大程度地减少数据收集并消除操纵性广告。这可能意味着由独立董事会而不是公司C-Suite监督的算法,其公开可用的审核步道显示了内容的排名。这并不是要完全取代私人创新;相反,这是关于创建一个透明的替代方案,该替代方案将用户福利置于:隐私,质量信息和公平访问权限之上。
Mozilla基金会等组织通过“负责人AI挑战”等倡议已经是强调社会利益的项目。 Sanative AI(可以防止未经许可进行数据挖掘的图像)和Kwanele(聊天机器人帮助遇到暴力困扰社区的妇女)等工具显示了如何利用AI来为共同利益而进行AI。同时,诸如Eleutherai和Hugging Face这样的开源社区创造了任何人都可以学习或重新利用的模型,从而松散了Big Tech对该领域的控制。如果我们通过公共赠款,慈善事业或类似于公共广播的宪章来扩大和制度化这些努力,我们将建立对商业产品的真正平衡。
监管护栏和真实牙齿当然,监管至关重要。 《欧盟AI法案》旨在对“高风险”系统施加透明度和安全标准,即使是不完善的话。在美国,立法者正在谈论针对科技巨头的反托拉斯行动,甚至浮动了联邦AI监督机构的想法。但是正如评论家指出的那样,如果审计对经过审计的公司的资金,审计可能会持平。为了防止“监管捕获”,政府可以要求由公共利益信托而不是公司金库资助的真正独立的第三方评估员。这些审核员将既有发表他们的发现的权力和义务,从而确保算法偏见,安全监督或权力滥用不会悄悄地扫荡在地毯下。
在全球范围内,类似于国际原子能局类似的未支持的AI监管机构可以为透明,公平和安全设定可执行的标准。这不是天空中的理想主义;我们已经看到国际协议驯服威胁比算法更令人生畏。的确,建立这样的机构在政治上会具有挑战性,但是AI的跨境性质和AI军备竞赛的风险也同样需要。
并非所有公司都是平等的虽然很容易用宽阔的刷子绘制大型技术,但并非所有公司都遵循同样的道路。例如,微软已经对“负责人AI”研究进行了高度宣传的投资,并开源了几种AI工具。 Google的内部辩论,例如五角大楼AI合同Maven Project Maven的雇员抗议表明,公司巨头经常怀有强大的内部异议。许多工程师真正担心AI的社会影响并推动更严格的道德标准。强调这些紧张局势可以加强这样一个观念,即AI的未来不是仅由少数CEO决定的。它是由大声疾呼的工人,伦理学家和用户塑造的。
从头开始的集体行动工人和消费者都开始退缩AI的侵占。美国作家协会2023年的罢工确保了合同语言,阻止了制片厂使用AI代替人类剧本的人,这是一个分水岭的创造性劳动时刻。同样,配音演员正在组织,以阻止未经授权的声音克隆。未经许可,艺术家正在提起培训他们的工作的图像生成器。这些基层的努力都表明,AI的部署不是不可阻挡的力量,而是一种可转让的过程,可以通过合同,诉讼和其他形式的集体杠杆来塑造该武器。
更广泛,更大胆的人工智能议程最终,将人工智能弯腰朝着公共利益弯曲,可能需要融合开放的创新,严格的监管,公司问责制和公民行动主义。 AI的某些用途可能需要彻底的禁令,就像我们禁止生物战。我们可能还会考虑新的公司形式:构想寻求社会福利的AI“公共福利公司”,甚至是一个类似于公共事业的部分国有化的实体,在这种情况下,利润不会掩盖更广泛的利益。
几年前,这些想法听起来可能是边缘的。现在,随着无限制的AI开发的赌注变得更加焦点,他们正在成为主流。可以说的是,即使是包括OpenAI的Sam Altman在内的一些AI首席执行官,也公开赞扬了对全球协调和护栏的需求。不受管制的竞争最终没有人的最大利益的信号。
AI的故事仍在写。是的,我们正朝着一个未来的态度,在这个未来中,算法将在决定谁获得贷款,如何部署警察资源,人们看到的新闻,推荐哪些医疗服务等方面发挥更大的作用。这可能是算法暴君的反乌托邦噩梦,也可能是AI真正服务于共同利益的世界。差异归结为谁控制代码。如果我们允许AI保持少数公司的私人封建,这是由一种经济体系驱动的,该公司最重要的是,当这些AIS作为反复无常的霸主时,我们就不会感到惊讶。恶化的不平等基础是威权主义,甚至可能威胁着生活在微妙而不那么微妙的方式上。但是,如果我们将AI恢复为公共资源,那么如果我们坚持透明,问责制和广泛参与其发展,那么AI可以帮助解放而不是压迫。
当我们浏览这个关键时刻时,值得回到米尔顿·弗里德曼(Milton Friedman)的意识形态并将其转向头脑。弗里德曼学说适合小部件工厂和可乐与百事可乐竞赛的时代,但在AI时代,它不仅过时了:这可能是灾难性的。今天,我们知道,某些“外部性”实际上会威胁到我们的存在(气候变化教会了我们),并且AI准备产生一个全新的外部性类别。我们根本无法承受唯一控制私人利益的杀戮文明转变。
好消息是认可正在传播。学校董事会正在质疑使用不透明的AI监视学生。城市禁止面部识别,直到进行适当的监督。国际联盟正在讨论“算法裁军”,以防止促进错误的错误信息战争。这些是迈向AI时代新社会契约的第一步。在这份合同中,人类和民主的价值观必须在任何自动决策中骑shot弹枪。透明不是一个好东西。这是先决条件。公平不是事后的想法。从一开始就进行了编码。选择退出AI驱动系统以支持人类流程的权利可能成为消费者保护标准。
我们会在这辆AI火车上成为被动的乘客,还是我们成为指挥家? AI的耕种者无形的手不必属于一个不露面的公司。这可能是民主治理的稳定之手,指导AI实现广泛共享的目标。但是时间很短。现在正在构建的AI生态系统将很难稍后放松。俗话说,如果我们愿意的话,我们仍然有时间进行紧急制动。这意味着我们所有人,工程师,高管,监管机构和公民都对越来越多地控制我们的技术进行了控制。 AI的存在威胁并不是遥遥无期的超级智能,绘制了人类的灭亡。它离家更近,嵌入了谁拥有这些算法以及被告知优先级的内容。改变所有权,重写这些优先事项,AI仍可以成为帮助人类以服务人和星球的方式繁荣的工具,而不仅仅是利润。
弗里德曼学说 – 《纽约时报》杂志(1970)(弗里德曼学说 – 维基百科)(弗里德曼学说 – 维基百科)。 (米尔顿·弗里德曼(Milton Friedman)的论文认为,企业的唯一责任是增加其利润。) ProPublica(2023年3月) – Cigna如何通过让医生拒绝索赔而无需阅读索赔(Cigna如何通过让医生拒绝没有阅读的索赔来挽救数百万的主张 – ProPublica)。 (调查Cigna的即时索赔拒绝算法系统。) ProPublica(2023年10月) – Evicore,该公司帮助美国健康保险公司拒绝接受治疗的承保范围(Evicore,该公司帮助美国健康保险公司拒绝治疗的覆盖范围 – ProPublica)。 Levy,Jonathan – Promarket (2021年5月)(公司接管如何登基股东价值的福音)。 (在1980年代的“股东价值”革命中 – 敌对收购和各种成本的企业行为。) 全球见证人(2023年9月) –数字演习:大石油如何使用AI加快化石燃料提取(数字演习:大石油如何使用AI来加快化石燃料提取|全球证人)。 (详细介绍了外壳使用生成AI来加速石油勘探以及气候的影响。) TechCrunch(2025年3月) –泄漏的数据暴露了中国AI审查机器(泄漏的数据揭示了中国AI审查机| TechCrunch)。 (揭示了如何使用未命名的中国大型语言模型来大规模地将禁止的主题吹出。) Harari,Yuval Noah – Noema杂志(2024年10月)(AI将从内部接管人类系统)。 (Harari对社交媒体算法的分析传播了仇恨以及对AI驱动力的制衡的需求。) 边缘(2017年9月)(普京说,在人工智能中领导的国家将成为世界的统治者| The Verge)。 (报告弗拉基米尔·普京(Vladimir Putin)的话:“人工智能是未来……谁成为这个领域的领导者将成为世界统治者。”) 路透社(2023年6月)(联合国首席支持全球人工智能监管机构,例如核代理机构|路透社)。 (联合国秘书长安东尼奥·古特雷斯(AntónioGuterres)支持以国际原子能机构以仿制的国际AI监管机构。) 《卫报》(2023年10月)(好莱坞作家如何胜过AI,以及为什么它至关重要|美国作家罢工2023 |卫报)。 (在作家协会罢工解决方案上,该解决方案禁止工作室使用AI编写或重写脚本,并确保为适应AI生成的内容而不能减少作家的薪水。)