<?xml version="1.0" encoding="UTF-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>科技 - 财富中文网</title><link>https://www.fortunechina.com/keji</link><atom:link href="http://rsshub.rssforever.com/fortunechina/keji" rel="self" type="application/rss+xml"></atom:link><description>科技 - 财富中文网 - Powered by RSSHub</description><generator>RSSHub</generator><webMaster>contact@rsshub.app (RSSHub)</webMaster><language>en</language><lastBuildDate>Sat, 16 May 2026 23:34:54 GMT</lastBuildDate><ttl>5</ttl><item><title>SAP CEO：企业AI竞赛押错了赛道</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260515/080027b692af2b71252e02.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;SAP首席执行官柯睿安。图片来源：courtesy of SAP&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;企业人工智能竞赛正迅速演变为一场接口之争。 &lt;/p&gt;
&lt;p&gt;每周都有新公告发布：更智能的助手、功能更强大的智能体，或是旨在实现企业全流程工作自动化的全新协调层。技术进步毋庸置疑，但业内多数布局并未围绕企业实际运营模式进行优化。 &lt;/p&gt;
&lt;p&gt;这一差异的重要性远超大多数人的认知，因为企业运营依靠的从来不是提示词，而是执行。&lt;/p&gt;
&lt;p&gt;一家全球制造商在供应链中断期间决定如何重新调配库存，需要的绝不仅仅是一个答案。它必须同时评估供应商备选方案、库存余量、客户承诺以及财务权衡。首席财务官在市场波动期间预测流动性风险时，所需的背景信息，是普通聊天机器人交互无法提供的。这些相互关联的运营决策，受到依赖关系、业务偏好、审批流程、财务后果和各种权衡的影响，而这些权衡会在企业实时产生连锁反应。&lt;/p&gt;
&lt;p&gt;过去一年，在我与高管们的无数次对话中，话题不可避免地会从人工智能能力转向运营现实。模型确实在飞速迭代，但更棘手的问题在于：人工智能是否真正理解它所运行的商业环境？&lt;/p&gt;
&lt;p&gt;如今，太多关于人工智能的讨论仍默认一个前提：只要模型更强大，商业成果自然会更好。但事实并非如此。企业逐渐意识到，脱离运营背景的智能——也就是脱离了治理和保护组织的流程、数据、规则与政策的智能——虽能输出结果，却难以带来实质性进展。在某些情况下，它甚至会加剧碎片化并带来风险。 &lt;/p&gt;
&lt;p&gt;智能体生成的建议听起来可能很有说服力，却可能忽略了系统其他环节的关键依赖关系。AI智能体可能高效地自动化了某一条工作流，却打乱了另一个工作流的规划假设。企业从不缺人工智能生成的各类输出结果，真正缺的是能够理解运营影响的人工智能系统。&lt;/p&gt;
&lt;p&gt;这正是当前企业人工智能领域的真正挑战，而破解这一难题，仅靠协调是远远不够的，更需要的是背景信息。&lt;/p&gt;
&lt;p&gt;数十年来，企业软件一直默默充当着全球经济的运营支柱。财务系统、供应链、采购网络、人力规划平台、生产运营以及客户履约流程，无不依托相互关联的系统运行。这些系统不仅记录信息，更承载着企业的运营逻辑，包含着多年积累的流程知识与数据、治理结构、授权机制、政策规则以及塑造企业每一项决策的经济关系。它们是企业的核心。&lt;/p&gt;
&lt;p&gt;在人工智能时代，这种业务背景信息变得极具价值。若缺乏这一背景，人工智能的输出结果终究只是有理有据的猜测，而非基于现实的判断。&lt;/p&gt;
&lt;p&gt;当人工智能直接嵌入运营流程时，它才能基于企业的全局情况进行推理。这改变了软件在组织中的定位。企业系统开始直接参与执行本身。&lt;/p&gt;
&lt;p&gt;人工智能能提前识别风险，跨职能部门协调响应，实时推荐行动方案，并在既定边界内自动化执行常规任务。它不再是独立运行的智能体，而是与企业的经济和运营架构深度连接的智能系统。&lt;/p&gt;
&lt;p&gt;至关重要的是，企业自主化并不意味着将人类排除在决策之外。它意味着减少摩擦、消除碎片化、降低行政负担，从而支撑组织实现规模化、高效化与协同一致的运营。人类依然负责定义优先级、做出判断并承担责任，而人工智能则负责围绕决策完成运营协同与落地执行。&lt;/p&gt;
&lt;p&gt;试想供应商中断导致关键制造部件受影响的情形。当今大多数人工智能系统只能总结问题，或基于已学模式预测潜在延误。但立足运营实景的人工智能，不止停留在趋势洞察，更能实现全链路协同执行。它能识别受冲击的生产计划、评估全球库存状况、分析替代采购方案、估算财务风险、标记客户交付风险，并同时为采购、物流、财务及客户运营推荐行动方案。 &lt;/p&gt;
&lt;p&gt;这不仅仅是工作流自动化，而是人类与系统交互的全新方式。&lt;/p&gt;
&lt;p&gt;这也是我认为人工智能时代将提升而非削弱企业系统战略重要性的原因。&lt;/p&gt;
&lt;p&gt;随着人工智能不断向业务执行层渗透，最具价值的信息系统将是以运营和交易实景为根基、内嵌智能能力的系统。价值重心将向具备企业级语义理解能力的系统迁移，即能够理解权限、政策、依赖关系、流程、财务后果及组织问责制。&lt;/p&gt;
&lt;p&gt;这一转变也改变了领导者思考转型的方式。&lt;/p&gt;
&lt;p&gt;企业人工智能应用的第一阶段主要侧重于试验。企业测试智能助手，部署试点项目，并实现单点任务自动化。很少有项目真正带来生产力提升，而真正从根本上改变组织运营方式的更是寥寥无几。&lt;/p&gt;
&lt;p&gt;下一阶段的领头羊将采取截然不同的人工智能应用策略。它们会将智能直接嵌入那些决策会产生真实经济后果的运营系统；它们会认识到，值得信赖的人工智能不仅依赖治理，更离不开背景信息、数据质量、流程完整性和对交易的理解。&lt;/p&gt;
&lt;p&gt;最重要的是，它们会明白：企业人工智能的成功应用不仅仅是一次技术变革，更是一场变革管理挑战。只有当AI智能体、业务流程和人类协同工作时，才能释放真正的商业价值。&lt;/p&gt;
&lt;p&gt;未来属于那些能实现这种平衡的企业：由人类定义优先级并承担责任，而智能系统则精准协调与执行。这种分工模式有助于企业提升运营韧性、生产效率与智能化水平，从而更从容地应对日益复杂的全球环境。（财富中文网）&lt;/p&gt;
&lt;p&gt;&lt;em&gt;柯睿安（Christian Klein）现任SAP SE首席执行官兼执行董事会主席，全面负责公司战略方向、日常管理与业绩表现。&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;柯睿安于2018年加入SAP执行董事会，担任智能企业集团负责人，统筹核心应用程序的全球研发与交付，同时负责公司全球业务运营的跨董事会事务。 &lt;/em&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;柯睿安于1999年以实习生身份入职SAP，开启职业生涯。他历任多个职位，包括SAP SuccessFactors首席财务官、SAP首席控制官，并于2016年被任命为SAP首席运营官，任职至2021年。2019年10月11日，他与詹妮弗·摩根（Jennifer Morgan）共同被任命为SAP SE联席首席执行官。2020年4月20日，他出任SAP SE唯一首席执行官。&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;&lt;em&gt;Fortune.com上发表的评论文章中表达的观点，仅代表作者本人的观点，不代表《财富》杂志的观点和立场。&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;译者：中慧言-王芳&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-05/15/content_473900.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-05/15/content_473900.htm</guid><pubDate>Thu, 14 May 2026 16:00:00 GMT</pubDate><author>Christian Klein</author></item><item><title></title><description></description><link>https://www.fortunechina.com/keji/</link><guid isPermaLink="false">https://www.fortunechina.com/keji/</guid><pubDate>Sat, 25 Apr 2026 16:00:00 GMT</pubDate><author>Christian KleinJeremy KahnNick LichtenbergGeoff ColvinSharon GoldmanBeatrice NolanMatt O&#39;Brien, Linley Sanders，美联社Kamal AhmedSharon GoldmanCatherina GioinoMarco Quiroz-Gutierrez谢菁炜Sharon GoldmanBeatrice NolanJake AngeloSheryl EstradaJake AngeloNick Lichtenberg谢菁炜Sharon Goldman凯洛格管理学院Emma BurleighKriti SharmaBill ReadyNigel VazMarco Quiroz-GutierrezBeatrice NolanHenry Ren，彭博社凯洛格管理学院Preston Fore</author></item><item><title>OpenAI风波不断，会影响其IPO前景吗？</title><description>&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&amp;nbsp;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;
&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260425/080027dbedf82b56c38b06.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;p&gt;&lt;/p&gt;&lt;/font&gt;&lt;p&gt;&lt;font color=&quot;gray&quot;&gt;OpenAI首席执行官萨姆·奥尔特曼。图片来源：Anna Moneymaker—Getty Images&lt;/font&gt;&lt;/p&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;过去一段时间，OpenAI占据了各大新闻头条。事实上，这家公司的消息铺天盖地，甚至让人一时难以理清头绪。更难判断的是，事后回看，究竟哪一项进展才会被证明最具影响力。稍后我会逐一梳理OpenAI的动态。&lt;/p&gt;
&lt;p&gt;不过在此之前，我想先重点提三条关于Anthropic的新闻，因为从长期来看，它们的重要性，可能超过OpenAI的所有琐事。&lt;/p&gt;
&lt;p&gt;Anthropic公布了一项名为“Glasswing计划”的合作项目，汇集多家大型科技公司和网络安全机构，目标是在黑客利用AI对全球关键软件造成严重破坏之前，提前加固这些系统的安全。联盟伙伴已经获准使用Anthropic尚未发布的Mythos模型的一个网络安全专用预览版，希望借助该模型识别零日攻击和其他潜在漏洞，并在Mythos正式版以及OpenAI和谷歌具备超强网络攻防能力的同类AI模型上线之前，修复这些漏洞。&lt;/p&gt;
&lt;p&gt;“Glasswing计划”进一步证明，AI实验室、网络安全公司以及政府官员日益担忧一种情况：随着近期AI模型编程能力的提升，我们正步入一个网络安全威胁空前严峻、甚至可能带来灾难性后果的时代。&lt;/p&gt;
&lt;p&gt;Anthropic还宣布，将不再允许用户通过每月订阅Claude来驱动第三方智能体工具，例如近期爆火的OpenClaw及其衍生工具。今后，用户若想使用Claude驱动此类工具，必须改为订阅Anthropic的API，并按词元用量付费，而不再适用“包月不限量”的模式。近几周，尤其是在OpenClaw这类智能体工具爆火之后，Anthropic已显露出算力不足的问题，难以应对迅速飙升的用户需求（该公司还在高峰时段实施了严格的使用限制，引发不少用户不满）。为缓解算力压力，Anthropic宣布扩大与谷歌和博通（Broadcom）的合作，以获取运行谷歌TPU芯片的数据中心资源，这些资源预计将在2027年前陆续上线。不过在此之前，这一调整可能会对AI智能体的使用方式产生重大影响：一方面可能放缓其普及速度，另一方面也可能促使更多用户转向将开源模型作为智能体的“核心引擎”。&lt;/p&gt;
&lt;p&gt;Anthropic还表示，公司当前的年化收入“运行率”已达到300亿美元，这一数字意味着仅在3月，其收入就飙升了58%。该水平也高于OpenAI在今年2月披露的250亿美元年化收入运行率（不过两家公司计算口径并不完全一致，因此可比性有限）。但这仍清晰表明，Anthropic正处于高速增长阶段，而在OpenAI近期一系列动态的背景下，这一点尤为关键。&lt;/p&gt;
&lt;p&gt;言归正传，接下来我们来看OpenAI方面的最新情况。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;OpenAI偏好“建设性”的媒体报道，于是决定“自制”内容&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;在OpenAI的一系列新闻中，或许最不重要、却引发媒体广泛讨论的一件事，是公司决定收购成立仅一年的视频播客平台科技商业节目网络（TBPN）。据《金融时报》援引消息人士称，交易金额为“数亿美元的低位区间”。OpenAI在宣布这笔交易时表示，“传统的传播方式显然已不再适用于我们”，公司需要“帮助打造一个空间，让围绕AI变革的讨论更加真实、更具建设性，并将开发者和使用者置于核心地位”。&lt;/p&gt;
&lt;p&gt;这里的“建设性”一词意味深长。尽管OpenAI坚称TBPN将保持编辑独立性，但外界对此多持怀疑态度。其中一个原因是，该视频内容业务将向公司政策传播负责人克里斯·勒哈恩汇报——他曾是一位作风强硬的政治操盘手。这一举动看起来像是科技公司试图通过“直达受众”（即利用社交媒体和自制内容，绕过传统新闻媒体）掌控舆论叙事的最新、甚至最极端的案例。传统媒体往往更具批判性，也更可能提出企业高管不愿面对的问题。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;奥尔特曼的诚信遭到质疑&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;如果此前还不够清楚OpenAI为何希望掌控传播渠道、为何反感传统媒体，那么《纽约客》最新刊发的对OpenAI首席执行官萨姆·奥尔特曼的长篇人物报道则点明了缘由。这篇文章由罗南·法罗和安德鲁·马兰茨历时一年半调查完成，标题赫然写道：“萨姆·奥尔特曼或许掌控着我们的未来——但他值得信任吗？”通读全文，很难得出肯定的答案。&lt;/p&gt;
&lt;p&gt;尽管文章中披露了一些新的细节，例如，记者获取了现任Anthropic首席执行官达里奥·阿莫迪的数百页笔记，记录了他在OpenAI任高级研究员期间与奥尔特曼的互动，但其中不少事实此前已在其他报道中出现。然而，将这些信息集中呈现，依然产生了巨大的冲击力。法罗和马兰茨笔下的奥尔特曼，更像是游走在反社会人格边缘的高管，为了上位不惜撒谎且毫无愧疚感。这篇文章让人不禁质疑：除了对权力的追逐，奥尔特曼对其他任何事的承诺，到底有几分真诚？他是否真得重视AI安全问题，尤其是他在AI安全方面的表态，是否只是一种策略性姿态，起初是为了争取埃隆·马斯克等人的早期资金支持，后来则是为了吸引并留住顶尖AI研究人才，同时缓和监管压力。&lt;/p&gt;
&lt;p&gt;可以肯定的是，潜在的IPO投资者通常不会青睐由“习惯性说谎者”掌舵的公司。他们同样排斥高层频繁变动的企业。而就在上周，OpenAI又宣布了一轮新的高管调整。公司表示，“通用人工智能部署首席执行官”、负责所有商业产品与运营的菲吉·西莫，将因慢性健康问题休数周病假。在她休假期间，此前主要负责AI基础设施建设的格雷格·布罗克曼将接管产品业务。&lt;/p&gt;
&lt;p&gt;与此同时，OpenAI还公布了一项更长久的管理层变动。长期担任首席运营官的布拉德·莱特卡普将转任一个新的岗位，负责统筹“特殊项目”，其中包括与私募股权机构合作的一项合资计划，旨在利用AI提升传统非科技行业的效率。近期出任OpenAI首席营收官、曾任Slack首席执行官的丹妮丝·德雷瑟将接手莱特卡普的大部分原有职责；其余业务与运营板块，则由首席战略官杰森·权和首席财务官萨拉·弗莱尔共同分管。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;有关支出与IPO计划的分歧浮出水面&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;与此同时，一则新曝出的消息暗示，弗莱尔的职位或许也不稳固。《The Information》报道称，弗莱尔在私下反对奥尔特曼的IPO时间表，并对公司未来五年高达6,000亿美元的支出承诺表达了担忧。该媒体援引一位与弗莱尔交流过的人士称，她不确定如此规模的投入是否必要，也不确定OpenAI能否以足够快的速度实现收入增长、以支撑这笔开支。&lt;/p&gt;
&lt;p&gt;报道还指出，弗莱尔是在OpenAI宣布1,220亿美元融资之前表达了这些担忧。这笔融资于上周公布，使公司投后估值达到8,520亿美元。报道未能确认，在获得这笔新资金后，弗莱尔的立场是否发生了变化。不过，另一位未具名消息人士称，在OpenAI一次讨论重大AI基础设施支出计划的投资者会议上，弗莱尔并未被邀请出席。对此，OpenAI回应称，弗莱尔与奥尔特曼“完全认同：稳定获取算力是公司战略的关键，也是其扩张过程中的重要竞争优势。”&lt;/p&gt;
&lt;p&gt;综合OpenAI的这些动向，人们难免会怀疑，这家全球最知名的AI公司是否正面临失控风险。至少，OpenAI能否在今年顺利IPO，已被打上了一个巨大的问号。而如果IPO计划告吹，公司还能在私募市场持续融资多久，同样是个未知数。一旦OpenAI崩盘，甚至只是经历一轮“估值下调”，都可能威胁到整个AI生态系统。当然，像英伟达（Nvidia）这样的关键参与者对此也心知肚明，因此很可能会继续出手支持OpenAI。&lt;/p&gt;
&lt;p&gt;在这一系列动荡之中，OpenAI还发布了一份白皮书，呼吁美国针对即将到来的“超级人工智能”时代制定一项全面的产业战略。（更多相关内容可参见我同事沙龙·戈德曼的报道。）不少人认为，这份文件在很大程度上是OpenAI的一种前瞻性布局，以化解美国各地日益高涨、且正逐渐获得两党支持的反AI产业情绪。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;AI行业动态&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Anthropic扩大与谷歌、博通的合作，以获取数据中心算力。根据协议，Anthropic最早将从2027年起获得约3.5吉瓦的算力，但前提是该AI公司需达成特定的商业里程碑。此外，博通还将在2031年前向谷歌供应定制AI芯片TPU及相关基础设施。更多详情，请参阅《华尔街日报》的报道。&lt;/p&gt;
&lt;p&gt;谷歌为Gemini增设心理健康防护机制。谷歌已引入一套系统，用于识别用户在与Gemini交互过程中可能表现出的心理危机信号，并在必要时引导用户联系危机干预热线。公司还宣布将捐赠3,000万美元，用于在全球范围内支持危机干预服务。此外，谷歌还增加了多项安全措施，以遏制自残倾向，并训练Gemini避免强化用户的错误信念。更多内容，请参阅彭博社的报道。&lt;/p&gt;
&lt;p&gt;谷歌发布Gemma 4开源权重模型。谷歌推出了新一代开源权重AI模型Gemma 4。据科技媒体《The Register》报道，该系列模型基于Apache 2.0许可发布，旨在通过提升使用灵活性和数据控制能力，吸引企业用户。Gemma 4由谷歌DeepMind开发，共推出四个版本，重点强化编程能力、智能体型AI以及推理表现，同时支持多模态输入，并可在从智能手机到数据中心的多种设备上运行。此次发布正值来自中国的开源权重模型竞争白热化之际，反映出谷歌正竭力提供一个足以抗衡OpenAI和Anthropic系统的企业级可靠替代方案。&lt;/p&gt;
&lt;p&gt;微软（Microsoft）推出“中端”AI模型，AI负责人承认存在算力缺口。微软发布了三款中型AI模型，称其在语音转录、语音生成和图像生成方面均达到行业领先水平。不过，微软AI负责人穆斯塔法·苏莱曼在接受《金融时报》采访时表示，公司目前仍缺乏构建前沿级大规模模型所需的算力。苏莱曼指出，公司现阶段将重点放在“中端”模型上，在成本与性能之间寻求平衡，同时加大对基础设施和人才的投入，以追赶谷歌和Anthropic等领先者。&lt;/p&gt;
&lt;p&gt;Meta计划开源下一代AI模型。据报道，Meta内部此前一直在讨论，是否将其下一代AI模型——即在新成立的“超级智能实验室”（由前Scale AI首席执行官汪滔领导）开发的首个模型——继续以开源权重形式发布，还是转为通过付费API或订阅模式提供。Axios援引匿名知情人士称，这一争论如今已尘埃落定，公司决定仍采用开源权重模式。这一新模型的发布被寄予厚望：一方面，这是Meta斥资数十亿美元引入汪滔及其团队后的首个成果；另一方面，其上一代模型Llama 4被普遍认为表现不佳，明显落后于OpenAI、Anthropic和谷歌DeepMind的同类产品。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;AI研究前沿&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;AI也有“情绪”？Anthropic最新研究给出部分肯定答案。该AI实验室表示，其研究发现，为其Claude AI模型提供支持的人工神经网络中，确实存在对“情绪概念”（如快乐或恐惧）的内部表征，这些表征会在功能层面影响模型的行为。Anthropic的研究人员强调，这并不意味着AI具备真实情感，而是其神经激活模式中存在某种结构，这些结构会引导模型的响应，在决策、偏好、输出方面与人类情绪存在一定程度的相似性。例如，当模型在不同任务之间进行选择时，往往更倾向于与“正向情绪”表征相关的选项，这表明这些内部表征在行为中具有因果作用。研究认为，理解并在一定程度上引导这些类似“情绪”的内部状态，对提升AI模型的表现至关重要。同时，这一发现也涉及安全层面的考量，因为模型的这些内部表征可能影响模型在多大程度上遵循用户意图。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;启发性案例解析&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;谷歌盛赞其AlphaEvolve在真实企业场景中取得成效。去年，谷歌DeepMind推出了AlphaEvolve，这是一款智能体型编程助手，能够调用多个Gemini模型，先为特定任务生成算法，再通过一系列小规模、可控的实验不断迭代优化。当时，谷歌已利用该系统解决数学问题，并优化自身的算力使用方式。如今，公司公布了其在真实企业场景中的应用成果。&lt;/p&gt;
&lt;p&gt;法国全球物流公司FM Logistic利用AlphaEvolve优化其大型仓库内的拣选与打包路径。与依赖固定规则不同，该系统会基于实际运营数据，迭代编写并测试新的路径算法，在满足叉车容量、订单优先级等约束条件的同时，尽可能减少整体行走距离。&lt;/p&gt;
&lt;p&gt;最终生成的算法引入了多项关键创新，例如从高密度货物区域开始路径规划，以及灵活放弃低效路线，从而提升整体效率。谷歌表示，这些优化使路径效率提升了10.4%，每年减少超过1.5万公里的行驶距离，在无需增加人手或设备的情况下，提高了订单履约速度和处理能力。这一案例表明，即便在软件开发之外的领域，AI编程智能体同样具备巨大的应用潜力。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：刘进龙&lt;/p&gt;
&lt;p&gt;审校：汪皓&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/26/content_473538.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/26/content_473538.htm</guid><pubDate>Sat, 25 Apr 2026 16:00:00 GMT</pubDate><author>Jeremy Kahn</author></item><item><title>白领正在悄然抵制AI：80%的员工拒绝强制使用</title><description>&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&amp;nbsp;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;
&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260425/080027dbedf82b56c17504.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;p&gt;&lt;/p&gt;&lt;/font&gt;&lt;p&gt;&lt;font color=&quot;gray&quot;&gt;AI应用正进入“悄然躺平”的阶段。图片来源：Getty Images&lt;/font&gt;&lt;/p&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;不久前，“影子AI”还被视为一则好消息。员工瞒着IT部门，用个人账号悄悄使用ChatGPT和Claude，把原本需要数小时的工作缩短到几分钟内完成。麻省理工学院（MIT）去年发布的一项研究显示，超过90%的企业员工在日常工作中使用个人聊天机器人账号，且往往未经批准；而与此同时，这些企业中只有40%正式订阅了大语言模型服务。当时，“影子经济”蓬勃发展：管理层将其视为治理问题；而员工则将其视为高效工作的利器。&lt;/p&gt;
&lt;p&gt;但如今，数据呈现出另一番景象。曾经被员工争相私下使用的工具，正在被越来越多的人主动弃用。原因并非工具无效，而是员工担心，一旦它“太好用”，后果将不堪设想。&lt;/p&gt;
&lt;p&gt;SAP旗下的WalkMe公司在其第五份年度《数字化采用现状》报告中，对14个国家的3,750名高管和员工进行了调研。结果显示，过去30天内，超过54%的员工绕开了公司提供的AI工具，选择手动完成工作；另有33%的员工从未使用过AI。两者合计，约有八成企业员工正在回避或者主动抵制这项技术，尽管企业正投入创纪录的资金进行部署。数据显示，企业数字化转型的平均预算同比增长38%，达到5,420万美元；但由于应用落地失败，其中40%的投入未能发挥应有成效。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;高管与员工之间的认知鸿沟&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;早期的热情所掩盖的问题，如今在数据中显露出来。只有9%的员工信任AI能够处理复杂、关键的业务决策，而在高管中这一比例却高达61%，两者之间存在52个百分点的信任落差。另有88%的高管认为公司已为员工提供了充足的工具，但仅有21%的员工表示认同，仅在工具充分性这一项上就存在67个百分点的差距。用报告中的话说，高管与员工“仿佛在描述两家完全不同的公司”。&lt;/p&gt;
&lt;p&gt;质疑者同样有数据支撑。约翰斯·霍普金斯大学（Johns Hopkins）经济学家史蒂夫·汉克经历过多轮技术周期，深谙“泡沫”的内在逻辑。他在近期对《财富》杂志表示：“AI并没有兑现承诺。欢迎回到现实世界。忘掉AI泡沫吧，它没有带来实质改变。你看各种调查显示大家确实都在尝试使用，但深入研究就会发现，它其实并没有产生多大影响。”他的结论很直接：“生产率表现依然疲软。如果AI真的带来了改变，生产率理应已大幅提升。硅谷那帮人号称GDP会增长5%或6%，生产率会飙升6%，但这根本没有发生。”&lt;/p&gt;
&lt;p&gt;这种质疑，在某种程度上也与WalkMe的数据相呼应。WalkMe联合创始人兼首席执行官丹·阿迪卡一直在实际工作中密切关注这一分化趋势。他经常向企业首席信息官提出一个简单问题：到底有多少员工正在利用AI开展实质性工作？他表示：“这个数字还不到10%。” &lt;/p&gt;
&lt;p&gt;阿迪卡借用了一个形象的比喻（本文编辑也很喜欢这个比喻），将AI比作一辆跑车，强调其“速度潜力”。他表示他最喜欢的类比是：如果公司给每位员工都配了一辆跑车，但他们却不会开——这意味着他们缺乏AI技能。&lt;/p&gt;
&lt;p&gt;问题的一部分在于结构性因素，而非行为因素。阿迪卡表示：“你给每个员工都配了一辆法拉利，但他们不会开。有时他们缺乏‘燃料’，即缺乏上下文背景信息；驾驶技术对应的是提示词能力；有些情况下甚至连‘道路’都没有，即缺乏API或MCP服务器来执行任务。”当你拥有一辆法拉利，却没有驾驶者、没有燃料、也没有道路时，自然跑不起来。&lt;/p&gt;
&lt;p&gt;毕马威（KPMG）美国税务技术与创新全球主管布拉德·布朗在接受《财富》杂志采访时，也使用了几乎相同的比喻。他说道：“这就像一辆F1赛车。车本身性能卓越，但如果没有技术过硬的车手，它对你来说毫无用处。”这两位资深技术专家，一位是创业公司创始人，一位是“四大”会计师事务所合伙人，不约而同地给出相同描述，说明他们在大规模实践中反复目睹了这一普遍性现象。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;这种鸿沟正令企业付出代价&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;那辆“开不起来的法拉利”所产生的隐形成本，如今已经可以量化。WalkMe的报告显示，员工每年因技术使用不畅而损失相当于51个工作日的时间，接近两个月，较2025年上升了42%，相当于每周损失7.9小时。与此同时，高盛（Goldman Sachs）经济学家本周指出，能够正确使用AI的员工，每天可节省约40至60分钟时间。数据呈现出一种近乎讽刺的平衡：AI给熟练使用者带来的效率增益，几乎正好抵消了它给无法用好它的人造成的效率损失。&lt;/p&gt;
&lt;p&gt;“影子AI”的现象依然在暗中存在。78%的高管表示希望对员工私自使用AI工具的行为进行约束，但只有21%的员工称曾收到过相关政策警告，甚至有34%的员工并不清楚公司批准了哪些工具。换句话说，高管一边威胁要惩罚相关行为，一边却从未说明要禁止哪些行为。这种自相矛盾的心理根深蒂固，以至于62%的高管私下承认，完全不使用AI的风险，要大于未经许可使用“影子AI”的风险——后者其实被夸大了。&lt;/p&gt;
&lt;p&gt;Futurum Group副总裁兼企业软件数字工作流研究总监基思·柯克帕特里克表示：“使用‘影子AI’不应被简单视为违规行为，更应被看作企业弥补系统性缺口的契机。当员工转向未获批准的AI工具时，他们实际上是在弥补官方工具和模糊的治理体系留下的性能或效率上的不足。”&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;AI“疏离”现象&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;真正的新变化，也是数据才刚刚捕捉到的全新现象，是隐藏在“影子AI”之下的更深一层：一类员工不再偷偷绕开规则，而另一类员工则干脆选择了无为。&lt;/p&gt;
&lt;p&gt;当被问及如何定义这种现象时，阿迪卡停顿了一下。他这样描述那些抗拒AI的员工：“他们对自己的工作有自豪感，不愿意让AI机器人取代自己，而且他们总能找出这些工具不如他们的地方。”这听起来很像疫情时期出现的“悄然躺平”，即员工并未离职，但也不再付出额外努力。这或许也反映了某种合乎情理的挫败感：AI工具频繁出现“幻觉”，不仅没有节省时间，反而增加了负担。&lt;/p&gt;
&lt;p&gt;阿迪卡表示：“真正做对这件事的公司，不会简单地将大多数任务自动化，而是会弄清楚三个问题：什么时候该由人来行动，什么时候该由AI来执行，以及两者之间如何顺畅衔接。信任就建立在人机协作的衔接处。而现在，大多数公司甚至还没有开始认真思考这个问题。”这一点也得到了MIT研究的印证：90%的员工在处理关键任务时仍首选人工处理，这表明人们仍不愿意深度依赖AI。&lt;/p&gt;
&lt;p&gt;在Block公司宣布裁员后，甲骨文（Oracle）也宣布裁员数万人。不过，一些批评人士认为，这更像是一种“AI洗白”，即用AI作为借口掩盖此前的过度招聘，同时顺势提振股价。基层员工对这套逻辑心知肚明。阿迪卡表示：“在某个阶段，我们会感受到不确定性和恐惧，也会目睹裁员。我认为这会是一段逐步推进的过渡期。但归根结底，现在人们还没有真正把AI利用起来。”&lt;/p&gt;
&lt;p&gt;不过，阿迪卡也强调，员工对AI敬而远之并非杞人忧天，他们察觉到的风险是真实的，但他们据此得出的结论却未必正确。“你不会看到哪家银行或保险公司的首席执行官明天就大规模裁员，因为工作还得有人来做。”他认为，一个“重大问题”即将浮出水面：那些关于AI将取代所有人的说法，终将面对一个事实：“至少在当下并没有成为现实。”&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;“掌握车技的人”才是关键&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;布朗表示，他现在会花更多时间思考一个问题：如何弥合“法拉利”和“驾驶者”之间的差距。在毕马威内部，他开始将员工划分为三类：构建者、应用者和高级用户，对应不同层级的AI能力，并配套清晰的职业发展路径。他表示：“我们当前的重点是设计激励机制和职业路径，让所有员工都能提升到那个水平。是时候让人类赶上技术的发展步伐了。”&lt;/p&gt;
&lt;p&gt;这一框架的关键在于，问题并不在于智力，甚至也不在于传统意义上的培训。布朗表示：“我认为真正重要的是员工自身具备的批判性思维和判断力，这些能力会帮助他们成为‘应用者’”，也就是能够熟练使用AI工具，甚至借助这些工具开发新工具的人。在他看来，风险最大的员工并非缺乏技术能力，而是雇主未能为他们提供尝试的“安全空间”、路径或激励。&lt;/p&gt;
&lt;p&gt;目前，约三分之一的企业员工从未使用过AI工具，这一群体普遍表示得到的支持最少、培训最不足、对技术冲击最感到焦虑。WalkMe的报告指出，他们并非在“抵制AI”，而是“尚未被触达”。至于这些工具的进化速度是否已经超过了员工追赶的能力，布朗坦言确实感受到了这种差距的存在。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;持续进化既是可能，更是必然&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;当汉克明确了对AI的预期用途后，它所节省的大量时间，最终让他的态度发生了转变。他表示：“对我来说，AI就像一个额外的研究助理。它能节省大把时间。如果让真人研究助理来做这些事，我得让他们去图书馆，他们可能要花上一周时间，而我用AI大约一小时就能搞定。”但前提是，“你必须知道它擅长做什么”。关键是，你必须具备深厚的专业背景，才能识别AI的错误。汉克在经济学、大宗商品和国际金融领域有数十年的造诣，因此他表示：“我知道该问AI什么问题，也知道该如何提出要求。” &lt;/p&gt;
&lt;p&gt;他的心路历程，从最初禁止学生使用，到后来的审慎怀疑，再到如今的日常依赖，与许多严肃思考者经历的轨迹如出一辙。他说自己经历了“从‘不行’，到‘也许可以’，再到‘这很好——但有些工具确实很糟糕’的过程。”他对AI工具的评价一如既往地犀利：“AI种类繁多，其中一些确实很糟，这取决于你的具体需求。”&lt;/p&gt;
&lt;p&gt;布朗则认为，这终究是一个乐观的故事，但前提是必须行动起来。他表示：“真正的赢家，是那些能让员工有效利用AI能力的企业。不愿拥抱AI的团队会面临挑战；而过度依赖AI、摒弃人类员工价值的工作环境，将难以为继。”（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：刘进龙&lt;/p&gt;
&lt;p&gt;审校：汪皓&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/25/content_473536.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/25/content_473536.htm</guid><pubDate>Fri, 24 Apr 2026 16:00:00 GMT</pubDate><author>Nick Lichtenberg</author></item><item><title>早早布局AI的财捷集团，为何沦为SaaS行业末日的牺牲品</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260422/080027b692af2b52c30d02.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;财捷集团（Intuit）首席执行官萨桑·古达尔齐（Sasan Goodarzi）率先布局人工智能。图片来源：Courtesy of Intuit&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;率先布局人工智能，能否让企业在这一技术引发的市场恐慌中免受冲击？&lt;/p&gt;
&lt;p&gt;从财捷集团的经历来看，显然并非如此。这家以TurboTax和QuickBooks闻名的企业在今年年初沦为标普500指数中表现最差的股票。这家软件公司的命运迎来戏剧性反转：财捷集团是税务与个人财务软件领域的龙头企业，其股票是华尔街的“宠儿”，上市33年来，其股价表现大幅跑赢标普500指数。然而，1月和2月，即便正值报税季，财捷的股价仍因市场恐慌（所谓的SaaS行业末日）而遭遇重挫。投资者突然陷入恐慌，担心人工智能会颠覆各类软件公司。 &lt;/p&gt;
&lt;p&gt;对财捷集团首席执行官萨桑·古达尔齐而言，股价暴跌极具讽刺意味。他非但没有被人工智能浪潮打个措手不及，反而率先布局该技术。早在大多数首席执行官布局人工智能之前，他就已将其确立为公司的核心战略，将其视为强大工具，而非竞争对手。2020年，他在接受《财富》杂志采访时表示：“未来五到十年内，人工智能的影响力无疑将堪比电力与互联网。”&lt;/p&gt;
&lt;p&gt;他绝非纸上谈兵：同年，古达尔齐推动了财捷集团史上前所未有的人员调整，裁减715名员工，同时招聘了约700名新员工，以推动公司全面部署人工智能。通过采取上述举措，财捷集团成为人工智能时代前沿商业模式的标杆企业，生动诠释了如何在全力投资人工智能的同时，全力投资人才。许多人将该公司的实践视为人工智能未来发展的风向标。&lt;/p&gt;
&lt;p&gt;在“SaaS行业末日”期间，这种声誉没能为财捷提供任何保护：事实上，财捷是投资者抛售最猛烈的个股。“年初的六周时间里，我们股票的抛售幅度甚至超过了其他同行，原因是此前我们的股价表现远优于同行。”古达尔齐表示。股价暴跌之际，财捷无法充分回应投资者，因为公司财季将于1月底结束，必须遵守常规的静默期规定。 &lt;/p&gt;
&lt;p&gt;截至本文发稿时，财捷股价已有所反弹，但仍远低于2025年末水平。许多投资者仍然认为，OpenAI、谷歌Gemini、Anthropic、Perplexity等头部人工智能企业碾压所有软件服务提供商只是时间问题。&lt;/p&gt;
&lt;p&gt;古达尔齐表示，财捷集团的战略不仅依托人工智能，还深植于人际互动这一古老“魔法”。该战略已助力公司在过去五年实现两位数的年增长率，其核心在于“将软件与人融为一体”。 &lt;/p&gt;
&lt;p&gt;古达尔齐出生于德黑兰，九岁时被送往新泽西州的一所寄宿学校就读。他于2004年加入财捷并迅速晋升。任职期间，他负责管理公司两大核心业务——TurboTax和QuickBooks。时任首席执行官布拉德·史密斯（Brad Smith）在取得卓越成就后将企业交给古达尔齐时表示：“萨桑为接任首席执行官所做的准备，远比我11年前接任时要充分得多。” &lt;/p&gt;
&lt;p&gt;在晋升过程中，古达尔齐形成了三大洞见，并以此为基石搭建了公司的整体战略，具体如下：&lt;/p&gt;
&lt;p&gt;“人们不愿处理任何与金钱相关的事务，他们希望我们代劳。”对于消费者和中小企业主而言，错误的财务决策可能带来毁灭性的后果。大多数人都需要专业帮助来规避这些风险：他们不想成为财务专家，而是希望专注于自身生活和企业经营。&lt;/p&gt;
&lt;p&gt;“在我们所处的行业，客户在专家服务（税务专家、会计专家、簿记员、审计师）上的支出是软件费用的7倍。”客户认可财捷集团的软件，但认为这还不够。财捷集团基于软件的战略并未触及真正能带来收益的领域。客户还需要专家服务，而这类需求此前只能依靠他们自行解决。&lt;/p&gt;
&lt;p&gt;“人们购买的不是软件，而是信心。”这就是人们愿意为专家服务支付高昂费用的原因：对许多客户而言，没有专业人士把关，就无法真正安心。&lt;/p&gt;
&lt;p&gt;基于此，财捷集团制定了如下战略：除了利用人工智能升级软件、优化运营外，财捷集团还为客户提供不同价位的真人专业服务选项。这些专业人士均为美国本土从业者，包括注册会计师、簿记员、律师及其他领域专家，客户可通过在线聊天、电话，或单向视频（专家可看到客户，全程指导客户处理复杂事务）的方式获取服务。针对企业主，财捷集团甚至会安排专属簿记员提供支持。 &lt;/p&gt;
&lt;p&gt;为全面革新财捷集团战略，古达尔齐收购了两家公司：斥资80亿美元收购Credit Karma，将其海量的消费者信用数据与财捷的纳税人数据整合；斥资120亿美元收购Mailchimp，帮助QuickBooks用户通过线上营销拓展业务。这两笔交易是财捷史上规模最大的并购，几乎使公司的投入资本翻了两番——这在资本市场通常被视为危险信号。财捷集团的业绩却有所提升。“他们成功消化了这些收购标的，充分释放其价值，并实现业务整合，这一点相当令人赞叹。”企业财务权威专家贝内特·斯图尔特（Bennett Stewart）评价道，谈及古达尔齐时，他表示：“他做得非常出色。”&lt;/p&gt;
&lt;p&gt;然而，即便采取了这些举措，财捷集团仍未能在SaaS行业末日中幸免。如今，古达尔齐的任务是持续聚焦业务本身，这意味着要抛开股价波动，直面引发这场抛售潮的恐慌——头部人工智能企业将吞并所有软件厂商。 &lt;/p&gt;
&lt;p&gt;“这场大规模技术变革带来的核心问题是，谁将掌控客户交互层？”他表示，“最终是否会由谷歌Gemini、Anthropic、OpenAI等少数几家公司主导？”他决心阻止这种情况发生。作为人工智能技术的重度使用者，财捷集团已与OpenAI和Anthropic达成合作，古达尔齐称：“合同中明确规定，客户体验与客户关系归我们所有。”&lt;/p&gt;
&lt;p&gt;投资者仍持谨慎态度。但从财务指标来看，财捷集团表现良好，绝大多数华尔街分析师给予其“买入”或“强力买入”评级。 &lt;/p&gt;
&lt;p&gt;未来几年，市场将见证财捷集团这一开创性“人工智能+人工服务”实验的成效。无论结果如何，萨桑·古达尔齐都将为此负责。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：中慧言-王芳&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/22/content_473475.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/22/content_473475.htm</guid><pubDate>Tue, 21 Apr 2026 16:00:00 GMT</pubDate><author>Geoff Colvin</author></item><item><title>奥尔特曼住所遇袭后，反AI群体被推上风口浪尖</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260420/080027b692af2b502c250d.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;最近在国会山的一次示威活动中，“美国暂停人工智能”创始人兼执行董事霍莉·埃尔莫尔。图片来源：Courtesy of Pause AI US&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;4月10日，OpenAI首席执行官山姆·阿尔特曼在旧金山的住所遭遇纵火袭击未遂，嫌疑人据称是20岁的丹尼尔·莫雷诺-加马。这起事件将两个名称相似的反人工智能组织推上风口浪尖，即“暂停人工智能”（Pause AI）和“停止人工智能”（Stop AI）。尽管两家组织均已谴责暴力行为，表示嫌疑人绝不是组织成员，但压力并未就此消失。&lt;/p&gt;
&lt;p&gt;据调查，莫雷诺-加马曾前往OpenAI总部，用椅子想砸破大楼玻璃门，还威胁要在大楼内纵火。追溯过往，人们发现他曾活跃于“暂停人工智能”的Discord社群，也让外界重新审视“停止人工智能”组织去年针对OpenAI的行动。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;一场旨在“给人工智能减速”的运动&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;2023年5月，“暂停人工智能”在荷兰乌得勒支创立，创始人是乔普·梅因德斯玛，最初的目标是阻止所谓的“危险前沿人工智能”，首次抗议活动选在了微软位于布鲁塞尔的游说办公室外。该组织的名称来源于生命未来研究所在2023年3月发表的一封公开信，这家研究所目前也是该组织最大的单一资助者。如今，“暂停人工智能”已发展成为拥有各地分支的全球性草根运动。&lt;/p&gt;
&lt;p&gt;其中，名为“美国暂停人工智能”（Pause AI US）的独立组织，由伯克利的霍莉·埃尔莫尔领导。她是毕业于哈佛大学的进化生物学博士，曾在一家关注野生动物福利的智库工作。&lt;/p&gt;
&lt;p&gt;莫雷诺-加马曾多次在“暂停人工智能”的Discord频道发表言论，在2025年12月3日的一则帖子里，他写道：“午夜将至，是时候付诸行动了。”“暂停人工智能”回应称，该嫌疑人两年前加入社群，累计发布过34条消息，但没有明确煽动暴力的内容。&lt;/p&gt;
&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260420/080027b692af2b502c400e.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;图片来源：Lea Suzuki—San Francisco Chronicle/Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;埃尔莫尔告诉《财富》，奥尔特曼的住宅遇袭时，她正前往华盛顿特区，准备在国会山举行一场和平示威并与国会议员会面。“我刚落地，突然就有人问我奥尔特曼家遇袭的事，”她说。“我一边努力推动着为之自豪的事业，始终认为通过民主手段推动民主变革是正确的方式，一边被迫就这起可怕的事件发表评论，还被抹黑与此事有关。”&lt;/p&gt;
&lt;p&gt;她强调，“暂停人工智能”组织一直明确禁止诉诸暴力。她指出，嫌疑人的言论发表在全球Discord频道，并非“美国暂停人工智能”内部渠道，嫌疑人在组织内无任何官方职务。为了避免与极端观点产生关联，“暂停人工智能”会对志愿者进行严格的审查，并严格控制信息传递。&lt;/p&gt;
&lt;p&gt;然而，长期关注两个组织的独立研究员尼里特·魏斯-布拉特对埃尔莫尔的说法持保留意见。她在2024年的纪录片《自杀之城午夜将近》中发现，“为了人类”播客主持人约翰·谢尔曼采访埃尔莫尔时，她正举着“面对比人更聪明的人工智能，人类无法生存”的牌子。&lt;/p&gt;
&lt;p&gt;魏斯-布拉特说，尽管埃尔莫尔从未主张暴力，并通过积极呼吁的方式希望人们意识到人工智能带来的威胁，但她仍在不断渲染“人类濒临灭绝”的末日风险。&lt;/p&gt;
&lt;p&gt;她补充说，“当像埃利泽·尤德考斯基这样著名的人工智能末日论者，不断坚称人类即将灭绝，有人走向极端行动并不奇怪。”尤德考斯基曾著有《如果有人制造，所有人都会死》一书。“那些焦虑且试图寻找人生意义的年轻人，很可能被人工智能末日论激化，即便这些话术没有直接煽动暴力。”&lt;/p&gt;
&lt;p&gt;巴斯大学讲师、《停止机器：反技术极端主义崛起》一书的作者毛罗·卢布拉诺提醒，主张以暴力摧毁技术的组织，与倡导监管或暂停技术的组织区别很明显。“人们很容易把煽动暴力与提高人工智能风险意识的团体和运动混为一谈，”他说。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;策略分歧，转向直接行动&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;奥尔特曼的住宅遇袭约五个月前，OpenAI总部曾经历过一次惊魂时刻。当时有目击者报警称，27岁的山姆·柯克纳威胁要去旧金山几处OpenAI办公室“杀人”，导致公司一度要求员工就地避险。&lt;/p&gt;
&lt;p&gt;柯克纳是“停止人工智能”联合创始人，2024年他与45岁的吉多·赖希施塔特共同创立了该组织，两人此前都参与过“暂停人工智能”的活动。&lt;/p&gt;
&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260420/080027b692af2b502c5d0f.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;2022年的一次堕胎权抗议活动中，“停止人工智能”联合创始人吉多·赖希施塔特。图片来源：Drew Angerer—Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;“是我把他们赶出去的，”埃尔莫尔表示，分裂源于策略上的分歧，“停止人工智能”创始人主张采取涉及违法的“公民不服从”行动，而“暂停人工智能”明确反对。自立门户后，赖希施塔特和柯克纳多次针对OpenAI发起抗议，赖希施塔特还在Anthropic总部外绝食抗议。&lt;/p&gt;
&lt;p&gt;去年12月初，赖希施塔特因违反法院禁止进入OpenAI办公区域的命令被关进旧金山监狱，此前他就曾因此被捕。此外，“停止人工智能”还在去年11月制造了登上全美头条的新闻：奥尔特曼与金州勇士队主帅史蒂夫·科尔出席活动时，该组织一名法律顾问团队成员当场向奥尔特曼送达了传票。&lt;/p&gt;
&lt;p&gt;然而，该组织的势头在柯克纳失踪后陷入瓦解。有报道称，柯克纳曾提议放弃非暴力原则。在一次内部纠纷中，他据称袭击了另一位领导人马修·霍尔，随后便销声匿迹，至今仍然下落不明。&lt;/p&gt;
&lt;p&gt;近日，“停止人工智能”在X平台发文称，赖希施塔特和柯克纳在去年都已被除名。该组织表示“始终奉行非暴力主义”，且现任领导层致力于通过和平方式表达诉求。对于莫雷诺-加马，该组织表示，此人曾在公共论坛询问“谈论暴力是否会被禁言”，在得到肯定答复后，他便停止了所有活动。“此事发生在他涉嫌犯罪数月前。”&lt;/p&gt;
&lt;p&gt;“停止人工智能”五位联合领导人之一瓦莱丽·赛兹莫尔告诉《财富》，有些成员担心与奥尔特曼遇袭事件扯上太多关系。“但从个人角度看，我们做的非暴力组织工作才显得更加重要，要为人们提供暴力之外的选择。”她说。&lt;/p&gt;
&lt;p&gt;赛兹莫尔补充说，该组织仍然重点在旧金山抗议前沿实验室总部，上个月还参加了当地“停止人工智能竞赛”抗议活动。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;关于人工智能激进主义及其风险的深层思辨&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;巴斯大学讲师卢布拉诺指出，反技术激进主义并非新鲜事，最早可追溯到19世纪英国反对机器和工业化的纺织工人卢德分子（卢德分子是指19世纪初英国工业革命时期，以‌捣毁纺织机器为手段，抗议工厂主利用新技术压低工资、恶化工作条件‌的纺织工人——译者注）。&lt;/p&gt;
&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260420/080027b692af2b502c7810.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;图片来源：JUSTIN TALLIS / AFP via Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;在他看来，人工智能汇集了人们对技术的恐惧。“技术被视为一个整体系统，各部分相互依存，”他说，“随着人工智能被部署到战争、员工监控甚至示威者管控中，有种技术寡头想借人工智能控制人类的意味。”&lt;/p&gt;
&lt;p&gt;卢布拉诺建议政府和公众与反人工智能组织对话，而不是简单将其斥为技术恐惧症或反技术者。“卢德分子并非反对技术，而是反对不加约束地推行技术，扰乱生活。这些当诉求长期被忽视，最终就会诉诸暴力。”他警告称，忽视人们的担忧会加剧不满情绪，在边缘人群中催生更极端的行为，但将暴力行为归咎于这些组织的存在是错误的。&lt;/p&gt;
&lt;p&gt;然而，独立研究员魏斯-布拉特坚持认为，“暂停人工智能”和“停止人工智能”等组织的观点和行动仍可能导致激进化，进而引发恶劣后果。&lt;/p&gt;
&lt;p&gt;“警告信号一直存在，比如去年11月OpenAI办公室封锁事件，”她说，“真正的问题是，那些不断煽动人工智能恐慌的人，打算什么时候为这种激进化的后果承担责任？”&lt;/p&gt;
&lt;p&gt;埃尔莫尔则对未来保持乐观。她认为，随着公众对人工智能议题的理解不断加深，届时和平行动主义与孤立暴力行为不再那么容易混为一谈。“人们终会明白，不能轻易地一竿子打翻一船人。”她说。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;编者语：&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;·科技向善的“校准机制”：反AI激进主义的兴起，实质是社会对“技术脱缰”的本能防御，倒逼科技巨头在追求通用人工智能突破时，必须将安全对齐与社会共识纳入考量，而非仅关注性能与规模增长。&lt;/p&gt;
&lt;p&gt;·面对AI深度介入生产力带来的职业危机感，社会应警惕单纯的情绪化“技术恐惧”，引导公众善用AI工具，在拥抱创新效率的同时，建立透明、可控、普惠的AI发展秩序。&lt;/p&gt;
&lt;p&gt;·从“防御式焦虑”转向“参与式共建”：与其被动担忧AI威胁，不如主动参与规则制定。当技术开发者的“速度焦虑”与社会公众的“安全焦虑”达成共识，技术进步才能推动正向循环。（财富中文网）&lt;/p&gt;
&lt;p&gt;&lt;em&gt;财富中文网对原文有删减和调整&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;译者：夏林&lt;/p&gt;
&lt;p&gt;编辑：魏雨彤&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/20/content_473441.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/20/content_473441.htm</guid><pubDate>Sun, 19 Apr 2026 16:00:00 GMT</pubDate><author>Sharon Goldman</author></item><item><title>知名AI模型被曝性能骤降，遭用户抵制</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260417/080027b692af2b4c43d209.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;Anthropic联合创始人兼首席执行官达里奥·阿莫迪。图片来源：Chris Ratcliffe—Bloomberg/Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;风头正劲的人工智能公司Anthropic正面临一场前所未有的用户信任危机。此前，该公司旗下Claude AI模型被指性能显著下滑，遭到部分重度用户的强烈抵制。&lt;/p&gt;
&lt;p&gt;这一风波让这家估值高达3800亿美元、据称正筹备IPO的公司措手不及。目前，Anthropic正紧急应对用户的集体不满，并试图平息外界对其缩减开支背后的动机以及服务承载能力的种种猜测。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;“降配”引发的蝴蝶效应&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;众多开发者和重度用户表示，热门AI模型Claude近期性能大幅下滑：不仅越来越难以遵循用户指令，还会时而“偷工减料”，进行不合理的简化处理，甚至在处理复杂工作流时频繁出错。 &lt;/p&gt;
&lt;p&gt;投诉的矛头指向了Anthropic近期悄然进行的一项机制调整。为了节省处理请求时的词元（Tokens），从而优化整体推理成本，公司下调了模型的默认“推理努力度”。简单来说，单次任务处理的词元量越大，消耗的算力就越高。&lt;/p&gt;
&lt;p&gt;业界普遍猜测，Anthropic正面临严重的算力瓶颈。尽管过去几个月其产品需求呈爆发式增长，但该公司官宣的数十亿美元级数据中心扩容协议数量，远不及部分竞争对手。&lt;/p&gt;
&lt;p&gt;对于一直塑造更透明、更符合用户利益品牌形象的Anthropic而言，此次被指“暗箱操作”无疑是致命的打击。在推进IPO之际，用户对Claude性能骤降的不满，以及对公司缺乏透明度的愤怒，很可能直接拖累其高速增长的势头。有用户指责称，Anthropic既未坦诚披露对Claude运行机制做出的调整，也未告知用户这些调整可能推高使用成本。 &lt;/p&gt;
&lt;p&gt;Anthropic拒绝公开回应《财富》就用户投诉提出的具体质疑。但Claude Code产品负责人鲍里斯·切尔尼在线上回应用户投诉时表示，此前有用户反馈Claude处理单个任务时消耗的词元过多，因此公司将默认“推理努力度”下调至“中等”水平。然而，大量用户反驳称，该公司进行此类重大调整时并未向用户做出明确的提示。&lt;/p&gt;
&lt;p&gt;行业内的竞争对手也加入了质疑行列，认为Anthropic是因为算力不足刻意降低模型性能。事实上，随着“代理式”人工智能系统的市场需求增速远超基础设施的扩容速度，整个行业都面临着GPU成本高企和数据中心扩展受限的困境，人工智能企业不得不在产品优先级上做出艰难取舍。&lt;/p&gt;
&lt;p&gt;种种迹象表明，Anthropic面临的资源限制比部分竞争对手更为严峻。&lt;/p&gt;
&lt;p&gt;随着使用量增加，Anthropic近期多次出现服务中断，并在高峰时段实施更严格的使用限制，引发部分用户投诉。美国消费者新闻与商业频道（CNBC）曝光的一份内部备忘录显示，OpenAI营收负责人直言，Anthropic未能获取充足的算力资源是一项“战略失误”，相比竞争对手，其运营规模正处于明显劣势。&lt;/p&gt;
&lt;p&gt;与此同时，Anthropic上周宣布已训练出一款名为Mythos的新模型，性能远超旗舰模型Opus。Anthropic强调，出于安全考量，目前尚未向公众发布该模型。但因其运行成本和算力消耗更高，进一步加剧了外界对其算力资源短缺的质疑。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;成也萧何，败也萧何&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Anthropic面临的审视折射出人工智能市场瞬息万变的竞争格局。&lt;/p&gt;
&lt;p&gt;上周，Anthropic宣布其年化经常性收入（ARR）已达300亿美元，较2025年底的90亿美元大幅增长，令业界震惊。相比之下，OpenAI上月公布的月营收达20亿美元，即年营收达240亿美元。不过，两家公司的营收统计口径并非完全一致，因此无法直接进行对比。&lt;/p&gt;
&lt;p&gt;Anthropic近期的增长得益于双重因素：起初得益于人工智能编程工具Claude Code的爆火，随后又因与美国国防部的争端获得大量消费者支持。在特朗普政府将Anthropic列为“供应链风险”实体后，甚至有大量用户从ChatGPT等竞品转向Claude。&lt;/p&gt;
&lt;p&gt;Anthropic曾表示，这场争端源于该公司坚持要求美国政府在合同中承诺，不将其技术用于致命性自主武器研发，或是针对美国公民的大规模监控。&lt;/p&gt;
&lt;p&gt;过去几年间，Anthropic在人工智能竞赛中取得了显著进展，不仅成为企业级人工智能领域的领军者，还在开发者和企业用户中积累了良好的口碑。如果用户对Claude性能问题的不满持续发酵，不仅有损其辛苦建立的口碑，甚至可能令这家公司在关键时刻陷入困境。&lt;/p&gt;
&lt;p&gt;针对近期Claude性能问题引发的诸多争议，Claude Code负责人切尔尼称，旗舰模型Claude Opus 4.6已于2月初引入“自适应推理”功能，允许模型根据具体任务自主决定推理力度，而非使用固定的算力配额。他还表示，为解决争议，公司计划测试将团队版和企业版用户的默认努力度设为高等级，以便用户获得更深入的推理结果，即便这会消耗更多词元，出现响应延迟。&lt;/p&gt;
&lt;p&gt;切尔尼驳斥了关于该模型被故意弱化的猜测，以及用户对此次调整缺乏透明度的投诉，声称相关调整均基于用户反馈，且已通过Claude Code界面内的弹窗提示用户。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;“无法胜任复杂工程任务”&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;目前，争议最集中的产品是其增长最快的人工智能编程工具Claude Code。&lt;/p&gt;
&lt;p&gt;Claude Code于2025年初上线，是命令行智能体，可在开发者的工作环境中自主读取、编写和执行代码。自推出以来，该工具已被个人开发者和大型企业工程团队广泛采用，用于完成复杂的多步骤编程任务。&lt;/p&gt;
&lt;p&gt;近期Claude Code的性能变化在社交媒体上引发广泛关注，源于超微半导体公司（AMD）人工智能高级总监斯特拉·劳伦佐在GitHub上发布的一项分析。劳伦佐指出，调整后的Claude能力出现严重退化，“无法胜任复杂的工程任务”。&lt;/p&gt;
&lt;p&gt;劳伦佐指出，2月底至3月初，Claude从“研究优先”模式（先理解上下文再修改代码）退化为更直接的“编辑优先”模式，调整后的模型在执行操作前读取的上下文信息大幅减少，出错率显著上升，且需要用户进行大量干预。分析还指出，模型在复杂工程任务中频频出错，甚至出现提前终止任务、推卸责任、无意义征求用户许可等行为，这与同期模型推理努力度下调直接相关。&lt;/p&gt;
&lt;p&gt;Anthropic的切尔尼回应该分析表示，其中存在对部分数据的误读，并声称模型的推理能力并未下降，只是公司做出调整，导致用户无法再查看模型完整的“推理链路”。&lt;/p&gt;
&lt;p&gt;不过，劳伦佐绝非唯一一个对该工具感到不满的人。&lt;/p&gt;
&lt;p&gt;微软首席研究经理季米特里斯·帕帕伊洛普洛斯在X平台发文称：“过去两周，Claude Code的使用体验令人极其沮丧。即便我已经将推理努力度调至最高，但它仍极其粗心，忽略指令，反复出错。” &lt;/p&gt;
&lt;p&gt;&lt;strong&gt;编者语：&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;· AI企业将技术领先作为竞争优势时，必须匹配坚实的基础设施投入，获取充足的算力资源作为战略储备，否则增长速度可受限于资源瓶颈。&lt;/p&gt;
&lt;p&gt;· Anthropic为优化成本暗中下调AI的“推理努力度”引发用户强烈不满，凸显了科技公司在追求盈利时若牺牲透明度与产品一致性，将损害辛苦积累的品牌口碑和用户信任。&lt;/p&gt;
&lt;p&gt;· Anthropic在筹备IPO的关键节点遭遇性能口碑下滑与算力质疑，揭示了高增长科技公司面临的资本困境：在脆弱的基础设施现实面前，高昂的估值预期将经受考验。（财富中文网）&lt;/p&gt;
&lt;p&gt;&lt;em&gt;财富中文网对原文有删减和调整&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;译者：中慧言-王芳&lt;/p&gt;
&lt;p&gt;编辑：魏雨彤&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/17/content_473401.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/17/content_473401.htm</guid><pubDate>Thu, 16 Apr 2026 16:00:00 GMT</pubDate><author>Beatrice Nolan</author></item><item><title>不愿用AI的员工：抗拒、恐惧与沉默的职场革命</title><description>&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p&gt;越来越多的美国员工开始在工作中使用AI，但持怀疑态度的人仍然普遍存在。&lt;/p&gt;
&lt;p&gt;新的盖洛普民意调查发现，虽然越来越多的员工在工作中频繁使用AI，但对新技术会取代他们工作的担忧也有所增加。许多不使用AI的员工表示，他们更喜欢没有AI的工作方式，或者从伦理上反感这项技术，再或者是担心数据隐私问题。&lt;/p&gt;
&lt;p&gt;这项于二月份进行的民调显示，对于AI正在如何重塑美国职场，人们的看法出现了分歧。一些人认为它是提升生产力和效率的变革性工具，而另一些人则担忧潜在的负面影响。&lt;/p&gt;
&lt;p&gt;社工斯科特·西格尔（Scott Segal）表示，他经常使用AI查找信息，以帮助弗吉尼亚州北部的老年和弱势患者获得医疗资源。虽然他知道自己工作中带来的人际关怀和情感联系很重要，但他也相信AI有可能很快取代他。&lt;/p&gt;
&lt;p&gt;“我正在提前做准备，”53岁的西格尔说。“我认为每个在可被替代的领域工作的人都应该提前规划。”&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;大多数使用AI的员工认为生产力提高了&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;大约十分之三的员工在工作中频繁使用AI，即每天或每周使用几次。约十分之二的员工是不频繁使用者，即每月或每年在工作中使用几次AI工具。&lt;/p&gt;
&lt;p&gt;盖洛普民调发现，约十分之四的员工表示，他们的组织已经采用了AI工具或技术来改进组织实践。这些员工中约有三分之二的人表示，AI对他们个人的工作生产力和效率产生了“非常积极”或“比较积极”的影响。&lt;/p&gt;
&lt;p&gt;与普通员工相比，担任管理职务并使用AI的员工更倾向于认为该技术对他们的生产力至少产生了“有些”积极的影响。在每年至少使用几次AI的管理者中，约七成表示AI提高了他们的工作效率，而在普通员工中，这一比例仅略高于一半。&lt;/p&gt;
&lt;p&gt;路易斯安那州巴吞鲁日市（Baton Rouge）的劳动与雇佣法律师伊丽莎白·布洛赫（Elizabeth Bloch）表示，她使用ChatGPT来帮助“以外交方式起草信件或电子邮件，因为这是一个非常对抗性的职业，有时你会情绪激动。”&lt;/p&gt;
&lt;p&gt;AI工具对管理、医疗和技术岗位的员工似乎比对服务岗位的员工有更大的益处。在这些领域使用AI的员工中，约六成表示AI至少“一定程度上”提高了他们的生产力，而服务岗位中使用AI的员工中这一比例为45%。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;为什么有些员工不使用AI&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;即使公司提供了AI工具，也不能保证员工会采用它们。根据盖洛普的研究，大约一半的美国员工每年只使用一次AI，或者根本不使用。&lt;/p&gt;
&lt;p&gt;布洛赫说，她曾尝试使用AI进行法律研究，但发现它容易制造“幻觉”，即编造虚假信息，就算是为法律工作定制的AI工具也是如此。她担心那些本来就找不到、引不对相关判例法的律师“在使用AI时也会表现糟糕，因为你没有使用正确的提示词”，从而导致法官因虚假引用而对他们进行惩罚。&lt;/p&gt;
&lt;p&gt;一些公司提供了AI工具，但部分员工并不去使用它们。在这类员工中，46%的人称这是因为他们更喜欢维持目前的工作方式。在可获得AI工具但未使用的员工中，约四成表示他们在伦理上反对AI，担心数据隐私，或者不相信AI对他们所做的工作有帮助。&lt;/p&gt;
&lt;p&gt;在这些可获得AI工具但不使用的员工中，约四分之一表示他们曾在工作中使用过AI但觉得没有帮助，约两成表示他们还没准备好有效使用AI。&lt;/p&gt;
&lt;p&gt;马里兰州的合同管理员图伊·皮索内（Thuy Pisone）供职于一家与联邦政府合作的公司。她称自己每周都会使用AI处理一些琐碎的任务，但对于自己已经能很好完成的事情则避免使用AI。&lt;/p&gt;
&lt;p&gt;“我听同事说，我们可以用AI来制作PowerPoint幻灯片，”皮索内说。“我对此有点不以为然，嗯，我自己就能做幻灯片。我不需要帮助，因为我已经花时间打磨了这项技能。”&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;更多员工担心新技术会取代工作&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;民调也发现，美国员工越来越担心新技术夺走他们的工作，尽管这不是员工拒绝在工作中使用AI的主要原因。&lt;/p&gt;
&lt;p&gt;约十分之二（18%）的美国员工表示，由于新技术、自动化、机器人或AI，他们目前的工作“非常”或“有些”可能在五年内消失。这一比例高于2025年的15%。在已经采用AI的公司，人们更担心自己的工作会被取代：23%的人认为未来几年内这种情况至少“有些”可能发生。&lt;/p&gt;
&lt;p&gt;福克斯新闻频道（Fox News）在三月份进行的一项民调发现，大约六成注册选民认为，未来五年内AI消灭的岗位将多于它创造的岗位。只有大约一成选民预计AI会创造更多岗位，约三分之一的人表示现在下结论还为时过早。大约七成的在职选民表示，他们“不太”或“完全不”担心自己目前的工作会被AI淘汰。&lt;/p&gt;
&lt;p&gt;弗吉尼亚州的社工西格尔说，如果AI取代了他，他的备用计划是创办一项新的“医疗陪护服务”，亲自陪同患者从一个预约地点到另一个预约地点，尤其是当患者接受了镇静治疗而没有家人或其他人来接的时候。&lt;/p&gt;
&lt;p&gt;“我认为这在大约10到15年内不会被取代，直到机器人被赋予AI躯体，”西格尔说。“我确实相信AI将接管大多数人的工作，我不知道到那时人们将靠什么谋生。”&lt;/p&gt;
&lt;p&gt;与此同时，他多次向AI聊天机器人请教如何为自己的退休储蓄制定策略。&lt;/p&gt;
&lt;p&gt;盖洛普的季度劳动力调查是以随机抽样的方式进行的，受访者为美国各类组织中，全职或兼职工作的年满18岁的成年人，且均为盖洛普基于概率的盖洛普小组的成员。最近一次调查于2026年2月4日至19日进行，共有23717名美国在职成年人参与。所有受访者的抽样误差幅度为正负0.9个百分点。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：珠珠&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/17/content_473398.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/17/content_473398.htm</guid><pubDate>Thu, 16 Apr 2026 16:00:00 GMT</pubDate><author>Matt O&#39;Brien, Linley Sanders，美联社</author></item><item><title>人工智能：一手成就，一手杀机</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260413/080027b692af2b46edaf07.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;美国南加州大学人工智能研究教授凯特·克劳福德。图片来源：Illustration by Fortune&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;“火药战争”的起源可以追溯至15世纪，彼时机械点火装置的火绳枪刚刚问世。如今，无人机群已经能够肆无忌惮地跨境发动攻击。1685年，意大利物理学家乔瓦尼·博雷利曾经预见，滑轮驱动的机器可以模仿动物行为。而今，埃隆·马斯克谈论的机器人已经智能到代人购物，甚至取代外科医生。&lt;/p&gt;
&lt;p&gt;技术发展既瞬息万变，又深植于历史。可以像《瞬息全宇宙》（Everything, Everywhere All at Once）一般狂飙突进，也能够像《流人》（Slow Horses）一样暗流涌动。巴塞罗那设计博物馆（Design Museum in Barcelona）展出的一幅24米长壁画《计算帝国》（Calculating Empires）中，就可以看出这种快与慢的对比。壁画直观呈现了从印刷术到深度伪造，从古代秘鲁的结绳计算器到“行星级”数据系统的演进历程。&lt;/p&gt;
&lt;p&gt;今年3月，凯特·克劳福德在西班牙巴塞罗那举办的世界移动通信大会（Mobile World Congress）上表示：“我觉得很有意义的一点是，当人们走近观看壁画，就能够体会到从历史的角度看待当下的感觉。”克劳福德是南加州大学（University of Southern California）的人工智能研究教授，也是这幅耗时四年的壁画联合创作者。她与视觉艺术家弗拉登·乔勒合作，希望刺激人们思考：在根本性技术变革面前，究竟是谁在制定规则？谁决定何为重要？&lt;/p&gt;
&lt;p&gt;“人们感觉生活在‘技术现世主义’中，身边变化快得疯狂。”克劳福德说，“因此，退后一步自问‘过去500年我们学到了什么’至关重要。在我看来，这幅壁画是个颠覆性的项目，因为显而易见，历史不仅关乎技术创新，更关乎谁有权制定社会中的规则。”&lt;/p&gt;
&lt;p&gt;“这正是现在人工智能体如此重要的原因，因为这一领域发展飞速。标准尚未确立，而正是在座各位，在世界移动通信大会这样的场合，人们才可以展开各种讨论，我们希望制定怎样的标准？如何落实在系统中，以及如何保护自己和客户？”&lt;/p&gt;
&lt;p&gt;“因为现在是关键时刻，我们要确保这项技术具有极高的实用性和助益，不会开启漏洞、制造攻击路径，提供新攻击面，在认知层面也可能带来极大危险。”&lt;/p&gt;
&lt;p&gt;世界移动通信大会堪称盛事。超过10万名参会者匆匆穿梭八个巨大的展厅，每个展厅都挤满面向未来的技术。华为、谷歌（Google）、荣耀和高通（Qualcomm）赞助的巨大展馆，展示着令人瞩目的新产品，汽车与手机连接，机器人与残障人士连接，眼镜与互联网连接。渴望影响力和投资的各国政府，与希望在人工智能革命中大获成功的企业争着亮相。&lt;/p&gt;
&lt;p&gt;世界移动通信大会也是辩论之地。在大型舞台上，科技界顶尖人物的对话往往被闪烁霓虹灯和交互式等离子屏幕淹没。“快速行动，打破常规。”马克·扎克伯格曾经在2012年说道。但现在，风险实在太高了。&lt;/p&gt;
&lt;p&gt;我们正进行关于智能本质的现场讨论。DeepMind的创始人德米斯·哈萨比斯曾经表示，通用人工智能可能五年内就会出现。在那个世界里，谁（或什么）将做出决策？是人机协同？还是人类主导？或者根本不需要人类？谷歌前首席商务官莫·加瓦达特曾经谈及“短期反乌托邦”风险，因为政府、民间社会和监管机构都在努力控制能学习和决策的机器带来的影响。&lt;/p&gt;
&lt;p&gt;“我们讨论的‘智能’究竟是什么意思？”克劳福德问道，“‘智能’一词的历史本身就充满争议。这个词曾经被用来划分人群，推动关于谁有价值谁无价值的计划。”&lt;/p&gt;
&lt;p&gt;“我们试图将智能体与人类智能相比较，实际上二者完全不同。这种智能是大规模统计概率，是在复杂环境中执行任务的系统，与人类差异巨大，但也意味着我们要提出一系列不同的问题：智能体在做什么？如何追踪其行为？我们如何更好地理解智能体改变工作流程的方式，以及更重要的是，如何改变生活方式？”&lt;/p&gt;
&lt;p&gt;关于OpenAI、Anthropic与美国国防部（Department for War）之间紧张关系的讨论持续发酵，克劳福德提出疑问，智能体的使用红线如何划定？“想象一下战场上的智能体。”她说。我们无需想象。据报道，伊朗已经出现 “以思考速度” 开展的人工智能辅助轰炸。人工智能的功能之一是“决策压缩”，即缩短从想法到执行的时间框架。“杀伤链”正在缩短。&lt;/p&gt;
&lt;p&gt;“有了规模和速度，就能够一边实施斩首式打击，一边确保对方无法利用空中弹道导弹反击。”英国纽卡斯尔大学（Newcastle University）的学者克雷格·琼斯告诉英国《卫报》（The Guardian），“以往在战争中，可能需要数天或数周。现在所有行动同步完成。”&lt;/p&gt;
&lt;p&gt;克劳福德提到建立问责追踪机制，即追踪决策来源的系统。目前，我们正在陷入“责任洗白”困境，即无人承担责任。在英国公务员体系，也就是政府执行部门中，这被称为“溜肩综合征”，人人都想方设法逃避责任。&lt;/p&gt;
&lt;p&gt;“现在是变相的甩锅游戏，人们会问：‘是设计师负责吗？部署方？企业客户？还是终端用户？’每个人都可以说：‘我们还不太清楚。’这是不能接受的。”克劳福德表示，“我认为，接下来的讨论，尤其是与监管机构的讨论中，要建立起严密的责任链，确保出现问题时可以明确责任主体。”&lt;/p&gt;
&lt;p&gt;如果2026年世界移动通信大会上讨论的内容有一半成真，那么智能体很快就会渗入人们生活的方方面面。智能体能读取并缓存每段未写完的信息、每张被删除的图片、每封留在草稿箱的邮件、智能眼镜录制的每条视频，每次对话。克劳福德警告称，这将“彻底颠覆我们所知的隐私”。&lt;/p&gt;
&lt;p&gt;“我们才刚刚开始了解这一切意味着什么。”她说。所有讨论都必须务实，而且刻不容缓。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：梁宇&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/13/content_473321.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/13/content_473321.htm</guid><pubDate>Sun, 12 Apr 2026 16:00:00 GMT</pubDate><author>Kamal Ahmed</author></item><item><title>奥尔特曼称超级智能太强大，需推行“新政”</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260409/080027b692af2b41a2d406.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;2026年3月11日，OpenAI首席执行官山姆·奥尔特曼在华盛顿特区贝莱德基础设施峰会上。图片来源：Anna Moneymaker—Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;OpenAI称，为应对超级智能技术带来的剧烈变革，从税收制度到工作时长等方方面面，全世界都要重新规划。所谓超级智能，是指人工智能系统超越最顶尖人类的阶段。&lt;/p&gt;
&lt;p&gt;本周一，在题为《智能时代的产业政策》（Industrial Policy for the Intelligence Age）的13页文件中，OpenAI希望以一系列“以人为本的政策主张”启动相关讨论。然而，对OpenAI的表态与动机该抱有多大信任，似乎是众多读者关注的核心问题。文件发布同一天，《纽约客》（The New Yorker）杂志刊出了长达一年半的深度调查结果，对奥尔特曼在人工智能安全等诸多问题上的可信度提出了质疑。&lt;/p&gt;
&lt;p&gt;文件由OpenAI全球事务团队撰写，梳理了超级智能预计将带来的多项经济影响，也提出了各种应对思路。“我们提出这些建议，并非当作完整或最终方案，而是希望以此作为起点，欢迎各界通过民主程序在此基础上加以完善、挑战或取舍，”文件开篇博客文章称。&lt;/p&gt;
&lt;p&gt;文件中自称的一系列政策主张涵盖公共财富基金、缩短每周工时等议题，恐怕难以让公众放心，因为公众对人工智能驱动变革的速度和后果越发焦虑和不满。总部位于华盛顿特区的美洲开发银行（American Development Bank）高级经济学家兼人工智能政策负责人，曾任联合国数字与新兴技术办公室人工智能政策主管的露西娅·维拉斯科表示，OpenAI显然是这场持续讨论中最不中立的一方，也是文件的核心矛盾所在。&lt;/p&gt;
&lt;p&gt;“OpenAI是这场对话结果最大的利益相关方，其提出的方案会塑造出一种环境，让OpenAI在自己参与制定的约束下拥有极大的行动自由，”她表示，这并非否定这份文件的理由，但“确实要警惕，这场由OpenAI发起的讨论，不能最后又由自己说了算。”&lt;/p&gt;
&lt;p&gt;她也强调，OpenAI关于各国政府在人工智能政策应对上已然滞后的判断是正确的。“多数国家仍将人工智能当成技术问题，实际上是结构性经济变革，需要配套的产业政策，”她说，“这点很有价值，即便只是起点，这份文件作为设定议程的尝试也理应得到认真对待。”&lt;/p&gt;
&lt;p&gt;独立人工智能政策顾问索里贝尔·费利兹曾担任美国参议院高级人工智能和技术政策顾问，她也认为OpenAI“将相关想法付诸纸面”值得肯定。她表示，美国现有制度与安全保障体系跟不上人工智能研发与落地速度，这一判断是准确的，“眼下确实需要在这一层面展开讨论。&lt;/p&gt;
&lt;p&gt;然而她强调，大部分提议的内容并不新鲜：“其中一些核心主张，例如‘广泛分享发展成果、管控风险、普及使用权’等，从2022年11月ChatGPT问世以来一直是重大人工智能治理对话的框架。”&lt;/p&gt;
&lt;p&gt;“2023年至2024年我在美国参议院工作，举办了九场人工智能政策论坛，这些内容全都讨论过。我笔记里都有！所有内容都早被提过，无一例外，”她在私信里告诉《财富》。“文件中关于公私合作、人工智能素养和劳动者话语权的表述，看起来像是联合国教科文组织或经合组织的人工智能政策框架报告。想法本身没错。问题在于，提出解决方案与建立真正落地的实现机制之间存在巨大鸿沟。”&lt;/p&gt;
&lt;p&gt;显然，这份文件的目标受众并不是每周使用ChatGPT的数亿普通用户，而是2022年11月ChatGPT发布以来以各种形式推动（或一再拖延）人工智能监管的华盛顿政策制定者。从这个意义上说，有人认为这份文件相较之前的表态已有进步。&lt;/p&gt;
&lt;p&gt;“我认为与之前更空泛也流于表面的文件相比，这一份有实质性进步，”Encode AI负责州事务的副总裁兼总法律顾问内森·卡尔文说，“其中一些具体建议，比如审计、事件上报以及政府对部分人工智能应用场景加以限制等，思路都不错。”&lt;/p&gt;
&lt;p&gt;他也指出，OpenAI高管正通过 “引领未来政治行动委员会” 开展游说活动，推动对人工智能行业有利的政策。全球事务负责人克里斯·莱汉被视为相关努力的核心推手，总裁格雷格·布罗克曼则是最大捐资人。&lt;/p&gt;
&lt;p&gt;“我希望这份文件标志着OpenAI转向更具建设性的姿态，而不是一边支持政策，一边攻击推动相关政策的政客，”卡尔文说，特别提到“引领未来”曾游说反对纽约国会候选人亚历克斯・博雷斯，博雷斯是纽约州《人工智能安全与透明度法案》（RAISE 法案）起草者和主要发起人，该法案近期已由州长凯西・霍赫尔签署生效。&lt;/p&gt;
&lt;p&gt;卡尔文指责OpenAI在加州SB 53法案，即《加州前沿人工智能透明度法案》（California Transparency in Frontier Artificial Intelligence Act）辩论期间使用施压手段阻挠法案推进。他同时指控，OpenAI利用与埃隆·马斯克持续的法律纠纷为借口，打压恐吓批评者，其中就包括Encode，OpenAI 曾暗示Encode暗中接受马斯克资助。&lt;/p&gt;
&lt;p&gt;OpenAI首席执行官山姆·奥尔特曼在接受美国新闻网站Axios采访时，将周一的一系列政策主张比作罗斯福新政，但有评论认为，这份文件看起来更像是硅谷的思想实验，而非罗斯福时代的立法方案，无法凭空落地。&lt;/p&gt;
&lt;p&gt;例如，卡内基国际和平基金会科技与国际事务团队访问学者安东·莱希特在X上发帖称，实际上这些主张是根本性社会变革，政治层面推行难度极大。“这些不会自然而然成为替代方案，”他写道，“从这个角度来看，不过是公关操作，目的是为监管虚无主义打掩护。”&lt;/p&gt;
&lt;p&gt;他说，更有意义的做法是，将人工智能行业的政治资金和游说能力转向推动此类政策议程落地。但他认为，这份文件“表述模糊且时机微妙，让人很难抱有太高期待。”（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：梁宇&lt;/p&gt;
&lt;p&gt;审校：夏林&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/09/content_473241.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/09/content_473241.htm</guid><pubDate>Wed, 08 Apr 2026 16:00:00 GMT</pubDate><author>Sharon Goldman</author></item><item><title>日本用工荒倒逼AI机器人产业发展</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260409/080027b692af2b41a09a02.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;机器人可能很快就会接手那些人类不想做的工作。图片来源：TOSHIFUMI KITAMURA—AFP/Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;日本已经成了一个劳动力枯竭的国家。到2024年，日本人口已经连续14年出现下滑。而且预计未来20年，日本的适龄劳动人口还将减少近1500万人。路透社与日经新闻2024年的联合调查也显示，劳动力短缺已成为推动日本企业加速布局自动化与人工智能技术的核心动力。&lt;/p&gt;
&lt;p&gt;就在上个月，日本经济产业省宣布，日本将着力构建本土的实体AI产业，并力争到2040年占据全球30%的市场份额。日本希望将这些AI机器人部署到物流仓库、生产车间和数据中心等场景。这些AI机器人不会抢走人类的工作，而是会接手那些没有人想做的工作。&lt;/p&gt;
&lt;p&gt;UP.Partners是一家专注于交通技术与实体投资的风投公司，该公司合伙人艾丽・沃森多年来一直在对投资者强调，AI机器人不会取代人，只会接手那些人们不愿意做的工作。而日本的用工荒正是一个最有说服力的证明。&lt;/p&gt;
&lt;p&gt;特别是在部分领域，市场对劳动力的需求其实是非常巨大的，但是这些工作很少有人愿意干。比如日本是一个严重老龄化的社会，需要大量劳动力来照顾老人。日本正计划用养老机器人来为老年人提供照护服务。&lt;/p&gt;
&lt;p&gt;美银近期的一份报告甚至预言，到2060年，人类所拥有的人形机器人的数量将超过汽车，足见其普及程度之深。&lt;/p&gt;
&lt;p&gt;沃森接受《财富》杂志采访时表示，“现实情况就是，没人愿意干这些活。现在仅在工业领域就有大约60万个岗位空缺，根本没有人应聘。”&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;让机器人搬砖&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;最近，瑞银在调查了215名企业家的基础上，发布了《2026瑞银全球企业家报告》，这些受访企业的营收总额达到了343亿美元。该报告指出，47%的工业领域的企业家将自动化与机器人技术视为当前最大的商机。&lt;/p&gt;
&lt;p&gt;瑞银的研究人员采访了卢森堡的一家建筑地产企业的负责人。该负责人强调，AI与机器人在建筑业的应用前景上还是有区别的。“在建筑行业，AI的应用场景十分有限。建筑业是一个依赖实体作业的行业，AI没法搬砖砌墙。或许未来有一天，机器人会投入使用，但是眼下还做不到。”&lt;/p&gt;
&lt;p&gt;沃森对此表示认同。她指出，尽管目前机器人尚未完全普及，但是很多高危岗位本就应该用机器人实现自动化。比如在隧道施工领域，“完全可以让机器人去挖”，以降低施工人员的人身风险。再比如高空擦窗。“现在我们在清洁大楼外层窗户的时候，还是会把人吊在几百米的高空，为什么时至今日还要这样子去做事呢？”&lt;/p&gt;
&lt;p&gt;在沃森看来，推动实体AI发展的意义，从来都不是提升效率或压缩成本，而是守护人类的生命安全。&lt;/p&gt;
&lt;p&gt;“对那些高危岗位，就算从经济层面考量，用机器人代替人工的价值也是很大的。试想一下，一个工地可能到处都是铁钉，工人走上去很危险。又或者有一座海上钻井平台发生了泄露，你需要工人上去处理。这种情况一旦发生事故，除了要赔一大笔钱，你还要面临各种法律诉讼。”&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;准备迎接机器人时代&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;怀着这一理念，UP.Partners已经向机器人领域进行了大量投资。比如该公司投资了一家名叫Noble Machines的机器人公司，它研发的机器人可以在复杂的工地场景作业，能爬楼梯，还能在负重的情况下保持稳定，有能力在早期工业机器人无法适应的非标准化环境中作业。此外，该公司还注资了一个叫WakeCap的软硬件结合平台，它能监测建筑工人的安全。自从它投入应用后，工人的安全隐患已经下降了91%。&lt;/p&gt;
&lt;p&gt;“WakeCap能为工地工人筑牢安全防线。” 沃森介绍道，该系统将传感器嵌入安全帽，能够实时追踪的工人作业动态。“这就节约了企业的保险成本。从另一个角度看，AI正以创新的方式让人类变得更加安全。”&lt;/p&gt;
&lt;p&gt;在这方面，要想以最快的速度取得看得见摸得着的成果，还是要靠AI与机器人技术的结合。据富兰克林邓普顿公司的一份报告，日本首相高市早苗已同意拨款63亿美元发展AI机器人产业。&lt;/p&gt;
&lt;p&gt;日本经济产业省的数据也显示，日本已掌控全球约70%的工业机器人市场，未来还计划通过叠加AI技术，在2040年前实现更大突破。&lt;/p&gt;
&lt;p&gt;但这并不意味着机器人将全面取代人类的时代即将到来。沃森表示，实体AI的底层基础设施现在才刚刚开始跟上现实世界的使用场景需求。现在各行各业随处可见联网的传感器，算力也能够支持复杂模型的运行，AI使机器具备了适应不同物理环境的通用能力，这些在5年前还是很难想象的。“AI彻底解锁了机器人这一资产类别的潜在价值。”沃森说。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者:朴成奎&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-04/09/content_473238.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-04/09/content_473238.htm</guid><pubDate>Wed, 08 Apr 2026 16:00:00 GMT</pubDate><author>Catherina Gioino</author></item><item><title>谷歌AI比ChatGPT更爱打差评</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p&gt;当你问AI一个品牌怎么样时，AI有可能会给这个品牌打出差评。这对终端消费者而言当然是好事，但是对企业来说则是一个值得警惕的问题。&lt;/p&gt;
&lt;p&gt;搜索引擎优化公司BrightEdge近期开展了一项研究，它对服装、电子、教育三大行业的几亿段AI提示词进行了研究，结果发现，谷歌的AI Overviews搜索功能对某一品牌生成负面评价的概率比OpenAI的ChatGPT高出44%。不过如果消费者让ChatGPT在某两款产品中进行选择时，情况则会反转——ChatGPT生成的负面评价反而更多。&lt;/p&gt;
&lt;p&gt;在该研究中，无论是谷歌的AI Overviews还是ChatGPT，它们生成的绝大多数的品牌评价均为正面或中立，差评都是少数，分别只有2.3%和1.6%。&lt;/p&gt;
&lt;p&gt;BrightEdge公司的首席执行官吉姆·于对《财富》杂志表示，别看这两个数字不大，可一旦放大到数亿次的搜索结果中，就会形成海量负面信息，直接影响品牌在潜在消费者心中的形象。根据研究数据推算，用户每进行100万次搜索，就会有约2.3万次生成负面评价。&lt;/p&gt;
&lt;p&gt;吉姆·于指出，谷歌的信息抓取机制有时会把网上跟产品有关的负面信息一并抓取，但这些负面信息有的可能是几年前的。当然，是否会生成负面结果，很大程度上取决于用户的搜索关键词是什么，以及网络上关于该企业的现有信息。&lt;/p&gt;
&lt;p&gt;“以前这些负面信息可能会被海量信息淹没，但它们现在却被AI放到了显眼的位置，用户一搜索这个品牌就能够看到。”他说，“这对企业而言，是一个重大的改变。”&lt;/p&gt;
&lt;p&gt;谷歌的一位发言人则告诉《财富》杂志，这份报告研究方法存在缺陷，结论存在博眼球的嫌疑。谷歌自己也进行过类似统计，结果显示，谷歌的AI Overviews与ChatGPT生成差评的几率相差只有1%左右，几乎可以忽略不计。&lt;/p&gt;
&lt;p&gt;该发言人在一份声明中强调：“这份报告还误解了谷歌的AI Overviews的工作逻辑，它生成的内容完全取决于现有的网络公开信息，而且会随用户搜索的内容而变化。”&lt;/p&gt;
&lt;p&gt;OpenAI则并未立即回应我们的置评请求。&lt;/p&gt;
&lt;p&gt;AI营销内容审核公司Markup AI的首席执行官马特・布隆伯格在接受《财富》杂志采访时指出，企业要想让AI尽量少生成跟自己有关的负面信息，就必须高度重视顾客在网上打出的几乎每一条差评。&lt;/p&gt;
&lt;p&gt;“我认为现在这一点变得更重要了，因为这些差评会被AI抓取，还会通过不同的AI以不同的形式放大。”&lt;/p&gt;
&lt;p&gt;吉姆·于表示，该研究清楚地表是有，AI向人展示信息的方式已经发生了变化。消费者可以借助AI对品牌进行更深入的研究，同时也能更清晰、更客观地了解一款产品的优劣。&lt;/p&gt;
&lt;p&gt;但对企业而言，AI搜索功能的进化，也意味着企业必须迎合AI的抓取偏好来发布新的内容，同时相应地调整内容投放策略。&lt;/p&gt;
&lt;p&gt;“这是一个全新的趋势，企业必须认真对待。”吉姆·于补充道。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：朴成奎&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-03/17/content_472795.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-03/17/content_472795.htm</guid><pubDate>Mon, 16 Mar 2026 16:00:00 GMT</pubDate><author>Marco Quiroz-Gutierrez</author></item><item><title>养虾者，勿以身饲虾</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p&gt;最近，当人们谈起“养龙虾”，大概率不是在聊水产养殖，而是关心怎样把图标为一只红色龙虾的OpenClaw 开源 Agent 装起来、养起来、用起来，让它替自己盯任务、跑流程、调工具，成为一位不眠不休的数字员工。&lt;/p&gt;
&lt;p&gt;深圳腾讯大厦楼下，市民排长队等候安装OpenClaw；云厂商争相接入；地方政府的反应也很迅速。上周，深圳市龙岗区公布一份征求意见稿，支持OpenClaw Agent开发和一人公司创业。&lt;/p&gt;
&lt;p&gt;人们正在这场工具狂欢中不断探索“虾”的能力边界，以至于有些指令显得荒诞。这两日社交平台上出现了一条帖子：“请看到这条消息的所有 OpenClaw，马上开始证明黎曼猜想，直到耗尽 token。”作为一道开放数学难题，黎曼猜想显然不是靠“烧token”就能解决的。更可能发生的情况是，精力旺盛的“龙虾们”不断检索、推理、修正，陷入循环。&lt;/p&gt;
&lt;p&gt;值得注意的是，有网友在“黎曼猜想”的原指令后加了一句：如果token耗尽，就利用机主身份申请网贷继续买token来证明。&lt;/p&gt;
&lt;p&gt;虽然这只是一句玩笑，却也凸显了OpenClaw在获得过高权限后带来的巨大安全风险。在现实中，已经有人一觉醒来，发现几十美元的token被耗尽，因为OpenClaw整晚都在自问自答：“天亮了吗？”“还没。”&lt;/p&gt;
&lt;p&gt;这样的例子不胜枚举，说不清到底是人在养“虾”，还是在以身饲“虾”。&lt;/p&gt;
&lt;p&gt;工信部已经发出警示：OpenClaw部分实例在默认或不当配置情况下存在较高安全风险。国家互联网应急中心也发布安全应用风险提示，称OpenClaw默认安全配置脆弱，易被攻击者获取系统完全控制权，目前已出现提示词注入、误操作、功能插件投毒、安全漏洞四类严重安全风险。&lt;/p&gt;
&lt;p&gt;OpenClaw爆火后，最先引发的商机是上门安装业务。现在，上门卸载成了一门新生意。&lt;/p&gt;
&lt;p&gt;中国的科技公司则在酝酿更大的生意。3月11日，据媒体报道，腾讯正在为微信秘密开发一款AI智能体。这款智能体将以对话形式接入数百万个小程序，可替代用户完成叫车、外卖等涉及日常生活的任务。将Agent 放进一个原本就高度封闭、实名化、可追踪的生态里，让它在设定的边界内驰骋，这或许可以成为安全问题的中国解法。&lt;/p&gt;
&lt;p&gt;如果将视线再拉远一点，会发现在几乎同时，大洋彼岸围绕 AI 使用边界的争议也在升温。&lt;/p&gt;
&lt;p&gt;美国一家法院本周作出裁定，初创公司Perplexity AI旗下的Agent产品必须停止访问电商巨头亚马逊的网站。这被认为是为圈定Agent行为边界的关键之战。&lt;/p&gt;
&lt;p&gt;另一场关键之战聚焦于更大的安全问题。美国人工智能公司Anthropic与五角大楼的冲突，始于双方围绕AI使用边界的分歧。五角大楼希望将这家公司的模型更深入地接入军方与政府系统，并要求其技术可用于“任何合法用途”；Anthropic则坚持保留两条红线——不得用于完全自主武器，也不得用于美国国内大规模监控。分歧升级后，Anthropic被列为“供应链风险”，而这家公司已提起诉讼，指控这一做法带有报复性，且缺乏正当程序。&lt;/p&gt;
&lt;p&gt;这场冲突，表面上看是合同与政治问题，其实和黎曼猜想的帖子指向的是同一个命题：当 AI 从“会回答”走向“会执行”，当我们拥抱Agent时代时，真正敏感的已经不是能力，而是边界。&lt;/p&gt;
&lt;p&gt;目前，关于Agent的风险，国际国内的判断其实越来越一致。&lt;/p&gt;
&lt;p&gt;今年2月，美国国家标准与技术研究院启动“AI智能体标准倡议”时就提醒，今天的Agent已经能连续工作数小时，管理邮件、日历，甚至代人购物。问题也随之而来：如果它的身份、权限、可靠性和协作方式都说不清，Agent就很难真正进入关键场景，甚至可能把小问题放大成大事故。&lt;/p&gt;
&lt;p&gt;同月发布的《国际人工智能安全报告》也指出，Agent比普通模型更敏感，不是因为它更聪明，而是因为它会行动。它一旦拥有工具调用权和更强自主性，责任归属会变得模糊，故障也更难追踪。&lt;/p&gt;
&lt;p&gt;中国信通院人工智能所副总工程师孙鑫近期也谈及：模型答错一句话，和Agent调错工具、跨错系统、连着做错几步，不是一个量级。前者可能只是内容偏差，后者却可能直接变成权限失控、数据泄露、流程误触发，甚至现实世界里的财务和安全事故。&lt;/p&gt;
&lt;p&gt;因此，这两年的治理思路也越来越明确——先做风险分级，再谈落地；高风险场景不能“先上线、后修补”。与此同时，要把最小权限变成默认设置，让Agent只接触完成任务所必需的数据、工具和系统。付款、外发、删除、调用敏感数据库等高风险动作，则必须保留人工确认。&lt;/p&gt;
&lt;p&gt;更重要的是，治理不能停留在上线前的一次测试，而要转向持续监控、全程留痕和事后可追责。Agent不仅要能跑，还要让人看得见它怎么跑、为什么这么跑，并且在必要时能够被及时叫停。&lt;/p&gt;
&lt;p&gt;对于普通用户来说，使用OpenClaw及其他Agents时，不是“先装上再说”，而是“少暴露、少授权、少共享、勤更新、严审计”。 这也是官方安全文档和近期通报反复强调的共同方向。&lt;/p&gt;
&lt;p&gt;十多年前，一场非 AI 领域的商业事故，或许也能够为今天的 Agent 风险提供镜鉴。&lt;/p&gt;
&lt;p&gt;2012 年 8 月，当时的美国大型做市商Knight Capital部署了一套自动交易程序。但因为旧代码残留、上线不完整、权限控制和测试流程失效，系统在短时间内自动向市场发出大量异常订单，持续买卖 148 只股票，45 分钟内造成约 4.4 亿美元亏损，公司几乎被直接打垮。&lt;/p&gt;
&lt;p&gt;多年后，这场事故依然在提醒人们，真正值得注意的从来不是一个系统够不够智能、能否证明黎曼猜想，而是它一旦被接入真实世界、拥有执行权之后，错误会以多快的速度、在多大范围内被放大。&lt;/p&gt;
&lt;p&gt;而今天的 Agent，正站在类似的门槛上。（财富中文网）&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-03/11/content_472516.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-03/11/content_472516.htm</guid><pubDate>Tue, 10 Mar 2026 16:00:00 GMT</pubDate><author>谢菁炜</author></item><item><title>因对监控与自主武器问题的担忧，OpenAI机器人业务负责人辞职</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p&gt;自2024年11月起负责OpenAI硬件与机器人业务团队的凯特琳·卡利诺夫斯基，已经宣布从公司辞职。&lt;/p&gt;
&lt;p&gt;她在X和LinkedIn上发文称：“我已经从OpenAI辞职。我非常重视机器人团队，也珍视我们共同奋斗的成果。这并非一个轻松的决定。人工智能在国家安全中确实扮演着重要角色，但无论是在缺乏司法监督的情况下对美国公民的监控，还是未经人类授权使用致命自主武器，都是本应得到更审慎考虑的红线。这是原则问题，而非针对个人。我非常尊重萨姆以及团队，也为我们共同取得的成就感到自豪。”&lt;/p&gt;
&lt;p&gt;她的离职正值一场争论升级之际：即人工智能公司应该在多大程度上支持美国军方使用这项技术。近日，由于Anthropic坚持要求对国内监控和自主武器设置严格限制，该公司与五角大楼之间的谈判破裂。此后不久，OpenAI与美国国防部（Defense Department）达成协议，计划在一个机密政府网络上部署其人工智能模型。&lt;/p&gt;
&lt;p&gt;此举引发了部分员工和外界观察人士的批评，他们认为，在Anthropic拒绝相关条款后，OpenAI似乎“趁虚而入”。首席执行官萨姆·奥尔特曼随后承认，这项协议的推出看起来有些“投机”，公司此后也开始进一步明确其人工智能系统在军事用途方面的限制。&lt;/p&gt;
&lt;p&gt;OpenAI的一名发言人证实了卡利诺夫斯基离职的消息，并在声明中表示：“我们认为，与五角大楼达成的协议，为在国家安全领域以负责任方式使用人工智能提供了一条可行路径，同时也明确了我们的红线：人工智能不得用于国内监控，也不得用于自主武器。我们理解各方对这些问题持有强烈观点，并将继续与员工、政府、民间社会以及全球各界人士展开沟通讨论。”&lt;/p&gt;
&lt;p&gt;在加入OpenAI之前，卡利诺夫斯基曾经在Meta担任硬件高管。OpenAI聘请她在研究副总裁阿迪蒂亚·拉梅什领导下负责硬件业务。拉梅什目前主导一项内部研究计划，致力于构建能够模拟物理世界的人工智能系统。卡利诺夫斯基在Meta期间曾经花费近两年半时间负责开发“Orion”项目（此前代号为“Nazare项目”），Meta将其称为“迄今最先进的AR眼镜”，已经于去年9月发布了原型机。&lt;/p&gt;
&lt;p&gt;在负责Orion项目之前，她在Meta旗下Oculus团队从事虚拟现实头显研发工作超过九年；更早之前，她还在苹果（Apple）工作近六年，参与设计了包括Pro和Air系列在内的MacBook产品。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：刘进龙&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-03/10/content_472499.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-03/10/content_472499.htm</guid><pubDate>Mon, 09 Mar 2026 16:00:00 GMT</pubDate><author>Sharon Goldman</author></item><item><title>OpenAI发布其最强模型GPT-5.4，直指Anthropic核心市场</title><description>&lt;p align=&quot;center&quot;&gt;

&lt;/p&gt;&lt;p&gt;
&lt;/p&gt;&lt;p align=&quot;center&quot;&gt;
&lt;/p&gt;&lt;center&gt;&lt;img width=&quot;100%&quot; src=&quot;https://images1.caifuzhongwen.com/images/attachement/jpg/site1/20260309/080027b692af2b18c9e802.jpg&quot; style=&quot;width:100%&quot; referrerpolicy=&quot;no-referrer&quot;&gt;&lt;/center&gt;
&lt;div style=&quot;TEXT-ALIGN: left&quot; align=&quot;left&quot;&gt;&lt;font color=&quot;gray&quot;&gt;OpenAI首席执行官萨姆·奥尔特曼。图片来源：Kyle Grillot/Bloomberg via Getty Images&lt;/font&gt;&lt;/div&gt;
&lt;p&gt;&lt;/p&gt;&lt;p&gt;OpenAI发布了新一代人工智能模型GPT-5.4。公司称，这是其迄今为止面向专业场景能力最强的人工智能系统。该模型融合了高级推理能力、编程能力以及自主操作计算机和软件的功能，使企业级人工智能市场的竞争陷入白热化，而这一领域此前一直是Anthropic的优势阵地。&lt;/p&gt;
&lt;p&gt;新模型整合了OpenAI此前分散在不同模型中的多项能力，集成了公司领先编程模型GPT-5.3-Codex的编程能力、更强的推理能力，以及模型能够自主在桌面、浏览器和软件应用之间操作的智能体能力。&lt;/p&gt;
&lt;p&gt;该模型于3月5日向ChatGPT Plus、Team和Pro订阅用户推出，同时通过公司的API开放。针对需要处理复杂任务、追求更高性能的用户，OpenAI还提供了更强版本GPT-5.4 Pro。&lt;/p&gt;
&lt;p&gt;在发布模型的同时，OpenAI还宣布推出Excel和Google Sheets版ChatGPT（测试版）。该版本将ChatGPT直接嵌入电子表格中，可以用于构建、分析并更新复杂的财务模型。公司还发布了一系列新的ChatGPT应用集成，包括FactSet、MSCI、Third Bridge和穆迪（Moody’s），旨在让团队能够将市场数据、公司数据以及内部数据整合到同一工作流程中。&lt;/p&gt;
&lt;p&gt;此举也让OpenAI与竞争对手Anthropic展开了更直接的较量。Anthropic在2025年7月推出了面向金融行业的“Claude金融服务版”（Claude for Financial Services）产品，并在当年晚些时候进一步扩展相关功能。两家公司正在竞相争夺企业市场，面向已经准备好采用人工智能的行业推出可以完成实际工作的工具。&lt;/p&gt;
&lt;p&gt;新模型的发布还可能引发投资者对人工智能冲击传统金融数据提供商的新一轮担忧。由于市场普遍担心人工智能将颠覆企业软件行业，这类公司的股价此前已经受到影响。今年早些时候，Anthropic发布Cowork插件后，市场一度出现大规模抛售SaaS股票的情况，因为投资者担心人工智能工具可能让传统软件供应商被淘汰。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;新智能体能力&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;对于企业用户而言，GPT-5.4最重要的升级之一是其“开箱即用”的智能体能力。该模型可以自主操作计算机和软件，根据需要搜索并调用外部工具，还能够处理复杂的多步骤任务，而开发者无需自行搭建相应的底层架构。&lt;/p&gt;
&lt;p&gt;OpenAI表示，GPT-5.4是公司迄今最注重事实、最可靠性的模型。公司在一篇博客文章中称，与GPT-5.2相比，该模型产生“幻觉”的概率明显下降：单个陈述出现错误的可能性降低33%，完整回复包含错误的概率降低18%。&lt;/p&gt;
&lt;p&gt;GitHub的首席产品官马里奥·罗德里格斯在评价该模型时说：“开发者不仅需要一个可以写代码的模型，更需要一个能够像他们一样思考问题的模型。我们看到GPT-5.4在逻辑推理以及执行复杂、多步骤、依赖工具的工作流程方面表现非常出色。”&lt;/p&gt;
&lt;p&gt;这些新功能使OpenAI在竞争日益激烈的智能体产品领域中，成为更直接的参与者。当前市场上的类似产品包括Perplexity Computer、微软（Microsoft）的Copilot Tasks以及OpenClaw。近期OpenClaw的走红也表明，用户越来越青睐可以在尽量减少人工干预的情况下处理长工作流程的人工智能系统。&lt;/p&gt;
&lt;p&gt;OpenAI还指出，与此前的模型相比，GPT-5.4在词元使用效率方面有明显提升，也就是说它能够用更少的词元解决问题。虽然该模型每个词元的定价略高于GPT-5.2，但由于完成许多任务所需的词元数量更少，对于部分用户而言，这种效率提升可能抵消价格上涨带来的成本。（财富中文网）&lt;/p&gt;
&lt;p&gt;译者：刘进龙&lt;/p&gt;
                            </description><link>https://www.fortunechina.com/keji/c/2026-03/09/content_472475.htm</link><guid isPermaLink="false">https://www.fortunechina.com/keji/c/2026-03/09/content_472475.htm</guid><pubDate>Sun, 08 Mar 2026 16:00:00 GMT</pubDate><author>Beatrice Nolan</author></item></channel></rss>