The news is by your side.

LLM繁荣后的AI策略:维护主权,避免捕获

9


是时候重新思考人工智能的暴露、部署和战略了

本周,Meta 最近离职的首席人工智能科学家、现代人工智能之父之一 Yann LeCun 在英国议会的 APPG 人工智能证据会议上对不断发展的人工智能风险和机遇格局提出了基于技术的观点。 APPG AI 是跨党派人工智能议会小组。这篇文章是围绕 Yann LeCun 对小组的证词展开的,并直接引用了他的言论。

他的言论与投资经理相关,因为它们跨越了资本市场通常单独考虑但不应该单独考虑的三个领域:人工智能能力、人工智能控制和人工智能经济学。

主要的人工智能风险不再集中于谁训练最大的模型或获得最先进的加速器。他们越来越关注谁控制人工智能系统的接口、信息流所在的位置,以及当前以法学硕士为中心的资本支出浪潮是否会产生可接受的回报。

主权人工智能风险

“这是我认为人工智能未来面临的最大风险:少数公司通过专有系统获取信息。”

对于各国来说,这是一个国家安全问题。对于投资经理和企业来说,这是一种依赖风险。如果研究和决策支持工作流程由一组狭窄的专有平台调节,那么信任、弹性、数据机密性和议价能力会随着时间的推移而减弱。

LeCun 将“联邦学习”视为部分缓解措施。在此类系统中,集中式模型无需查看基础数据进行训练,而是依赖于交换的模型参数。

原则上,这使得生成的模型能够执行“……就好像它已经在整个数据集上进行了训练一样……而数据永远不会离开(您的域)。”

然而,这不是一个轻量级的解决方案。联合学习需要一种新型的设置,在各方和中央模型之间进行可信的编排,以及国家或区域范围内的安全云基础设施。它降低了数据主权风险,但并没有消除对主权云容量、可靠的能源供应或持续资本投资的需求。

人工智能助手是一个战略漏洞

“我们不能让这些人工智能助手受到美国少数公司或中国公司的专有控制。”

人工智能助手不太可能仍然是简单的生产力工具。他们将越来越多地调解日常信息流,塑造用户所看到的、询问的和做出的决定。 LeCun 认为这一层的集中风险是结构性的:

“我们将需要高度多样化的人工智能助手,就像我们需要高度多样化的新闻媒体一样。”

这些风险主要是国家层面的风险,但对投资专业人士来说也很重要。除了明显的滥用情况之外,通过少数助手缩小信息视角还可能会加剧行为偏见和同质化分析。

边缘计算并不能消除对云的依赖

“有些将在本地设备上运行,但大多数必须在云中的某个地方运行。”

从主权角度来看,边缘部署可能会减少一些工作负载,但并不能消除管辖或控制问题:

“这里存在一个关于管辖权、隐私和安全的真正问题。”

LLM 能力被夸大了

“我们误以为这些系统很聪明,因为它们擅长语言。”

问题不在于大型语言模型毫无用处。流畅性常常被误认为推理或世界理解——这对于依赖法学硕士进行规划和执行的代理系统来说是一个关键区别。

“语言很简单。现实世界是混乱的、嘈杂的、高维的、连续的。”

对于投资者来说,这提出了一个熟悉的问题:当前的人工智能资本支出有多少用于构建持久智能,有多少用于围绕统计模式匹配优化用户体验?

世界模型和法学硕士后的视野

“尽管当前以语言为导向的系统取得了一些成就,但我们距离动物或人类的智能还很远。”

LeCun 的世界模型概念侧重于学习世界如何行为,而不仅仅是语言如何相互关联。法学硕士针对下一个代币预测进行优化,而世界模型则旨在预测后果。这种区别将表面层的模式复制与更有因果基础的模型区分开来。

这并不是说今天的架构将会消失,而是它们可能不会最终带来持续的生产力提升或投资优势。

元、开放平台风险

LeCun 承认 Meta 的立场已经改变:

“Meta 曾经是提供开源系统的领导者。”

“在过去的一年里,我们已经失去了优势。”

这反映了更广泛的行业动态,而不是简单的战略逆转。虽然 Meta 继续在开放权重许可下发布模型,但竞争压力和模型架构的快速扩散(以 DeepSeek 等中国研究团体的出现为重点)降低了纯粹架构优势的持久性。

LeCun 的担忧并不是针对单一公司的批评,而是一种系统性风险:

“美国和中国都不应该主导这个领域。”

随着价值从模型权重转移到分布,平台越来越青睐专有系统。从主权和依附的角度来看,这一趋势值得投资者和政策制定者的关注。

代理人工智能:领先于治理成熟度

“今天的代理系统无法在行动之前预测其行动的后果。”

“这是一种非常糟糕的系统设计方式。”

对于尝试代理的投资经理来说,这是一个明确的警告。过早部署可能会导致幻觉通过决策链和管理不善的行动循环传播。尽管技术进步很快,但相对于受监管的投资环境中的专业标准而言,代理人工智能的治理框架仍然不够发达。

监管:应用,而非研究

“不规范研究和开发。”

“你通过大型科技公司创造了监管捕获。”

LeCun 认为,针对性不强的监管会巩固现有企业的地位,并提高进入壁垒。相反,监管重点应放在部署结果上:

“每当人工智能被部署并可能对人们的权利产生重大影响时,就需要进行监管。”

结论:维护主权,避免被俘虏

人工智能面临的直接风险并不是失控的通用智能。它是在专有的跨境系统中捕获信息和经济价值。主权,无论是在国家还是公司层面,都是核心,这意味着在组织中部署法学硕士时应采用安全第一的方法。低信任方法。

LeCun 的证词将人们的注意力从模型发布的头条新闻转移到了谁控制着数据、接口和计算。与此同时,当前的大部分人工智能资本支出仍然锚定于以法学硕士为中心的范式,尽管人工智能的下一阶段可能看起来有很大不同。这种结合为投资者创造了一个熟悉的环境:资本配置不当的风险升高。

在技​​术快速变革的时期,最大的危险不是技术能做什么,而是依赖和租金最终会产生什么。



关键词: