人工智能在“成本效益”和“数据主权”之间的矛盾日益突出,正在迫使全球企业重新思考自身的风险管理框架。
过去一年多,生成式人工智能领域的讨论几乎都围绕着“能力竞赛”展开,成功往往用参数规模或并不完善的基准测试成绩来衡量。但如今,这种讨论正在董事会层面发生转向,一场更现实的“纠偏”已经开始。

低成本、高性能模型确实为企业带来了快速创新的诱惑,但随之而来的数据驻留、司法管辖权以及国家层面的影响风险,也迫使企业重新审视 AI 供应商的选择。总部位于中国的人工智能实验室 DeepSeek,正是在这样的背景下成为行业争议的焦点。
据国际刑警组织和英国政府通信总部前顾问、现任 Jitterbit 首席执行官 Bill Conner 表示,DeepSeek 最初获得了相当积极的反馈,因为它挑战了行业既有认知,证明“高性能的大型语言模型并不一定需要硅谷级别的预算”。
对于那些希望降低生成式 AI 试点成本的企业来说,这种效率无疑极具吸引力。Conner 也指出,这些“据报道的低训练成本,再次引发了业内关于效率优化以及‘足够好’人工智能的讨论”。
人工智能效率,与数据主权风险的正面冲突
问题在于,对低成本和高性能的追求,正在与现实的地缘政治环境发生正面冲突。
在实际应用中,运营效率与数据安全从来不是可以分割的议题。尤其当模型运行和数据处理发生在不同法律体系、不同国家访问规则的司法管辖区内时,这种风险会被进一步放大。
近期有关 DeepSeek 的一系列披露,明显改变了西方企业的判断逻辑。Conner 强调,美国政府的最新信息显示,DeepSeek 不仅将数据存储在中国境内,而且还存在与国家情报机构共享数据的情况。
这一点,使问题不再局限于 GDPR 或 CCPA 这样的合规层面,而是直接上升到了国家安全的高度。风险性质已经发生变化,不再只是“隐私合规”,而是“主权与安全”。
对于企业管理层而言,这种风险尤为棘手。大型语言模型的集成从来不是孤立发生的,它通常需要连接企业内部的专有数据湖、客户系统以及知识产权库。一旦底层模型存在强制数据共享机制,或潜在的“后门”,企业实际上就绕过了自身的安全边界,所谓的成本优势也会随之失去意义。
Conner 进一步警告称,DeepSeek 与军工采购网络的关联,以及涉嫌规避出口管制的行为,理应引起首席执行官、首席信息官和风险负责人的高度警惕。使用此类技术,可能会在无意中将企业拖入制裁风险或供应链安全漏洞之中。
AI 的成败,已不再只是技术问题
如今,成功与否早已不仅仅取决于代码生成能力或文档摘要效果,更取决于服务提供商背后的法律框架和道德标准。
在金融、医疗、国防等高度敏感行业,对数据来源和流向的任何不确定性,几乎都是不可接受的。
然而,在概念验证阶段,技术团队往往更关注性能指标和集成便利性,而忽视了工具背后的地缘政治背景和数据主权问题。
这也意味着,风险官和首席信息官必须建立更高层级的治理机制,不仅要审视模型“做了什么”,还要弄清楚“谁在使用它”“数据流向哪里”“在什么条件下被访问”。
人工智能成本效益,终究是治理问题
是否采用某一类人工智能模型,本质上是一种企业责任选择。股东和客户有理由期待,他们的数据是安全的,并且只会用于明确、合法的商业目的。
Conner 对此给出了非常明确的判断。他指出,对西方企业的管理层而言,这已经不再是模型性能或价格的问题,而是一个治理、问责以及信托责任的问题。
如果企业无法清楚证明一个系统在数据驻留、使用目的以及国家影响层面是透明、可控的,那么集成这样的系统本身就难以成立。即便某个模型能够用一半的成本实现竞争对手 95% 的性能,潜在的监管处罚、声誉损失以及知识产权风险,也足以瞬间吞噬这些节省下来的成本。
DeepSeek 的案例,实际上迫使整个行业重新审视 AI 供应链。企业领导者需要清楚掌握:模型推理发生在哪里,数据由谁控制,又在什么条件下被访问。
随着生成式人工智能市场逐渐成熟,信任、透明度和数据主权的重要性,很可能会超越单纯的成本效益优势,成为决定企业选择的核心因素。

