数字支付和金融科技公司蚂蚁国际赢得了NeurIPS人工智能人脸检测公平性竞赛的冠军。该公司表示,致力于开发安全且普惠的金融服务,尤其是在深度伪造技术日益普及的当下。

人脸识别技术在诸多领域的日益普及凸显了人工智能算法偏见的问题。美国国家标准与技术研究院 (NIST) 的研究表明,许多广泛使用的人脸识别算法在分析女性和有色人种的面部时,错误率显著更高。这种差异源于训练数据缺乏多样性,以及构建和控制许多主流人工智能平台的人员构成存在差异。算法偏见可能导致大量人群无法获得金融服务,并被视为安全协议中的一个漏洞。
NeurIPS 竞赛与备受推崇的人工智能会议——神经信息处理系统大会 (NCPS) 同期举行,旨在挑战参赛者创建能够兼顾高性能和公平性的 AI 模型,这些模型需涵盖一系列人口统计因素,包括性别、年龄和肤色。蚂蚁国际团队从来自世界各地 162 支队伍的 2100 多份参赛作品中脱颖而出,荣获冠军。参赛任务是准确检测 120 万张由 AI 生成的、具有代表性的人口统计群体人脸图像。
蚂蚁集团获奖的AI模型采用了一种结合专家混合模型(MoE)架构和偏差检测机制的方法。该系统训练两个相互竞争的神经网络:一个专注于识别深度伪造数据,另一个则旨在挑战前者,迫使其忽略人口统计特征。这种动态过程有助于确保系统学习检测真正的篡改迹象,而不是无意中依赖人口统计模式。该模型的训练采用了具有全球代表性的数据集,并融入了真实的支付欺诈场景,以确保其在大规模应用中的性能。
蚂蚁国际风险管理与网络安全总经理张天义博士解释说:“带有偏见的AI系统本质上是不安全的。我们模型的公平性不仅仅是一个伦理问题,更是防止深度伪造技术被滥用以及确保每个用户身份验证可靠性的根本所在。”
获奖方案背后的技术目前正被整合到蚂蚁集团的支付和金融服务中,以帮助应对深度伪造的威胁。该公司表示,该技术在所有人群和蚂蚁集团运营的 200 个市场中,检测率均超过 99.8%。
蚂蚁集团的技术帮助其客户满足全球电子客户身份验证 (eKYC) 标准,尤其是在客户注册过程中,且不会受到算法偏见的影响。这一点在新兴市场尤为重要,因为在这些市场中,金融普惠的推进可能会受到阻碍。
蚂蚁国际为超过1.5亿商户和18亿用户账户提供服务,旗下拥有支付宝+、Antom、Bettr和WorldFirst等知名服务。该公司表示,人工智能安全是其运营的支柱之一。其AI SHIELD是一个基于AI安全Docker构建的风险管理框架,旨在帮助降低人工智能服务中存在的漏洞风险,例如未经授权的访问和数据泄露。
AI SHIELD 为一系列风险管理解决方案提供支持,这些解决方案能够更全面地保护金融交易,包括防范深度伪造攻击和欺诈。该公司表示,支付宝+易安心支付360已将数字钱包支付中的账户盗用事件减少了90%。

