Meta 公司近日宣布,将其 Llama 系列人工智能模型向美国政府机构及相关承包商开放,以支持国家安全应用。

这一举措旨在消除外界对其 “开放” 人工智能可能助长外国对手的看法。Meta 在一篇博客文章中表示:“我们很高兴地确认,Llama 将向美国政府机构提供,包括那些专注于国防和国家安全的项目,以及支持这些工作的私营部门合作伙伴。”

为推动这一项目,Meta 与多家知名公司达成了合作,包括埃森哲、亚逊网络服务、安迪尔、博思艾伦、Databricks、德勤、IBM、莱多斯、洛克希德・马丁、微软、甲骨文、Palantir、Scale AI 和 Snowflake。这些公司将帮助将 Llama 模型应用于各类国家安全任务。

例如,甲骨文正在使用 Llama 处理飞机维护文档,Scale AI 则在针对特定国家安全任务对 Llama 进行微调。而洛克希德・马丁则计划将 Llama 提供给其国防客户,帮助他们生成计算机代码等。

通常,Meta 的政策禁止开发者将 Llama 应用于军事、战争或间谍相关项目。然而,在此情况下,Meta 决定破例,允许与美国政府相关的机构及承包商使用 Llama,此外也适用于英国、加拿大、澳大利亚和新西兰等国的类似机构。

值得注意的是,最近有报道称,某些与中国人民解放军相关的研究人员使用了旧版 Llama 模型(Llama2)开发了一款专注于军事的聊天机器人,旨在收集和处理情报,为作战决策提供信息。Meta 对此回应,该模型的使用是 “未经授权的”,违反了公司的可接受使用政策。然而,这一事件进一步引发了对开放人工智能优缺点的广泛讨论。

随着人工智能在军事情报、监视和侦察中的应用,相关的安全隐患逐渐浮出水面。一项来自 AI Now Institute 的研究表明,现有的人工智能系统依赖于个人数据,这些数据可能被对手提取并武器化。同时,人工智能系统也存在偏见和幻觉等问题,目前尚无有效解决方案。研究人员建议开发与 “商业” 模型相隔离的专用人工智能系统。

虽然 Meta 宣称开放 AI 能够加速国防研究,促进美国的经济与安全利益,但美国军方对于这一技术的采用依然谨慎,至今只有陆军进行了生成式人工智能的部署。

划重点:

🌐 Meta 公司将 Llama 模型开放给美国政府及国防承包商,支持国家安全应用。

🤝 多家知名企业与 Meta 合作,共同推动 Llama 模型在国防领域的应用。

⚖️ 开放人工智能在军事应用中的安全隐患引发讨论,研究者呼吁开发专模型。