最近的一项研究显示,63% 的全球安全领导者正在考虑禁止开发团队使用人工智能生成代码。这一现象引起了广泛的关注,尤其是在技术行业内。虽然人工智能的普及被认为可以帮助开发者处理一些琐碎的任务,但安全专家对此却心存疑虑。

图源备注:图片由AI生成,图片授权服务商Midjourney

根据 Venafi 的调查,92% 的决策者表示,他们对公司内部使用 AI 生成代码的情况感到担忧,主要原因是对输出质量的担心。他们认为,AI 模型可能是基于过时的开源库进行训练的,导致生成的代码质量不达标。此外,开发者可能会过于依赖这些工具,从而在代码质量上出现松懈。

安全领袖们普遍认为,AI 生成的代码在质量检查上不如人工编写的代码严格。他们担心,开发者可能会觉得对 AI 模型的输出没有责任感,因此对代码的审核也不会那么仔细。Sonar 公司的首席执行官塔里克・肖卡特(Tariq Shaukat)提到,越来越多的公司在使用 AI 生成代码后,出现了宕机和安全问题,归根结底是因为缺乏充分的代码审查。

Venafi 的这份报告显示,尽管安全专家们对 AI 编码有诸多顾虑,83% 的组织仍在使用 AI 进行代码开发。而其中有超过一半的公司已经将其作为常规实践。虽然很多企业考虑禁止 AI 辅助编码,但72% 的安全领导者认为,必须允许这一做法以保持竞争力。根据 Gartner 的数据,到2028年,90% 的企业软件工程师将使用 AI 代码助手,并因此提升生产力。

此外,报告还提到,约有66% 的受访者表示,他们无法有效监管组织内 AI 的安全使用,因为他们缺乏必要的可见性。安全领导者们因潜在漏洞而感到担忧,59% 的人对此感到焦虑,几乎80% 的人认为,AI 代码的泛滥将导致安全问题的爆发,迫使企业重新审视相关管理措施。

划重点:

🔍63% 的全球安全领导者考虑禁止使用 AI 生成代码,主要担心输出质量和安全问题。

⚠️92% 的决策者对 AI 代码的使用感到担忧,认为开发者对 AI 生成代码审核不够严格。

📈 尽管安全顾虑严重,83% 的组织仍在使用 AI 进行代码开发,以保持竞争力。