在最近由 Axios 主办的峰会上,前谷歌 CEO、现任美国国家人工智能安全委员会主席埃里克・施密特(Eric Schmidt)发出了对人工智能(AI)未来的严峻警告。施密特指出,随着 AI 技术的快速发展,世界可能并未做好应对这些创新可能来的潜在危险的准备。

图源备注:图片由AI生成,图片授权服务商Midjourney

施密特将 AI 的发展与二战期间原子弹的制造进行了有力比较。他表示:“在广岛和长崎事件之后,花了18才建立起禁止核试验的条约。而今天,我们没有那么多时间。” 他担忧,在接下来的五到十年中,可能会达到一种自主策的水平,这对人类构成严重胁。

施密特想象了一种,在这种未来中,AI 系统能够做出独立决定,甚至可能获取武器或其他危险工具。他提到,这样的机器可能会欺骗我们,或是损害我们的利益,这引发了深刻的伦理和生存问题。施密特并不认为 AI 会在一夜之间获得自我意识,而是担心其能力的逐步提升未得到充分的安全保障。

为应对这些潜在威胁,施密特呼吁建立一个类似于气候变化政府间专委员会(IPCC)的国际监管机构。这个组织将指导政策制定者应对 AI 带风险与机遇。他强调,如果没有协调一致的全球监管,AI 的无序增长可能导致灾难性后果。

然而,施密的悲观观点并未获得普遍认同。著名的 AI 研究员、Meta 的负责人扬・勒库恩(Yann LeCun)在接受《金融时报》采访时表示:“关于存在性风险的讨论尚为时尚早。” 勒库恩指出,目前的 AI 系统甚至无法与猫的学习能力相提并论。他的观点凸显了技术界内部对于 AI 风险的不同看法,尽管一些专家将 AI 视为潜在的生存威胁,但另一些人认为目前的技术水平并不需要如此极端的担忧。

尽管存在不同的观点,许多专家一致认为,AI 的快速发展确实需要仔细考虑和前瞻性的规划。从无人驾驶汽车改善交通到医疗诊断革命化医疗,AI 正成为我们日常生活的重要组成部分。然而,这种整合也带来了建立伦理准则和健全安全措施的责任。

在创新与监管之间找到平衡至关重要。虽然 AI 具有极大的改善生活质量的潜力,但它也伴随着必须管理的风险。施密特的警告提醒我们,技术的发展往往超出社会的监管能力。无论 AI 是否真的会达到他所设想的惊人水平,加强全球合作和全面监管必要性依然明确。

划重点:

🌍 施密特警告 AI 可能在五到十年内对人类构成严重威胁,呼吁国际监管。

🛡️ 他建议建立类似气候变化专门委员会的组织,以应对 AI 带来的风险。

🤖 尽管存在不同看法,专家们普遍认为需要认真对待 AI 的快速发展与其潜在的风险。