在一个令人振奋的夜晚,奥普拉・温弗瑞为我们呈现了一场关于人工智能(AI)的特别节目,名为 “AI 与我们的未来”。这场盛会吸引了不少重量级嘉宾,包括 OpenAI 的首席执行官萨姆・奥特曼、科技影响者马奎斯・布朗利以及 FBI 局长克里斯托弗・雷。整个节目的基调相当谨慎,仿佛每个人都在默默打着鼓。

奥普拉在开场时指出,AI 的 “魔鬼” 已经从瓶子里释放出来,虽然这可能意味着好事,也可能是坏事。她提醒大家,人类必须学会与这项技术共存。“AI 超出了我们的控制范围,并且我们对它的理解也相对有限,但它已经来到我们身边,我们需要思考它是我们的盟友还是对手…… 我们是这个星球上最具适应能力的生物,我们会再次适应。但要保持对现实的警觉,风险可不是开玩笑的。”

OpenAI首席执行官Altman和比尔盖茨一起主持AI特别节目  第1张

图源备注:图片由AI生成,图片授权服务商Midjourney

作为第一个接受采访的嘉宾,奥特曼信心满满地声称,如今的 AI 能够理解其训练数据中的概念。“我们向系统展示一千个词,询问它接下来会发生什么,” 他说,“系统在预测中学习,从而理解其内在概念。” 然而,许多专家对此并不买账。

像 ChatGPT 这样的 AI 系统确实会预测下一句话最可能的单词,但它们实际上只是统计机器,并没有真正的意图,纯粹是基于数据模式做出明智的猜测。

尽管奥特曼可能夸大了当前 AI 系统的能力,但他强调了安全测试这些系统的重要性。“我们需要让政府开始思考如何对这些系统进行安全测试,就像我们对飞机或新药那样。” 他透露,自己几乎每天都会与政府人员进行交流。

奥特曼对监管的呼吁或许带有自身的利益考量,毕竟 OpenAI 曾反对加州的 AI 安全法案 SB1047,声称这将 “扼杀创新”。不过,前 OpenAI 员工和 AI 专家如杰弗里・辛顿却支持该法案,认为这将对 AI 的发展施加必要的安全保障。

在节目的另一部分,奥普拉向奥特曼提问,为什么人们应该信任他。对此,奥特曼避而不谈,表示他们的目标是逐步建立信任。此前,他曾明确表示,大家不应只信任他或任何单一人物来确保 AI 造福人类。

接下来的讨论中,奥普拉顺势引入了深伪影像的话题。马奎斯・布朗利为了说明合成媒体的逼真程度,展示了 OpenAI 的 AI 视频生成器 Sora 与早期 AI 生成影像的对比。结果显示,Sora 的样本相当出色,充分展现了这一领域的快速进步。“虽然现在你还可以看出其中的瑕疵,” 布朗利表示,但奥普拉却觉得那看起来非常真实。

深伪影像引出了与 FBI 局长雷的对话,他回忆起自己首次接触 AI 深伪技术的情景。“我在一个会议室,FBI 的同事们向我展示了如何制作 AI 增强的深伪影像,” 雷回忆说,“他们制作了一个我从未说过的话的影像。” 他指出,AI 辅助的敲诈行为正在急剧增加,2022年至2023年间,相关案件增长了178%。

雷描述了这种敲诈手法的流程,先是伪装成同龄人来引诱青少年,然后用 AI 生成的图片来施压。他表示,“实际上,背后是坐在尼日利亚的某个家伙,一旦获取到真实照片,就会用此进行威胁。”

他还提到即将到来的美国总统大选中的虚假信息问题,强调目前并不需要恐慌,但 “每个美国人” 都应提高警惕,意识到 “坏人” 可能会利用 AI 对我们进行攻击。

接下来,奥普拉与微软创始人比尔・盖茨进行了畅谈,盖茨对 AI 在教育和医疗领域的前景表示乐观。他设想,AI 就像是在医疗预约中的第三者,负责记录和建议处方,这样医生就能更多地与病人互动,而不是面对电脑屏幕。

不过,盖茨似乎忽略了训练不当可能导致的偏见。最近的一项研究表明,主要科技公司的语音识别系统在识别黑人说话者的音频时,出错率是白人说话者的两倍。另有研究显示,AI 系统可能会加强一些长久以来的错误信念,例如关于黑人和白人之间生物差异的虚假观点,这些观点可能会导致医生误诊。

在教育领域,盖茨相信 AI 能够提供 “随时可用” 的学习体验,了解如何激励学生。然而,并不是所有学校都对这一点抱有期待。

去年夏天,许多学校因担心抄袭和错误信息而急忙禁止使用 ChatGPT,虽然一些学校后来又恢复了使用,但仍有不少人对 AI 的潜力表示怀疑。有调查显示,超过一半的孩子反映看到同龄人利用 AI 以不良方式,例如制造可信的虚假信息或图像来伤害他人。

联合国教科文组织在去年底也呼吁各国政府监管 AI 在教育中的使用,包括为用户实施年龄限制和数据保护措施。

通过这一场与 AI 的深度对话,观众们得以更加清晰地认识到技术的快速发展与其可能带来的风险,同时也引发了关于人类未来与 AI 的深刻思考。