随着AIGC技术的快速发展,图像编辑工具日益强大,图像篡改变得更加容易,也更难被察觉。 虽然现有的图像篡改检测和定位方法(IFDL)通常很有效,但它们往往面临两大挑战:一是“黑匣子”性质,检测原理不明;二是泛化能力有限,难以应对多种篡改方法(如Photoshop、DeepFake、AIGC编辑)。

为解决这些问题,北京大学的研究团队提出了可解释的IFDL任务,并设计了FakeShield,这是一个多模态框架,能够评估图像的真实性,生成篡改区域掩码,并基于像素级和图像级的篡改线索提供判断依据。

传统的IFDL方法只能提供图像的真实性概率和篡改区域,而无法解释检测原理。 由于现有IFDL方法的准确性有限,仍然需要人工进行后续判断。 但由于IFDL方法提供的信息不足,难以支持人工评估,用户仍然需要自己重新分析可疑图像。

此外,在现实场景中,篡改类型多种多样,包括Photoshop(复制移动、拼接和移除)、AIGC编辑、DeepFake等。 现有的IFDL方法通常只能处理其中一种技术,缺乏全面的泛化能力。 这就迫使用户事先识别不同的篡改类型,并相应地应用特定的检测方法,大大降低了这些模型的实用性。

为解决现有IFDL方法的这两大问题,FakeShield框架利用了大型语言模型(LLM)的强大能力,特别是多模态大型语言模型(M-LLM),它能够对齐视觉和文本特征,从而赋予LLM更强的视觉理解能力。 由于LLM在海量且多样化的世界知识语料库上进行了预训练,因此它们在机器翻译、代码补全和视觉理解等众多应用领域都具有巨大的潜力。

FakeShield框架的核心是多模态篡改描述数据集(MMTD-Set)。 该数据集利用GPT-4o对现有IFDL数据集进行了增强,包含了篡改图像、修改区域掩码和编辑区域详细描述的三元组。 通过利用MMTD-Set,研究团队对M-LLM和视觉分割模型进行了微调,使其能够提供完整的分析结果,包括检测篡改和生成准确的篡改区域掩码。

FakeShield还包含领域标签引导的可解释伪造检测模块(DTE-FDM)多模态伪造定位模块(MFLM),分别用于解决各种类型的篡改检测解释和实现由详细文本描述引导的伪造定位。

大量实验表明,FakeShield可以有效地检测和定位各种篡改技术,与以往的IFDL方法相比,它提供了一种可解释的、更优越的解决方案。

该研究成果是将M-LLM应用于可解释IFDL的首次尝试,标志着该领域取得了重大进展。 FakeShield不仅擅长篡改检测,还能提供全面的解释和精确定位,并展现出对各种篡改类型的强大泛化能力。 这些特性使其成为适用于各种现实应用的多功能实用工具。

未来,这项工作将在多个领域发挥至关重要的作用,例如帮助改进与数字内容操纵相关的法律法规,为生成式人工智能的开发提供指导,以及促进更清晰、更值得信赖的网络环境。 此外,FakeShield还可以协助法律诉讼中的证据收集,并帮助纠正公众话语中的错误信息,最终有助于提升数字媒体的完整性和可靠性。

项目主页:https://zhipeixu.github.io/projects/FakeShield/

GitHub地址:https://github.com/zhipeixu/FakeShield

论文地址:https://arxiv.org/pdf/2410.02761