Meta 最近发布了一项全新的基准测试,名为 Multi-IF,旨在评估大语言模型(LLM)在多轮对话和多语言环境下的指令遵循能力。这一基准覆盖了八种语言,包含4501个三轮对话任务,重点探讨了当前模型在复杂多轮和多语言场景中的表现。

在现有的评估标准中,大多数集中于单轮对话和单语言任务,难以全面反映模型在实际应用中的表现。而 Multi-IF 的推出正是为了填补这一空白。研究团队通过将单轮指令扩展为多轮指令,生成了复杂的对话场景,并确保每一轮指令在逻辑上连贯、递进。此外,数据集还通过自动翻译和人工校对等步骤实现了多语言支持。

实验结果显示,大多数 LLM 在多轮对话中的表现显著下降。以 o1-preview 模型为例,其在第一轮的平均准确率为87.7%,但到了第三轮下降至70.7%。特别是在非拉丁文字的语言中,如印地语、俄语和中文,模型的表现普遍低于英语,显示出在多语言任务上的局限性。

在对14种前沿语言模型的评估中,o1-preview 和 Llama3.1405B 表现最佳,三轮指令的平均准确率分别为78.9% 和78.1%。然而,在多轮对话中,所有模型的指令遵循能力普遍下降,反映出模型在复杂任务中的挑战。研究团队还引入了 “指令遗忘率”(IFR)来量化模型在多轮对话中的指令遗忘现象,结果显示高性能模型在这方面的表现相对较好。

Multi-IF 的发布为研究人员提供了一个具有挑战性的基准,推动了 LLM 在全球化和多语言应用中的发展。这一基准的推出,不仅揭示了当前模型在多轮、多语言任务中的不足,也为未来改进提供了明确方向。

论文:https://arxiv.org/html/2410.15553v2

划重点:

🌍 Multi-IF 基准覆盖八种语言,包含4501个三轮对话任务,评估 LLM 在复杂场景中的表现。

📉 实验显示,多数 LLM 在多轮对话中的准确率显著下降,尤其在非拉丁文字的语言中表现较弱。

🔍 o1-preview 和 Llama3.1405B 模型表现最佳,三轮指令的平均准确率分别为78.9% 和78.1%。