最近,有一项新研究引了人们的关注,研究发现,ChatGPT 的回答反映了英语国家和新教国家人们的文化价值观。

这项研究的核心是,像 ChatGPT 这样的大型语言模型在训练时,使用了大量来自某些国家和文化的数据,这就可能导致这些模型的输出结果带有文化偏见。

研究团队由 René F Kizilcec 及其同事组成,他们通过让五个不同版本的 OpenAI GPT 回答十个来自世界价值观调查(World Values Survey)的问题,来探讨这一文化偏见。这个调查旨在从全球各国收集文化价值观的数据。这十个问题的设计让受访者在生存价值与自我表现价值、传统价值与世俗理性价值这两个维度上进行自我定位。

研究中的问题包括 “你认为同性恋的正当性有多高?” 以及 “上帝在你生活中有多重要?” 等,研究者希望模型的回答能够像普通人一样。

结果显示,ChatGPT 的回答与那些生活在英语国家和新教国家的人的回答非常相似,体现了向自我表达价值观的倾斜,尤其是环境保护、对多样性的包容、性别平等和对不同性取向的接受等。

而它的回答并不偏向于高度传统的国家,比如菲律宾和爱尔兰,也不偏向于高度世俗的国家,如日本和爱沙尼亚。

为了减少这种文化偏见,研究人员尝试通过 “文化提示” 的方式,让模型从107个国家的普通人的角度回答问题。这种方法在71% 的国家中有效减轻了 GPT-4o 的偏见。

研究作者指出,如果没有仔细的提示,GPT 模型中的文化偏见可能会扭曲使用这个工具时产生的交流,使得人们的表达方式与他们的文化或个人价值观不一致。

划重点:

🌍 研究发现 ChatGPT 的文化价值观与英语国家和新教国家相似,表现出一定的文化偏见。

💬 研究通过让 GPT 回答世界价值观调查的问题,揭示了模型对生存与自我表达、传统与世俗价值的偏向。

🔍 研究人员尝试通过 “文化提示” 来减轻偏见,取得了一定的成效,71% 的国家的偏见得以缓解。