最近在东京举办的 Gemma 开发者日上,谷歌正式推出了新的日语版本 Gemma AI 模型。这款模型的表现可以与 GPT-3.5媲美,但它的参数量只有仅仅20亿,非常小巧,适合在移动设备上运行。

这次发布的 Gemma 模型,在日语处理上表现出色,同时也保持了其在英语上的能力。对于小型模型来说,这一点特别重要,因为在进行新语言的微调时,它们可能会面临 “灾难性遗忘” 的问题,即新学到的知识会覆盖之前学到的信息。但是 Gemma 成功克服了这个难题,展现了强大的语言处理能力。

更值得一提的是,谷歌还通过 Kaggle 和 Hugging Face 等平台,立即发布了模型的权重、训练材料和示例,帮助开发者更快入门。这意味着,开发者们可以轻松使用这个模型来进行本地计算,尤其是在边缘计算应用中,将会带来更多的可能性。

为了鼓励更多的国际开发者,谷歌还推出了一项名为 “解锁全球沟通与 Gemma” 的比赛,奖金高达15万美元。这个计划旨在帮助开发者将 Gemma 模型适配到本地语言。目前,已经有阿拉伯语、越南语和祖鲁语的项目在进行中。在印度,开发者们正在进行 “Navarasa” 项目,计划将模型优化为支持12种印度语言,而另一个团队则在研究通过微调支持韩语方言。

Gemma2系列模型的推出,旨在用更少的参数实现更高的性能。与 Meta 等其他公司的类似模型相比,Gemma2的表现同样优秀,甚至在某些情况下,2亿参数的 Gemma2还能够超越一些拥有700亿参数的模型,比如 LLaMA-2。开

发者和研究人员可以通过 Hugging Face、谷歌 AI 工作室和谷歌 Colab 的免费计划获取 Gemma-2-2B 模型及其他 Gemma 模型,此外,还可以在 Vertex AI 模型花园中找到它们。

官网入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it

Hugging Face:https://huggingface.co/google

谷歌 Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de

划重点:

🌟 谷歌推出新日语 Gemma AI 模型,性能媲美 GPT-3.5,参数仅2亿,适合移动设备运行。

🌍 谷歌发起 “解锁全球沟通与 Gemma” 比赛,奖金15万美元,鼓励开发本地语言版本。

📈 Gemma2系列模型以少量参数实现高性能,甚至能超越更大模型,提升开发者的应用潜力。