谷歌在去年年底发布Gemini 3 Pro时,为该公司专有大语言模型技术迈出了重要一步。如今,谷歌正通过发布全新Gemma 4开源权重模型系列,将构建这些模型的相关技术和研究成果带给开源社区。
谷歌提供四个不同版本的Gemma 4模型,它们的区别在于参数数量。针对边缘设备(包括智能手机),谷歌推出了20亿和40亿参数的"Effective"模型。对于更强大的机器,则有260亿参数的"专家混合"模型和310亿参数的"密集"模型。对于不熟悉的用户来说,参数是大语言模型可以调整以生成输出的设置。通常情况下,参数更多的模型会提供更好的答案,但运行它们也需要更强大的硬件支持。
对于Gemma 4,谷歌声称已经成功开发出具有"前所未有的单参数智能水平"的系统。为了支撑这一说法,公司指出Gemma 4的310亿和260亿参数版本的表现,它们在Arena AI的文本排行榜上分别获得第三和第六名,击败了比它们大20倍的模型。
所有模型都能处理视频和图像,使它们非常适合光学字符识别等任务。两个较小的模型还能处理音频输入并理解语音。另外,谷歌表示Gemma 4系列能够生成离线代码,这意味着你可以在没有互联网连接的情况下使用它们进行编程。谷歌还在140多种语言上训练了这些模型。
谷歌在Apache 2.0许可证下发布Gemma 4系列。此前该公司通过自己的Gemma许可证提供Gemma模型。此举将为人们根据需求修改新系统提供更大的自由度。
"这个开源许可证为开发者的完全灵活性和数字主权提供了基础,让你完全控制自己的数据、基础设施和模型,"谷歌表示。"它允许你自由构建并在任何环境中安全部署,无论是本地还是云端。"
如果你想亲自尝试其中一个系统,模型权重可通过Hugging Face、Kaggle和Ollama获取。
Q&A
Q1:Gemma 4有哪些不同版本?
A:Gemma 4提供四个版本:针对边缘设备的20亿和40亿参数"Effective"模型,以及针对更强大机器的260亿参数"专家混合"模型和310亿参数"密集"模型。
Q2:Gemma 4模型有什么特殊能力?
A:所有Gemma 4模型都能处理视频和图像,适合光学字符识别等任务。较小的两个模型还能处理音频输入和语音理解,所有模型都能生成离线代码并支持140多种语言。
Q3:如何获取和使用Gemma 4模型?
A:Gemma 4在Apache 2.0许可证下发布,模型权重可通过Hugging Face、Kaggle和Ollama平台获取,用户可以自由修改并在本地或云端部署。