首页 > DIY外设 > 显卡 > 应用> 正文

【AI时刻】“我免费了!”谷歌推出开源AI语言模型Gemma

月亮背面的外星人 编辑: 孙奥睿 发布于:2024-02-22 12:22 PConline原创

  最近的AI圈有点太热闹了,各大科技巨头纷纷展示其技术实力。Google前脚推出了Gemini 1.5版本,炫耀其强大的技术能力。后脚,OpenAI以其Sora就实现了压倒性的胜利,似乎为“GO”(Google和OpenAI)之间的这场AI竞赛画上了句号。然而,就在昨晚,Google悄然发布了一项新技术,犹如一枚小型炸弹,旨在重新平衡这场竞技的比分,使比赛再次充满悬念。

  它就是基于Gemini技术并实现了开源的Gemma,这是一款轻量级、先进的开源模型,供开发者和研究人员用于AI构建。Gemma模型系列包括了两个版本,分别是Gemma 2B和Gemma 7B,这些模型在技术架构和基础设施方面与Gemini保持一致,确保了在各自的规模类别中,二者都能实现对同级对手的超越。

  Gemma模型的设计理念使其不仅能够在开发者的个人笔记本电脑或桌面电脑上运行,而且在关键的基准测试中其表现皆优于其他体量更大的模型。

截止到发稿日,Gemma已经开启使用体验

  Gemma的主要特点

轻量级、高性能模型

  Gemma模型以轻量级和高性能脱颖而出,其中包括Gemma 2B和Gemma 7B两种规模,均提供预训练版本和可通过指令优化的变体。在相应尺寸范围内的模型比较中,Gemma模型展现了不错的能力,尤其在处理复杂的任务时,其效率和精确度中更是部分成绩超过了Meta开发的LLama(其是目前最流行使用的开源LLM)。

在谷歌官方给出的测试成绩中,Gemma 7B的模型成绩已经完全超过LLama-2 13B模型的成绩

跨框架工具链支持

  Gemma模型的设计理念是兼容性和灵活性,从而支持业界主流的框架,包括JAX、PyTorch和TensorFlow。通过原生Keras 3.0的支持,不仅能够进行高效的推理操作,也支持监督式微调(SFT),满足了不同开发者的需求和在多样化的开发环境中的使用。

易于入门和集成

  开发者可以利用Gemma模型提供的Colab和Kaggle快速启动和运行项目。此外,Gemma模型与Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM等行业内的流行工具集成无缝,使得开发者无需在集成工具上花费大量时间,即可专注于模型的高效应用。

高效的运算能力

  为了达到行业领先的性能标准,Gemma模型针对多个AI硬件平台进行了优化,特别在NVIDIA GPU和Google Cloud TPU上展现了出色性能。与NVIDIA的紧密合作进一步确保了不论是在数据中心、云端还是本地搭载RTX显卡的个人电脑上,Gemma模型都能提供一流的性能和技术整合。

可能带来的影响

  之前我们也在AI时刻的文章中说过,想要在移动侧跑AI模型,模型的参数量就是一个最大的限制,越大的参数量会消耗越多的性能与内存,对移动端的综合体验是不利的,而Gemma的出现,让小参数量模型也可以实现不错的性能表现。

《【AI时刻】想在手机上本地跑AI?还是让子弹飞一会吧!》

  尤其是Gemma模型的2B版本特别值得关注,它是在轻量级AI模型领域的一次重大突破。传统上,小参数量的模型通常意味着必须在性能上作出妥协,但Gemma 2B通过先进的优化算法和结构设计,成功在保持模型体积小巧的同时,实现了与更大模型相媲美的性能。

  这对移动端AI的发展具有深远的意义。首先,它使得在资源受限的设备上运行复杂的AI应用成为可能,从而拓展了AI技术在移动和边缘计算领域的应用范围。这不仅提升了用户体验,而且为在移动设备上实现实时数据处理、增强现实(AR)、个性化推荐等高级功能打开了大门。

  甚至未来,我们可以看到在智能手表、AI智能戒指等设备上看到小参数量模型的身影,让这些设备也具备轻度的AI处理能力,大大丰富其使用功能。

  另外,由于Gemma实现了开源,其可以允许开发者对其进行商业化的应用,那么在今年的手机端AI应用中,我们预计,在今年,市场上将涌现出一系列由Gemma或与Llama模型协同开发的创新产品。这些产品的问世标志着手机端AI应用迈向了一个新的里程碑。

AI   Gemma   谷歌   谷歌AI   谷歌Gemini   Gemini
月亮背面的外星人

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部