帮助中心

2024-08-01

binance交易平台|谷歌宣布人工智能模型的进步,强调安全性和透明度

在最近一项旨在提高人工智能安全性和透明度的发展中,谷歌引入了三种新的生成式人工智能模型。这些型号是 Google Gemma 2 系列的一部分,旨在比许多现有型号更安全、更高效、更透明。


该公司网站上的一篇博客文章指出,新型号——Gemma 2 2B、ShieldGemma 和 Gemma Scope——建立在 5 月推出的原始 Gemma 2 系列的基础上。


与 Google 的 Gemini 模型不同,Gemma 系列是开源的。这种方法反映了 Meta 的 Llama 模型策略,旨在为更广泛的受众提供可访问、强大的 AI 工具。


Gemma 2 2B 是一个用于生成和分析文本的轻量级模型。它的用途广泛,可以在各种硬件上运行,包括笔记本电脑和边缘设备。它能够在不同的环境中运行,使其成为寻求灵活 AI 解决方案的开发人员和研究人员的一个有吸引力的选择。


同时,ShieldGemma 模型专注于通过充当安全分类器的集合来增强安全性。ShieldGemma 旨在检测和过滤有毒内容,包括仇恨言论、骚扰和色情内容。它在 Gemma 2 之上运行,提供了在当今数字环境中至关重要的内容审核层。


据谷歌称,ShieldGemma 可以将提示过滤到生成模型和生成的内容,使其成为维护 AI 生成内容完整性和安全性的宝贵工具。


Gemma Scope 模型使开发人员能够更深入地了解 Gemma 2 模型的内部工作原理。根据谷歌的说法,Gemma Scope由专门的神经网络组成,可以帮助解开Gemma 2处理的密集,复杂的信息。

image.png

通过将这些信息扩展为更易于解释的形式,研究人员可以更好地了解 Gemma 2 如何识别模式、处理数据和做出预测。这种透明度对于提高人工智能的可靠性和可信度至关重要。


解决安全问题和政府认可

谷歌推出这些模型也是在Microsoft工程师Shane Jones发出警告之后推出的,他对Google的AI工具创建暴力和色情图像并无视版权表示担忧。


这些新模型的发布恰逢美国商务部的初步报告支持开放人工智能模型。该报告强调了让小型公司、研究人员、非营利组织和个人开发者更容易获得生成式人工智能的好处。


然而,它也强调了监测这些模型的潜在风险的重要性,强调了采取像ShieldGemma中实施的安全措施的必要性。