微软推出了新的安全、隐私和安全功能,以帮助企业更好地使用生成性AI应用程序。
这家科技巨头于9月24日推出了新功能,包括Azure AI Studio中的评估、纠正、嵌入式内容安全和机密推理。
Azure中的评估支持安全风险评估,云服务提供商表示。
微软Azure AI内容安全的“基础性检测”功能中的纠正能力可以在用户看到之前修复幻觉。
嵌入式内容安全允许客户在设备上使用Azure AI内容安全。
Azure OpenAI服务的Whisper语音转文本模型中的机密推理使客户能够开发支持端到端隐私的生成性AI应用程序。
生成性AI的挑战
微软的新AI安全功能是科技供应商在克服企业使用生成性AI工具和应用程序时面临的一系列挑战中的最新尝试。
尽管市场正在从创意构思阶段转向实施阶段,但幻觉问题仍然困扰着许多生成性AI模型,即AI模型输出虚假信息。
“组织需要克服许多这些挑战,以便将生成性AI提升到更高的实施水平,”Gartner分析师Jason Wong表示。“这种情况不会很快消失。你只能尝试使用各种技术来减轻它。”
如果不解决这些障碍,生成性AI可能无法达到预期的高度,RPA2AI分析师Kashyap Kompella表示。
“随着客户对AI技术的理解加深,他们意识到需要更好地应对这些挑战,”他说。“否则,生成性AI可能会作为实验项目枯萎,而不是在企业中获得 traction 和规模。”
“组织需要克服许多这些挑战,以便将生成性AI提升到更高的实施水平。”Jason WongGartner分析师
微软并不是唯一一个解决这些生成性AI隐私和安全问题的供应商。例如,在夏季,AWS推出了Amazon Bedrock的Guardrails,可以过滤掉超过一半的幻觉响应,同时阻止超过85%的有害内容。
此外,在5月份,谷歌推出了新的保障措施,如AI辅助红队和专家反馈。
尽管供应商们努力解决AI安全、隐私和安全方面的困难,企业在实施这些工具时仍面临挑战,Wong表示。
“不同供应商之间存在很大的差异,组织所需的技能也不同,以理解如何实施和检查他们所构建的内容在不同模型中的表现,”他说。
从过去中学习
对于微软来说,一些新功能解决了过去的挑战。例如,微软365 Copilot中的新功能——预计下个月发布——将通过允许用户在搜索Copilot时引用网页内容来实现查询透明度。该功能将在链接引用中提供用户提示的确切网页搜索查询。
这样的功能展示了云服务提供商从经验中学习的方式,例如来自《纽约时报》的诉讼,东北大学体验AI研究所的研究主任Ricardo Baeza-Yates表示。
去年,时报起诉微软及其合作伙伴OpenAI侵犯版权。
“这是一个良好的第一步,”Baeza-Yates说。“至少他们对输出的内容给予了正确的归属,我认为这是解决版权评估问题的第一步,当他们[被指控]抓取了受版权保护的内容时。”
Esther Ajao是TechTarget Editorial的新闻撰稿人和播客主持人,专注于人工智能软件和系统。