产品展示

为生成性人工智能应用构建深度防御安全架构,参考OWASP LLMs的十大风险 机器学习博客


设计生成式人工智能应用程序的深度防御安全策略

关键要点

生成式人工智能AI应用程序依赖于大型语言模型LLMs,其安全性至关重要。本文提供了采用 OWASP Top 10 的安全最佳实践,以便于提升生成式 AI 应用的安全性,帮助团队在设计和实施过程中识别和管理安全风险。

引言

生成式人工智能AI应用程序基于大型语言模型LLMs的可靠性为企业创造和加速经济价值提供了巨大潜力。随着对生成式 AI 应用程序的需求不断增加,许多企业在如何管理安全、隐私和合规性方面都寻求指导。实现这种应用的成功需要在设计和架构阶段就意识到 LLM 的漏洞、威胁和风险。

为生成性人工智能应用构建深度防御安全架构,参考OWASP LLMs的十大风险 机器学习博客

本文旨在为 AI 和机器学习ML工程师、数据科学家、解决方案架构师、安全团队及其他利益相关者提供一个通用的思维模型和框架,应用安全最佳实践,使 AI/ML 团队能够迅速推进项目,而无需在速度和安全之间妥协。通过采用 OWASP Top 10 针对 LLM 应用的安全问题,团队能够识别和解决潜在风险。

本文提供了三个步骤,帮助在开发生成式 AI 应用程序的过程中架构风险管理策略。首先,我们探讨 LLM 解决方案实施、部署和使用中的各种漏洞、威胁和风险,并提供安全创新的指导。接下来,讨论构建安全基础的重要性。最后,我们通过一个示例 LLM 工作负载,展示如何跨信任边界架构深度防御安全。

最终,AI/ML 工程师、数据科学家和关注安全的技术专家将能够识别为生成式 AI 应用架构分层防御的策略,了解如何将 OWASP Top 10 中的安全关注点映射到相应的控制措施,并为回答以下关键问题打下基础:

使用 LLM 的生成式 AI 在我的应用程序中有哪些常见的安全和隐私风险,我能通过这些指导做出何种影响?在 AWS 上为生成式 AI LLM 应用程序实施安全与隐私控制有哪些方法?我可以将哪些运营和技术最佳实践整合到我的组织构建生成式 AI LLM 应用程序的方式中,以管理风险并提高对生成式 AI 应用程序的信心?

提高生成式 AI 开发中的安全性结果

使用 LLM 进行生成式 AI 创新必须在安全意识的基础上进行,以提高组织的韧性,确保在安全的基础上构建,并将安全策略整合到深度防御中。安全是 AWS 与客户之间的共享责任。所有 AWS 共享责任模型的原则均适用于生成式 AI 解决方案,因此,构建 LLM 解决方案时应更新对 AWS 共享责任模型的理解。

从安全出发以发展组织韧性

确定针对生成式 AI 应用程序的安全及合规目标,是构建组织韧性的重要基础。当评估开发生成式 AI 及 LLM 的全面准备情况时,应考虑安全形势、治理和运营优秀性。随着组织在如生成式 AI 和 LLM 等新兴技术的使用上取得进展,应将整体组织韧性视为保护资产和业务线免受意外后果的分层防御策略的基石。

组织韧性对 LLM 应用程序的重要性

虽然所有风险管理程序都可以从韧性中受益,但对于生成式 AI 来说,组织韧性尤为重要。OWASP 确定的 LLM 应用程序的十大风险中,有五项风险依赖于在组织层面定义架构和操作控制,以及执行这些控制。这五项风险包括不安全的输出处理、供应链漏洞、敏感信息泄露、过度代理和过度依赖。

在生成式 AI 周围建立组织韧性

组织应开始采用建立 AI/ML 和生成式 AI 安全能力的方式。应从扩展现有的安全、保障、合规和开发计划开始,纳入生成式 AI 的考量。以下是组织 AI、ML 和生成式 AI 安全的五个关键关注领域:

国外梯子理解 AI/ML 安全格局在安全策略中包括多样视角主动推动保障研发活动的安全与组织目标保持一致为 AI/ML 和生成式 AI 准备理想的安全场景

在生成式 AI 生命周期中开发威胁模型

开发生成式 AI 应用程序的组织应专注于风险管理,而不是风险消除,并在生成式 AI 工作负载的规划、开发和运营中纳入威胁建模和业务连续性规划。通过为每个应用程序开发威胁模型,识别可接受的风险并加以管理,帮助企业实现其业务目标。

在云基础设施上构建生成式 AI 应用程序

在 AWS,安全是我们的首要任务。AWS 被设计为构建、迁移和管理应用程序及工作负载的最安全的全球云基础设施,这背靠着我们超过 300 种云安全工具的深厚基础及数百万客户的信任,包括政府、医疗及金融等最关心安全的组织。利用 AWS 构建生成式 AI 应用程序时,您将从安全、可靠且灵活的 AWS 云计算环境中受益。

在 AWS 全球基础设施中实现安全、隐私与合规

当在 AWS 上开发数据密集型应用程序时,可以利用 AWS 全球区域基础设施,这一基础设施的架构旨在满足关键的安全和合规要求。借助于我们的数字主权承诺,我们致力于提供云中最先进的主权控制和功能。欲了解有关架构隐私解决方案的信息,请参阅如下资源:

AWS 安全参考架构AWS 隐私参考架构

了解您的安全状况使用 AWS WellArchitected 和云采用框架

AWS 提供了最佳实践指导,帮助客户架构云环境,并从云技术中实现业务价值。通过执行 WellArchitected 框架审查,了解您的 AI、ML 和生成式 AI 工作负载的安全状况。您可以借助 AWS WellArchitected 工具来评估本最佳实践是否已得到应用,以及是否存在改善的机会。

利用最佳实践指导、安全培训和认证加速安全与 AI/ML 的学习

AWS 汇总了安全、身份与合规最佳实践建议。若您刚入门,请考虑从 AWS 安全基础知识 开始,并查看 AWS 安全学习计划。AWS 安全成熟度模型将有助于指导您找到并优先考虑各阶段的最佳活动。

应用深度防御策略确保 LLM 应用安全

针对生成式 AI 工作负载、数据与信息采用深度防御安全策略,可以创造出实现业务目标的最佳条件。深度防御安全策略通过多层冗余防御,帮助保护 AWS 账户、工作负载、数据和资产,确保在任何一项安全控制遭到攻击或失效的情况下,依然可以通过额外的层次进行威胁隔离、检测、响应及恢复。

在 LLM 应用程序中的信任边界处分层防御

在开发基于生成式 AI 的系统和应用程序时,要考虑与任何其他 ML 应用程序相同的担忧。应审查任何模型、插件、工具或数据的来源,评估并减轻供应链中的安全漏洞。通过威胁模型来识别并缓解可能导致业务影响的安全威胁。

分析及降低 LLM 应用中的风险

通过信任边界及互动分析,识别并讨论基于相似控制范围和风险档案的风险缓解技术。以下是一个基于 LLM 的聊天应用程序示例架构,其中定义了五个信任边界:

用户界面交互请求和响应应用交互模型交互数据交互组织交互与使用

结论

要成功商业化任何新兴技术的创新,需要以安全为优先,建立安全基础设施,并在每个技术栈层面上考虑安全的进一步整合。通过结合 AWS 安全服务与生成式 AI 应用程序,您可以增强安全性,优化合规管理,并为员工、客户、合作伙伴及监管机构提供更高的信心。

Gravy Analytics 据称被黑客攻击 媒体

Gravy Analytics 数据泄露事件关键要点美国位置追踪公司 Gravy Analytics 被俄罗斯语黑客攻破,导致大规模数据泄露。数据泄露涉及近 14 GB 的敏感信息。此事件发生在美国联...