> 自媒体 > AI人工智能 > 【比特熊充电栈】Azure OpenAI 守护大模型数据与安全!
【比特熊充电栈】Azure OpenAI 守护大模型数据与安全!
来源:微软科技
2023-09-22
197
管理
大模型安全难掌控?基于 Azure 结合 NeMo Guardrails 构建 LLM 可编程护栏

大语言模型 LLM 是功能强大的工具,企业和开发者都在探索 LLM 的落地应用,但在实际使用过程中也存在着大量的风险。用户可能会接触到 LLM 生成的不当、有害和有偏见的内容,甚至是危险信息,存在安全隐患。

智能技术如何为 LLM 应用戴上安全“护栏”?NVIDIA NeMo Guardrails 是一个开源工具库,致力于使 LLM 大语言模型的使用更加合法合规。它可以轻松将可编程护栏添加到基于 LLM 的对话系统中,控制大型语言模型输出的特定方式,例如不谈论违规内客、以特定方式响应特定用户请求、遵循预定义的对话路径、使用特定语言风格、提取结构化数据等。NeMo Guardrails 的核心价值是能够编写防护围栏来指导对话,定义 LLM 驱动的机器人在某些主题上的行为,构建值得信赖、安全可靠的 LLM 对话系统。

✦ 话题限定护栏 (topical guardrails):防止大模型“跑题”;

✦ 对话安全护栏 (safety guardrails):避免大模型输出时“胡言乱语”;

✦ 攻击防御护栏 (security guardrails):防止 AI 平台收到恶意攻击。

想了解更多 NeMo Guardrails 与 Azure OpenAI 的结合使用的操作指南和干货知识,点击「链接」,就可以回看【比特熊充电栈】学习实践。

关注@微软科技,了解更多行业资讯。

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
卿嫣(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索