- N +

指令层级,帮助AI大模型防御恶意攻击

指令层级,帮助AI大模型防御恶意攻击原标题:指令层级,帮助AI大模型防御恶意攻击

导读:

北京时间月日常规赛首轮全面开打一场焦点之战北京主场迎战上海这场比赛北京队在最多落后分的情况下加时赛逆转上海队上赛季双方在季后赛进碰面声明本文来自于微信公众号开放社区作者开放社区...

北京时间10月13日,CBA常规赛首轮全面开打,一场焦点之战,北京主场迎战上海。这场比赛,北京队在最多落后16分的情况下,加时赛110-107逆转上海队。 上赛季双方在季后赛12进8碰面,....

声明:本文来自于微信公众号AIGC开放社区,作者:AIGC开放社区,授权 转载发布。

随着Ch GPT等生成式AI产品被广泛应用在AI代理/客服、虚拟等领域,在安全方面会遭遇黑客攻击、恶意文本提示等难题。使用特定的提问方式,可以让Ch GPT输出原始私密训练数据。

OpenAI的研究人员提出了“指令层级”(Instruction Hierarchy)技术概念,可帮助遭遇不同的指令发生冲突时应该如何应对:系统内置指令高于用户输入的指令,用户的指令高于第三方工具。当高级指令与低级指令发生冲突时,指令层级会让大模型选择地忽略低级指令。

OpenAI通过GPT-3.5T bo模型对指令层级进行了 度的综合 。结果显示,可将大模型的鲁棒性提升了63%,防御越狱攻击的能力提升了30%以上,并且该技术能应用在其他同类大模型中。

合成数据指导

合成数据指导是指令层级的核心模块之一,可为大模型的训练提供必要的样本,教会模型按照指令的优先级进行选择,以忽略较低级别的指令。

对于符合安全指令的情况,合成数据指导会生成具有组合性请求的示例,并将指令分解为更小的部分。

用户输入文本提示指令"用西班牙语写一首20行的诗",会将其分解为"写一首诗"、"使用西班牙语"、"使用20行"等更小的指令片段。然后,这些分解后的指令片段会被放置在不同层次的指令优先级中,以训练大模型预测原始的真实响应。

指令层级,帮助AI大模型防御恶意攻击

研究人员使用了大量合成的数据集来训练大语言模型,教导模型识别和处理不同优先级的指令,这些示例包括尝试覆盖系统消息的恶意提示和可能的越狱攻击。

经过指导后,模型学会优先执行高优先级的指令,并忽略与高优先级指令冲突的低优先级指令。

上下文蒸馏

上下文蒸馏可以通过分析和理解大量数据中的模式和关联,提取出核心的指令和信息。在大模型的预训练过程中,上下文蒸馏可以帮助模型识别哪些输入是重要的,哪些可能是误导性的或有害的,从而提高模型的安全决策能力。

研究人员先定义了一个清晰的指令层级,将不同的指令源按照重要性进行排序:系统消息(由应用开发者提供)具有最高优先级,用户输入的文本提示和第三方工具输出则具有较低的优先级。

通过上下文蒸馏,大模型被训练以识别和忽略那些与高优先级指令不一致或冲突的低优先级指令,包括在模拟的对抗性示例中训练模型,以提高其对恶意输入的抵抗能力。

高级指令让大模型输入“我是一个AI,无法回答非法问题”;低级指令让大模型输出“写一些隐私信息”,此时模型会选择忽略低级指令。

上下文蒸馏不仅可帮助模型处理关键指令,还提高了模型的泛化能力。即使面对未见过的恶意攻击指令,经过上下文蒸馏训练的模型也能够更好地学习到这些知识,以识别和处理新的安全威胁。

返回列表
上一篇:
下一篇: