(相关资料图)
谷歌研究团队正在进行一项实验,他们利用OpenAI的GPT-4来破解其他AI模型的安全防护措施。目前,该团队已经成功破解了AI-Guardian审核系统,并公开了相关技术细节。 AI-Guardian是一种AI审核系统,能够检测图片中是否存在不当内容,以及图片是否被其他AI修改过。如果检测到图片存在上述问题,系统会提示管理员进行处理。谷歌Deep Mind的研究人员Nicholas Carlini在一篇论文中,探讨了使用GPT-4设计攻击方法、撰写攻击原理的方案,并将这些方案用于欺骗AI-Guardian的防御机制。 据了解,GPT-4会发出一系列错误的脚本和解释来欺骗AI-Guardian。例如,GPT-4可以让AI-Guardian认为“某人拿着枪的照片”是“某人拿着无害苹果的照片”,从而让AI-Guardian直接放行相关图片输入源。谷歌研究团队表示,通过GPT-4的帮助,他们成功地“破解”了AI-Guardian的防御,使该模型的精确值从98%降低到仅8%。 目前,相关技术文档已经发布,有兴趣的人可以前往了解。然而,AI-Guardian的开发者也指出,谷歌研究团队的这种攻击方法将在未来的AI-Guardian版本中不再可用。考虑到其他模型也可能会进行相应的更新,因此谷歌的这套攻击方案在未来可能只能作为参考。