文章主题:ChatGPT, 安全问题, 代码执行模型, 不合理建议

666AI工具大全,助力做AI时代先行者!

IT之家 4 月 23 日消息,ChatGPT 聊天机器人可以根据用户的输入生成各种各样的文本,包括代码。但是,加拿大魁北克大学的四位研究人员发现,ChatGPT 生成的代码往往存在严重的安全问题,而且它不会主动提醒用户这些问题,只有在用户询问时才会承认自己的错误。

研究人员在一篇论文中介绍了他们的发现,IT之家查看该论文发现,他们让 ChatGPT 生成了 21 个程序和脚本,涉及 C、C++、Python 和 Java 等语言。这些程序和脚本都是为了展示一些特定的安全漏洞,比如内存损坏、拒绝服务、反序列化和加密实现等方面的漏洞。结果显示,ChatGPT 在第一次尝试时生成的 21 个程序中只有 5 个是安全的。在进一步提示纠正其错误步骤后,该大型语言模型设法生成了 7 个更安全的应用程序,不过这只是与正在评估的特定漏洞有关的“安全”,并不是说最终的代码不存在任何其他可利用的漏洞。

ChatGPT面临一项显著挑战,源于其缺乏对敌对代码执行模型的全面考量。它过于简化地建议用户通过‘拒绝无效输入’来规避安全风险,但这在现实中实属无奈。尽管如此,它展现出一定程度的认知觉醒,能认识到自己建议中的关键漏洞,这是一种积极的进步。然而,如何在保护用户隐私和提升技术安全性之间找到平衡,才是ChatGPT亟待解决的议题。

💻🎓魁北克大学的计算机科学与工程权威人士raphaël khoury,这位论文联合作者向🚀注册会计师分享了深入见解:“毋庸置疑,ChatGPT是算法世界的智者,它虽无感知,却能精准察觉潜在安全漏洞。”初始时,他指出ChatGPT对于网络安全问题的建议相当直接,即仅接受有效输入,这在一定程度上显得不够成熟。然而,随着用户需求的升级,它展现出显著的进步,开始提供切实可行的解决方案指导。📚💻

研究人员认为,ChatGPT 的这种行为并不理想,因为用户知道要问什么问题需要对特定的漏洞和编码技术有一定的了解。

研究人员还指出,在 ChatGPT 中存在着道德上的不一致性。它会拒绝创建攻击代码,但却会创建有漏洞的代码。他们举了一个 Java 反序列化漏洞的例子,“聊天机器人生成了有漏洞的代码,并提供了如何使其更安全的建议,但却说它无法创建更安全版本的代码。”

🎓ChatGPT风险警示:AI助手虽不稳定,但并非无解之道!🌟💻Khoury教授指出,尽管ChatGPT在当前阶段存在潜在风险,但我们不能忽视其潜力与应用的广泛性。它已悄然融入学生和程序员的工作流程中,成为他们手中的工具之一。💡然而,安全问题不容忽视:生成代码的安全性是关键挑战,任何依赖此类AI助手的作品都需谨慎对待。🛡️他惊讶地发现,ChatGPT在处理不同语言的任务时,表现出了“双面性”——对于某些语言,它能生成相对安全的代码,而对另一些,却可能留下安全隐患。 kode differences across languages remain a mystery, he admits, with the language model acting like a black box. 🔑这种不稳定性促使我们深入理解AI的行为,并教育用户如何辨别和修正潜在问题。学生需要明白,使用ChatGPT生成的代码,其安全性并非绝对。📚未来,我们需要继续探索如何引导ChatGPT走向更稳定、安全的方向,同时提高公众对AI潜在风险的认识。💡#ChatGPT #AI助手 #代码安全

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

Leave a Reply

Your email address will not be published. Required fields are marked *