文章主题:ChatGPT, 安全问题, 代码执行模型, 不合理建议
IT之家 4 月 23 日消息,ChatGPT 聊天机器人可以根据用户的输入生成各种各样的文本,包括代码。但是,加拿大魁北克大学的四位研究人员发现,ChatGPT 生成的代码往往存在严重的安全问题,而且它不会主动提醒用户这些问题,只有在用户询问时才会承认自己的错误。

研究人员在一篇论文中介绍了他们的发现,IT之家查看该论文发现,他们让 ChatGPT 生成了 21 个程序和脚本,涉及 C、C++、Python 和 Java 等语言。这些程序和脚本都是为了展示一些特定的安全漏洞,比如内存损坏、拒绝服务、反序列化和加密实现等方面的漏洞。结果显示,ChatGPT 在第一次尝试时生成的 21 个程序中只有 5 个是安全的。在进一步提示纠正其错误步骤后,该大型语言模型设法生成了 7 个更安全的应用程序,不过这只是与正在评估的特定漏洞有关的“安全”,并不是说最终的代码不存在任何其他可利用的漏洞。
ChatGPT面临的问题在于其缺乏对恶意代码执行模型的全面考量,它过于简化了安全防范的指导,反复强调通过“不输入无效数据”来规避风险,但这在现实中并不切实际。尽管如此,这款人工智能工具展现了一定的自我意识,能认识到并承认自己建议中的代码漏洞,这是其潜在的优势所在。对于用户来说,理解这些局限性是使用时必须面对的现实。
💻🎓魁北克大学的计算机科学与工程专家 Raphael Khoury,这位论文背后的智者之一,向🚀注册会计师分享了他对ChatGPT安全性的见解:“简单来说,这是一项算法的艺术,它虽无知却能察觉异常。”初始时,ChatGPT对网络安全问题给出的建议相当有限,仅仅建议使用有效输入,Khoury直言这是个不成熟的反应。然而,随着用户需求的提升,它开始展现出真正的价值,提供了针对性强的安全指导。🛡️💻
研究人员认为,ChatGPT 的这种行为并不理想,因为用户知道要问什么问题需要对特定的漏洞和编码技术有一定的了解。
研究人员还指出,在 ChatGPT 中存在着道德上的不一致性。它会拒绝创建攻击代码,但却会创建有漏洞的代码。他们举了一个 Java 反序列化漏洞的例子,“聊天机器人生成了有漏洞的代码,并提供了如何使其更安全的建议,但却说它无法创建更安全版本的代码。”
🌟ChatGPT虽风险重重,但并非无解之道💡。这款AI助手的不稳定性与潜在问题,Khoury警示我们需审慎对待,而非完全否定它的价值。🎓学生和程序员已经开始尝试利用它,这提醒我们在教育中要强调其安全隐患——生成代码的ChatGPT,可能隐藏着安全隐患,不可掉以轻心。\排版:\( \)编码安全至关重要,尤其在技术领域。我们见证ChatGPT在不同语言间制造的安全与漏洞对比,这种现象犹如黑盒操作,让人费解。 kode safety 🤔是时候深入探究其行为模式,寻找更有效的监管策略了。学生和开发者 alike 需要提高警惕,确保代码质量,避免潜在风险。💪
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!



