文章主题:ChatGPT, AI安全, 数据保护
🌟2022年底,创新引领者OpenAI揭秘了ChatGPT,这颗闪耀的AI明珠瞬间点亮了生物医药、AI人脸换装及自动图像生成等诸多领域的未来。今年3月,他们再次掀起行业风暴,发布了GPT-4的强大升级,让竞争白热化,也让企业纷纷跟进,迫不及待地将这项革新融入自家产品和服务中。🚀
🌟人工智能引发了全球深入探讨,其潜力与潜在风险并存。近期,备受关注的非营利组织Future of Life Institute发表公开声明,倡议在高级AI研发路上暂停脚步,直至一套详尽、经独立专家审定的共享安全协议得以确立。这一提议得到了科技巨头的支持,特斯拉CEO Elon Musk、苹果联合创始人 Steve Wozniak,以及图灵奖得主 Joshua Bengio等业界巨擘纷纷响应,共签署了这封重要的联名信。🚀
在生物医药的紧要领域,ChatGPT等AI技术的潜在影响引发了深度探讨——是带来威胁还是机遇?人工智能庞大的数据基础无疑提出了信息安全的挑战,数据泄露风险不容忽视。对此,行业领军人物Alex Zhavoronkov博士近日在接受CGTN Global Business的直播访谈中,就AI安全与数据防护议题发表了专业见解。让我们聚焦于如何在科技进步的同时,确保医疗健康领域的数据安全和AI技术的稳健发展。
Q:CGTN;A:Alex Zhavoronkov
Q:从隐私安全角度考虑,生成式人工智能是利大于弊的吗?
A:我觉得是的。
🌟💡在英矽智能,隐私与专利的保护始终是我们的首要原则,这贯穿于我们每一个科研和药物研发环节。🌍🛡️然而,随着科技的发展,隐私风险如同旅行中的护照信息一样难以避免。🤔外出消费的便捷也可能成为泄露银行卡信息的风险点。🚀我们坚信,通过全球数据共享的推动,人工智能的力量能更有效地服务于医疗保健,为人类带来实质性的健康益处。🤝🌍让我们共同努力,以科技守护隐私,以合作创造价值。🌟
Q:您对于近期关于“叫停(GPT-4等大型语言模型)试验”联名信的看法是什么?
A:自2015年来,我就持续关注生成式人工智能技术。2016年,我们发布了第一篇将生成对抗网络(GAN)用于药物发现的同行评议论文,展现了利用AI根据想要的特性生成药物分子的可能性。
在我看来,生成式人工智能并非遥不可及的神秘力量,它本质上是由数学、编程与数据构筑的基石。关于AI可能带来的潜在风险或自我意识的讨论,还处于相当初级的阶段。不论是循环神经网络(RNN)还是Transformer这样的底层算法,目前的大型语言模型和多模态模型在实际应用中并未展现出足以构成威胁的能力。换句话说,它们更像是智慧大厦中的砖瓦,而非颠覆性的技术武器。
🚀埃隆·马斯克对于OpenAI的商业化运作可能持有不同意见,作为早期的支持者,他或许对该公司利用开源技术获取利润的方式感到些许遗憾。这确实引发了关于大型如GPT-4这样的模型如何避免沦为少数大公司专属的担忧,尤其是在监管不足的情况下潜在滥用的风险显著存在。🌟
Q:除隐私问题之外,您觉得AI在健康领域的应用还有什么风险?
A:人工智能生成的内容可能看起来很可信,但实际上有重大的事实性错误,我认为这是比较重大的一个风险。经过大量数据训练之后,人智能可以很自然地回答问题,却不能保证答案的准确性。
举个极端的例子,如果有人上ChatGPT咨询健康问题,然后根据AI的建议去用药,会不会产生健康风险呢?在个人使用方面,我觉得应该通过数据清洗来保证训练数据的准确性,同时加入专业意见干预。
至于在商业方面,AI在健康领域的应用几乎没有面临风险,因为所有算法都需要不断的验证之后才会被保留。
注:本文来自“英矽智能”。
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!