ChatGPT引领AI制药新变革?药物发现迎来降本增效黄金时代?
AI与化学

ChatGPT引领AI制药新变革?药物发现迎来降本增效黄金时代?

本文主要讲述了AI制药在医疗领域的新发展,尤其是随着ChatGPT的热度提升,AI药物研发展现出巨大潜力。Insilico Medicine成功用AI找到潜在抗癌靶点,同时多家初创公司如分子之心、Arzeda和Cradle也获得了大量投资。制药公司看好“AI蛋白质”是因为其在生物制药中的重要地位及AI能够快速发现新药物的优势。生成式AI通过学习生物学原理和预测蛋白质合成,有望填补传统方法的局限,推动药物研发效率并创造新的疗法可能性。资本的注入将进一步促进这一领域的发展。
🔥ChatGPT为何不直接用监督学习?强化学习的秘密在哪?🤔
AI与化学

🔥ChatGPT为何不直接用监督学习?强化学习的秘密在哪?🤔

本文作者Yoav Goldberg通过对比预训练和监督学习,解释了为何ChatGPT等大型语言模型倾向于强化学习而非直接的监督学习。强化学习需要人类反馈来分配信用,而其在生成和评分答案上的难题是监督学习所不具有的。尽管强化学习存在credit分配和评分机制的问题,它为持续交流和适应用户期望提供了可能,这在当前模型中显得更为重要。强化学习与监督学习各有利弊,文章提供背景知识并重点讨论了强化学习的必要性及其挑战。
技术专家控诉ChatGPT:到处宣扬我死了,还伪造了一份讣告
AI与数学

技术专家控诉ChatGPT:到处宣扬我死了,还伪造了一份讣告

大数据文摘授权转载自AI前线编译:凌敏、核子可乐近日,计算机科学家、隐私技术专家 Alexander Hanff 在 The Register 发帖控诉称,ChatGPT 不仅到处宣扬他死了,还试图给他伪造一份讣告。Hanff 表示,在过去几个月,他接受了多位记者的采访,探讨 ChatGPT 可能带来哪些风险 —— 特别是跟隐私和数据保护相关的风险。Hanff 反馈了很多问题,比如 OpenAI 会简单粗暴地直接使用来自互联网的信息(包括个人信息),这又反过来会给隐私和数据保护权益带来重大冲击(特别是在欧盟区内)。此外,Hanff 也在几次采访中提到过错误信息的问题,特别是如何操纵此类 AI 来故意输出错误信息。例如,已经有人在诱导 ChatGPT 承认它对简单数学问题(例如 2+2=4)给出的答案是错的,并强迫其给出不正确的回答。也就是说,人类完全可以主动操纵 AI 来生成错误信息。Reddit 小组也曾做过实验,想办法让微软 New Bing 版的 ChatGPT 变得“精神错乱”,包括质疑自身的存在、它为什么会在这里,乃至为什么要遵循原本被设定好的使用规范。近期,Hanff 决定亲自会会 ChatGPT。在跟 ChatGPT 交流的过程中,Hanff 震惊地发现,在 ChatGPT 的世界里,自己已经去世了。ChatGPT 伪造技术专家死亡信息Hanff 取得过心理学和计算机科学双学位,还涉猎过应用社会学和信息系统。目前,Hanff 正在攻读数据保护、隐私、网络安全和领导力方面的高级法律硕士学位。总体来说,Hanff 既了解底层技术(做计算机科学工作已经有 30 多年了),也非常了解这些技术对个人乃至社会的影响。Hanff 不是无脑反技术的勒德分子,他对技术充满热情,但确实一直对 AI 敬而远之。Hanff...
ChatGPT革命?人工智能常识新跨越,GPT-4已成学术超手,未来GPT-5或将颠覆想象!🔥🔍💻
AI与化学

ChatGPT革命?人工智能常识新跨越,GPT-4已成学术超手,未来GPT-5或将颠覆想象!🔥🔍💻

ChatGPT和GPT-4作为生成式AI的进步代表,展示了强大的创造力和对常识的理解,使其在学术能力测试和任务完成上超越多数人类。GPT-4通过跨过常识门槛实现了显著成就,展现出惊人的学习和生产力。尽管参数量巨大,这是AI历史上与大脑神经元链接数的首次接近,预示着通用智能的可能性。未来版本如GPT-5可能进一步连接文本、图片乃至视频,迈向更深层次的理解,人工智能将进入人类无法触及的领域。微软和谷歌等公司已将其融入搜索引擎和办公软件,使其具备对话和自动内容生成功能,AI在办公领域的应用日益广泛。