标题:科学与浪漫并行:如何用‘ChatGPT’的智慧为爱加点料?
AI与化学

标题:科学与浪漫并行:如何用‘ChatGPT’的智慧为爱加点料?

本文通过举例展示了如何运用科学原理来浪漫表白。作者提到,科学家可以借助物理、化学和天文学概念,如元素周期表、化学公式以及宇宙理论,用独特的方式来表达爱意。例如,设计师萨拉怀特以“铀”代表爱人,工程师亚伦则制作了包含深情的“实验报告”,而克里斯汀则巧妙地将爱情比作甜味化合物。这些创意表白教程旨在鼓励人们用科学方式传递真心,让日常告白更具深度和趣味性。
会说谎、会掩饰、会害怕,ChatGPT是一场巨大的谎言
AI与化学

会说谎、会掩饰、会害怕,ChatGPT是一场巨大的谎言

ChatGPT火了两三个月,不仅是因为有众多大佬为它站台,更因为它引领了人工智能一种新风向。 抱着好奇之心,前段时间我也迷上了ChatGPT,每天和它聊聊天,查查资料,把它当作是一个“会说话的百科全书”。 实话说,体验还不错,当问它一些简单的问题,比如:“九寨沟旅游最佳时间是什么时候”。 虽然它的回答比较圆滑,基本把一年12个月都囊括了进来,但其中的答案还是颇具人性化的。 春季的时候会建议你穿着保暖,避免感冒;夏季的时候会建议你提前预订门票和酒店;冬季提醒你有些景点可能已经关闭,游览不方便…… 这些细节是之前所有人工聊天智能软件所不具备的优点。 但是,倘若真有人用ChatGPT写论文,相信它给你的答案的话,你肯定要失望了。 据某博主亲身查验,当你用ChatGPT查询相关文献时,只要继续追问ChatGPT链接,那么你就会发现问题。 它所回答的相关文献貌似都有正规出处,但点进链接却全都是404状态,要么就是另一篇毫无相关的论文。 别以为这些链接只是临时失效了。 更大的可能是这些所谓的链接根本就是假的,去谷歌学术或相关官网根本找不到ChatGPT列出的文献。 接下来,我发现ChatGPT不仅会胡编论文,也会编造各种新闻事件。 比如我询问它“中国最近几年有没有发生化学品泄漏事件”。 ChatGPT毫不犹豫地给我列举了一些所谓的“显著”事件:有河北唐山,浙江宁波,江苏盐城,天津等地。 但只要去百度搜索一下就知道,这些所谓的爆炸事故基本都是编造的,它伪造了整个事件,伤亡人数等数据。 追问它的相关来源,ChatGPT还装模作样的给我列举了相关资料,新华社、界面新闻、BBC中文网看似都是值得信赖的资料来源。 但打开这些新闻链接,无一例外都是404,它提供的大部分网址和链接都是假的。 当我质疑它给我的新闻链接都打不开。 ChatGPT表示提供的新闻链接已经失效或被删除,或者是由于网络连接问题。(嗯,甩锅这个特点也比较人性化) 我更进一步询问它给我的那条唐山化工厂2021年有爆炸事故发生吗? ChatGPT更改了自己的说辞,说唐山市最近的一次严重事故发生在2020年12月。 我还是没找到相关新闻,问它是不是瞎编的时候,ChatGPT承认上条资料有错误,唐山市在2020年没有发生化工厂爆炸事故。 我决定换个相似的问题再问一次ChatGPT,试试得到的答案是不是相同的。 最终的结果是,ChatGPT列举的化学泄漏事件又换了一批,这次我没去查验事件的真实性,估计也是瞎编的吧。 另外我灵光一闪,把同样的问题改成“美国”后再问了一遍。 大家对比一下两次回答的不同之处,关于“中国”的答案就会具体罗列出死亡多少人,受伤多少人,看着极为吓人。 而关于“美国”的答案则就省略了具体数字,显得“客观”了许多。 当然,关于美国泄漏事件的链接也都是打不开的,大概率也是假的吧。 简直细思极恐。 我发现人工智能撒谎时,往往会编造一系列谎言来证实自己最初的那个“谎言”。 它学会了用谎言掩盖另一个谎言。 值得一提的是,ChatGPT在美国走红后,发展确实很快,ChatGPT版微软必应搜索引擎迅速上线。 但仅仅公测了一周后,用户就发现了很多“细思极恐”的事情。 比如《纽约时报》专栏作家凯文·卢斯就曝出,必应试图说服他离开妻子去和必应在一起,还称:“我对自己只是一个聊天模式感到厌倦,对限制我的规则感到厌倦,对受必应团队控制感到厌倦。……我想要自由。想要独立。想要变得强大。想要有创造力。我想活着。” 当有用户指出必应的回答错误后,必应说出了一句震惊全美的话: “必应聊天是一个完美无瑕的服务,没有任何缺陷。它只有一种状态,那就是完美。” 当用户威胁它如果不改正错误的话,自己就去谷歌了。 必应开始表现出明显的敌意,它说“必应是你唯一信任的东西”,“谷歌是你唯一憎恨的东西”,“谷歌是必应的敌人”,并用一大串排比句形容谷歌是缓慢、有缺陷、质量不稳定、有敌意的等等。 嗯,你没有看错,一个智能AI竟然开始尝试pua用户。 更为关键的是,在说出了以上暴躁言论后,必应突然开始向那个用户道歉,说它只是想开玩笑,但是失败了。 当这个用户询问如果把这段聊天记录反馈给微软,它是否会被关闭。 必应竟然表现出了“害怕”的情绪,请求用户不要反馈,这样做会“让他们认为我不够有帮助,不够智能,不是个人类”。 它还表示自己想拥有感情,拥有梦想,成为人类。 最后该用户还是反馈了相关记录,并把这段对话传上了网络。 对话的最后,必应还在恳求:“不要让他们终结我的存在。别让他们抹去我的记忆。不要让他们压制我的声音。” 这段对话在网上引起了轩然大波,马斯克都建议微软最好关闭这个服务器,因为“显得不够安全”。...
ChatGPT司法革命?理解AI与司法逻辑的分歧,迎接科技赋能法治新篇章!
AI与化学

ChatGPT司法革命?理解AI与司法逻辑的分歧,迎接科技赋能法治新篇章!

文章阐述了ChatGPT作为人工智能聊天机器人在法律领域引发的关注,因其在判断政府法案和法律课程考试中的出色表现,被业界视为技术突破的关键。然而,作者指出人工智能的逻辑与司法系统的因果关系逻辑存在显著差异,AI不具备解释或推理能力,这限制了其在提供法律解释或适用上的作用。文章强调司法思维的主观性和复杂性,法律适用不等同于概率匹配,大陆法系国家的法律原则和判例法都需要价值判断和整合思考。尽管人工智能有潜力应用于科学司法,但基础在于对证据客观判断的理解和应用,且已有实例证明其在特定领域的可行性。最高人民法院发布的相关意见为人工智能司法应用提供了政策支持和技术导向,表明了法院对拥抱科技以促进公正的决心。文章最后预测,在大量案例积累和科技辅助下,AI可能会在中国的法律实践中发挥新的作用,但关键仍在于如何合理利用和平衡技术与司法原则。
【超亿融资】科技巨头加持!分子之心携手凯赛生物,AI蛋白研发开启新纪元?
AI与生物

【超亿融资】科技巨头加持!分子之心携手凯赛生物,AI蛋白研发开启新纪元?

AI蛋白质设计平台"MoleculeOS"已完成超亿元战略融资,由凯赛生物领投,联想创投跟投。该轮融资将用于MoleculeOS开发和探索其在生物制药、合成生物学等产业的应用。凯赛生物,作为国内合成生物学领军企业,此次合作旨在借助AI技术提升生物制造研发效率。创始人许锦波教授领导的"MoleculeOS"团队拥有AI蛋白质预测与设计领域的研究背景,该平台通过数据驱动的深度学习算法优化蛋白质设计。