百度推出新项目文心一言,AI聊天机器人或成下一个ChatGPT?
AI与英语

百度推出新项目文心一言,AI聊天机器人或成下一个ChatGPT?

百度今日官宣大模型新项目“文心一言”,位于人工智能四层架构中的模型层,具备跨模态、跨语言的深度语义理解与生成能力。文心一言类似于美国OpenAI公司的ChatGPT项目,引发了人工智能新浪潮。在全球范围内,AIGC领域受到科技巨头的关注,国内方面,百度在AIGC赛道积极布局。四位公章上的姓名引起了网友的关注,百度方面回应称这四个数字人均为百度员工。
淄博美食探寻:特色小吃的味道之旅
AI与地理

淄博美食探寻:特色小吃的味道之旅

淄博市以其丰富的美食文化而闻名,这篇文章列举了一些著名的菜品,包括猪肉、黄瓜、豆腐等食材制作的口感鲜美的凉菜,以及猪肉、土豆、海带等食材制作的酥脆营养的炒菜,还有面粉、鸡蛋等食材制作的香脆可口的糕点。此外,淄博市还有一种特产水果——苹果,以及特产蔬菜——蒲公英,以及特产小吃——煎饼等。这些菜品都反映了淄博市的地域特色和人文情怀,让人们更好地了解和体验这个城市的文化内涵。
大火的ChatGPT,将对图书馆领域有哪些影响?
AI与地理

大火的ChatGPT,将对图书馆领域有哪些影响?

近日,一款名为ChatGPT的人工智能语言工具横空出世,迅速火爆全球互联网圈,ChatGPT的问世掀起了新一轮人工智能浪潮,一时间成为了国内外互联网用户津津乐谈的话题。 ChatGPT是谁,它能做什么? ChatGPT是美国人工智能研究实验室OpenAI新推出的一种人工智能技术驱动的自然语言处理工具,它使用了Transformer神经网络架构,也是GPT-3.5架构,这是一种用于处理序列数据的模型,拥有语言理解和文本生成能力,尤其是它会通过连接大量的语料库来训练模型,这些语料库包含了真实世界中的对话,使得ChatGPT具备上知天文下知地理,还能根据聊天的上下文进行互动的能力,做到与真正人类几乎无异的聊天场景进行交流。 在不断发掘了它的用途之后,许多人不单单地拿它做对话工具,它不仅能和人聊天互动,还可以写论文、做方案、下围棋、绘画、创作诗歌,甚至编写代码、检查漏洞样样精通,上线仅两个月便拥有了全球过亿的用户,人工智能在潜移默化当中已经深入到了我们的生活之中。 ChatGPT对图书馆工作有哪些影响? 01 为图书馆工作提供准确、有效的智能化服务 利用ChatGPT可以极大地改善图书馆的工作流程,并为图书馆提供更加智能化的服务。它可以帮助图书馆更快地收集信息,分析图书馆资源的使用情况,提供及时、准确的查询服务,从而提高图书馆的服务效率、服务质量以及服务水平。 不仅如此,ChatGPT还可以帮助图书馆员提高服务响应速度,减少用户的等待时间。此外,ChatGPT的语言模型技术还可以帮助图书馆工作者更快地查找特定信息,更好地理解用户提出的问题,提高馆员工作效率,为读者用户提供更有效的服务。 当前的公共图书馆运营与发展,逐渐摒弃了传统的图书借阅方式,逐渐朝多元智能化发展。利用ChatGPT技术打造应用智能阅读平台,能基于个人需求对馆藏图书资源进行实时查询,打破了传统图书馆的时限约束。将人工智能算法引入图书馆智能阅读平台中,大幅提升了公共图书馆服务的效率与品质。 02 实现自动化处理图书馆日常工作 ChatGPT可以实现自动化处理图书馆的日常任务,如图书馆图书检索,图书预约管理等。如今各个馆的预约管理模式趋于固定、统一化,缺少调整与创新,而ChatGPT可以为此提供很多意见和想法作为参考,不断优化整个预约管理模式。 ChatGPT还可以利用语言模型技术改进图书馆的客户服务,如提供快速准确的回答。通过大规模的数据挖掘,为学术研究和教育提供有价值的信息咨询服务。 03 以大数据为基础进行馆藏资源整合 ChatGPT 拥有强大的语言模型,为图书馆知识服务提供了强有力的工具。把现有的图书馆数字资源整合到ChatGPT的语言模型之中,为数字图书馆时代提供了丰富的想象力。 图书馆资源建设,是如今公共图书馆发展之中非常重要的一个环节。在这个过程中,图书馆需做好资源建设和人机交互,这是一个需要漫长累积的过程,ChatGPT语言模型把机器与人的距离拉近,以往需要要结构化很多元数据,现在运用人工智能技术,使图书馆的信息检索一直处于人工管理的难题得以解决,让人工智能来处理各个环节,既能提高效率,又可以降低错误率。利用AI完成对馆内藏书的自动清点,可有助于用户对所需资源的信息进行实时快速查找,使馆藏资源的检索效率得以大幅增强。 随着信息技术的发展,人工智能在图书馆领域的应用越来越多,未来的公共图书馆必定会朝智能化方向发展。对公共图书馆来说,借助人工智能技术的有效应用,推进传统服务模式创新发展,构建智慧图书馆,不但能够确保馆藏资源的有效传播与利用,还可以为广大读者带来更加便捷、智能、精准的服务。 END 图文 | 无锡市新吴区图书馆 编辑 | 孟源 审核 | 徐淼 发布 | 华昱
复旦大学徐英瑾:被神话的ChatGPT其实源自哲学
AI与化学

复旦大学徐英瑾:被神话的ChatGPT其实源自哲学

2022年11月,人工智能公司OpenAI推出了一款名为ChatGPT的聊天机器人程序,上线仅仅两个月,活跃用户数就突破了1个亿,引起社会各界的广泛关注。近几个月以来,随着聊天机器人ChatGPT的火热出圈,人工智能的话题也持续被大家热议。 微软联合创始人比尔·盖茨表示,ChatGPT是一种聊天机器人,可以对用户查询做出惊人的类似人类的反应,与互联网的发明一样重要;ChatGPT给以色列总统写演讲稿,骗过现场2万听众;马斯克也曾表示,ChatGPT好可怕;美国89%的大学生在用ChatGPT做作业……,ChatGPT的横空出世,它强大的语言理解和文本生成能力既令人恐惧,又令人着迷。 人类是否将被取代?我们该如何看待ChatGPT对人类生活产生哪些影响?3月6日,复旦大学徐英瑾教授做客北大博雅讲坛,为大家分享ChatGPT技术神话背后的逻辑。 人工智能的诞生是哲学思辨的产物 徐英瑾教授作为哲学领域研究学者,在人工智能与哲学范畴之间关系的研究上,主要探讨人工智能当中牵涉认知科学的基础问题和所带来的哲学问题,在两者跨学科之间,人工智能跟高度抽象化的古老“哲学”有存在哪些关系? 徐英瑾教授说到,今天我们看到的ChatGPT,实际上是在人工神经元网络-深度学习技术的基础上衍变出来的一个大型的语言的生成模型。由ChatGPT字面意思理解,Chat(聊天)Generative(生产) Pre-trained(产生)Transformer(转换器),ChatGPT目前获得的局部成功,是建立在海量的人工语料训练基础上“野蛮投入”的结果。 站在哲学角度,他认为ChatGPT虽然是个工程技术,但是每个工程技术背后都有一套哲学的想法,从海德格尔哲学的角度看,这种技术会将“常人”的意见予以全面的机械化复制;而从萨特哲学的角度看,这种技术还会加剧人类“自欺”现象的泛滥。从某种意义上说,该AI技术本身的诞生,就恰恰是“头脑风暴”般的哲学思辨的产物。 人类的经验无论积累多少都是关于过去的信息,而智能化是面向未来的,所以不能够通过对于过去大量的经验积累,就莫名其妙的跳到未来,对于这一点的认知就是基于了解哲学的思想。早期,英国哲学家大卫·休谟指出了对于未来的预期和知识是不能够通过对于过去的经验累积而自动的推导,所以在过去的经验和未来的知识之间,存在一个很大的缝隙,并且这个缝隙不能够被自动填满。了解这一点以后大家就明白了为何ChatGPT在处理问题上对于当下这种新闻的实时的回应性是非常差,现在ChatGPT主要还是基于2021年为止的数据量,实际上2021年的世界和今天的世界已经有了一个很大程度上的不同,因此ChatGPT对于当下所发生的一些最新的新闻欠缺实时回应的能力。 ChatGPT操作的思维逻辑只是经验主义 ChatGPT作为人工智能,它基础的思维逻辑是一个经验主义的想法,这种经验主义的想法所能够达到的生成性,实际上是一种伪生成性、被生成性,并没有一种真正的生成性,这是和人类思维有很大的区别。人类思维的一个很重要的特点,就是能够基于很少的语言制造出大量的这个句子。 如果把人类的心智和计算机的“心智”做一个类比的话,ChatGPT缺少基础的语法构建和后天的学习、精进的过程,仅仅只是在信息投递之后,在神经元网络训练的体系下,把这些数据训练成大家可以接受的结果。现在所有主流的都是基于数据训练,人工智能永远不可能达到智能的标准。这就是在对ChatGPT操作使用过程中,我们经常会遇到提出问题时,系统并没有及时回复,或者用户原本认为不应该出现的简单问题却出现回答上的错误,而那些相对来说比较难以解答的问题却轻松而解。 ChatGPT整个知识分布是以一种黑箱的方式进行,我们根本就不知道它的知识是以怎样的方式存储在哪里。 成年人的知识是类似以一种图书馆的方式存放,而且大概会知道处于某种位置。但是ChatGPT有所不同,当你要去修正它的一条知识的时候,它不会根据这条知识和其他知识之间的逻辑关系进行推理,而是你要把海量的信息投递给它,并且进行全局性的更新,之后慢慢让它再上升到一个新的知识阶段。这个过程费时费力,而且在数学上难以解释,在知识论上非常不透明。 现在人工智能里面的这个深度学习技术,亦也是如此,这与人类清楚的这种信念更换方式是非常不同。所以,当ChatGPT根据新情况改变自己的信念体系,这件对人来说不是特别难的事情,但是对于现在基于深度学习的ChatGPT来说相对比较困难。此外,修改正确与否,也没有明确的界限。徐英瑾教授总结道:ChatGPT系统并不是完全不会犯错,但是它只要一犯错,就会犯不知道如何修复的错误,这会使得它取代人类员工的这种可能性并不高。 当我们不知道你在什么地方会犯错,完全不可预期,将会是一件显得很可怕的事情。如果ChatGPT本身也是一种机器的话,就需要和人类要达成一个协作关系,人类就要预期这个机器,当它在哪些地方出错,对于它的出错的原因需要有一种可解释性;即使它的出错率很低,但是它的出错原因却是不可解释的,出错的地方是犹疑的,就会形成很大的问题。 人工智能不能够解决社会运作的底层逻辑 康德的哲学是具有真理的,他的真理性就在于人类智能的奥秘并不在于抽象的伪理论,也不在于抽象的经验论,而在于两者之间的一个交叉区域。所以当你一味的导向纯粹的经验派,肯定是要出问题的。经验派的问题是不能够推出未来的,而人类智能的创造性,恰恰是因为对未来具有构想力。 人工智能对于我们未来的这个改变,虽然有影响,但并没有我们想象的那么大。人类在这个世界上存在着很多的危机,比如说粮食危机和能源危机,而这些危机很多部分和政治治理之间存在关系,这恰恰不是人工智能能够解决的问题。 其次,类似ChatGPT这样的人工智能的CPU和GPU的运行需要资源供给,人工智能不仅不能解决人类电力等资源的基本需求,反而会加剧消耗。其次,对于现实的政治问题,它也无法干预,所以说人工智能不能够解决我们这个世界运作的底层逻辑,也并没有我们想象的那么重要。 徐英瑾教授举例说明ChatGPT的运作是根据以前的“套路”来写,比如写新闻稿,如果是机器写而且质量还可以,那只有一个前提,就是这个新闻事件和过去的一个新闻事件它是类似的。而对于新闻事件十分重视新闻用语,尤其与政治规范相关的新闻会随着时间而变化,迅速的迭代。ChatGPT数据是相对来说是具有滞后属性,并且缺少新闻最基本的真实性。除此之外,使用ChatGPT来完成工作很容易会促使工作者产生惰性。 至于人工智能在其他行业方面的影响,比如ChatGPT替代编剧写剧本,它无法真实刻画文学人物的心理冲突,也无法具备对于人类心理活动的真正洞见;厨师烹饪需要创新,人类在享受不同味觉的同时,其实感受的是一种文化体验,这种“文化”的风土性,人工智能是无法渗透的;修图软件和AI处理功能虽然能够成为画家减少工作量的一个工具,却无法表现作品所刻画的艺术表达;对于翻译者来讲,机器翻译的错误率是不可避免的,而这种错误在某种情况下是需要负法律责任……总之,在与社会打交道的这种能力,仍然是人类远远超出机器的地方,因为机器只能够在一个预定的事物之间的关系下进行处理,无法像人类那么灵活。 ChatGPT在替代人类工作中不仅存在弊端,并且现有的人工智能的工作水平被严重的高估。“目前人工智能的发展阶段,如果和物理学相比的话,基本上只是处在前伽利略阶段,还远远没有达到牛顿这个阶段”,这句特别富有哲学意味的话来自华裔美国计算机科学家李飞飞。徐英瑾教授表示:“我们现在对人工智能的了解没有达到科学阶段,还不能够把握一切,比如牛顿力学体系,不管是到火车的行驶,还是行星恒星的运作,都可以用一套体系说明,并且能够预测到足够大的范围,但是今天的ChatGPT和深度学习技术暂时无法预测。同样,如果把今天的人工智能与化学进行对比,我们只是处在前拉瓦锡的状态。” 徐英瑾《人工只能哲学十五讲》北京大学出版社 2021年7月出版 徐英瑾教授对于ChatGPT在未来的一个观点是:可以投入更多资源与资本,或许可以提升它的优化空间,但是从哲学上讲,因为ChatGPT所依赖的哲学基础经验主义并不是一种正确的哲学理论,所以它能够成功的道路是有限的,在进展到一定的程度就会退下来。 哲学思考,它要讲一定的伦理性,首先要考虑到社会中大多数人的一个实际需要,技术的发展不可以脱离普通人基本的一个需求。我们不仅要从哲学的角度来思考一句话,也要更多的相信像康德、柏拉图这样的一个哲学家。 作者:Kean, 图片来源网络