旗帜鲜明地支持 ChatGPT 干掉遍地垃圾的互联网内容刘亦菲上学时没人追?当看到她的学生照后,网友:我也不敢追
AI与地理

旗帜鲜明地支持 ChatGPT 干掉遍地垃圾的互联网内容刘亦菲上学时没人追?当看到她的学生照后,网友:我也不敢追

上知天文、下知地理的聊天机器人 ChatGPT,对话截图流传整个互联网——没跟它聊过秦皇汉武、新冠病毒的人生,是不完整的。 就在亚洲球队接连失利、告别 2022 卡塔尔世界杯之时, ChatGPT 给出了一个振奋人心的答案。也许,在某一个平行世界里,我们曾有两次入选世界杯正赛的辉煌。 这几天,每个人都看了太多 ChatGPT 的惊艳表演,无论是写论文,还是写代码,它都一气呵成,游刃有余。但它的回答依然具有一定的局限性,也不乏错误。如果你知道正确答案,不妨随意浏览。如果你不知道的话,还是慎重一点好。 ChatGPT 的深远意义在于,它拉高了世面上所有文章的下限。 绝大多数泛滥于各个渠道的文章,其准确性、知识性和逻辑性都远逊于 ChatGPT 。「众所周知」,互联网上有大量人力,要么做标题党,要么生产水文,要么炮制庸俗的话题。Google Webmaster 的趋势分析师 Gary Illyes 称,互联网上六成的内容是重复的。 但是,AI 写的文章再好,终究只是「短平快」的资料整合。 写作者不应该满足于 ChatGPT 这种赛博「影子写手」的套路;读者应该去追求更深入、更有质量的报道。 圣诞老人和圣诞树 ChatGPT特别擅长处理一些生活难题,比如家庭纠纷、情感问题等。 上个星期就流传一张 ChatGPT 帮人解答「妻子气恼丈夫嫌圣诞树太贵不买」的截图,ChatGPT 先拉架,说有事好商量千万不要情绪化,再给出解决方案——要么俩人自己动手做一个圣诞树,惠而不费;要么出门旅行,就不用在家死磕圣诞树的贵贱。 这个套路完全符合心理学理论:安抚情绪,站在说话人一边,然后理性地给出一些切实可行的办法。从这个角度看,ChatGPT 堪比最贴心的可爱朋友。 「圣诞」是十二月份的高频问题。Shopify 高管辛西娅·萨瓦德就对 ChatGPT「破防」了。ChatGPT 帮她给儿子解释圣诞老人:「我写信是为了让你知道,我不是一个真实的人,而是一个你父母出于爱告诉你的故事的角色。」 「你的父母给你讲了关于我和我的精灵的故事,以此给你的童年带来欢乐和魔法。他们希望你相信其中蕴含的精神和假日的魔力。」 文中充满感情地写道,「父母对你的爱和关心是真实的。他们为你创造了美好的回忆和传统,希望你的童年变得特别。」 两则「圣诞」的故事,实际上突显了 ChatGPT 作为新一代「聊天生成预训练转换器」的真正能力:尽量全面、得体、有信息量地像人类一样,回答人类提出的问题。 顺着人类心思作答 ChatGPT 来自 OpenAI...
ChatGPT能否取代人类写作?这股潮流背后隐藏的秘密与挑战
AI与地理

ChatGPT能否取代人类写作?这股潮流背后隐藏的秘密与挑战

九派新闻评论员 歇山 经过多年迭代升级,人工智能终于成精了。 最近,聊天机器人ChatGPT横空出世,各路诸侯八方豪杰纷纷与之展开对话。上至天文地理,下至投资理财,诸如美联储将何时将停止加息?如何在一年内通过法考?人工智能会不会谈恋爱?ChatGPT不慌不乱,一一作答,答得有鼻子有眼。 ChatGPT的神奇不止于此。据说摸出门道的美国学生们,已经开始使用ChatGPT生成论文,得到了A+的分数。这款聊天机器人是人工智能技术驱动的自然语言处理工具,能够像真正的人类一样聊天对话,还能完成撰写邮件、视频脚本、文案、翻译、代码等任务。由于ChatGPT的泛滥,美国很多大学已经打响了ChatGPT反击战——重设课程,提前预防。 ChatGPT写作确实厉害,日前,以色列总统艾萨克·赫尔佐格为网络安全会议“2023特拉维夫全球网络技术”录制了“特别开幕致辞”,他在2万名观众面前透露,开场白是由ChatGPT撰写的,第一句话是:“能成为一个拥有如此充满活力和创新力的高科技产业的国家总统,我真的很自豪”。 为了验证ChatGPT写作能力,我们也测试了一下,全文如下: 这篇“故事”,结构完整,用词妥帖,有主题,有意境,如果作为一篇课堂作文来评判,分数恐怕不低。 但是,当我们把这则“故事”仔细掰扯一下,总感觉哪里不对劲。这篇看似完整华丽的文章,其实是堆砌辞藻的“假大空”,读着读着,竟读出了一种负心汉套路满满说情话的感觉——信手拈来的遣词造句背后,是言之无物的美好,是空洞洞的情感。 ChatGPT正是妥妥的“话术大师”。我们把互联网平台各种ChatGPT问答拿来看看,形式上多是“首先”“其次”“然后”,结构上多是清晰的总论分论,逻辑上是有条有理,加上海量的资讯、知识、语言的加持,ChatGPT完全可以冒充人类了。但正如OpenAI的联合创始人埃隆·马斯克推文所称:“许多人陷入了疯狂的ChatGPT循环中”。虎嗅APP的用户们说得更直接:我们问了ChatGPT 100个问题,它说了不少废话。 冒充人类作者的ChatGPT,更像是人类的一面镜子。在ChatGPT面前,那些套路满满的话术,那些四平八稳的场面话,那些拼辞藻、拼华丽的假大空,就此无处遁形了。 语言学家乔姆斯基谈ChatGPT:它的出现将检测论文的抄袭行为变得更加困难 未来的ChatGPT可以代替我们,书写那些脱离群众、食之无味的机关八股文。机关八股文,开会首先必须是“意义重大”,反映成绩必然是“一二三四五”“五四三二一”,务实的工作、有效的办法可能一个没有,但捏造的概念、捡来的网言网语必然是一套又一套。这样的机关八股文,是从材料堆里做文章,而不是从问题堆里找思路,远离了社会发展形势与群众急难愁盼,徒留下语言的形式主义,今后这类八股又怎敌得过能写诗会谈心的“端水大师”ChatGPT? 未来的ChatGPT可以手把手教我们的孩子,写作那些套路满满的“满分作文”。各种“满分作文”书籍中,是否随处可见这样的文辞?“我顿时感到,浑身的血在沸腾、在燃烧,窗外的雨仍在不停的下着,淅淅沥沥的。正是那位盲人的纯真善良,时刻教育我、提醒我,对于身边的任何人有困难向我求助时,我都会毫不犹豫的伸出热情的双手去帮助,就像弟子规中所言:‘人之初,性本善’。”——如何写作“满分作文”?记叙文要交待时间、地点、人物,议论文要多加入些“老子说”“庄子云”,结构要总分总,主题要大汗淋漓地升华……这么多的套路,无非是教育我们的孩子完美避开忠诚表达、真情表达,这些技巧与套路又怎敌得过算法精密而语言库无限的ChatGPT呢? 未来的ChatGPT也可以发布那些没有情感和温度的“通报”“通告”“提醒”。关乎公共利益的那些公文,用于告知重要情况,起着沟通情况的作用,但如果总是板着冷静的、格式化的面孔,说着一些没有担当的言语,那么这些工作何妨不交给ChatGPT?我们这个社会,有太多的“写作手法”教育我们如何“去人格化”,仿佛一旦进入职业与公务的状态,人的鲜活必须让位于机器般的“客观理性”。这些时候,其实是人在扮演聊天机器人的角色,而聊天机器人兴许还能更多一些虚假的热血与温情。 “强大到危险”的ChatGPT能取代人类吗? 也许能取代人类的许多方面。但“算法”原本是人类心灵的产物。进入智能时代,“生命的重与轻”“自由与公平的关系”“社会治理有没有最优选择”?这些先哲们思考的古老命题,正在智能时代呈现出新的表达方式。ChatGPT真正能取代的,恐怕是那些只会操持套路满满的“正确的废话”的人。未来,那些并非发自内心的浮夸文辞,那些不切实际的表达,倒真的可以交给ChatGPT了吧。 九派评论投稿邮箱:pinglun@jp.jiupainews.com
ChatGPT真的那么’聪明’?背后的问题与应对挑战
AI与地理

ChatGPT真的那么’聪明’?背后的问题与应对挑战

这篇文章评论了近期关于某地取消限行的假新闻事件,指出ChatGPT作为人工智能应用存在形真实假的问题。ChatGPT因其强大的语言处理能力被广泛追捧,但其内容准确性和真实性受到质疑。文章分析了ChatGPT技术特性使其容易附带错误信息,并强调人工智能背后的价值偏见问题。作者呼吁,在AI普及过程中,国家应加强立法以防止虚假内容泛滥和价值偏见扩散,并提醒人们要保持对科技发展的警惕性。
ChatGPT的真假游戏?科技神力背后的信息风险与应对
AI与地理

ChatGPT的真假游戏?科技神力背后的信息风险与应对

这几天,一条关于某地取消限行的消息热传网络。经调查,这是条彻头彻尾的假新闻,不过是有人为展示ChatGPT功能强大而搞出来的乌龙作品。 新华社 图文无关 一段时间以来,凭借强大的语言处理算法功能,ChatGPT成为备受追捧的现象级人工智能应用。从现实反馈来看,上至天文地理,下到科技前沿,ChatGPT确实对答如流。但细究其里,硬伤也比比皆是,甚至不乏大量“一本正经胡说八道”。比如,有人让其解释高深物理理论,结果附列论文一查来源均无出处;有人让其推荐知名学者,却发现人物履历七拼八凑;还有人问其历史问题,回答则是“驴唇不对马嘴”……形真实假、杂糅难辨,有时把一些内行都忽悠了,导致学术圈也开始对它警惕。 ChatGPT为何成了“制假高手”?这还要从其技术特性说起。所谓ChatGPT,Chat是聊天的意思,GPT中文全称是生成式预训练转换器,技术原理也如其名:先给它提供一个庞大的语料库,然后让模型通过上亿参数对这些内容打散、标记、学习,从而构建起一个复杂的预测模型,并在大量用户的不断使用反馈中不断接受训练,逐渐提高其人工智能水平。这一点,很像人类加工信息的“脑回路”,也正是因为其能像人类一样“理解文字”,所以较以往的各种AI产品显得更加“聪明”。事实上,也正是基于这种隐匿性更强的“假”,一些事实谬误和价值观偏见更容易在无形中附着其上。毕竟,ChatGPT再神,靠的也是被投喂的语料,对于这些语料碎片被调取、综合后所生成内容的真实性、准确性,ChatGPT并不负责任。这就好比海量真实事物被打碎打散后,它们的若干局部被随机捏合为一个新整体,这个新整体未必是真实存在的。更何况,人工智能的背后是人,素材、语料的训练,新内容生成的逻辑、规则设定,都不可避免地带有价值观和倾向性,这就难怪在国际政治、新闻评论、道德伦理等诸多议题上,频频可见ChatGPT诡异的双标,就连OpenAI也承认,这是“有害指令或带有偏见的回答”。 作为一种基于深度学习算法的信息技术,人工智能本身是中性的,但其开发者、使用者终究是带有价值倾向的。不少人忧虑,随着相关技术广泛应用,难辨真伪的虚假内容可能会出现井喷,导致信息甄别的难度不断提高;同时出于政治博弈等多种因素,夹带私货的价值偏见等可能会随着信息流水线式生产而加速扩散,进一步放大分歧和撕裂。对此,许多国家已经在着手应对。中国作为较早开展人工智能立法探索的国家之一,理应未雨绸缪、做好预案。从伦理规范到隐私保护,从价值观引导到真实性把控,都应积极探索设立相关规范,预防技术应用的失焦跑偏。 丹·布朗在其科幻小说《本源》中曾畅想——继恐龙灭绝后,人类在未来也会消失,一个新的物种将以极快的速度占领地球,那就是“人机结合体”。ChatGPT的横空出世,让不少人惊叹“未来已来”。我们固然不能拒绝科技的进步,但瞬息万变中,必须保持足够的警觉,最大限度避免技术负效应。 来源:北京日报 作者 雨馨 流程编辑:U022