ChatGPT会取代中国的英文老师吗?
AI与英语

ChatGPT会取代中国的英文老师吗?

今日帖事关我自己的职业生命,所以必须好好研究。 本篇很长,但我建议你也别收藏,老老实实看完最直接。 “人机关系”话题很重要,后续我还会一直写写写,写到你重视起来。 本文分成三个部分: 1 已经遇到 ChatGPT 的老师们,过得怎么样? 2 ChatGPT 会不会替代老师? 3 ChatGPT 会不会对中国的语言教师造成威胁?  借人气通知 ‍‍‍‍‍‍‍‍‍ 本周三会有一场针对 ChatGPT 与英语教学,特别是中国大陆区域英语教学的读者俱乐部线上活动,所有读者都可以免费参加,感兴趣的老师们可以在公众号后台对话框 回复 「ChatGPT」关键字,获得参加方法!‍‍‍‍‍‍‍‍‍‍‍‍‍ 曾经加过塔客学院小助手的老师们,也可以关注小助手们的朋友圈~‍‍‍ 就在这个月,平行发生了这么三件事: 1 Reddit网友称:自己的大学教授判定自己的论文是 AI 写的,自动给了他一个“不及格”。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍ 教授:我给你写信是因为我判定你的亚洲哲学导论第一版论文是人工智能写的。我擅自先做了这个决定,因为我自己也用过“零GPT”检测软件来识别人工智能写的论文。我想让你知道,你这篇论文是0分,如果再犯,你这学期的成绩就是F。另外,你还会从学生行为办公室(类似教导处)获得更多信息。如果你有其他问题,你当然可以给我写邮件。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍ 2 纽约大学修改了“剽窃”的标准以及“作弊”的标准。‍‍‍‍‍‍‍‍‍‍‍‍‍‍ 简要翻译:关于剽窃以及学术完整性,一旦被发现剽窃行为,学生本科目将被标注为F。…… 测试有时间限制,这意味着即便是开卷考试,你可以使用计算器,可以翻开书,但学生不允许在测试公布24小时之内和其他人(也包括 ChatGPT)沟通及交流。‍‍ 3 纽约的两位高中科学老师,把 ChatGPT 融合到课堂中,鼓励学生使用 ChatGPT 生成答案,并把“评估AI生成的文本”作为课堂作业。‍‍‍‍‍‍‍‍‍‍‍‍‍ 题图为New York Times 2月6日新闻报道,报道了纽约的高中科学课上,老师鼓励学生使用各类聊天机器人锻炼评判思考的新闻。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍ 是的,ChatGPT 来了。‍‍‍‍‍ 一起来的还有 Notion AI, CoPilot,新版的Bing必应搜索引擎(很多在中国大陆地区无法登陆),我们今天不讲这些复杂的问题,就说一说这些强大的语言模型能做什么。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍ 咱们今天也不谈写代码的功能了,据说...
ChatGPT风靡全球:技术革命还是道德困境?
AI与英语

ChatGPT风靡全球:技术革命还是道德困境?

ChatGPT 等人工智能技术引发的热议持续升温,微软、谷歌、亚马逊、华为、百度、京东云、阿里巴巴等多方企业纷纷布局。然而,学界对此类技术的反应却更为谨慎,诺姆·乔姆斯基认为其可能助长剽窃,而《卫报》等媒体也对论文中的使用人工智能进行了规定。在我国,各类学术期刊也对此类工具的使用提出了各自的要求。
双语言学习者的思考:汉语与英语的优缺点
AI与英语

双语言学习者的思考:汉语与英语的优缺点

这篇文章讲述作者曾经对比了汉语和英语在学习过程中的感受,强调了英语的严谨性和逻辑性,以及与汉语的不同之处。尽管英语有时让作者感到困扰,但经过长时间的适应,作者发现它们各自的优点和特点。最后,作者表示这将结束他和英语的旅程,开始新的篇章。
OpenAI官方的Prompt工程指南:你可以这么玩ChatGPT机器之心Pro2023-12-18 14:46北京机器之心Pro2023-12-18 14:46北京
AI与数学

OpenAI官方的Prompt工程指南:你可以这么玩ChatGPT机器之心Pro2023-12-18 14:46北京机器之心Pro2023-12-18 14:46北京

机器之心报道 编辑:陈萍、小舟 写好 prompt 已经成为 LLM 的一项必修课。 随着 ChatGPT、GPT-4 等大型语言模型(LLM)的出现,提示工程(Prompt Engineering)变得越来越重要。很多人将 prompt 视为 LLM 的咒语,其好坏直接影响模型输出的结果。 如何写好 prompt,已经成为 LLM 研究的一项必修课。 引领大模型发展潮流的 OpenAI,近日官方发布了一份提示工程指南,该指南分享了如何借助一些策略让 GPT-4 等 LLM 输出更好的结果。OpenAI 表示这些方法有时可以组合使用以获得更好的效果。 指南地址:https://platform.openai.com/docs/guides/prompt-engineering 六个策略,获得更好的结果 策略一:写清楚指令 首先用户要写清楚指令,因为模型无法读懂你的大脑在想什么。举例来说,如果你希望模型的输出不要太简单,那就把指令写成「要求专家级别的写作」;又比如你不喜欢现在的文本风格,就换个指令明确一下。模型猜测你想要什么的次数越少,你得到满意结果的可能性就越大。 只要你做到下面几点,问题不会太大: 首先是提示中尽量包含更详细的查询信息,从而获得更相关的答案,就像下面所展示的,同样是总结会议记录,采用这样的提示「用一个段落总结会议记录。然后写下演讲者的 Markdown 列表以及每个要点。最后,列出发言人建议的后续步骤或行动项目(如果有)。」结果会比较好。 其次是用户可以提供示例。例如,当你想让模型模仿一种难以明确描述的回答风格时,用户可以提供少数示例。 第三点是指定模型完成任务时所需的步骤。对于有些任务,最好指定步骤如步骤 1、2,显式地写出这些步骤可以使模型更容易地遵循用户意愿。 第四点是指定模型输出的长度。用户可以要求模型生成给定目标长度的输出,目标输出长度可以根据单词、句子、段落等来指定。 第五点是使用分隔符来明确划分提示的不同部分。”””、XML 标签、小节标题等分隔符可以帮助划分要区别对待的文本部分。 第六点是让模型扮演不同的角色,以控制其生成的内容。 策略 2 提供参考文本 语言模型会时不时的产生幻觉,自己发明答案,为这些模型提供参考文本可以帮助减少错误输出。需要做到两点: 首先是指示模型使用参考文本回答问题。如果我们可以为模型提供与当前查询相关的可信信息,那么我们可以指示模型使用提供的信息来组成其答案。比如:使用由三重引号引起来的文本来回答问题。如果在文章中找不到答案,就写「我找不到答案」。...