Transformer革命:从底层架构到效率提升
AI与数学

Transformer革命:从底层架构到效率提升

这篇文章主要探讨了Transformer在人工智能领域的应用和优化。首先介绍了Transformer的底层架构,接着分析了缩放定律在提高模型效率方面的重要性,并提出了对齐策略以使大型语言模型达到预期目标。最后,文章讨论了强化学习与人类反馈(RLHF)的应用,旨在进一步提升模型的性能。
揭示ChatGPT工作原理的惊人真相:随机鹦鹉还是智能高手?
AI与数学

揭示ChatGPT工作原理的惊人真相:随机鹦鹉还是智能高手?

这篇文章讨论了人工智能中的ChatGPT工作原理和其在实际应用中的限制。作者Jacob Bayless利用数学方法证明了ChatGPT并非真正理解和处理其输入的数据,而是简单地将数据进行拼接,类似与“随机鹦鹉”。此外,文章还提到了GPT-4可能只是一个高级的n-gram模型,并未真正掌握抽象概念。为证实这一观点,作者提出了两个实验,表明GPT在解决特定问题时已展现出一定的智能性。
数学建模大讲堂:从ChatGPT谈机器学习模型
AI与数学

数学建模大讲堂:从ChatGPT谈机器学习模型

本期数学建模大讲堂,乔琛教授将带领大家深入探讨数据分析中的机器学习模型,并以ChatGPT为例,让大家更好地理解这种模型的魅力。 eventbrite.cn/e/math-modeling-lecture-series-第三期-数据分析中的机器学习模型:从ChatGPT谈起。
ChatGPT与机器学习模型:一场数据科学的奇妙旅程
AI与数学

ChatGPT与机器学习模型:一场数据科学的奇妙旅程

文章主要介绍了ChatGPT在近几个月里为大家带来有趣答案的同时,也揭示了机器学习模型在数据分析中的重要性和魅力。文章由乔琛教授,一位西安交通大学教授、陕西省工业与应用数学学会常务理事以及西安交通大学苏州研究院脑科学实验室主任,从ChatGPT的角度出发,深入探讨了机器学习模型在数学建模领域的应用。这是一次非常难得的机会,读者千万不要错过。