文章主题:衡宇, 克雷西, 发自, 凹非寺

666AI工具大全,助力做AI时代先行者!

衡宇 克雷西 发自 凹非寺

量子位 | 公众号 QbitAI

在OpenAI祭出GPT-4的API和“最强插件”代码解释器后,竞争对手显然坐不住了。

就在刚刚,Anthropic旗下Claude发布第二代——没错,就是被外界评价为GPT-4最强竞品的那一个。

浅划一下这次更新动作的重点:

免费,不用排队,自己用邮箱注册即可登陆。

科技界的大腕们展开了一场激烈的较量,这无疑给广大人工智能的使用者带来了前所未有的惊喜。其中,ChatGPT/GPT-4的诞生更是引起了全球范围内的关注。然而,这样的技术进步也意味着一场新的风暴即将来临,而这场风暴的中心,就是对人类未来的影响。对于那些习惯使用AI工具的现代人来说,尤其是学生和职场人士,他们可能会面临没有AI可用的情况。但是,这并不意味着他们会被科技所抛弃。相反,这可能预示着一场全新的技术革命即将开始,一个更加智能化的未来正在向我们招手。因此,我们应该积极面对这场挑战,去探索和发现更多的可能性,让科技更好地为我们服务,而不是让我们成为科技的奴隶。

英伟达AI高级科学家Jim Fan火速尝鲜,并在推特上分享了自己的Claude2用户体验。

关于Jim Fan老师谈到的Things you should know,量子位挑了些重点:

免费使用Claude2(100K 上下文)比GPT-4-4K便宜了4-5倍实际可以支持20万token上下文,约15万个单词,输入一本书不在话下;不过现在只开放了10万token长度知识更新鲜,知识截止时间是2023年初,而GPT-4停在2021年9月;可以将多个文档导入后,询问文档之间概念的关系,支持txt、pdf多种格式(ChatPDF之类的应用,危)代码、小学数学能力,比初代Claude有所进步。

国内AI博主海辛也在微博上惊讶连连。

因为上传自己的简历后,Claude2分析出了她的MBTI人格

除了他们,第一波冲进网页体验Claude2的网友们已经在激情分享了自己的体验感:

不错子,和GPT-4-32k比,Claude2的回答更个性化~

于是乎,量子位先冲了一波网页对话,来看我们的人肉测验——

咦,Claude更新了?注册一个试试

首先奉上最有节目效果的弱智吧Benchmark,给读者朋友们开开胃。

问的问题无外乎弱智吧的典中典,譬如“咖啡算不算豆浆”“数据线可不可以暂存数据”之类的。

看到Claude2一本正经地回答弱智吧问题,就会发现AI还是太单纯了,看不出人类的小心机。

不过正经地看,这些回答倒也没毛病。

上面的两个问题算Claude2顺利过关,那么如果提问一些更无厘头的问题呢?

问,玉皇大帝到底住在九重天的哪一层?

答,从立足点来看,玉皇大帝所在的天庭,应该处于平流层,因为“这更符合天庭圣洁的定位”。

当然,没有人能评判这个回答到底对还是错,但至少Claude2的这一通分析,还算有理有据。

开胃小菜就展示到这里,下面上正餐!

长文档是本次更新的一大亮点,这一点已经被推特网友们惊呼鹅妹子嘤了。

在撰写本文时,我尝试上传了两个PDF文件以供您参考。您可以轻松地使用Claude2工具从这些文档中提取摘要信息。具体来说,针对“语言流变模式”和“对称性”两个主题,Claude2能够将相关内容进行详细梳理并呈现于对话框之中。

在此之前,量子位曾以《白嫖GPT-4最强竞品!》为题,分享了一篇关于Cladue-100k版本在短短20秒内成功通读92页论文的攻略。

Claude2所开放的10万token上下文,足以为大型文档提供充足的资源。因此,无论是哪种文件类型,一次性上传并让AI阅读都是轻而易举的事情。

对普通用户来说,现在不仅能够上传长文档,还可以用上传的文件构建自己的知识库,对Claude翻阅文档后进行回答,真的是非常实用。

内心深处的一个疑虑逐渐浮现出来:随着 ChatGPT 削弱 Jasper 和 Notion 等竞争对手的市场份额,Claude 是否也会跟进对 ChatPDF 这类工具展开行动呢?

最后,我们为大家奉上今天的餐后甜点:让Claude2来写个程序试试

为了考验Claude设计算法的能力,我们选择了一种古典密码,让它试着写个解密程序出来。

这种密码叫做维吉尼亚密码,可以理解成二维的凯撒(位移)密码,其中包括密钥。

举个例子说明一下它的算法:

假如明文是B,密钥是C,B是字母表中第二个,那么从C开始数的第二个字母D就是密文。

如果数到了Z,就重新从A开始接着数,密钥长度不足时则进行循环。

解密自然就是把加密过程倒过来。

Claude输出了这样的代码(C++,下同)

我们把“CHATGPT”用密钥“CLAUDE进行了加密,密文是“ESANJTV,并尝试用Claude给出的程序解密。

一次就成功了,看来Claude的代码能力的确没让我们失望。

这个问题可能有些简单,我们再加大难度试试。

我们试着从LeetCode中找了一道中等难度的问题,人类解这道题的通过率大概是60%。

给定一个长度为n的整数数组 height 。有 n 条竖直的线,第 i 条线的两个端点是 (i, 0) 和 (i, height[i]) 。找出其中的两条线,使得它们与 x 轴共同构成的容器可以容纳最多的水(容器不能倾斜)。返回容器可以储存的最大水量。

这样说可能不那么容易想象,下面的这张图或许更加直观:

在原题中,我们提供了9条不同的高度线,这些线的数值分别为“1,8,6,2,5,4,8,3,7”。根据这些数据,我们可以计算出对应的最大水量,结果为49。

我们给Claude2的Promot是酱婶儿的:

写一个C++程序解决这个问题,不要自己设定初始值,让用户输入:(接上面的问题)

Claude2给出了这样的答案:

我们没让Claude2专门调整输入和输出格式,所以没有提交给LeetCode,而是直接运行的。

用的数据也是上面提到的,结果表明,Claude2给出的代码至少在核心算法上是正确的。

(下图输入中的a是告诉CPU这一系列整数输入完了,可以替换成任意非数字字符)

看来这个问题也没能难倒Claude2。

除了代码,Claude2据称还拥有小学级别的数学水平。

那就顺便用经典的鸡兔同笼问题考一考它(这道题是ChatGPT出的)

反复尝试了很多次,虽然方程式列得没有问题,但Claude2解出的答案都是20(正确答案应该是40)

看来计算这种事,对Claude2来说还是有点困难。

有关这次更新的更多信息,可以看下Anthropic的宣传片:

重播
播放
00:00 / 00:00 直播
00:00
进入全屏
50
点击按住可拖动视频

与OpenAI“撕”出来的AI公司

见识过Claude2的表现后,那就不得不提一下背后的公司Anthropic,毕竟真的有点意思。

Anthropic自称是一家AI安全公司,且具有公益性(PBC)

眼下,它和OpenAI同样将重心放在生成式AI上。1月份,公司在市场上已经有50亿美元估值。

Anthropic由OpenAI前研究副总裁Dario Amodei带领10名员工创业,于2021年成立。

这里面既有GPT-3首席工程师Tom Brown,也有OpenAI安全和政策副总裁Daniela Amodei(Dario的姐姐),可以说是带走了相当一批核心人才。

出走成立新公司的原因之一,自然是对OpenAI现状并不满意。

从前几年开始,微软频频给OpenAI注资,随后又要求他们使用Azure超算来搞研究,而且将技术授权给微软,甚至为微软自己的投资活动筹集资金。

这与OpenAI创立的初衷相悖,一批员工便想到了离职创业。

当然,还有一部分原因是这群人想做能控制、可解释的AI,说白了就是先搞明白AI模型背后的原理,从而在提供工具的同时设计更多可解释的AI模型。

于是,在OpenAI彻底变成“微软揽钱机器”后,他们便从这家公司离开,创办了Anthropic。

现如今,微软真的和OpenAI有了“深度绑定”的味道。

然而既狗血又八卦味十足的事情是,今年2月,谷歌CEO劈柴哥重磅宣布,斥资3亿美元,投的就是Anthropic。

之所以被外界抱以厚望,称呼Claude2为GPT-4最强竞品,不仅仅是因为Claude实测下来体验确实位于第一梯队,还因为背后实力强大的“爸爸们”:

今年5月,该公司表示筹集了4.5亿美元,使Anthropic筹集的资金总额超过10亿美元

在谷歌入股之前,Anthropic就已经获得了多位大佬的投资,如Skype创始人Jaan Tallinn,Facebook联创Dustin Moskovitz,谷歌前CEO、现技术顾问Eric Schmidt等人。

现在,合作伙伴列表里除了Zoom和Notion.AI,还多了Jasper.AI的名字。

不仅如此,公司核心技术Constitution AI也备受瞩目。

它主要围绕“语言模型如何决定它将涉及哪些问题以及它认为哪些问题不合适?为什么它会鼓励一些行动而阻止另一些行动?语言模型可能具有哪些价值?”展开。

为了解决上述问题,它让AI尽可能遵循很多原则。

原则条目有很多,包括联合国宣言、Anthropic从研究中自己发现的原则,DeepMind在Sparrow研究中提出的原则,甚至还借鉴了苹果的服务条款。

并且是通过AI反馈的方式,来评估输出,应对目前AI的缺点。具体体现在AI训练过程中,分为两个阶段:

第一阶段,模型被训练使用一套原则和一些过程的例子,来评估和修改自己的反应;

第二阶段,模型通过强化学习进行训练,使用基于原则集的AI生成的反馈来选择和输出更无害的内容。

这一点与ChatGPT的的杀手锏RLHF(人类反馈强化学习)大相径庭,而Anthropic给出的解释是:

基于Constitution AI的强化学习,比从RLHF中强化学习得出的生成内容,更有用,且更无害。

并且,还更容易规模化。

在这套Constitution AI,迭代到2.0的Claude,确实在导入文件、上下文窗口理解等功能方面,比GPT-4更引人注目。

不过也不是完美的,比如GRE考试成绩上,Claude2就5局3败,输给了GPT-4。

但不可否认,巨佬们在AI方面你追我赶的局面,让本普通用户切切实实感受了一波渔翁得利的快乐,嘻嘻嘻(狗头)

速来自己肉测:

http://claude.ai

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注