AI资讯站在时代最前沿

顶流“聚会”人工智能
AI论文助手

顶流“聚会”人工智能

二季度以来,公私募等机构积极调研人工智能赛道,知名基金经理纷纷赴一线调研,包括谢治宇、冯波、冯明远、傅鹏博、赵诣和邓晓峰、冯柳、董承非等,他们主要关注半导体、芯片、计算机和软件等产业链。 AI赛道获重点调研 Wind数据显示,截至6月12日记者发稿,二季度以来人工智能产业链获主力机构积极调研,中控技术、澜起科技、天孚通信、安克创新、海康威视等公司被调研次数居前,其中自动化设备公司中控技术获780家机构调研,位居榜首。 具体来看,6月被重点调研的公司包括敏芯股份、远光软件、高新兴等;5月被重点调研的是中控技术、工业富联、安克创新等;而4月机构重点调研了天孚通信、立讯精密、德赛西威、澜起科技等公司。 中控技术在调研中被问及“在工业领域数字化和智能化转型浪潮下的战略布局”“6月初在新加坡全球新品发布会上发布的产品”时表示,公司依托扎实的工业数据基础,在工业AI领域进行了全方位探索,并已经初步形成了一系列工业AI产品及解决方案,深度融合人工智能技术,构建“AI+数据”核心竞争力。 数字芯片公司澜起科技在回答机构调研时称,2023年10月,在业界率先试产DDR5第三子代RCD芯片,研发进度行业领先。随着支持DDR5-6400RDIMM内存模组的服务器CPU平台上市,公司的DDR5第三子代RCD芯片将从今年下半年开始规模出货。同时,受益于AI服务器需求的快速增长,预计PCIe5.0Retimer芯片的市场规模较上一代有大幅提升。 此外,安克创新被问及“端侧AI和大模型方面的布局”;海康威视被提问关于“从2021年提出‘智能物联’,到2023年提出‘场景数字化’,定位为‘OT’厂商,这些转变会给公司的产品和业务带来哪些转变”等问题。 立讯精密在调研过程中被问及“大客户的AI应用落地到终端将会如何体现”“未来是否会结合人工智能改善生产线”等,该公司表示,MR/AR/VR类产品会有更多的可进一步发挥的空间,但在当前市场已相对成熟的手机、穿戴类产品上,落地速度会快一些。 “顶流”密集赴一线调研 二季度以来,多位“顶流”基金经理在调研中明显青睐人工智能和高端智造行业等方向。 例如,6月以来,谢治宇调研了半导体设备公司华峰测控,他管理的兴全合润在今年一季度末持有211.83万股;冯明远调研了车载视频监控公司锐明技术,该公司面对投资者咨询时表示,目前已完成封闭场景的自动驾驶技术积累且应用到了智能清扫车上,但开放道路上的商用车从领航驾驶走向智能驾驶的道路还很长。 同时,谢治宇对国内CAD软件龙头中望软件也很感兴趣,亲自调研了该公司,而其管理的兴全合润在2023年二季度新进布局189.09万股并一直持有。冯波也在4月底现场调研了中望软件,而另一位“顶流”陆彬管理的汇丰晋信动态策略则在去年四季度新进买入近150万股该公司股份。 此外,泉果基金赵诣调研三花智控和立讯精密,而睿远基金傅鹏博也调研了立讯精密。今年一季度,赵诣管理的泉果旭源三年持有分别持有超2100万股三花智控;立讯精密也曾是傅鹏博的“心头好”,但目前已退出该公司前十大流通股东。 另外,高毅资产邓晓峰调研了宏发股份和捷捷微电,冯柳和董承非分别调研了海康威视、鼎龙股份。其中,捷捷微电被提问“第三代半导体进展情况如何”“未来重点的发展方向”;鼎龙股份则被关心“半导体显示材料业务进展情况”“高端晶圆光刻胶业务节奏如何”。 安爵资产董事长刘岩表示,当前人工智能等前沿科技正在不断突破,这些技术将深刻影响各个行业领域的发展。随着5G网络的普及和云计算能力的提升,人工智能和机器学习等技术在云端和边缘设备上将得到更广泛的应用。消费者对新兴科技产品和服务的需求不断增长,如智能驾驶汽车、智能家居、虚拟现实等,看好三季度科技赛道有望出现触底反攻的走势。 华东某私募基金人士称,半导体设备、材料、人工智能芯片等部分“卡脖子”环节,或因国家大基金三期的战略支持使其估值得到抬升。低空经济等新兴产业因获支持,渗透率加速提升,估值中枢得以走高。基本面较好的电子板块,估值提升后可由业绩增长消化,具有中线配置价值。 审读:徐金忠 编辑:于红波 股市回暖,抄底炒股先开户!智能定投、条件单、个股雷达……送给你>> 海量资讯、精准解读,尽在新浪财经APP
ChatGPT科研神器:论文翻译润色一键搞定,还能帮你读代码 | GitHub热榜
AI提示指令

ChatGPT科研神器:论文翻译润色一键搞定,还能帮你读代码 | GitHub热榜

鱼羊 发自 凹非寺 量子位 | 公众号 QbitAI 用ChatGPT正经搞科研,现在有更方便的工具啦。 不仅自带中英文翻译能力,能一键帮你写摘要。 一键分析润色文章。 甚至一整个项目的代码,都能直接扔进去让ChatGPT帮你读,再也不怕老哥们不写注释了…… 这个全新科研神器,名叫ChatGPT学术优化(chatgpt_academic),已经在GitHub上狂揽16.4k⭐️,还冲上了GitHub热榜。 话不多说,一起来看看这么一个效率工具,具体怎么用~ 具体功能 在项目主页上,作者已经列出了“ChatGPT学术优化”目前具备的功能。 页面长这样: 举个例子,戳一下“请解析并解构此项目本身”这个快捷键,它就会哐哐开始分析自己的代码。 分析其他Python或C++项目也是OK的,不过要配合使用input输入框: 至于让它帮你读论文,除了直接把文本贴到input输入框,然后一键选择翻译/润色等功能之外: 同样可以在输入框里指定论文文件的目录,然后点击“读tex论文写摘要”按钮,ChatGPT就会自动读取文件夹中的tex文件并进行分析。 不过,目前这一工具只支持tex格式的论文。issue区已经有小伙伴第一时间许愿增加对PDF和word的支持了。 安装指南 提醒一下,如果想要使用“ChatGPT学术优化”,你得先准备好一个OpenAI API密钥。 p.s. 记得保存好密钥,它只显示一次…… 然后直接下载运行项目即可: git clone https://github.com/binary-husky/chatgpt_academic.git cd chatgpt_academic python -m pip install -r requirements.txt python main.py 修改API设置,是在config.py文件里。其他的设置修改,文件中也有详细说明。 如果中途遇到了连接超时的问题,也可以检查一下check_proxy.py这个文件,修改一下判断超时的条件。 介绍完毕,项目地址文末附上,想要亲自上手试试的小伙伴可以动起来了。 另外,如果你还有类似的科研宝藏工具推荐,欢迎在评论区大力安利起来~ 项目地址: https://github.com/binary-husky/chatgpt_academic — 完 — 「人工智能」、「智能汽车」微信社群邀你加入! 欢迎关注人工智能、智能汽车的小伙伴们加入交流群,与AI从业者交流、切磋,不错过最新行业发展&技术进展。 PS. 加好友请务必备注您的姓名-公司-职位噢 ~ 点这里👇关注我,记得标星哦~ 一键三连「分享」、「点赞」和「在看」...
论文结论部分的论文润色技巧分享
AI提示指令

论文结论部分的论文润色技巧分享

原标题:论文结论部分的论文润色技巧分享 一、引言 在学术论文的撰写中,结论部分作为全文的收束,其重要性不言而喻。一个好的结论不仅能够总结全文,还能够加深读者对论文主旨的理解。然而,许多作者在撰写结论部分时常常面临表述不够精炼、逻辑不够严密等问题。因此,对结论部分进行适当的润色,提高其质量,是十分必要的。本文AJE美国期刊专家将探讨如何对论文的结论部分进行润色。 二、避免简单总结 许多人在写结论时,仅仅对论文的主体内容进行简单的总结。然而,结论部分不应仅仅是对研究内容的重述,而应在此基础上进行一定的深化和提炼。你可以对研究结果进行一些前瞻性的解读,或者指出研究中的不足和局限性,为未来的研究提供方向。 三、突出研究意义 在结论部分,应强调你的研究意义和价值。你可以阐述你的研究对理论或实践的贡献,或者指出你的研究如何填补了某一领域的知识空白。同时,也要强调你的研究的局限性和未来研究的必要性。 四、保持逻辑严密 在撰写结论部分时,应确保逻辑的严密性。要保证所有的论据和论点都是一致的,所有的证据都是可靠的。此外,还要注意结论部分的连贯性,确保从引言到结论的过渡是自然的,没有突兀之处。 五、语言精练准确 结论部分的语言应该精练准确,尽量避免冗余和重复。在表述上,应尽量使用客观、中性的语言,避免使用主观臆断的表达方式。同时,也要注意用词的准确性,避免因用词不当而引起歧义或误解。 六、具体润色技巧 提炼关键词:在阅读原文的基础上,从每一段落中提炼出关键词或短语,以帮助你更好地理解论文主题和论点。这些关键词或短语将成为你润色结论部分的线索和基础。 总结段落大意:在阅读论文的过程中,注意总结每个段落的大意。这将有助于你理解论文的整体结构和逻辑关系。在润色结论部分时,你可以将这些段落大意作为论点或论据来使用。 寻找过渡句:在论文中寻找过渡句,这些句子通常能够连接不同段落之间的内容,使全文更加连贯和流畅。在润色结论部分时,你可以借鉴这些过渡句的表达方式,使其更加自然和流畅。 调整句子结构:在阅读论文时,注意观察句子的结构。有些句子可能过长或过短,可以适当地进行调整,使其更加符合论文的整体风格和逻辑关系。同时,也要注意句子的语法和拼写错误,确保语句通顺、表达清晰。 运用修辞手法:在润色结论部分时,可以运用一些常见的修辞手法,如比喻、排比、反问等,以增强语言的表达力和感染力。同时,也要注意修辞手法的运用要符合论文的风格和主题。 七、结语 综上所述,润色论文的结论部分需要综合考虑语言、逻辑、论点等多个方面。通过提炼关键词、总结段落大意、寻找过渡句、调整句子结构以及运用修辞手法等技巧的应用,可以帮助我们更好地润色论文的结论部分,使其更加精炼、严谨、连贯和有力。同时,也要注意保持论文的整体风格和主题的一致性,使读者能够更好地理解论文的主旨和价值。返回搜狐,查看更多 责任编辑:
GPT v1论文详解
AI论文助手

GPT v1论文详解

​论文标题:Improving Language Understanding by Generative Pre-Training 论文的引用量不到1000,有点吃惊,这个是比BERT更早的基于Transformer的预训练模型,BERT引用量超过了12000+ GPT是第一个基于Transformer的(使用Transfoermer decoder,BERT使用Transformer encoder)预训练模型,一共发了3个版本,GPT3达到巅峰, 它能做的事情超过想象力,还记得fine-tuning出来的那首诗吗? 《桥上的秋菊》黄花淡淡复丛丛,冷艳霜痕两不同。金蕊斓斑宜向日,素衣零落御秋风。打工人,是不是又被惊呆了? 摘要:自然语言理解包含广泛多样性任务,比如文本蕴含,问答,语义相似度评估,文本分类。然而没有标注的文本语料是非常丰富的,而这些特定任务有标注的数据太少,怎么利用这些丰富的无标记数据训练模型是非常有挑战性的。我们论证了通过在未标注的丰富数据集上生成预训练语言模型,然后在每个指定任务上进行fine-tuning,可以在这些任务中获得巨大的收益。对比之前的方法,我们在fine-tuning的时候使用面向任务的输入转换来达到高效的迁移,仅仅需要最小的模型架构的修改。我们在广泛的自然语言理解的benchmarks上论证了我们方法的有效性。我们通用的不针对任务的模型显著超越了那些针对每个任务精心设计的模型,在12个任务中有9个达到了SOTA。比如,我们在知识推理上达到了8.9%的绝对提升(Stories Cloze Test),问答上提升5.7%(RACE),文本蕴含提升1.5%(MultiNLI)。 1 简介 在NLP中,如何有效地从无标记的原始文本中学习,对于减轻监督学习的依赖至关重要。大部分深度学习的方法需要大量的手工标记的数据,这限制他们在许多缺乏标注数据的领域的适用性。在这样的情况下,模型能够从无标记数据中学习语言信息,为收集更多标注数据提供了一个有价值的替代方法,标注数据既花钱又耗时。即便是那些有大量标注数据的场景,通过无监督的方式从丰富的语料学习一个好的语言表示也能提供一个显著的提升。最有说服力的证据就是到目前为止各种被广泛应用的word Embeddings(word2vec, GloVe ),提升了广泛下游NLP任务的性能。 从无标注文本中利用词级别以外的信息非常具有挑战性,有2个主要的原因。首先,不清楚在学习文本表示的时候什么类型的优化目标是最高效的迁移。近期的研究做过各种不同的目标,比如语言模型,机器翻译,语句一致性,基于每一种方法在不同任务上都超过了其他方法。其次,没有一致性、高效的方法来迁移这些表示学习到目标任务上。已有的技术涉及到联合任务特定的设计修改模型架构,使用复杂的学习规则,添加辅助的学习目标。这些不确定的事情使得开发高效的自然语言处理的半监督学习方法是困难的。 在这篇论文中,我们为自然语言理解任务探索了一个半监督的方法,它由一个非监督的预训练和一个有监督的fine-tuning组成。我们的目标是学习一个全局的表示,做简单的适配来迁移到各种各样的任务上。我们假定可以访问大量的未标注文本语料和一些有手工标记的训练样本的数据集。我们的设定不需要这些目标任务和未标记的语料在相同的领域。采用2段式的训练过程。首先,我们使用LM(语言模型)为目标在未标注的数据上使用神经网络来学习一个初始的参数表示。接下来,我们基于特定任务的监督目标来调整这些参数。 我们的模型架构使用Transformer,已经被证明在不同的任务上有很强的表现,比如机器翻译,文本生成,句法解析。这个模型结构为我们提供了更结构化的内存来处理文本中的长依赖,与传统的循环神经网络相比,在多种任务中表现出了更强的迁移能力。在迁移过程中,我们利用任务特定的派生自traversal-style方法输入改写,将结构化文本输入当做一个连续的tokens序列。我们在实

AI论文助手超级助手