淘优惠

淘优惠

今日涨停榜1、AI(人工智能)AIGC\ChapGPT:汉王科技、天娱数科、国脉科技、物产金轮、视觉中国、奥飞娱乐、神思电子、鸿

热门文章 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:

人工智能涨停,ai股价实时行情,ai下单追涨停板

1、AI(人工智能)

AIGC\ChapGPT:汉王科技、天娱数科、国脉科技、物产金轮、视觉中国、奥飞娱乐、神思电子、鸿博股份、三六零

超融合+算力:青云科技

AI+百度:二三四五

WEB3:东港股份

2、机器人:卓翼科技、兆微机电、鸣志电器、雷柏科技、三花智控、绿的谐波

3、其他

要约收购+环卫车:宇通重工

固态电解质粉体:上海洗霸

环卫装备+机器人:福龙马

收购+无人驾驶:路畅科技

百度+无人驾驶:华峰股份

CPO:通宇通讯、联特科技

汽车热管理:恒立实业

重组+军工:中航电测

智能电网:海兴电力

数字云:立方数科

钙钛矿:拓日新能

固态电池:金龙羽

安全门:王力安防

露营用品:牧高笛

医疗器械:华盛昌

照明工程:豪尔赛

光伏:上机数控

芯片:铖昌科技

地产:粤泰股份

基建:上海港湾

VR:捷荣技术

$汉王科技(SZ002362)$  $二三四五(SZ002195)$  $天娱数科(SZ002354)$  $视觉中国(SZ000681)$  $中航电测(SZ300114)$  $三六零(SH601360)$  $神思电子(SZ300479)$  $奥飞娱乐(SZ002292)$  $国脉科技(SZ002093)$  $东港股份(SZ002117)$  $卓翼科技(SZ002369)$  $华锋股份(SZ002806)$  $三花智控(SZ002050)$  $福龙马(SH603686)$  $金龙羽(SZ002882)$  $上机数控(SH603185)$  $捷荣技术(SZ002855)$  $上海洗霸(SH603200)$  $雷柏科技(SZ002577)$  $鸿博股份(SZ002229)$  $信达证券(SH601059)$  $物产金轮(SZ002722)$  $宇通重工(SH600817)$  $鸣志电器(SH603728)$  $拓日新能(SZ002218)$



用chatgpt和openai赚钱靠谱吗 openai推付费版chatgpt

chat加什么

11月8日,乘用车市场信息联席会发布数据显示,今年前10个月乘用车市场零售达1671 6万辆,同比增长3%,...

2022-11-09

11月8日晚间,至正股份(603991)发布公告称,公司与SUCCESS FACTORS LIMITED签署了《购买资产协议》,...

2022-11-09

11月8日,中国消费者协会官网发布《不公平格式条款点评系列九:旅游领域不公平格式条款点评》,其中针对...

2022-11-09

在同行业企业迪芬尼、豪恩声学IPO告败后,电声产品制造商天键电声股份有限公司(以下简称天键股份)也向A...

2022-11-09

自2019年11月8日,美国明晟公司(又称摩根士丹利资本国际公司,MorganStanleyCapitalInternational,以下...

2022-11-09

2023年1月美国劳动力市场强劲增长,失业率进一步下降至3 4%,就业数据大幅超预期,反映出当前美国劳动力市场距离衰退仍存在一定距离。1月美国

双方已经在官网更新确认建立合作关系,但并未回应投资传闻。ChatGPT成为科技圈最具讨论度的热门话题后,搜索引擎巨头首先坐不住了。就在微软官

突发再放大招!西安集中供地或将调整?,西安,土地供应,土地出让,商品住房,集中供地,市场需求

现实中的“京海市”,藏不住了!---点蓝色字关注“央视新闻”蘸满浓浓广府风味的街景挂满斑驳岁月痕迹的建筑充满烟火气的小馆……热播剧《...

官方多次提及的推进全面电动化即将落地。2月3日,包括工信部、交通部、财政部在内的八部门提出,将在全国范围内启动公共领域车辆全面电动化先

中天金融集团股份有限公司(以下简称“中天金融”或“公司”)2月3日发布关于公司重大诉讼的进展公告。公告披露了与渤海人寿保险股份有限公司...

2022年昆明市经济运行情况发布,终审,昆明市,经济运行

购房者有苦难言:提前还贷成风潮,但银行排队得到四月,贷款,房贷,购房者,买房人,提前还贷

2月3日,亚太科技发布公告称,公司近日收到中国证券监督管理委员会出具的《关于核准江苏亚太轻合金科技股份有限公司公开发行可转换公司债券的

巴西2022年工业产值同比下降0 7%,巴西,制造业,采矿业,工业产值

去意已决?马云上交支付宝,密集布局海外业务!,马云,刘强东,马化腾,谢国民,支付宝,正大集团,泰国首富,阿里巴巴集团

1、大鱼号是阿里大文娱旗下内容创作平台,为内容生产者提供“一点接入,多点分发,多重收益”的整合服务。2、大鱼号作为阿里文

关于调整住房公积金使用政策的通知,首付款,贷款额度,首付比例,使用政策,住房公积金,公积金贷款

2月4日,2022中国(深圳)金融科技全球峰会在深圳五洲宾馆举办。峰会上,香港金融管理局副总裁李达志表示,香港和深圳两个“姊妹城市”在国家...

离别,正在成为一些公司2023年发展的里程碑关键词:在业绩预告发布后,多家公司同步提示投资者,公司存在终止上市的风险。在笔者的观察中,一

债券市场做市交易下周一正式开闸!据***以及沪深交易所最新消息,目前交易所债券做市业务各项准备工作已全部就绪,将于2月6日正式启动。首批共

专题篇-2023年1月长沙一线营销专题报告,推盘,克而瑞,长沙市,商品住宅,楼市政策

2月2日,全面升级的第三届腾讯Light·技术公益创造营在海南海口正式启动,围绕数字时代下未成年人心理健康、老年人用网安全、生物多样性保

经济学家预计2025年欧元区通胀将略高于欧洲央行目标,加息,欧元区,高通胀,欧洲央行,经济学家,通货膨胀率

驻马店地产富豪李万顺:借款10万,国企下海,能否保交楼?,交楼,正华,置地,李万顺,房地产,驻马店市,建筑面积

在A股全面注册制正式启动之际,2月3日,沪深交易所第一届上市委、重组委正式名单出炉。就人员构成来看,沪深交易所上市委和重组委均为4名委员

速度!力度!温度!呼和浩特不动产登记工作盯紧民生关切提升服务质效!,民生,非住宅,不动产权证书,不动产登记受理凭证,呼和浩特白塔国际机场,

助力现代城市发展沈阳市发布首批十大城市消费场景,街区,沈阳市,现代汽车,消费场景,幸福感城市



从BERT到ChatGPT和扩散模型Diffusion,学习一统AI 的Transformer,看完这些论文就够了

bert要跑多久,bert哪年,bert介绍,bert's
学习ChatGPT和扩散模型Diffusion的基础架构Transformer,看完这些论文就够了

2022年底人工智能领域最火的是什么? ChatGPT当仁不让。不仅AI 从业者纷纷表示赞叹,并且惊呼AGI(通用人工智能)或强人工智能即将来临。传闻 Google 内部也发出红色警报,CEO 亲自挂帅要更多投入研究,避免受到颠覆性影响。其更大的影响力则来自于爆火出圈,数百万人纷纷投入 ChapGPT 的狂欢中,玩转其所爆发出来的无所不能能力:能用数十种语言与用户谈天说地,上知天文,下知地理;能聊情感,可谈哲理;写诗作词,会码代码,会写童话,会写小说;生化环材,数学物理,土木工程,无所不能。

另一个 AIGC 的爆火是 AI 作画,其中 StabilityAI的扩散模型是其代表。AI作画所展现出来的惊人的绘画能力,也让社交媒体惊呼 AI 绘画是否会取代画师的讨论。而前阵子美国的一个艺术比赛中,AI 作画甚至在与众多绘画大师的比赛中获得了一等奖。

AI出色的绘画能力能够帮助不会绘画的人创作出高质量的作品。 通过使用扩散模型等,AI 可以自动生成很像由人类绘制的作品的图像。以此为基础,加上人工后期修缮所得到的作品,使得不会绘画的人能够轻松地创作出高水平的作品,达到学习几年、十几年的画师同等水平。与此同时,一个高级画师在 AI 的协助下,能够达到一个团队的效率。这使得在某种程度上AI 取代了“画师”。

作为人工智能领域的从业人员,在知道了这些模型的强大能力之外,更重要的是要理解原理,以期望在接下来的工作中能够使用和创新。而要学习这类模型,2017年底 Google发明的 Transformer模型则是基础。从 Transformer开始,直到今天的 OpenAI ChatGPT 和 StabilityAI的Diffusion Model,有哪些经典的论文呢?下面为你一一道来。

  1. Transformer 模型的架构论文Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, ?ukasz Kaiser, Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30 (NIPS 2017). 5998-6008). 这篇论文描述了 Transformer 模型的架构,并在多种自然语言处理任务中进行了实验,证明了 Transformer 模型在自然语言处理任务中的有效性。这篇论文奠定了今天人工智能极大发展的一个里程碑,建议AI 算法工程师都应当阅读此论文。除了阅读论文之外,建议参阅珠峰书《知识图谱:认知智能理论与实战》第3章的内容。该章节对Transformer 和 BERT 模型进行了非常细致且深入浅出的拆解和剖析,并给出了代码示例,这对于理解 Transformer 模型和 BERT 模型来说事半功倍。论文下载地址:
  1. BERT 模型论文

Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171C4186, Minneapolis, Minnesota. Association for Computational Linguistics.

这篇论文奠定了自然语言处理领域大模型的基础,证明了通过大规模语料集预训练的技术,能够大幅度提升各类文本阅读理解的效果,开启了NLP的新时代。在 BERT 之上,出现了许多预训练语言模型,比如XLNet、ALBERT、T5、RoBERTa、ERNIE、NEZHA等。可以这么说,今天大模型所展现出来的超级能力,就是从BERT开始的。要深入理解 BERT模型,除了阅读论文之外,建议详细阅读珠峰书《知识图谱:认知智能理论与实战》第3章的内容。该章节对Transformer 和 BERT 模型进行了非常细致且深入浅出的拆解和剖析,并给出了代码示例,这对于理解 Transformer 模型和 BERT 模型来说事半功倍。

论文下载地址:

书籍地址:

其他论文:

  1. XLNet 模型Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R. Salakhutdinov, Quoc V. Le. XLNet: Generalized Autoregressive Pretraining for Language Understanding. Advances in Neural Information Processing Systems 32 (NeurIPS 2019). pages 5753-5763.论文下载:
  2. ALBERT: Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations. arXiv:1909.11942论文下载:
  3. T5: Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. The Journal of Machine Learning Research. Volume 21. Issue 1 2020. Pages 5485C5551.论文下载:
  4. RoBERTa模型Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692. 论文下载:
  5. ERNIE模型Zhengyan Zhang, Xu Han, Zhiyuan Liu, Xin Jiang, Maosong Sun, and Qun Liu. 2019. ERNIE: Enhanced Language Representation with Informative Entities. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 1441C1451.论文下载:
  6. NeZha模型

Junqiu Wei, Xiaozhe Ren, Xiaoguang Li, Wenyong Huang, Yi Liao, Yasheng Wang, Jiashu Lin, Xin Jiang, Xiao Chen, Qun Liu. NEZHA: Neural Contextualized Representation for Chinese Language Understanding. arXiv:1909.00204.

论文下载:

  1. GPT-3模型论文

Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems 33 (NeurIPS 2020). pages 1877-1901.

这篇论文描述了 GPT-3 模型,这是一种生成模型,刚出来就引起了轰动,能够撰写出令人惊讶的文章,有评论说“GPT-3生成的文本质量如此之高,很难确定它是否是由人类编写的。”在 GPT-3之后,还衍生出一系列的模型,发展为最近实现的更专家印象深刻并且出圈到街头巷尾的 ChatGPT。

论文下载地址:

更多的论文和材料:

  1. InstructGPT: Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, Ryan Lowe. Training language models to follow instructions with human feedback. arXiv:2203.02155论文下载:
  2. ChatGPT:
  3. ViT 模型论文Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, Neil Houlsby. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. In International Conference on Learning Representations(ICLR2021).这篇论文描述了 ViT 模型,它是一种基于 Transformer 的视觉模型。论文将Transformer直接应用于图像块并在大型数据集上进行预训练,在图像分类方面效果非常好。论文下载:
  4. DETR模型Nicolas Carion, Francisco Massa, Gabriel Synnaeve, Nicolas Usunier, Alexander Kirillov & Sergey Zagoruyko. End-to-End Object Detection with Transformers. In ECCV 2020. Pages 213C229.这篇论文描述了 DETR(DEtection TRAnsformer) 模型,它是一种基于 Transformer 的目标检测模型。DETR通过二分匹配强制进行唯一预测,给定一组固定的已学习目标的查询,DETR 对目标和全局图像上下文的关系进行推理,并直接并行输出最终的预测结果。论文在COCO数据集上比良好设计和高度优化的 Faster R-CNN 同样的准确性和运行时性能。论文下载:
  5. DALL-E模型Aditya Ramesh, Mikhail Pavlov, Gabriel Goh, Scott Gray, Chelsea Voss, Alec Radford, Mark Chen, Ilya Sutskever. Zero-Shot Text-to-Image Generation. arXiv:2102.12092DALL-E是GPT-3的 120 亿参数版本,是一种基于Transformer的图像生成模型,可使用文本-图像对数据集从文本描述生成图像。该模型支持创建动物和物体的拟人化版本、以合理的方式组合不相关的概念、渲染文本以及对现有图像应用转换。论文下载:DALL-E2模型是DALL-E的第二代,可以根据文字描述创作原型、逼真的图像和艺术作品。相比 DALL-E,DALL-E2在组合概念、属性和样式等方面更加强大,效果更好。Aditya Ramesh, Prafulla Dhariwal, Alex Nichol, Casey Chu, Mark Chen. Hierarchical Text-Conditional Image Generation with CLIP Latents. arXiv:2204.06125论文下载:
  6. Stable Diffusion模型Robin Rombach, Andreas Blattmann, Dominik Lorenz, Patrick Esser, Bj?rn Ommer. High-Resolution Image Synthesis with Latent Diffusion Models. arXiv:2112.10752.Stable Diffusion是一种潜在的文本到图像的扩散模型,该模型使用冻结的CLIP ViT-L/14 文本编码器根据文本提示调节模型。模型通过将图像形成过程分解为去噪自动编码器的顺序应用,扩散模型(Diffusion Model,DM)在图像数据及其他数据上实现了当前最佳的合成结果,极大地提高了视觉保真度。除了无条件图像生成外,还支持语义场景合成和超分辨率等。论文下载:
  7. DeiT模型 Hugo Touvron, Matthieu Cord, Matthijs Douze, Francisco Massa, Alexandre Sablayrolles, Herve Jegou. Training data-efficient image transformers & distillation through attention. In Proceedings of the 38th International Conference on Machine Learning (ICMl2021), PMLR 139:10347-10357, 2021.DeiT模型是一种基于Transformer的视觉模型,是对 ViT 的改进,通过蒸馏技术减小了模型的尺寸,同时保持了较高的准确率。论文中还对 Transformer 进行了优化,引入了师生策略(teacher-student strategy)――依赖于一个蒸馏令牌(distillation token)来使得学生通过注意力向老师学习,从而进一步提升了模型的准确率。论文下载:
  8. Speech-Transformer模型L. Dong, S. Xu and B. Xu, "Speech-Transformer: A No-Recurrence Sequence-to-Sequence Model for Speech Recognition," 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2018, pp. 5884-5888, doi: 10.1109/ICASSP.2018.8462506.Speech Transfor