淘优惠

淘优惠

chatgpt汉化版下载

双十一活动 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


OpenAI 去年发布了聊天机器人模型 ChatGPT, 它能够理解和生成人类语言,并在许多自然语言处理任务中表现非常出色。据统计,上线仅两个月,ChatGPT 活跃用户已经超亿,打破了由 TikTok 创造的 9 个月实现亿级用户注册的纪录,引起了各行各业人们的强烈关注。就连埃隆?马斯克也忍不住发推表示,ChatGPT 厉害得吓人,我们距离危险而强大的 AI 不远了。当然,在一顿痛批 ChatGPT 之后,马斯克也准备亲自下场,成立研究实验室,开发 ChatGPT 的竞品。

类 ChatGPT 模型的开发与应用,在国内也迅速成为资本市场关注、创业者纷纷入场的赛道。阿里、百度等互联网大厂,科大讯飞等语音类 AI 企业,以及众多创业者都希望乘着最新的风口迅速“起飞”。创业者大军中不乏像前美团联合创始人王慧文、出门问问 CEO 李志飞、搜狗前 CEO 王小川、前京东技术掌门人周伯文等行业大佬。开发出“中国的 ChatGPT”俨然成了国内科技圈“All in”的方向。

然而,我们真的能迅速见到一个“中国的 ChatGPT”吗? 谁又能拔下头筹,成为这个细分赛道的领头羊呢?

这个众多大佬都挤进来“淘金”的赛道,一定不是简简单单就能搞定的。

OpenAI 的 GPT“家族”

在深入了解开发出比肩 ChatGPT 的模型需要面临哪些挑战之前,让我们先看下 ChatGPT 所属的 GPT 模型家族都有哪些成员。

GPT-1 发布于 2018 年 6 月,包含 117M 个参数。这是第一个采用基于 Transformer 的模型架构进行预训练的模型。它在语言模型和单词类比任务上表现出色。

GPT-2 发布于 2019 年 2 月,包含 1.5B 个参数。这个模型在自然语言生成任务上表现出色,可以生成高质量的文章、新闻报道和诗歌等文本。

GPT-3 发布于 2020 年 6 月,包含 175B 个参数。具有出色的通用性和创造性,可以在各种 NLP 任务上表现出色,包括文本生成、问答、机器翻译等任务。

到这就结束了? 完全不是。

在 GPT-3 系列模型 (注意,是一系列模型哦) 发布之后,OpenAI 继续基于原始的 GPT-3 进行了不断地完善。我们熟知的 InstructGPT 和 ChatGPT 实际的内部代号是 【【微信】】 和 text-chat-davinci-00【【QQ微信】】, 是基于 GPT-3.5 的改良版。

图:GPT-3 模型家族

在 InstructGPT 的训练中,OpenAI 的研究员引入了 RLHF (Reinforcement Learning from Human Feedback, 人类反馈强化学习) 机制。这一训练范式增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。在此基础上,ChatGPT 还引入了“无害化”机制,防止模型生成不符合规范或伦理的答案。

图:GPT-3、InstructGPT、ChatGPT 的“进化路线”

不难看出,ChatGPT 的出圈,与 OpenAI 多年的技术积累是分不开的。国内厂商想要开发出像 ChatGPT 一样优秀的模型,也绝不是简单依靠拉一波投资,雇一批算法研究员就能马上实现的。

“中国的 ChatGPT”面临的挑战

首先,在资金投入方面,在当前的技术水平下,训练一个与 ChatGPT 这样的大型语言模型相当的模型需要数百万美元的投入。在发布 ChatGPT 之前,OpenAI 可查的融资额已超过 20 亿美元,也是如此庞大的投资才使 OpenAI 拥有了多年技术积累。反观绝大多数近期入局的国内企业,即便拥有足够的资金与人员,也大都很难在短期追上 OpenAI 的步伐。

我们不禁想问,如果要在国内开发出一个类 ChatGPT 模型,到底会面临哪些技术挑战呢?

为了能了解到最最准确的答案,我们请教了 ChatGPT“本人”

1.数据量: 需要大量的数据集来进行训练。这些数据集需要是大规模的、多样化的、真实的,并且要涵盖各种不同的语言和语境。这需要花费大量的时间和资源来收集、整理和标注。

2.计算能力: 需要非常强大的计算资源。这些模型需要在大规模的数据集上进行训练,并且需要进行大量的参数优化和调整。这些计算需要高性能的计算机和高效的分布式计算框架。

3.算法优化: 需要对算法进行不断的优化和改进。这包括优化网络结构、调整超参数、使用更好的优化算法等。这需要对深度学习算法有深入的了解和经验。

可以发现,这是一个涉及到多个领域和技术的复杂系统工程。只有同时在底层的基础设施、针对性优化和大模型技术积淀都达到一定水平的情况下,才能够研发出高质量的模型,并应用于各种场景中。

让我们详细看看这三类技术挑战具体都意味着什么。

数据量

我们经常听到“有多少数据,就有多少智能”,数据对于模型训练的重要性不言而喻。类 ChatGPT 模型的训练,更需要超大规模的,经过清洗的数据。以 GPT-3 的训练为例,需要 300B tokens 的数据。大家如果对这个数字不敏感的话,可以参考整个英文的维基百科的数据量,只有“相对可怜”的 3B tokens, 是训练 GPT-3 所需的百分之一。并且,要训练出类 ChatGPT 模型,势必需要数倍于当年训练 GPT-3 的数据量的中文语料数据,这对于大部分企业或科研机构来说都是难以翻越的大山。有效的中文数据量,一定程度上决定了模型性能的上限。

计算能力

类 ChatGPT 模型的训练,除了需要非常多的训练数据外,也离不开庞大的算力支撑。根据北京智源人工智能研究院公布的数据,使用 300B tokens 的数据训练 175B 参数规模 (与 GPT-3 规模相同) 的模型,如果使用 96 台通过 200Gb IB 网卡互联的 DGX-A100 节点,需要约 50 天。要是使用更大规模的训练数据集,训练时长还会进一步增加。

对于计算集群来说,不仅需要能够提供海量的算力资源,还需要具备高速网络和高容量存储,以便支持大规模的数据访问和模型传输。整套基础设施,连同软件平台,还需要结合集群的拓扑结构针对分布式训练进行优化,通过调整并行策略等方式,提升硬件利用率与通讯效率,缩短整体训练时间。

算法优化

算法优化和模型的训练效率和效果息息相关。每一个算法研究员,都希望模型在训练过程中快速收敛,这恰恰也是算法研究人员经验与企业长年技术积累的体现。通常情况下,在训练的过程中需要不断调整学习率、批量大小、层数等超参数,或使用自动调参的技巧和经验,才能快速、稳定的实现模型收敛。就像中餐大厨们用“少许、适量”的调料制作美味佳肴一样,里面包含着的是大厨们几十年的手艺,不是一朝一夕就能被批量复制的。

前途是光明的,道路是曲折的

想必,这是最适合送给现在想要开发出“中国的 ChatGPT”的各路大佬们的一句话了。在美国去年对中国限制了高端 GPU 的销售之后,为规避未来的技术风险,不少厂商、科研机构也开始探索在国产算力服务平台上训练的可行性。北京智源人工智能研究院作为国内顶尖的人工智能领域研究机构,早早就探索了使用国产算力服务平台的可能性。同样是使用 300B tokens 的数据训练 175B 参数规模的模型,通过曙光提供的算力服务,训练周期只需 29.10 天,在节点规模接近的情况下,训练效率是其他算力平台的 300%。

基于国产算力服务平台进行训练,不可避免的会带来更多的移植与调优工作。曙光智算强大的硬件与算法优化团队,在集群、并行策略、算子、工具包等方面的优化上与智源开展了深入的合作。首先,为保证程序能够正常运行,需要完成包括 DeepSpeed/Megatron/Colossal-AI/apex 等必要组件的适配工作。其次,超大规模集群的顺利调度通常也需要调整调整操作系统配置及 tcp 协议参数等。训练的优化工作则主要包含以下三个方面:

算子层面: 使用算子融合 / 算子优化等技术,深度挖掘硬件性能,提升硬件使用率;

策略层面: 采用模型并行、数据并行、流水线并行、Zero 等多级并行策略,实现超大规模训练;

集群层面: 针对硬件集群的拓扑结构,对分布式训练通信、并行分组配比等进行定制优化,提升训练扩展比。

通过一系列的优化方法,最终也证明了我们可以在国产算力服务平台上,以能够对标国际水平的效率实现大模型的开发工作,这无疑为“中国的 ChatGPT”的开发工作喂了一颗定心丸。希望在不久的将来,我们可以看到真正在国产算力平台上训练的,能与 ChatGPT 比肩的中文模型。

前途一定是光明的。

举报/反馈

chatgpt真的很牛吗


两名学生正在做一个项目。图片来源:WILLIE B. THOMAS―GETTY IMAGES

想象一下这样一个场景,有这样一位私人家教,能够不知疲倦地教学生,可以接触到大量的数据,而且能够为所有人提供免费教育。1966年,斯坦福大学(Stanford Uni【【微信】】)的哲学教授帕特里克・苏普斯正是这样想的,他做出了这样的预测:有一天,随着计算机技术不断发展,“数以百万计的学童”将有机会得到私人家教的指导。他说,这种情况就像当时还是年轻王子的亚历山大大帝接受亚里士多德的辅导一样。

现在,一款具有高级会话能力的新一代人工智能聊天机器人ChatGPT也许可以胜任家教的角色。ChatGPT已经收集了大量关于各种主题的数据,而且还能够通过研究生考试。作为一名研究如何利用计算机帮助人们学习的研究人员,我认为ChatGPT可以用来帮助学生在学业上取得优异成绩。但是,就其目前的形式而言,ChatGPT无法专注于某一特定的任务,更不用说辅导了。

早在20世纪90年代互联网成为全球商业网络之前,哲学、工程和人工智能学者就设想过让计算机充当“智能家教”。我相信开发这些早期辅导系统的经验教训能够为学生和教育工作者在未来如何更好地利用ChatGPT充当家教带来启示。

计算机充当家教

斯坦福大学的哲学教授苏普斯是“计算机辅助教学”领域的先驱。他开发了一些最早的教育软件。该软件可以为学生提供个人指导,与那些没有使用该软件的学生相比,使用了该软件的学生能够取得更优异的成绩。从2004年到2012年,我在苏普斯手底下工作,负责开发软件和其他在线程序。

从那时起,推出为学生提供辅导的“智能家教”的实验推动了人工智能、社交网络和计算机硬件的发展。如今,ChatGPT可以写论文、回答哲学问题和解决计算机编码问题,最终可能实现苏普斯提供个性化辅导的目标。

早期版本的个性化学习系统

1972年,一款名为PLATO的新型个性化学习系统问世。PLATO是自动化教学操作的程序逻辑(Programmed Logic for Automated Teaching Operations)的首字母缩写。这是同类产品中第一款广泛使用的个性化学习系统。

PLATO是由伊利诺伊大学(Uni【【微信】】 of Illinois)的电气工程教授唐・比泽尔创建的,允许多达1,000名学生同时登录到一台大型计算机上。每名学生都能够完成外语、音乐、数学和许多其他科目的不同在线课程,同时获得计算机对他们作业的反馈。

PLATO使学生在更短的时间内达到与面授课程学生相同的成绩水平。而且大多数学生更喜欢这种教学模式,而不是坐在大课堂里。然而,该系统过于昂贵,许多学院和大学都无法使用。每台计算机终端的售价超过8,000美元,相当于今天的5.8万美元,而且每次学生使用该系统时,学校都要收取额外费用。尽管如此,PLATO取得的成功激发了许多公司开发提供类似辅导的软件,包括由苏普斯共同创立的College Curriculum Corporation。

流行的个人计算机品牌,例如苹果(Apple)和康懋达(Commodore),宣传内置的教育软件,成为家庭投资家用计算机的一大缘由。

到1985年,卡内基梅隆大学(Carnegie Mellon Uni【【微信】】)的研究人员利用人工智能和认知心理学方面取得的进展设计了新软件。他们声称,目前的技术已经发展到这样的水平,计算机系统可以像人类家教一样为学生提供高效辅导。然而,尽管当时有超过10,000款教育软件可供选择,但其中大部分软件的质量相当差强人意,并不能够提供真正的辅导。

尽管卡内基梅隆大学开发的更先进的教育软件使学生可以比传统教室里的学生学得更多,但它们并没有在学校得到广泛使用。

在20世纪80年代和90年代,一所学校需要相当数量的昂贵的高性能计算机工作站,以便学生能够使用“智能家教”。今天,计算机功能更强大,价格也更便宜。

早期的“智能家教”主要用于数学、科学和技术课程,这使得它们吸引力有限。学生不能向软件程序提问。然而,学生可以得到关于测验和测试的反馈。

2001年,下一代智能家教系统能够与学生进行书面英语对话。这些系统是早期的聊天机器人,利用自然语言处理方面取得的进展与学生就一系列主题进行对话。每个系统都是专门为某一门学科设计的,比如物理学。增加另一门学科,例如英语,将需要设计英语方面的专门辅导系统。

接下来的几年中,在三大方面取得的进展使得实现计算机教学的梦想有了飞跃。一是宽带网络的出现,它比20世纪90年代的拨号连接更快。其次是功能更强大的计算机的成本更低。第三是科技公司的投资和政府对大学人工智能研究的资助,促进了我们现在称之为聊天机器人的发展。

第一批聊天机器人

到2007年,早期的人工智能聊天机器人通过回答学生问题来提供辅导。研究表明,在这些聊天机器人的辅导下,学生可以取得类似于人类家教辅导的学习成果。即便如此,使用聊天机器人技术提供辅导主要还是实验性的。

在21世纪10年代,社交网络和人工智能的进步极大地改变了人们与技术互动的方式。聊天机器人已经融入了我们生活的方方面面,不再是实验性的了。现在人们与手机、汽车和家用电器对话。很多人家里都有虚拟助手。他们能够向Alexa、Siri或谷歌(Google)问路,或者是问它们简单的家庭作业问题。

如今,ChatGPT有更高级的功能,可以进行更复杂的对话,还能够提供个性化辅导,就像苏普斯在1966年预测的那样。

我问ChatGPT为什么它可以成为优秀的家教,它回答说:“我之所以能够成为好家教,是因为我可以理解各种问题,并根据提示给出答案。针对各种主题,我都能够提供准确而详实的信息。此外,我还可以用清晰易懂的方式传达这些信息,这样不同理解水平的学生都能够理解我的回答。而且,因为我是机器学习模型,可以在较短时间内提供大量有效信息,这对那些试图在短时间内学习大量新资料的学生来说大有裨益。”

相比之下,Siri说:“嗯……我没有办法回答这个问题。还有什么我能够帮助你的吗?”

最近在大学课程中使用聊天机器人的研究表明,使用聊天机器人对鼓励学生进行更深入地学习很重要。比如,在卡内基梅隆大学的云计算研究生课程中,人工智能聊天机器人使学生的学习效果得到了显著改善。当这些聊天机器人要求学生在现有论点的基础上进行论证,或者就他们已经提出的观点提供更多信息时,学生们的学习效果得到了很大提升。在这种情况下,聊天机器人向学生提问,而不是回答学生的提问。

许多教育工作者担心学生使用ChatGPT后学习效果会下降,因为用它可以在作业和论文中作弊。其他人则担心ChatGPT会给出错误答案或传播错误信息。

然而,智能家教的历史和研究表明,只要正确使用 ChatGPT等聊天机器人,几乎所有人都能够进行更深入地个性化学习。例如,如果人们使用ChatGPT向学生提问,促使他们修改或解释自己的作业,学生将可以提高学习成绩。由于ChatGPT所能接触到的知识比亚里士多德所能接触到的要多得多,因此它在为学生提供辅导方面有很大的潜力,可以帮助学生学到更多的知识。(财富中文网)

安妮・特朗博(Anne Trumbore)是弗吉尼亚大学桑兹终身学习研究所(Sands Institute for Lifelong Learning at the Uni【【微信】】 of Virginia)的首席数字学习官。

作者:Anne Trumbore, The Con【【微信】】