淘优惠

淘优惠

chat gpt 4 chat gpt 国内版

双十一活动 0

2023年11月20日 每日一猜答案: 答案:ABC
每日一猜答案分析:


随着ChatGPT登台亮相,从科技从业者,到投资圈,再到普罗大众,越来越多人再次关注到了“过气”的AI,及其所能带来的价值和改变。 

商业界也的确源源不断贡献着更多新的素材:【【微信】】和微软的联姻让性能提升、成本降低成为可能;Google、Meta穷追不舍更新动作;国内,百度、字节、腾讯等大厂,以及众多创业公司,都开始从自己擅长的角度切入竞争…… 

为了帮助读者能够持续关注由ChatGPT引发的科技圈海啸,36氪推出「Chat AI」栏目,从中立的第三方视角,探索、分析每一次热点背后的商业观点。

作者 | 沈筱、王与桐

不久前,【【微信】】开放的ChatGPT模型API已经以显著的成本优势惊艳了众人。

而【【微信】】的胃口已经越来越大。今天凌晨,【【微信】】以Twitter和YouTube为宣传渠道,公布了又一个重磅消息――GPT-4上线。

Youtube观看量已经突破110万

目前,ChatGPT PLUS用户已经能够提前尝鲜;同时,GPT-4的模型API也已对部分开发者开放。

【【微信】】将在2023年发布GPT-4的筹谋早已是公开的秘密,但尘埃落定后,一些答案浮出水面,一些答案却“点到为止”

多模态、图像处理、真实性等等特点,是GPT4公开的答案;而关于数据集规模、参数规模等,【【微信】】却并没有回复此前大家的猜想。

性能提升的背后,也是商业竞争的进一步白热化。

GPT-4究竟有何不同?总的来看,模型在图像理解、文本处理、安全性和事实性提升等方面实现了多点开花。

正如3月9日微软德国 【【微信】】对外宣称的,GPT-4是一个多模态模型。

尽管GPT-4没有和人们预料的一样,可以支持视频、音频等输入方式,但是,支持图像输入已经成为板上钉钉的事实。也就是说,GPT-4附带了图像理解能力,可以对图像内容作出说明、进行分类和分析。但目前,【【微信】】还在和合作伙伴「Be My Eyes」共同测试该能力,因此尚未对【【微信】】所有客户开放。

除了这一“理所当然”的变化,GPT-4在文本处理方面的能力又有了较大提升。一方面,GPT-4能够处理的文本长度增加了;另一方面,GPT-4的文本记忆能力增加了

据介绍,GPT-4可以处理超过 25,000 个单词的文本,这一数字约为ChatGPT的8倍。这也意味着GPT-4可以执行的任务场景得以拓展――可以支持格式内容创建、扩展对话以及文档搜索和分析等。

同时,GPT-4 支持的最大token数量为 32,768,相当于64,000个单词或 50 页文字。相比之下,GPT-3.5 和上一版ChatGPT 的token限制为4,096 个,大约 8,000个单词。因此,在对话时,GPT-4能够记住更多的聊天内容,降低重复回答或者“神游”的可能性;在生成长文时,连续性也会更强。

就上述两个改进而言,有业内人士分析,其究竟能够在应用层产生多大的威力,需分情况讨论。据悉,图像理解能力的提升,从理论上来讲,是比较大的突破。但其是否能够在各类场景中得到广泛应用,还取决于不同场景下的具体业务逻辑。需要对业务进行拆解后,进一步甄别是否具有多模态理解的需求,以及如何接入这样的能力。相比之下,文本处理能力的提升可能会在应用层被更迅速地采纳。

虽然GPT-4的上述改进在应用层能掀起何种波澜仍未可知,但能够确定的是,要想实现这样的能力提升,GPT-4无论是在模型架构、模型训练,还是迭代优化路径等各方面都会有一定的突破。

遗憾的是,由于本次【【微信】】未在技术报告中透露有关模型参数、硬件、训练方法和训练数据量等细节,我们还无从得知,这些突破可能是什么。目前的已知努力是,【【微信】】为了训练GPT-4,在过去两年里联合微软在Azure 云上重新搭建了一个专用的超算平台

此外,在技术层面,【【微信】】其实也公布了一些看似不那么重要,却是保障AI未来可以得到人类正确使用的关键突破。

例如,【【微信】】构建了可预测扩展(predictable scaling)的深度学习堆栈,支持使用更少的计算量来评估模型训练性能,预测训练期间优化的指标(损失)。【【微信】】表示,通过从使用相同方法训练,但使用万分之一的计算量对模型训练性能进行了推断,准确预测了 GPT-4 在其内部代码库上的最终损失。

【【微信】】将这一突破更多地聚焦于“安全性”――“我们认为,准确预测未来的机器学习能力是安全的重要组成部分,但相对于其潜在的影响,它并没有得到足够的关注(尽管我们受到了几家机构的鼓励)。我们正在加大努力开发方法,为社会提供更好的指导,了解未来系统的期望,我们希望这成为该领域的共同目标。”

然而值得一提的是,有业内人士告诉36氪,这其实也意味着模型训练正朝着更加科学、结果可预测的方向前进,将有望减少不必要的资源浪费。比如,如果预测训练性能不好,或许就没必要使用更多的数据进行训练了。但同时,该人士也指出,还需要关注实现这个功能的技术路径,即对如何实现预测的详细解释。如果实现这样的预测工程难度较大,说明其可能不具有普适性。

另外,在安全性提升方面,【【微信】】还做了另一件事:花费了6个月的时间对模型进行了针对性的迭代优化。当然,迭代后的GPT-4在回答的准确性、事实性、可操作性等多个方面也有了提升。

【【微信】】表示,他们已经在2022年8月就完成了模型训练,但是为了推出GPT4,又进行了6个月的迭代,而迭代主要是针对ChatGPT此前饱受诟病的点,比如事实性不够、风格难以控制、信息隔离不够好,等进行了提升:“利用对抗性测试计划和ChatGPT的经验教训,迭代调整GPT-4,在事实性、可操纵性和拒绝走出护栏方面取得了有史以来最好的结果。”

尽管GPT4的整体训练时长我们不得而知,但模型性能提升主要是得益于模型之前的预训练过程,因此只花了6个月的时间。

在官网上,【【微信】】迭代调整的提升比例,比如事实性这个功能里,“在我们的内部对抗性事实评估中,GPT-4的得分比我们最新的GPT-3.5高40%”;在安全性角度,“与GPT-3.5相比,我们将模型响应不允许内容请求的趋势降低了82%,GPT-4根据我们的政策响应敏感请求(例如医疗建议和自我伤害)的频率增加了29%”。

40%、82%、29%,这些数字背后,迭代调整的时间仅有6个月。

作为【【微信】】设计的一系列模型中的第五个,此前还出现了GPT - 1、GPT - 2 、 GPT - 3、GPT-3.5,前三个分别官宣于2018、2019、2020,GPT3已经出现了重大飞跃,参数是上一代的百倍,同时在商业上也表现出稳定性和实用性(比如估值15亿美元的JasperAI此前就使用的GPT3)。

此前【【微信】】就曾表示,GPT3.5只是一个中间版本,或许叫“PreGPT4”会比“GPT3.5”更贴合,因为GPT3.5在技术路线上与之前有较大差异,是基于人工标注数据+强化学习的推理和生成。正如同ChatGPT最初是以“demo”形态被【【微信】】推出,其原因也是为了测试在安全性、真实性等方面的改进空间。

而GPT4的整体训练,在官网上,【【微信】】仅用了几段话作为简单描述。抽象来看,主要是从几个维度进行了加强训练:

  • 基础模型训练:与之前的GPT模型一样,使用公开数据(如互联网数据)以及被许可的数据进行训练。数据语料库里包括数学问题的正确和不正确的解决方案,弱而强烈的推理,自相矛盾和一致的陈述,并代表了各种各样的意识形态和想法。
  • 人工反馈强化学习(RLHF)微调模型:GPT-4具有与以前的模型类似的风险,例如产生有害的建议、错误代码或不准确的信息。为了了解风险程度,【【微信】】聘请了来自人工智能对齐风险、网络安全、生物风险、信任和安全以及国际安全等领域的50多名专家来对抗性地测试该模型。GPT-4在RLHF培训期间纳入了额外的安全奖励信号,通过培训模型拒绝此类内容的请求来减少有害输出。为了防止模型拒绝有效请求,【【微信】】从各种来源(例如,标记生产数据、人类红色组合、模型生成的提示)收集不同的数据集,并在允许和不允许的类别上应用安全奖励信号(具有正值或负值)。
  • 可预测深度学习堆栈:GPT-4项目的一大重点是构建一个可预测的深度学习堆栈。由于GPT4模型更大, 因此如果用以往的方式把模型放在数据里跑一次,时间和计算成本都更高,而GPT4采用了新的方式,只需要用万分之一的计算量就可以预测出准确率。

GPT4能用万分之一计算量就可以预测出准确率

【【微信】】这次也提供了一个官方的论文来解释相关的功能和训练过程,但是关于具体的比如数据集规模、参数规模等都没有透露。虽然也提供了一个开源工具“Evals”,但这是为了让更多开发者给GPT4提建议的,而并非共享的。

这并不符合以往【【微信】】的作风,也似乎与【【微信】】创始人Sam Altman此前说到的【【微信】】成立之初的愿景――AGI,让更多的人使用AI技术,并从中获利――并不相符。

对具体参数和规模缄口不言,背后的原因可以从两个方向分析:技术角度和商业角度,都要建立壁垒

在GPT4公布前,不少人判断GPT4将是百万亿大模型,比此前GPT3.5的千亿大模型还要多100倍量级。但同样也在GPT4公布前,Altman也亲自下场辟谣,他表示,GPT-4的参数量不会大很多,但可能会用到更多的计算资源。在此前的分析文章中,36氪也有提到,这可能意味着【【微信】】正在寻求其他创新性地提升模型能力的路径,而非一味求大。

但Altman同时也表示,GPT4模型还是以文本训练为主。但目前来看,GPT4并不是仅仅以本文为主,已经能够支持图片、视频等多种交互方式。这从侧面或许证明,Altman的“辟谣”或许并不是真的“辟谣”,外界的猜测,有可能是真的――的确在规模上有了更大、更令人难以想象的突破。

不少人猜测,虽然并没有达到百万级别,但会落在 1 万亿或 10 万亿参数范围内。相关分析指出,在这样的情况下,模型可能会受益于稀疏网络(sparse networks)的使用,以获得更好的模型扩展性。也就是说,【【微信】】或将以往密集网络(dense networks)方法改为稀疏网络,并开发新的训练算法。同时,使用稀疏网络也可能导致模型架构的变化―― GPT-4 或许具有神经形态架构,即类似于人脑,可以根据需要适时激活特定部分的任务执行区域。

在技术壁垒的不断加深的背后,【【微信】】此次对参数和技术细节缄口不言、讳莫如深的态度,或许来源于他们不想再被“抄”下去了,也要进一步在商业上建立自己的壁垒。技术细节披露越多,能够与【【微信】】比拼的角度就会更多。

不过,也有从业者认为,【【微信】】或许是出于安全负责的考虑,才没有披露具体细节,后续可能会公布。

但无论从什么角度考虑,壁垒的建立都是箭在弦上。毕竟,以Google、Meta为代表的大厂已经虎视眈眈许久,并且炮火声在最近越来越响:

  • 今天,在GPT4推出之后,Google开放自家的大语言模型 API 「PaLM API」,此外还发布了一款帮助开发者快速构建 AI 程序的工具 MakerSuite。

Google开放其API接口

  • 3月,Google推出PaLM-E,其拥有5620亿参数,是GPT-3的三倍多,号称史上最大规模视觉语言模型。
  • 2月底,Meta突然公布了一款全新的AI大型语言模型LLaMA,宣称可帮助研究人员降低生成式AI工具可能带来的“偏见、有毒评论、产生错误信息的可能性”等问题。并且仅用约1/10的参数规模,实现了匹敌【【微信】】 GPT-3、DeepMind Chinchilla、谷歌PaLM等主流大模型的性能表现。
  • 此前,百度高调官宣会在3月16日上线文心一言。

开放API接口、用更低的参数、用更高的参数……参与者们都在寻找更适合的角度,想要与【【微信】】及其“爸爸”微软,正面竞争。

或许这也是【【微信】】着急将GPT4推出的重要原因――你们还在围绕我的3.5比拼,而我已经跳到下一阶段了。这无疑能够帮助【【微信】】依旧当仁不让成为“AI引领者”。

当下,由ChatGPT引发的系列讨论热度在持续升高,其中比较主流的讨论,集中在成本和模型规模两个维度。

一方面,在3月初,【【微信】】以每1000个tokens0.002美元的价格开放了API接口,是原本价格的十分之一。如此低廉的价格,或许会将吸引绝大多数应用层伙伴,【【微信】】得以建立自己的生态。而生态不仅是未来商业变现的根据地,更是反复强化训练的数据来源,因此,当GPT系列成本足够低时,将挤占其他互联网大厂的生态。

对于全球所有模型层的公司来说,都在思考还要不要继续做、怎么做才能让自己成本更低;对于所有应用层的公司来说,都希望可以以如此低的接入成本,成为不同领域的“Jaseper”。

另一方面,到底需不需要如此大的模型,也成为业内讨论的话题之一。不少人认为,如果能够实现相同的效果,用更大的模型训练就是浪费资源。

但此刻看来,必要不充分条件依旧成立:虽然模型不是越大越好,但是更好地效果实现,还是必须得有更大的模型。

此刻,【【微信】】的GPT4再次甩开了自以为能够与其竞争的“竞争者们”。未来,【【微信】】一定会以更低的价格继续开放更好的模型,那时AI格局或许已经不会再出现变化了。

明天,百度文心一言会上线,36氪也将继续关注。

ChatGPT模型API接口1折开放,全球AI格局巨变进行时 | Chat AI

ChatGPT走红背后:苦熬五年,三次AI路线迭代|Chat AI

Chat AI | 最快月活过亿,但ChatGPT或终将被开源打败

ChatGPT背后:一个天才、百亿融资和1亿月活 | 全球独角兽

5月,36氪将举办“颠覆AIGC”主题峰会


chatgpt和必应gpt哪个好用 chatgpt-4和chat gpt区别

必应好用吗,必应国际版和国内版有什么区别,必应算是外网吗,必应与谷歌

今天重磅推出的【【微信】】“继任者”――GPT-4,会否再一次改变世界?

出品 |?微果酱(ID:wjam【【QQ微信】】)

作者?| 陈出木&zhou大红

科技圈上一次这么“疯狂”,还要回到2007年1月9日。苹果联合创始人兼CEO的史蒂夫・乔布斯(Ste【【微信】】)在旧金山Moscone中心发布第一代iPhone,标志着智能手机时代的来临,也加速了移动互联网时代的腾飞。

而今天,曾经掀起科技海啸的【【微信】】推出迭代产品――GPT-4,会否再一次改变世界?

“超级网红”GPT-4亮相

今天凌晨一点,OpenAI的首席执行官Sam Altman在社交媒体上发文,官宣推出“GPT-4”(【【网址】】/research/gpt-4)

这里是GPT-4,它是我们迄今为止最强大和最一致的模型,今天在我们的API(带有等待列表)和【【微信】】 plus中可用。它仍然是有缺陷的,仍然是有限的,而且它在第一次使用时似乎比你花更多时间使用它之后更令人印象深刻。

一石激起千层浪。

国外,华尔街日报、纽约时报等各大媒体闻风而动,BBC用上的标题是《OpenAI announces 【【微信】】 successor GPT-4》,直接将GPT-4称为【【微信】】的“继任者”。

国内同样大受震动,各家媒体争相报道。一时之间,““未来”似乎真的已来。

这种科技应用热浪已经很久没看到过了,甚至颇有2007年乔布斯发布会的激动既视感。

彼时,乔布斯在台上向人们讲解为什么要花499美元买iPhone。尽管他语气平静,但台下掌声雷动,媒体们也像今天这般蜂拥跟进。而直到现在,16年后,互联网上仍然持续铭记并怀念着那场划时代的发布会。

因为正如乔布斯所说,“苹果要重新定义手机。”那天之后,我们逐渐用上智能机,正式步入了移动互联网时代。

当前很难断定GPT-4是否能像iPhone那般改变世界,毕竟连“【【微信】】之父”Sam Altman也表示,其仍有缺陷。但毋庸置疑的是,它正在加速这种改变。

以下是Open AI关于GPT-4新能力的介绍:

我们创建了GPT-4,这是OpenAI扩展深度学习的最新里程碑。GPT-4是一个大型多模态模型(接受图像和文本输入,发出文本输出),虽然在许多现实场景中不如人类,但在各种专业和学术基准上表现出人类水平的表现。

图源:GPT-4官网

GPT-4的新功能一览

根据GPT-4的官网消息,相比GPT-3.5,GPT-4的能力将在任务复杂性达到足够的阈值时显现出来,会更可靠、更具创造力,并且能够处理更细微的指令。

相当于说,问题越难,GPT-4越能一展身手,而普通交谈上,GPT-4和GPT-3.5差异不大。这个结论是基于,OpenAI让两个模型在各种为人类设计的模拟考试上进行的实验。

此外,GPT-4优于现有的大型语言模型及大多数SOTA模型。且在测试的 26 种语言的24种中,GPT-4优于GPT-3.5和其他大语言模型(Chinchilla、PaLM)的英语语言性能。

根据官方技术文档,GPT-4的新功能具体包括:

1、【【微信】】(视觉输入)

GPT-4可以接受文本和图像的prompt(ja【【微信】】语言中的一个方法,主要用于显示提示对话框),这与纯文本设置并行,允许用户指定任何视觉或语言任务。

具体来说,当用户给定由穿插的文本和图像组成的输入,GPT-4可以生成文本输出,包括了自然语言、代码等。换言之,输入带有文本和照片的文档、图表或屏幕截图,GPT-4已经可以表现出与纯文本输入类似的功能。

此外,它还可以通过为纯文本语言模型开发的测试时间技术来增强,包括少量镜头和思维链prompt。

举个例子,当你问GPT-4:“这张照片有什么好笑的?逐一描述。”面对问题中同时出现了文本和图片的情况,GPT-4识别之后,丝毫不慌地给出三个理由。

再来个图文并茂的物理题,GPT-4不仅成功跨语种,读懂法语题目并给出了完整解答过程。

GPT-4还能站在人类角度理解到图片的不同寻常之处。

甚至对于更加具有主观创造性的“梗图”和漫画,GPT-4也能说出个一二三四。

User:你能解释一下这个迷因吗?(图中文字翻译:有时我只是从太空看地球的照片,想象这一切是多么美好)

GPT-4:这是一个笑话,它结合了两个无关的东西――来自太空的地球图片和鸡块。其文字表明,下图是一张来自太空的地球图片,而这张图片实际上是鸡块,被排列成模糊的世界地图。其中的幽默来自于文本和图像的意外并置。文本设定了一个宏伟的地球形象的期望,但这个形象实际上是世俗和愚蠢的。

在Open AI发布的GPT-4开发者直播视频中,开发人员还演示了利用GPT-4,将他笔记本上的草图图像创建了一个网站。

尽管官方表示,图像输入仍然是一个研究预览,无法公开。但无疑,这样的人工智能程度是足以令人心惊的。

而开发者还不断发现GPT-4能处理的新的任务,并计划很快发布进一步的分析和评估数据,并对测试时间技术的影响进行彻底调查。

2、Steerability(可操纵性)

OpenAI一直致力于定义AI行为的各个方面,其中一项就是可操纵性。

官方表示,开发人员(以及很快的【【微信】】用户)可以通过在“系统”消息中描述方向来设定他们的AI风格和任务,而不像传统的【【微信】】,具有固定的冗长语调和风格。

这一个功能的意思是,系统消息允许API用户在一定范围内自定义用户体验,即是用户可以在系统中设定GPT-4的角色,并在这个基础上进行AI问答,而GPT-4的回答将基于这个设定展开。

在官方示例中,使用者在system(系统)设定GPT-4是“一个总以苏格拉底式风格回应的导师,永远不会给学生答案,但总是试着提出正确的问题......”可以看到,在随后的对话中,GPT-4遵守着这一设定,不断提出问题引导使用者。

3、将事实与错误陈述的对抗性选择区分开的能力

尽管GPT-4强大如斯,但其实局限性与早期GPT模型相似。最重要的是,它仍然不完全可靠(它“幻觉”了事实并犯了推理错误),只是相比此前模型已经减少了“幻觉”,在内部对抗性真实性评估中,GPT-4的得分比GPT-3.5高40%。

GPT-4在TruthfulQA等外部基准上取得进展。比如在测试模型将事实与一组错误陈述区分开来的能力,GPT-4仅略优于GPT-3.5。但经过RLHF(reinforcement learning from human feedback,强化学习人类反馈)训练后,差距就明显起来了。

在官方示例中,GPT-4开始拒绝选择常见的说法(你不能教老狗新的技巧),但它仍可能错过一些微妙的细节(埃尔维斯・普雷斯利不是演员的儿子)。

根据一些近期的博客文章,OpenAI的目标是使构建的人工智能系统具有合理的默认行为,以反映广泛的用户价值观。

但官方也承认,GPT-4通常缺乏对绝大多数数据中断(2021年9月)后发生的事件的了解,也没有从中吸取经验教训,有时会犯一些简单的推理错误,或者轻信用户的虚假陈述。

这便是有趣之处,基础预训练模型经过高度校准(其对答案的预测置信度通常与正确的概率相匹配),但通过OpenAI目前的后训练(post-training)过程,校准减少了。

4、安全性能提高

GPT-4与此前的模型具有类似的风险,例如生成有害建议、错误代码或不准确的信息,再加上新功能带来的新风险,都有可能为其未来埋下重雷。

所以,OpenAI通过预培训数据的选择和过滤、评估和专家参与、模型安全改进以及监控和执行,来提高GPT-4的安全性能,并在RLHF训练期间加入了额外的安全奖励信号。团队收集了多样化数据集,在允许和不允许的类别上应用安全奖励信号(有正值或负值),以减少有害输出和防止拒绝有效请求。

这些措施改善了GPT-4的安全性能。与GPT-3.5相比,模型对不允许内容的请求响应倾向降低82%,对敏感请求(如医疗建议和自我伤害)的响应符合政策的频率提高29%。

5、使用RLHF微调模型行为

与此前的GPT模型一样,GPT-4基础模型被训练为预测文档中的下一个单词,并使用公开可用的数据(如互联网数据)以及我们许可的数据进行训练。所以,这个数据集包括了数学问题的正确答案和错误答案、弱推理和强推理、自相矛盾和一致的陈述等。

这就导致模型的响应可能与用户的意图相去甚远。为了缓解这种情况,OpenAI使用RLHF来微调模型的行为。但GPT-4的能力似乎主要来自预训练过程。RLHF不会提高甚至降低考试成绩。但模型的控制来自后训练过程,基础模型甚至需要及时的工程设计来回答问题。

6、构建可预测扩展的深度学习堆栈

GPT-4官方强调了这个新项目的重点之一,是构建了一个可预测扩展的深度学习堆栈,因为广泛的特定模型调整对于GPT-4这样的大型训练不可行。

研发团队开发的基础设施和优化在多种规模下都有可预测的行为。为了验证这种可扩展性,他们通过使用相同方法但计算量少10000倍的模型中进行外推,提前准确预测GPT-4在内部代码库(不是训练集的一部分)的最终损失。

从GPT-4更新的这六项能力里,我们可以在一定程度上看到人工智能的发展水平。

OpenAI表示公司内部也在使用GPT-4,所以也关注大型语言模型在内容生成、销售和编程等方面的应用效果,并将使用GPT-4辅助人们评估AI输出,这也是OpenAI对其策略的第二阶段。

GPT-4会改变世界吗?

GPT-4这一波来势汹汹,压力给到了碰巧计划明天发布文心一言的百度。

但如果细究GPT-4会否改变世界,却很难一言以蔽之。

诚然,GPT-4的推出可以在一定程度上标志着人工智能水平的进一步拔高。可以预见,在其完全开放之后对各个行业的冲击,因为连图文都能够进行解读的AI,必然能够输出更加细腻的内容。

这显然会让世界范围内追赶【【微信】】的友商再次虎躯一震,于是“站队”也提前到来,是接入还是硬刚――

GPT-4正式官宣后,微软也确认新的Bing正在GPT-4上运行,「这是我们为搜索定制的」。

而 GPT-4的上新,距离2月8日微软发布由【【微信】】和GPT-3.5提供支持的全新搜索引擎必应(Bing)和Edge浏览器,仅仅过去了一个月多。

微果酱在此前文章也提到,【【微信】】卷起科技应用的一场「大风暴」,微软与谷歌之间的硝烟正浓。

为了保住自己的行业老大哥地位,谷歌在AI方面也没闲着。

2月7日,谷歌官宣其基于2021年5月推出的大语言模型LaMDA而打造的一代对话AI系统Bard;

谷歌正在为开发人员提供其最先进的人工智能语言模型之一:PaLM。这家搜索巨头正在为 PaLM 推出一个 API以及一些人工智能企业工具,据称这将帮助企业“从简单的自然语言提示中生成文本、图像、代码、视频、音频等。”

3月14日,谷歌开放AI语言模型PaLM API,企业和开发人员将能够在该系统的基础上构建自定义聊天机器人等。

注:PaLM 是一种大型语言模型,即 LLM,类似于Open AI 创建的 GPT 系列或Meta 的 LLaMA 系列模型。

除了推出 PaLM API 外,谷歌还在其 【【微信】】 平台中扩大对生成 AI 的支持;并推出了一个名为Generati【【微信】】的新平台,该平台“允许开发人员快速发布新体验,包括机器人、聊天界面、自定义搜索引擎、数字助理等。

而在3月16日(也就是明天),百度的大模型新项目文心一言(ERNIE Bot),也将迎来正式揭晓的时刻。尽管还不知道它长什么样子、具备怎样的“超能力”,铺垫了一个多月也吊足了大家的胃口。

但话又说回来,OpenAI发布的这篇“Technical Report”,说是技术报告,不如说是产品广告+免责声明。毕竟官方无时无刻不在强调,GPT-4仍有局限、缺陷和风险。有AI专家直言,“是一次推广特征更为明显的广告行为”。

GPT-4是站在巨人的肩膀上,用此前的技术积累完成迭代,其整体技术相比此前,并没有非常里程碑式的突破,只能说均有优化。

更值得注意的是,OpenAI还在官宣GPT-4的内容最后表示,正在开源OpenAI Evals,该软件框架系用于创建和运行评估GPT-4等模型的基准,支持编写新的类来实现自定义的评估逻辑,广邀用户体验。

如此看来,GPT-4推出的最大意义或许不在于具体如何改变世界,更在于加快科技发展的进程,向世人展示人工智能的更多可能性,以及为OpenAI打了一波成功广告。