淘优惠

淘优惠

open ai 技术原理 open ai人工智能大牛

双十一活动 0

“我们看到这些人工智能能力发展得非常快,我总体上担心这些能力的发展速度比我们作为一个社会所能适应它们的速度要快。” 【【微信】】不分享更多关于GPT-4细节的理由是好的,但对人工智能世界中权力集中化也有合理的担忧。

“不应该由个别公司来做出这些决定。”“理想情况下,我们需要给这里的做法立规矩,然后让独立的第三方在审查与某些模型相关的风险以及向世界发布这些风险是否有意义方面发挥更大的作用。”

【【微信】】宣布了其最新的语言模型GPT-4,但人工智能社区的许多人对缺乏公共信息感到失望。他们的抱怨追踪了人工智能世界在安全方面日益加剧的紧张局势。

图片:【【微信】】

昨天,【【微信】】宣布了GPT-4,这是其期待已久的下一代人工智能语言模型。该系统的能力仍在评估中,但随着研究人员和专家对其随附材料的了解,许多人对一个特定特征表示失望:尽管有母公司的名称,但GPT-4不是一个开放的人工智能模型。

【【微信】】分享了GPT-4的大量基准和测试结果,以及一些有趣的演示,但基本上没有提供有关用于训练系统的数据、其能源成本或用于创建该系统的特定硬件或方法的信息。

人工智能社区的许多人批评了这一决定,指出它破坏了公司作为研究组织的创始精神,并使其他人更难复制其工作。也许更重要的是,有人说,这也使制定防范GPT-4等人工智能系统所构成的威胁的保障措施变得困难,这些投诉是在人工智能世界日益紧张和快速进步的时候提出的。

“我认为我们可以称之为关闭了‘开放的’人工智能:这篇介绍GPT-4的98页论文自豪地宣布,他们*没有*披露他们培训集的内容,”Nomic AI信息设计副总裁Ben Schmidt在关于该主题的帖子中发推文。

在这里,Schmidt指的是GPT-4技术报告中的一节,内容如下:

鉴于竞争格局和GPT-4等大型模型的安全影响,本报告不包含有关架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法或类似内容的进一步细节。

【【微信】】的首席科学家兼联合创始人Ilya 【【微信】】在接受采访时,就这一点进行了扩展。【【微信】】说,【【微信】】不分享更多关于GPT-4的信息的原因――对竞争的恐惧和对安全的恐惧――是“不言而喻的”:

【【微信】】说:“在竞争方面――那里很有竞争力。”“GPT-4不容易开发。【【微信】】花了几乎所有的资源和很长时间才生产出这个东西。有很多公司想做同样的事情,所以从竞争方面来看,你可以把这看作是这个领域的成熟。”

“在安全方面,我想说,安全方面还不是竞争方面那么突出的原因。但它会改变,因为这些模型非常强大,而且越来越强大。在某些时候,如果人们愿意,很容易对这些模型造成很大的伤害。随着能力越来越高,你不想透露它们是有道理的。”

“我完全预计,几年后,每个人都会完全清楚,开源人工智能是不明智的。”

封闭式方法对【【微信】】来说是一个显著的变化,【【微信】】于2015年由一个小集团成立,其中包括现任首席执行官Sam Altman、特斯拉首席执行官Elon Musk(2018年从董事会辞职)和【【微信】】。在一篇介绍性博客文章中,【【微信】】和其他人表示,该组织的目标是“为每个人而不是股东创造价值”,并将与该领域的其他人有同样目标的人“自由合作”。【【微信】】是一个非营利组织,但后来成为“限定利润”组织,以确保数十亿美元的投资,主要来自微软,它现在与微软拥有独家使用许可。

当被问及为什么【【微信】】改变了分享研究的方法时,【【微信】】简单地回答说:“我们错了。坦率地说,我们错了。如果你像我们一样认为,在某个时候,AI――AGI――将非常、令人难以置信的强大,那么开源就是没有意义。是个坏主意……我完全期望,几年后,每个人都会完全清楚,开源人工智能是不明智的。”

人工智能社区对此事的看法各不相同。值得注意的是,就在GPT-4推出在几周前,Facebook所有者Meta开发的另一个人工智能语言模型(名为LLAMA)在网上泄露,引发了关于开源研究的威胁和好处的类似讨论。然而,对GPT-4封闭模型的大多数初步反应都是负面的。

Nomic AI的Schmidt解释说,由于无法看到GPT-4的训练数据,因此很难知道系统在哪里可以安全使用并提出修复方法。

Schmidt说:“为了让人们就这个模型在哪里不起作用做出明智的决定,他们需要更好地了解它的作用以及假设是什么。”“我不会相信一辆没有在雪地气候中实验过的自动驾驶汽车;当在现实中使用时,可能会出现一些漏洞或其他问题。”

Lightning AI首席执行官兼开源工具PyTorch Lightning的创建者William Falcon说,他从商业角度理解这一决定。(“作为一家公司,你完全有权这样做。”)但他也表示,此举为更广泛的社区开创了一个“坏先例”,并可能产生有害影响。

“如果这个模型出错......社区应该如何反应?”

“如果这个模型出了问题,而且会出错,你已经看到了幻觉,并给你虚假信息,社区应该如何反应?”Falcon说。“道德研究人员应该如何去实际提出解决方案,并说,这种方式行不通,也许可以调整它来做其他事情?”

一些人建议【【微信】】隐藏GPT-4构建细节的另一个原因是法律责任。人工智能语言模型是在巨大的文本数据集上训练的,许多(包括早期的GPT系统)从网络上抓取信息――这个来源可能包括受版权保护的材料。也接受过互联网内容培训的人工智能图像生成器正因为这个原因而面临法律挑战,目前有几家公司被独立艺术家和股票照片网站Getty Images起诉。

当被问及这是否是【【微信】】不共享其训练数据的原因之一时,【【微信】】说:“我对此的看法是,训练数据就是技术。它可能看起来不是这样,但事实是。我们不披露训练数据的原因与我们不披露参数数量的原因几乎相同。”当被问及【【微信】】是否可以明确声明其训练数据不包括盗版材料时,【【微信】】没有回复。

【【微信】】确实同意【【微信】】的批评者的观点,即开源模型有助于开发保障措施的想法有道理。他说:“如果更多的人研究这些模型,我们会更多地了解它们,那会很好。”但出于这些原因,【【微信】】为某些学术和研究机构提供了访问其系统的权限。

关于共享研究的讨论正处于人工智能世界疯狂变化的时刻,压力在多条战线上增加。在企业方面,谷歌和微软等科技巨头正急于为其产品添加人工智能功能,往往将之前的道德问题放在一边。(微软最近解雇了一个团队,致力于确保其人工智能产品遵循道德准则。)在研究方面,该技术本身似乎正在迅速改进,引发了人们对人工智能正在成为严重和迫在眉睫的威胁的担忧。

英国智库长期复原力中心人工智能政策负责人Jess Whittlestone说,平衡这些各种压力带来了严重的治理挑战,她说,这可能需要让第三方监管机构参与进来。

Whittlestone说:“我们看到这些人工智能能力发展得非常快,我总体上担心这些能力的发展速度比我们作为一个社会所能适应它们的速度要快。”她说,【【微信】】不分享更多关于GPT-4细节的理由是好的,但对人工智能世界中权力集中化也有合理的担忧。

Whittlestone说:“不应该由个别公司来做出这些决定。”“理想情况下,我们需要给这里的做法立规矩,然后让独立的第三方在审查与某些模型相关的风险以及向世界发布这些风险是否有意义方面发挥更大的作用。”

编译:htb 信息来源:theverge.com 作者:【【微信】】


OpenAI的CEO: ChatGPT进化版或可以制作画像与视频

openai推出gpt-4,openai官网,openai和微软的关系,openai账号购买

当下最火没有之一的AI对话程序ChatGPT可谓是几乎无所不能,不过与其他专门制作画像与视频的AI软件相比缺少一些专业性,日前开发公司OpenAI的CEO在采访中表示,ChatGPT进化版或可以制作画像与视频。

・OpenAI的CEO山姆・阿尔特曼(Sam Altman)日前接受了东京电视台的独家采访,谈到了ChatGPT的发展,表示目前ChatGPT的竞争对手越来越多,不过公司旗下的次世代进化版“GPT4”正在积极开发中,性能将会提升更多。

・就社会各界关心猜测的“GPT4”不仅仅局限于文字,能否直接制作画像与视频的问题,山姆・阿尔特曼并没有直接表态“GPT4”可以实现,只是强调自己是非常感兴趣,“GPT4”制作画像与视频的可能性不低,敬请期待。