chatgpt引燃新一轮ai革命 chatgpt所引发的人工智能新浪潮
热门文章
0
淘宝搜:【红包到手500】领超级红包,京东搜:【红包到手500】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
ChatGPT 正风靡一时,不过,要使其有效地工作,用户需要提出正确的问题才能获得想要的结果。在此情况下,一项新兴的职业――提示(Prompt)工程师正在悄然崛起。美国《大西洋》杂志将其称为 " 本世纪最重要的职业技能 "。什么是提示?马萨诸塞大学洛厄尔分校计算机科学教授 Jie Wang 在接受《每日经济新闻》采访时曾表示,提示是 ChatGPT 接受用户反馈的形式。简而言之,用户通过向 ChatGPT 等大型语言模型输入相应的小提示,让后者生成预期的结果。当地时间 2 月 20 日,OpenAI 的首席执行官 Sam Altman 也在推特上为这个新兴职业 " 背书 "。他这样写道," 为聊天机器人编写一条优质的提示是一项惊人的高级技能,也是自然语言编程的早期示例。"《每日经济新闻》记者注意到,已经有公司开出 17 万 ~33 万美元的年薪来招聘提示工程师。招聘的公司正是 OpenAI 前研究副总裁自立门户的公司 Anthropic。随着越来越多的公司采用 AI 技术,在机器学习和提示工程方面拥有丰富知识的专业人士将获得更多的机遇,市场相关人才的需求也将不断增加。 什么是 AI 提示工程?《每日经济新闻》记者注意到,Anthropic 在官网开始招聘提示工程师,并开出 17 万 ~33 万美元的年薪。图片来源:Anthropic除此之外,也有推特用户爆料,一家顶级律师事务所正在伦敦招聘一名 "GPT 法律提示工程师 "。图片来源:推特截图到底什么是提示工程师?公开资料显示,AI 提示工程是使用 AI 工具获得所需输出的有效方法。提示有多种形式,例如语句、代码块和字符串,它们也是教导模型给出特定任务结果的一种方式。通过这种方式,提示工程已成为利用 AI 工具不可或缺的一种技能。以 ChatGPT 为例,文本是目前用户与其之间的主要交流方式,后者使用文本命令告诉模型要执行什么样的任务。一个非常简单的例子是,当记者使用 ChatGPT 辅助新闻写作时,需要 ChatGPT 对一段较长的新闻进行归纳总结或生成一个标题。这时,可以给 ChatGPT 一点小提示――例如,Mary 是 "《纽约时报》" 一位 " 非常资深 " 的编辑,她需要几个 " 吸睛的 " 标题。引号中三个关键词的提示,会让 ChatGPT 生成的内容得到明显提升。简而言之,就是用户通过向 ChatGPT 等大型语言模型输入相应的小提示,让后者生成预期的结果。实际上,大型语言模型在 AI 领域已经诞生好几年了,但开发人员仍然还在探索与其互动的最佳方式。一些较小的大型语言模型例如 BERT,开发人员可以下载下来并根据自己的数据进行训练;但是,对于一些更大的大型语言模型例如 GPT-3 等,只能在云端进行培训和托管,开发人员只能通过 API 与其进行交互。在后者这种情况下,就需要用到一项新的技能――提示工程,来对大型语言模型进行训练。Cohere 是最早也是最成功的自然语言处理(NLP)和大型语言模型工具开发商之一。该公司表示," 同一提示的不同表述听起来非常相似,但可能会导致截然不同的几种生成结果。"据 Cohere,通过部分提示示例(学习),也被称作小样本学习(few shot learning),是提示工程师用来训练模型的技术之一。正如 Jie Wang 告诉《每日经济新闻》记者,ChatGPT 最主要的突破就在于其背后架构 GPT-3.5 中使用的 few-shots(小样本)和用户反馈的技术。机器学习工具开发商 Gantry 的创始人兼首席执行官 Josh Tobin 表示,与传统模型训练相比,提示工程的一大好处是可以根据需要实时更改提示。" 当你训练一个模型时,你是在历史数据上做这件事,所以在你看到数据和数据成功纳入模型权重之间,总是存在滞后," 托宾说道," 但是有了这种上下文的工程方法,人们称之为提示工程的一部分,(你可以)即时改变它以响应用户行为,响应应用程序状态,响应任何其他事情。 提示工程师将越来越火 AI 提示工程的发展是通过大型语言模型实现的。2021 年,由于引入了带有自然语言处理 ( NLP ) 数据集的多任务提示工程,该领域取得了令人瞩目的成果――通过提示,语言模型能够准确描述逻辑思维过程," 零样本学习 " 得以应用,这进一步提高了多步推理的成功率。2022 年,AI 绘画模型 DALL-E、Stable Diffusion 和 Midjourney 火爆全球,从文本到图像,提示工程打开了一个充满可能性的世界。随着 ChatGPT 的风靡,以 ChatGPT 为代表的生成式 AI 被认为是,从搜索引擎到故事编写、科学研究、家庭作业、学校教学等创造性或重复性工作的替代品。到目前为止,人类已经经历了数次超级工具的诞生,互联网和智能手机的出现引发了科技革命,并且极大地改变了人们的思维和生活方式。在 Jie Wang 看来,如果用 ChatGPT 来代表基于大型通用语言模型的应用,那么 ChatGPT 有潜力成为下一个改变世界的超级工具。在这种语境下,如何有效地与机器对话就变得尤为重要了。一些公司已敏锐地嗅到了其中的商机。LangChain、GPT Index 都是目前比较流行的提示工程工具之一。由于 AI 绘图工具例如 DALL-E、Stable Diffusion 和 Midjourney 等的流行,文本到图像的提示也越来越流行,提示工程也在绘图领域找到了一席之地。不过,目前提示工程师这个职位还很新潮,以至于托宾开玩笑说,世界上可能只有两个人是提示工程师。招聘网站似乎也还没有适应过来。据外媒报道,ZipRecruiter 将其作为无效职位,而 CareerBuilder 甚至没有识别这是一个职位,误认为这是工程师的一项品质(如 " 及时出现工作 ")。外媒分析认为,随着越来越多的公司采用 AI 技术,在机器学习和提示工程方面拥有丰富知识的专业人士将获得更多的机遇,市场对精通该领域的工程师和数据科学家的需求也将不断增加。每日经济新闻
怎么让chatgpt帮你写脚本 chatgpt为啥这么火
怎么让chatGPT,怎么让chatGPT画网络拓扑,怎么让表格第一行固定不动,怎么让草莓快速消除图片来源: 凤凰网人工智能的成功,不只归功于金字塔尖的天才。AI 不会识别物体,需要大量数据学会分辨五官和交通灯。AI 对信息来者不拒,仰仗人工帮它剔除数据库有害的那部分。当 AI 最终出现在镁光灯下,数据标注员们完成了单调而重要的职责,然后又隐入黑暗。火爆全球的 ChatGPT,大概也是一个「一将功成万骨枯」的故事。ChatGPT 的「幕后英雄」ChatGPT 有多厉害不必多言,它和你用自然语言交谈,编写代码、撰写论文、通过考试、创作诗歌都不在话下。比起之前的「人工智障」,ChatGPT 的前身 GPT-3 也是一大进步,但它存在一个问题,容易脱口而出暴力、性别歧视和种族主义言论,所以无法真正普及开来。有了前车之鉴,为了保证 ChatGPT 的温和无害,OpenAI 建立了一个额外的安全机制。图片来源: 凤凰网▲ 图片来自:shutterstock它基于涉及暴力、仇恨和性虐等内容的例子,训练出能够检测有害内容的 AI,再把这个 AI 作为检测器,内置到 ChatGPT 之中,在内容到达用户之前,起到检测和过滤的作用。以上例子需要经过数据标注(Data labelling),这是一项浩如烟海的人力劳动,由肯尼亚的工人们负责,为有害内容打上标签。从 2021 年 11 月起,OpenAI 向外包公司 Sama 发送了数万个文本片段,其中大部分体现着互联网最黑暗的角落,涉及性虐、自杀、酷刑等内容。图片来源: 凤凰网▲ 图片来自:Sama一位数据标注员在阅读无法接受的有害内容后,开始反复出现幻觉。工作的重负,并没有换来待遇的优越。《时代周刊》调查发现,为 OpenAI 工作的 Sama 数据标注员,工资约为每小时 1.32 美元至 2 美元。他们每 9 小时轮班,阅读和标注 150 至 250 段文字,每段从 100 个单词到 1000 多个单词不等。但是 Sama 回应,工人每 9 小时轮班标注 70 段文字,而不是最多 250 段,税后每小时的收入在 1.46 美元到 3.74 美元之间。图片来源: 凤凰网Sama 还自称是一家「有道德的 AI 公司」,帮助 5 万多人摆脱了贫困。如果有道德是指帮助脱贫,那或许没有错,毕竟这些生活困苦的工人没有更多的选择。但是「副作用」如影随形,身心折磨成了必要的代价。因为 Sama 对员工工作效率要求极高,公司很少组织心理辅导活动,更何况这些活动本身也没有什么用处。有员工曾提出想要一对一的咨询,但被 Sama 管理层一再拒绝。图片来源: 凤凰网OpenAI 也回复了外媒 Quartz,他们支付的费用几乎是东非其他内容审核公司的两倍,并给员工提供福利和养老金。尽管各方说法不一,但是基本的事实没有出入。为了让 AI 更安全,为了让 OpenAI 的通用 AI 造福人类,海量工人付出了巨大的精力,甚至遭受了创伤。但是当 OpenAI 估值近 300 亿美元,他们始终籍籍无名。末端的毛细血管数据标注员并不是一个新鲜的工种。早在 2007 年,计算机视觉专家李飞飞雇佣了一群普林斯顿的本科生,以 10 美元/小时的价格让他们试验做数据标注。如今,数据标注早已发展成产业,但待遇明显下降,主角也不再是大学生。2019 年前后,有媒体报道过国内的数据标注员,他们散落在河南、山东、河北等地的四五线小城。图片来源: 凤凰网类似地,Sama 的总部位于旧金山,在肯尼亚、乌干达和印度雇佣员工。除了 OpenAI,它还为 Google、Meta 和微软等硅谷客户标注数据。然而在近两年,Sama 打定主意「金盆洗手」。2022 年 2 月,Sama 决定结束与 OpenAI 的合作,员工不再需要忍受痛苦,但生计也难以维持,「对我们来说,这是养家糊口的一种方式」。图片来源: 凤凰网今年 1 月,Sama 的态度更加决绝,打算退出所有自然语言处理和内容审核工作,只做计算机视觉数据标注,与所有涉及敏感内容的业务分道扬镳,包括终止与 Meta 在东非的合同。为 Meta 工作的 Sama 员工在非洲内罗毕办事处,专注审核本地生产的内容,斩首、虐待儿童等内容超出了他们的接受程度。一位员工将审核图片内容描述为「生活在恐怖电影中」。有需求就有市场,从来不缺这样的外包公司。总部位于卢森堡的外包公司 Majorel,在非洲负责 TikTok 的审核服务,有报道称将由它接手 Meta 的工作。图片来源: 凤凰网这家公司也曾为人诟病。2022 年 8 月,Insider 调查了摩洛哥 Majorel 的状况,发现工人们经常轮班工作超过 12 小时,标注涉及虐待动物、性暴力等的短视频,休息时间少于美国同行,公司的「健康顾问」又帮不上什么忙。作为科技产业链末端的毛细血管,数据标注还出现在更多的地方。2022 年 11 月,The Verge 报道,亚马逊在印度和哥斯达黎加聘请了工人,他们负责观看仓库摄像机数以千计的视频,从而改进亚马逊的计算机视觉系统。图片来源: 凤凰网▲ 图片来自:Reuters但是因为至少八小时的目不转睛,他们出现了头痛、眼痛和视力下降。自动驾驶汽车同样需要数据标注,才能学习怎么识别路牌、车辆、行人、树木和垃圾桶,它对标注的准确性要求还要更高,因为这可能直接决定了人的生死。图片来源: 凤凰网《麻省理工科技评论》2022 年 4 月的一项调查发现,包括特斯拉在内的自动驾驶公司,让委内瑞拉工人标注自动驾驶数据,工资仅有平均每小时 90 美分多一点。至少目前,数据库依然需要人类净化,AI 识图仍然需要人类拉框。而问题在于,和付出的精力相比,工人们的待遇和心理健康并不那么理想。那些越来越边缘的人自 ChatGPT 横空出世,不少人担心起了自己的饭碗,这可能是一种非常具体的危机感。与此同时,AI 和人类的关系,也在另一个维度发生了微妙的变化――它改变了人类的工作方式,以及存在的工作类型,让海量的劳动力隐居幕后。比如数据标注员,他们的工作门槛并不高,往往没有硬性的学历要求,经过几天培训就能上岗。知道要标注的是什么、标在哪里,基本就算入门了,剩下的时间留给熟能生巧。图片来源: 凤凰网他们往往也不是正式员工,而是外包形式,就像为 OpenAI 服务的肯尼亚工人。这意味着,他们身处一个更加不稳定的世界,待遇更低,地位更加边缘,职场发言权也更少,只是亦步亦趋而已。AI 的进展究竟如何,他们或许并不知道。2018 年,GQ 报道在 《那些给人工智能打工的人》提到:「我们没有研发能力,纯粹也就是一个(代工的)富士康。」图片来源: 凤凰网▲ 卢德运动.相似的情形曾在历史上演。在 19 世纪初的英国,自动化纺织机普及开来,工厂更希望雇佣廉价的无技术劳动力操作机器,导致许多技术娴熟的手工工人失业。时代的车轮在继续前行,为 AI 服务的数据标注员,也在被 AI 慢慢替代。2022 年 6 月,特斯拉计划解雇 200 名美国员工,他们负责标注视频,帮助改进驾驶员辅助系统。原因可能在于,近年来特斯拉的自动化数据标注有了进展,可以代替人力完成部分工作。图片来源: 凤凰网特斯拉 Autopilot 软件总监曾在 AI Day 上表示,公司能在一周内收集并自动标注 1 万个 45 到 60 秒的视频片段。相比之下,「人工标记每个片段可能需要几个月的时间」。2020 年,世界经济论坛预言,到 2025 年,8500 万个工作岗位将被机器取代,9700 万个新工作岗位又将诞生。图片来源: 凤凰网被他们看好的职位,基本都是人工智能和机器学习专家、数字化转型专家、信息安全分析师这类技术人才。与之相对的低收入、低技术职业,则在一步步地退出舞台,最终可能消失在机器的阴影之中。
chatgpt是什么意思
ChatGPT风靡全球。自2022年11月发布以来,OpenAI的聊天机器人在SAT考试中取得了1020高分,通过了医疗执照考试,成功地降低了用户的有线电视费用,甚至起草了如何监管AI的立法。从课堂到播客再到餐桌,甚至名人云集的电视节目,它一直是热门话题。大型语言模型将如何影响美国国家安全?ChatGPT风靡全球。自2022年11月发布以来,OpenAI的聊天机器人在SAT考试中取得了1020高分,通过了医疗执照考试,成功地降低了用户的有线电视费用,甚至起草了如何监管AI的立法。从课堂到播客再到餐桌,甚至名人云集的电视节目,它一直是热门话题。关于ChatGPT对教育和劳动力等领域的影响,有很多评论。但是这个“ChatGPT时刻”,以及更广泛的大语言模型(Large Language Models,LLMs),对美国国家安全意味着什么?在战略层面,各国将寻求利用AI模型获得经济、军事和国家安全优势。正如OpenAI首席执行官 Sam Altman在国家AI安全委员会(NSCAI)2021年全球新兴技术峰会期间告诉Eric Schmidt的那样,“将有多种全球努力来构建这些强大的人工智能系统,而在世界上获得我们想要的结果的最佳方式,即与自由民主制度相一致的AI,将需要我们和我们的盟友首先构建它们”本文的其余部分将概述LLMs的一些战略考虑,首先评估我们今天在AI进步的高潮中所处的位置,然后转向LLMs对国防部、情报界和更广泛的美国国家安全机构的具体影响。我们将以决策者的关键考虑作为结尾。AI进步的“ChatGPT时刻”ChatGPT并非凭空出现。相反,它是AI快速发展的更广泛趋势线中的最新数据点。近年来,自然语言处理(Natural Language Processing,NLP)以及其他提高机器任务性能的机器学习(ML)功能发展迅速。在OpenAI于2020年发布GPT-3和2022年底发布ChatGPT的时间之间,仅LLMs生态系统就已经发展到包括来自世界各地的十几个实体,它们已经基于开源LLMs发布模型和构建适合特定用途的工具。LLMs生态系统中的参与者今天推动LLMs向前发展的许多主要参与者都是美国公司。但是,中国的实体和公司,以及英国、以色列、韩国等国家的组织,也成为了重要的参与者。虽然美国私营部门具有竞争优势,但中国决心在AI领域超越美国,在各个领域争夺领导地位,包括算力、算法、数据、应用程序、集成和人才。中国也是LLMs的快速追随者,百度将在3月份发布自己的类ChatGPT的聊天机器人。更重要的是, 我们可以预期AI生态系统将进一步扩展,因为训练AI模型的障碍(如成本)会随着“无代码AI”等新技术的出现而减少。美国必须为世界上越来越多的参与者,从国家到公司再到个人,做好准备,以便能够为各种目的创建和利用定制算法。事实上,LLMs等工具正变得越来越实用和易于使用。据报道,在上线的两个月里,ChatGPT的月活跃用户已达到创纪录的1亿。TikTok花了九个月的时间才达到这一里程碑。谷歌宣布将很快发布自己的聊天模型Bard,该模型建立在其内部LaMDA模型之上。与许多其他组织一样,SCSP在最近几个月使用LLMs来帮助生成内容。在我们的第一份报告《国家竞争力的中期挑战》中,我们尝试了三个LLM:OpenAI的GPT-3、Hugging Face的BLOOM和Anthropic开发的模型,向它们询问报告旨在解决的关键问题(大致上,LLMs的回答是合理的)。我们还使用LLMs来帮助撰写本文的前一版,我们的2022年全球新兴技术峰会邀请了Anthropic LLM(与Anthropic联合创始人Jack Clark一起)回答观众的现场提问。然而,LLMs可以做的不仅仅是谈论国家安全形势,他们实际上开始塑造它。以下是美国国家安全企业中LLMs的一些潜在用例。美国国家安全企业的机会LLMs作为“智能化intelligentized”工具的接口:类似于ChatGPT的LLMs可以成为人类访问各种AI工具的接口,包括计算机视觉和机器人技术。在癌症筛查等任务中,人机团队(Human-machine teams,HMT)已经证明比单独使用人类或AI模型更有效。在国家安全背景下,此类智能化工具可以通过AI生成的预测洞察力改变指标和警告格局,启用半自主系统,例如使用LLMs来训练有用的机器人并与之交互,以及支持从物流和供应链管理到出口管制申请审查的任务。LLM和情报:ChatGPT和其他新兴技术有能力在所有情报学科(INT)和情报周期的各个阶段,以及在战争的各个层面为军队建立一个更强大、更快的情报社区。使用ML模型的HMT功能已经证明能够通过过滤大量数据和标记重要信息来提高情报处理和分析的效率,并使分析师能够专注于更深入的分析。LLMs还可以通过帮助生成估计分析草稿、准确翻译外文等来提高生产力。特别是对于开源情报(OSINT),具有外部搜索能力和专家知情培训数据的LLMs将增强我们的收集和分析能力。可以为对开源情报中心的需求和情报目的训练和开发这些工具。决策支持:决策优势将归于领导人最有能力利用AI模型作为决策支持工具的国家。通过将AI、数据、建模和仿真功能以及预测洞察力正确组合,模型将能够制定出各种政策选项,并向人类决策者提供分析。最近的成就,例如AI模型在战略游戏“强权外交Diplomacy”中的表现优于人类,其中涉及与对手互动和讨价还价,以及在战争游戏中展示了这一技术向量的相当大的进步,即使还有更多的工作要做。LLMs在做出操作决策的半自治系统中应扮演的角色有明显的局限性。然而,这些“专家”可能是房间里的另一个声音,提供关于政策或战争选择的实时、数据知情的观点。其他重要的国家安全考虑信息格局:ChatGPT增加了NSCAI最终报告第1章中描述的风险,即在我们制定适当的对策之前,我们的对手转动了启用AI的信息操作的表盘。诸如ChatGPT之类的LLMs可用于以速度和规模生成独特的文本,从而避开现有的过滤系统。也许最重要的是,尽管这些技术能力在ChatGPT之前就已经存在,但随着公众的关注,更多人可能会质疑他们在社交媒体等上阅读的内容是否由AI生成。我们可能确实正在进入一个我们消费的大部分内容都是AI生成的世界,为国家和非国家行为者创造新的载体来塑造信息格局。令人欣慰的是,最近合成内容检测功能的激增,包括OpenAI发布的文本分类器和C2PA的规范标准,提高了国家安全专业人员和知情公民等人将拥有可用于帮助识别合成媒体的工具的前景。数据和训练是基础:LLMs近年来取得了长足的进步,但它们不是神谕。它们最终只能与训练它们的数据一样好,并且可以产生没有事实依据的“幻觉”信息。它们的使用总是会带来相关的风险,人类必须仔细考虑。尽管如此,LLMs将继续激增,因为国家、公司和其他参与者推动了最先进的技术水平,并且人们将ChatGPT等工具集成到他们的日常生活中。任何拥有全球技术野心的国家都不会在生态系统向前发展时转身离开。AI对抗AI:随着AI功能被整合到国家安全设备中,我们的LLMs可能会与我们的对手进行测试,无论是在特定情况下还是为了整体信息优势。美国将需要利用私营部门的竞争优势来确保我们的LLMs是世界上最好的。此外,我们需要确保美国军方和情报界的AI工具在适当情况下能够与我们的盟友和合作伙伴的AI工具进行互操作。黑匣子问题:随着我们越来越依赖AI系统,我们需要一种方法来解释和理解它们。“注意力建模attention modeling”和“思维链推理chain-of-thought reasoning”方面的进步是有前途的,但我们仍然无法“查询”AI应用程序以“讨论”其思维过程。这一领域的突破将使人类用户能够理解AI系统做出特定决定的原因,从而有助于建立对AI系统的信任。网络安全和代码:LLMs将通过代码生成在基础计算机科学层面影响国家安全,对国家安全机构、企业和消费者产生影响。Copilot是针对代码生成进行微调的GPT-3版本,已经大大提高了编码准确性和生产率。类似的技术开始用于检测和防止零日攻击,并且通常可以帮助强化代码。LLMs还将为网络安全创造新的风险载体,例如降低恶意网络参与者的进入门槛。这些风险将使大规模部署有助于确保我们的网络系统安全的AI工具变得更加重要。跟上技术的发展速度:无论是制定AI法规还是将AI能力整合到人类劳动力中,政府都将努力跟上技术快速发展的步伐。例如,欧盟委员会正在努力解决欧盟即将出台的AI法案将如何处理ChatGPT等系统的问题,这凸显了设置适用于最新功能的治理模型的难度。同样,工具和技术的快速变化可能会导致政府部门和机构采取保守的态度并继续使用时已经过时的系统。唯一的前进方向是让采购流程和治理框架等变得足够灵活,以便它们能够跟上AI的步伐。归根结底,无论我们的领导者和组织是否倾向于“ChatGPT时刻”,LLMs和AI都将更广泛地重塑国家安全格局。今天,美国在LLMs研发的前沿具有关键的竞争优势。但长期优势将通过采用此类工具来塑造,而那些无法适应和落后的人将面临风险。免责声明:本文转自中国指挥与控制学会,原作者AerospaceDefense。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!转自丨中国指挥与控制学会作者丨AerospaceDefense研究所简介国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。地址:北京市海淀区小南庄20号楼A座电话:010-82635522微信:iite_er
版权声明:除非特别标注原创,其它均来自互联网,转载时请以链接形式注明文章出处。

