淘优惠

淘优惠

人工智能发展简史答案

热门文章 0

淘宝搜:【红包到手500】领超级红包,京东搜:【红包到手500】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


 

人工智能到底是什么?通常来说,人工智能(Artificial Intelligence)是研究、开发用于模拟、延伸和扩展人智能的理论、方法、技术及应用系统的一门新技术科学。人工智能领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

 

但是事实上,给一门学科界定范围是很难的,尤其对于一门正在快速发展的学科更是难上加难。即使是数学这样成熟的学科,有时我们也很难梳理一个明确的边界。而像人工智能这样不断扩展边界的学科,更是很难做出一个相对准确的判断。对于人工智能的应用已经扩展到各个领域,机械、电子、经济甚至哲学,都有所设计。它的实用性极强,是一种极具代表性的多元跨专业学科。

 

基于AMiner科技情报引擎的梳理描绘,以河流图的形式展示了人工智能在60多年中的发展历史中取得的标志性成果。本文以该河流图为基础,系统的梳理了人工智能的发展过程及其标志性成果,希望能将这段60多年几经沉浮的历史,以一个更加清晰的面貌呈现出来。

 

 

人工智能的起源可以追溯到以及阿兰・图灵(Alan Turing)1936年发表的《论可计算数及其在判定问题中的应用》。后来随着克劳德・香农(Claude Shannon)在 1950 年提出计算机博弈。以及艾伦・麦席森・图灵(Alan Mathison Turing)在 1954 年提出“图灵测试”,让机器产生智能这一想法开始进入人们的视野。

 

1956年达特茅斯学院召开了一个研讨会,John McCarthy, Marvin Minsky, Nathaniel Rochester, 以及Claude Shannon等人正式提出“人工智能”这一概念。算法方面,1957年,Rosenblatt Frank提出感知机算法Perceptron,这不仅开启了机器学习的浪潮,也成为后来神经网络的基础(当然追溯的话,神经网络研究得追溯到1943年神经生理学家麦卡洛克(W. S. McCulloch)和皮茨(W. Pitts)的神经元模型)。

克劳德・艾尔伍德・香农(Claude Elwood Shannon,1916年4月30日―2001年2月24日)是美国数学家、信息论的创始人。

 

香农是世界上首批提出“计算机能够和人类进行国际象棋对弈”的科学家之一。1950年,他为《科学美国人》撰写过一篇文章,阐述了“实现人机博弈的方法”;他设计的国际象棋程序,发表在同年《哲学杂志》上(计算机下棋程序 Programming a Computer for Playing Chess)。

 

香农把棋盘定义为二维数组,每个棋子都有一个对应的子程序计算棋子所有可能的走法,最后有个评估函数(evaluation function)。传统的棋局都把下棋过程分为三个阶段,开局、中局和残局,不同阶段需要不同的技术手段。而此论文也引用了冯・诺依曼的《博弈论》和维纳的《控制论》。

 

这篇论文开启了计算机下棋的理论研究,其主要思路在多年后的“深蓝”及AlphaGo中仍能看到。1956年,在洛斯阿拉莫斯的MANIAC计算机上,他又展示了国际象棋的下棋程序。

艾伦・麦席森・图灵(英语:Alan Mathison Turing,1912年6月23日―1954年6月7日),英国数学家、逻辑学家,被称为计算机科学之父,人工智能之父。

 

1954年,图灵测试(The Turing test)由图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。图灵测试一词来源于计算机科学和密码学的先驱艾伦・麦席森・图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。

 

他实际提出了一种测试机器是不是具备人类智能的方法。即假设有一台电脑,其运算速度非常快、记忆容量和逻辑单元的数目也超过了人脑,而且还为这台电脑编写了许多智能化的程序,并提供了合适种类的大量数据,那么,是否就能说这台机器具有思维能力?

 

图灵肯定机器可以思维的,他还对智能问题从行为主义的角度给出了定义,由此提出一假想:即一个人在不接触对方的情况下,通过一种特殊的方式,和对方进行一系列的问答,如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机具有同人相当的智力,即这台计算机是能思维的。这就是著名的“图灵测试”(Turing Testing)。当时全世界只有几台电脑,其他几乎所有计算机根本无法通过这一测试。

 

要分辨一个想法是“自创”的思想还是精心设计的“模仿”是非常难的,任何自创思想的证据都可以被否决。图灵试图解决长久以来关于如何定义思考的哲学争论,他提出一个虽然主观但可操作的标准:如果一台电脑表现(act)、反应(react)和互相作用(interact)都和有意识的个体一样,那么它就应该被认为是有意识的。

 

为消除人类心中的偏见,图灵设计了一种“模仿游戏”即图灵测试:远处的人类测试者在一段规定的时间内,根据两个实体对他提出的各种问题的反应来判断是人类还是电脑。通过一系列这样的测试,从电脑被误判断为人的几率就可以测出电脑智能的成功程度。

 

图灵预言,在20世纪末,一定会有电脑通过“图灵测试”。2014年6月7日在英国皇家学会举行的“2014图灵测试”大会上,举办方英国雷丁大学发布新闻稿,宣称俄罗斯人弗拉基米尔・维西罗夫(Vladimir Veselov)创立的人工智能软件尤金・古斯特曼(Eugene Goostman)通过了图灵测试。虽然“尤金”软件还远不能“思考”,但也是人工智能乃至于计算机史上的一个标志性事件。

 

1956年夏季,年轻的明斯基与数学家和计算机专家麦卡锡(John MeCarthy,1927―2011)等10人在达特茅斯学院(Dartmouth College办了一个长达2个月的人工智能夏季研讨会,认真热烈地讨论用机器模拟人类智能的问题。会上正式使用了人工智能(artificial intelligence,即 AI)这一术语。

 

这是人类历史上第一次人工智能研讨,标志着人工智能学科的诞生,具有十分重要的历史意义,为国际人工智能的发展做出重要的开创性贡献。会议持续了一个月,基本上以大范围的集思广益为主。这催生了后来人所共知的人工智能革命。1956年也因此成为了人工智能元年。会议的主要议题包括自动计算机、如何为计算机编程使其能够使用语言、神经网络、计算规模理论、自我改造、抽象、随机性与创造性等。

1957年,弗兰克・罗森布拉特(Frank Rosenblatt)在一台IBM-704计算机上模拟实现了一种他发明的叫做“感知机”(Perceptron)的神经网络模型。罗森布拉特1962年出了本书:《神经动力学原理:感知机和大脑机制的理论》(Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms),基于MCP神经元提出了第一个感知器学习算法,同时它还提出了一个自学习算法,此算法可以通过对输入信号和输出信号的学习,自动获取到权重系数,通过输入信号与权重系数的乘积来判断神经元是否被激活(产生输出信号)。

 

感知机需要几个二进制输入, X1,X2,…Xn X1,X2,…Xn ,并产生一个二进制输出:

 

 

 

 

上图所示的 Perceptron Perceptron 有三个输入,但是实际的输入可能远多于三个或是少与三个。 Rosenblatt Rosenblatt 提出了一个简单的规则来计算输出,他首先引入了 weights weights(权重)概念, ω1,ω2,... ω1,ω2,...。以实数权重 ω ω表示输入到输出的重要性,神经元的输出 0 或 1 ,这取决于加权因子(即 weights weights)小于或大于某一阈值。就像权重,阈值为一个实数,是一个神经元的参数。

 

公式表示为:

 

 

 

这就是我们熟知的激活函数的最初形态, 0 0 状态代表抑制, 1 1 状态代表激活。这简单的数学公式帮助我们了解 perceptrons perceptrons 是如何工作的。姑且我们把它理解为: 它是一种通过权衡输入信息的重要性来决定你的输出。

 

 

到了 20 世纪 60 年代,人工智能出现了第一次高潮,发展出了符号逻辑,解决了若干通用问题,初步萌芽了自然语言处理和人机对话技术。其中的代表性事件是丹尼尔・博布罗(Daniel Bobrow)在1964年发表了Natural Language Input for a Computer Problem Solving System,以及约瑟夫・维森鲍姆(Joseph Weizenbaum)在1966年发表了ELIZA―A Computer Program for the Study of Natural Language Communication between Man and Machine。

 

早期的人工智能更多的侧重描述逻辑和通用问题求解上,到了60年代末,爱德华・费根鲍姆(Edward Feigenbaum)提出首个专家系统DENDRAL,并对知识库给出了初步的定义,这也孕育了后来的第二次人工智能浪潮。当然这个时期更重要的情况是大家对人工智能的热情逐渐褪去,人工智能的发展也进入了一轮跨度将近十年的“寒冬”。

1961年,Leonard Merrick Uhr 和 Charles M Vossler发表了题目为A Pattern Recognition Program That Generates, Evaluates and Adjusts its Own Operators 的模式识别论文,该文章描述了一种利用机器学习或自组织过程设计模式识别程序的尝试。程序启动时不仅不知道要输入的特定模式,而且没有任何处理输入的运算符。算符是由程序本身生成和提炼的,它是问题空间的函数,也是处理问题空间的成功和失败的函数。程序不仅学习有关不同模式的信息,而且至少在一定程度上,它还学习或构造适合于分析输入到它特定模式集的二级代码。这也是第一个机器学习程序。

 

 

1966 年,麻省理工学院的计算机科学家Joseph Weizenbaum 在 ACM 上发表了题为《 ELIZA,一个研究人机自然语言交流的计算机程序》(ELIZA-a computer program for the study of natural language communication between man and machine)的文章。文章描述了这个叫作 ELIZA 的程序如何使人与计算机在一定程度上进行自然语言对话成为可能。Weizenbaum 开发了最早的聊天机器人 ELIZA,用于在临床治疗中模仿心理医生。

 

ELIZA 的实现技术是通过关键词匹配规则对输入进行分解,而后根据分解规则所对应的重组规则来生成回复。简而言之,就是将输入语句类型化,再翻译成合适的输出。虽然 ELIZA 很简单,但 Weizenbaum 本人对 ELIZA 的表现感到吃惊,随后撰写了《计算机的能力和人类的推理》(Computer Power and Human Reason)这本书,表达他对人工智能的特殊情感。ELIZA 如此出名,以至于 Siri 也说 ELIZA 是一位心理医生,是她的启蒙老师。

1968年,在美国国家航空航天局要求下,爱德华・费根鲍姆(Edward Feigenbaum)提出首个专家系统DENDRAL,并对知识库给出了初步的定义,这也孕育了后来的第二次人工智能浪潮。当然这个时期更重要的情况是大家对人工智能的热情逐渐褪去,人工智能的发展也进入了一轮跨度将近十年的“寒冬”。该系统具有非常丰富的化学知识,可根据质谱数据帮助化学家推断分子结构。这个系统的完成标志着专家系统的诞生。在此之后, 麻省理工学院开始研制MACSYMA系统,经过不断扩充, 它能求解600多种数学问题。

 

现在,专家系统(Expert System,简称ES)是人工智能(Artificial Intelligence,简称AI)的一个重要分支,同自然语言理解,机器人学并列为AI的三大研究方向。

 

20世纪70年代末、80年代初,人工智能进入了第二次浪潮,其中代表性的工作是1976年兰德尔・戴维斯(Randall Davis)构建和维护的大规模的知识库,1980年德鲁・麦狄蒙(Drew McDermott)和乔恩・多伊尔(Jon Doyle)提出的非单调逻辑,以及后期出现的机器人系统。

 

1980年,汉斯・贝利纳(Hans Berliner)打造的计算机战胜双陆棋世界冠军成为标志性事件。随后,基于行为的机器人学在罗德尼・布鲁克斯(Rodney Brooks)和萨顿(R. Sutton)等人的推动下快速发展,成为人工智能一个重要的发展分支。这其中格瑞・特索罗(Gerry Tesauro)等人打造的自我学习双陆棋程序又为后来的增强学习的发展奠定了基础。

 

机器学习算法方面,这个时期可谓是百花齐放,百家争鸣。Geoffrey Hinton等人提出的多层感知机,解决了Perceptron存在的不能做非线性分类的问题;Judea Pearl倡导的概率方法和贝叶斯网络为后来的因果推断奠定基础;以及机器学习方法在机器视觉等方向取得快速发展。

1975年,马文・明斯基(Marvin Minsky)在论文《知识表示的框架》(A Framework for Representing Knowledge)中提出框架理论,用于人工智能中的“知识表示”。

 

明斯基框架不是一种单纯的理论。除了数据结构上有单纯的一面外,在概念上是相当复杂的。针对的是人们在理解事物情景或某一事件时的心理学模型。它将框架看作是知识的基本单位,将一组有关的框架连接起来整合成框架系统。系统中不同框架可用有共同节点,系统的行为由系统的子框架的具体功能来实现。推理过程由子框架的协调来完成。框架理论类似于人工智能中的面向对象化程序设计。它的成功之处是它利用框架这种结构将知识有机的整合起来,使其有一种特定的结构约束。同时保持了结构的相对独立性、封闭性。

 

明斯基的框架理论体现出来的模块化思想和基于事例的认知推理为其理论增添了永恒的魅力,这也是认知哲学家关注它的一个重要原因。作为认知可计算主义核心代表的明斯基将心智与计算机类比,把认知过程理解为信息加工过程,把一切智能系统理解为物理符号系统。虽然这样做使人们能从环境到心智,又从心智到到环境的信息流中来分析问题,使心智问题研究具有实验上的严格性。但是机械性的缺陷也非常明显。

 

同时,框架跟软件工程领域面向对象语言中的“类”相似,只是两者的基本设计目标不同。

Douglas Lenat(道格拉斯・布鲁斯・勒纳特)(生于1950年)是德克萨斯州奥斯汀市Cycorp公司的首席执行官,一直是人工智能领域的杰出研究者。他从事过机器学习(与他的AM和Eurisko程序)、知识表示、黑板系统和“本体工程”(在MCC和Cycorp的Cyc程序)。他还从事军事模拟,并发表了一篇对传统随机突变达尔文学说的批判,这是基于他对尤里斯科的经验。列纳特是AAAI的最初成员之一。

 

在宾夕法尼亚大学,勒纳特获得数学和物理学士学位,并于1972年获得应用数学硕士学位。1976年,他从斯坦福大学获得博士学位,并发表论文《数学中


azure和谷歌云有什么区别


你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 。

  • 项目

Azure OpenAI 服务允许通过 REST API 访问 OpenAI 的强大语言模型,包括 GPT-3、Codex 和 Embeddings 模型系列。 这些模型可以轻松适应特定的任务,包括但不限于内容生成、汇总、语义搜索和自然语言到代码的转换。 用户可以在 Azure OpenAI Studio 中通过 REST API、Python SDK 或基于 Web 的界面访问该服务。

功能 Azure OpenAI
可用的模型 GPT-3 基本系列 Codex 系列 Embeddings 系列 在模型页中了解详细信息。
微调 Ada Babbage Curie Cushman* Davinci* * 按请求提供。 请创建支持请求
价格 此处提供
虚拟网络支持
托管标识 是,通过 Azure Active Directory
UI 体验 用于帐户和资源管理的 Azure 门户 用于模型探索和微调的 Azure OpenAI Service Studio
区域可用性 美国东部 美国中南部 西欧
内容筛选 使用自动化系统根据内容策略评估提示和完成情况。 将筛选高严重性内容。

Microsoft 致力于遵照“以人为本”的原则推动 AI 的进步。 生成性模型(例如 Azure OpenAI 服务中提供的模型)提供显著的潜在优势,但如果不经过精心设计和采用全方位的缓解措施,此类模型有可能会生成错误甚至有害的内容。 Microsoft 已做出大量投资来帮助防范滥用和意外损害,其中包括要求申请人展示妥善定义的用例、融入 Microsoft 的负责任 AI 使用原则、生成内容筛选器以支持客户,并向已加入的新客户提供负责任 AI 实施指导。

如何访问 Azure OpenAI 服务?

由于需要应对很高的需求、即将推出的产品改进以及履行 Microsoft 对负责任 AI 做出的承诺,我们目前会限制访问。 当前,我们正在与已经同 Microsoft 建立了合作关系的客户、用例风险较低的客户以及承诺融入缓解措施的客户合作。 除了申请初始访问权限外,所有使用 Azure OpenAI 服务的解决方案都需要经历用例审查,然后才能发布用于生产用途。

申请表单中包含了更具体的信息。 感谢你们的耐心,我们将努力以负责的态度实现 Azure OpenAI 服务的更多样化访问方式。

在此处申请初始访问权限或生产审查:

“立即应用”

所有使用 Azure OpenAI 服务的解决方案在发布用于生产用途之前都需要经历用例审查,并按用例接受评估。 一般而言,提交审批的方案的敏感程度越高,风险缓解措施就越重要。

Azure OpenAI 服务通过 OpenAI GPT-3、Codex 和 DALL-E 模型为客户提供高级语言 AI,并能够实现 Azure 的安全性和企业前景。 Azure OpenAI 与 OpenAI 共同开发 API,确保兼容性的同时能够实现二者之间的平稳过渡。

使用 Azure OpenAI,客户可在运行与 OpenAI 相同的模型时获得 Microsoft Azure 的安全功能。 Azure OpenAI 提供专用网络、区域可用性和负责任 AI 内容筛选功能。

补全终结点是 API 服务的核心组件。 此 API 提供对模型的文本输入、文本输出接口的访问。 用户只需提供一个包含英文文本命令的输入提示,模型就会生成文本补全。

下面是一个简单的提示和补全的示例:

提示:

补全:

OpenAI Enterprise 通过将文本分解为标记来处理文本。 标记可以是单词,也可以是字符块。 例如,单词“hamburger”将分解为标记“ham”、“bur”和“ger”,而“pear”之类的常见短单词只是一个单个标记。 许多标记以空格开头,例如“ hello”和“ bye”。

给定请求中处理的标记总数取决于输入、输出和请求参数的长度。 处理的标记数量也会影响模型的响应延迟和吞吐量。

Azure OpenAI 服务是 Azure 上的一个新产品。 在 Azure 订阅中,可以像使用任何其他可用于创建资源或服务实例 Azure 产品一样开始使用 Azure OpenAI 服务。 可以阅读有关 Azure 的资源管理设计的详细信息。

创建 Azure OpenAI 资源后,必须先部署模型,然后才能开始发出 API 调用和生成文本。 可以使用部署 API 来完成此操作。 这些 API 允许指定要使用的模型。

Azure OpenAI 服务使用的模型使用生成调用期间提供的自然语言指令和示例来识别请求的任务和所需的技能。 使用此方法时,提示的第一个部分包括自然语言指令和/或所需特定任务的示例。 然后,模型通过预测概率最高的下一段文本来完成任务。 这种技术称为“上下文”学习。 在此步骤中不会重新训练这些模型,而是根据你在提示中包含的上下文做出预测。

上下文学习有三种主要方法:少样本学习、单样本学习和零样本学习。 这些方法根据提供给模型的任务特定数据量而异:

少样本学习:在这种情况下,用户在调用提示中包含几个示例来演示预期的答案格式和内容。 以下示例显示了几个提示,我们在其中提供了多个示例(模型将生成最后一个答案):

示例数量通常为 0 到 100 个,具体取决于单个提示的最大输入长度可以容纳多少个示例。 最大输入长度可能因使用的特定模型而异。 少样本学习可以大大减少准确进行预测所需的任务特定数据量。 此方法的准确度通常不如微调的模型。

单样本学习:这种情况与少样本学习方法相同,不过只提供了一个示例。

零样本学习:在这种情况下,未向模型提供任何示例,而只提供了任务请求。

该服务为用户提供对多种不同模型的访问。 每种模型提供不同的功能和价位。 GPT-3 基础模型按功能降序和速度升序顺序分别称为 Davinci、Curie、Babbage 和 Ada。

Codex 系列模型是 GPT-3 的后代,并且已基于自然语言和代码进行训练,可为自然语言到代码用例提供支持。 在模型概念页上详细了解每个模型。

详细了解为 Azure OpenAI 提供支持的基础模型。


chatbot智能聊天机器人 十大入门聊天机器人平台

ChatBot智能聊天机器人的个股,智能聊天的机器人,智能聊天机器人的实现方法主要有哪两个?,智能聊天机器人源码

原标题:仅用60天月活1亿,爆火聊天机器人ChatGPT付费版来了

美国人工智能公司 OpenAI 此前推出了大受欢迎的聊天或撰稿机器人 ChatGPT。ChatGPT 推出后,凭借其出色的文本生成能力,立刻在网上引发关注。

用户输入一些提示性命题文字,该工具就能撰写各类文章、诗歌、画作,甚至是编程等,当然也伴随着版权和抄袭方面的质疑。关于这款产品我们也曾有过报道:点此了解。

通过某种框架,ChatGPT已接入微信 图源@风云学会陈经

这款人工智能聊天产品仅上线几天就获得了 100 万用户,上线两个月,其月活跃用户数已达 1 亿。

来自瑞银近日发布的研究报告显示,在去年 11 月推出后,今年 1 月的月活跃用户估计已达 1 亿,成为历史上用户增长最快的消费应用。

该报告援引分析公司 Similar Web 的数据称,今年 1 月,全球每天约有 1300 万独立访问者使用 ChatGPT,是去年 12 月份的两倍多。

对于一款新产品而言,1 亿的用户数显然有着重要意义,而相比之下,海外版抖音 TikTok 在全球发布后,花了大约 9 个月的时间才达到月活 1 亿用户,Instagram 则花了两年半的时间。

随着大量用户的涌入,给 ChatGPT 增加了大量的计算成本和服务器压力,ChatGPT 便顺势推出了付费订阅版ChatGPT Plus。

据悉,付费订阅版每月收费 20 美元(按照2月2日汇率计算,约合135元人民币)。

购买后,即使在高峰时段,VIP 用户也可以继续使用,并优先获得 ChatGPT 的新功能与改进,服务响应时间也将有所缩短,也就是获得该聊天机器人的回应会更快速。

ChatGPT Plus将在未来几周内率先在美国国内推出,而后扩散到其他国家。

而免费版用户无需着急,公司称会继续为用户提供免费访问。

不过,在高峰时段,免费版访问人数将受到限制。

OpenAI 称也在探索更低价格的付费计划和商业应用计划。

此外,据最新报道,微软已经达成了扩大对 OpenAI 的投资协议规模,将在未来几年达到 100亿 美元(约合人民币672.5亿元),同时微软正努力将 ChatGPT “更快、更丰富”的版本(GPT-4)整合到必应搜索引擎中。此举将使得微软的搜索引擎在同类产品中更具竞争力。

值得一提的是,OpenAI 公司还新推出了 ChatGPT 的“克星”:一个名叫“AI文本分类器”(OpenAI AI Text Classifier)的产品。

这一软件使用的语言模型,经过了大量针对同一话题的人类文稿和人工智能文稿的数据训练,能够识别某一文稿到底是人类撰写还是人工智能软件生成。

左右互搏,算是给 OpenAI 玩明白了。

有了这款软件,就能解决很多现实问题,比如软件机器人在社交媒体上传播虚假信息、以及学术论文撰写的不端行为。

此前,国外部分高校已禁止在校园网络和设备上访问 ChatGPT,这是因为 ChatGPT 强大的能力,让教育工作者陷入恐慌,他们担忧学生会使用这一工具作弊欺骗老师,或者进行抄袭剽窃。

不过,OpenAI 发现,“AI文本分类器”的识别成功率目前仅为 26%。

国外博主输入了莎士比亚《麦克白》第一页的内容,“AI文本分类器”给出的结果是很可能由 AI 生成。连 OpenAI 都坦言,这个文本内容识别工具“不完全可靠”。

看来想要成为老师的反作弊帮手,“AI文本分类器”还需努力。 返回搜狐,查看更多

责任编辑: