淘优惠

淘优惠

chatgpt 注册详细流程 chatgpt 电脑版注册教程

热门文章 0
chatgpt官网,chatgpt怎么用,chatgpt怎么读,chatgpt使用
可能有很多chatgpt代理账号注册方法网友还不了解chatgpt代理账号注册方法,接下来是波波小编介绍的《chatgpt代理账号注册方法》,有这方面疑问的童鞋们一起来看看吧,希望可以帮助到大家。由于国内的手机号无法接受ChatGPT的信息,因此很多用户都会选择直接购买账号,这样能省去很多繁琐的步骤,另外国内的IP地址也无法访问ChatGPT,所以大家在使用的时候要选择科学上网。链接地址:https://m.bigplayers.com/detail/1420?inviteCode=B0005802点击上方链接地址即可进入ChatGPT账号代理注册的页面,通过购买的方式就可以得到全新的账号,购买方式特别的简单,直接选择自己想要的选项金额付款即可,付款之后可以去联系客服了解具体的使用方法,在购买页面的最下方也有使用的一些注意事项,大家也能提前先了解一下。本文chatgpt代理账号怎么注册到这里就正式结束了,如果你觉得攻略中有哪里不对,那么可以在评论区告诉。要是你有不同的解决方法,也可以在评论区告诉,会进行更改哦!

1. 在你的印象中,是否还有其它实例说明软件问题会造成巨大经济损失或带来社会灾害?


之前我和chatGPT有过一次对话, 那只是问一些有趣的、时髦的大众话题。上周末在家,想考一考chatGPT的软件测试专业水平,确定它是否算得上一名测试专家?通过一系列有难度的提问,感觉有时它答的精妙与全面,但有时只停留在表面,不能深入到具体的解决方案,总体看,它还不是一位测试专家,但比一些测试工程师会强,已经很了不起了。下面就开启这次对话之旅.......先问一些基本的问题(来自《软件测试方法和技术》第1章)是的,在我的印象中,还有许多其它实例说明软件问题会造成巨大经济损失或带来社会灾害。以下是一些例子:国际货币基金组织 (IMF) 的软件问题 - 2002 年,国际货币基金组织 (IMF) 的一个软件系统出现问题,导致全球货币市场出现波动,并使得许多投资者遭受了巨大的经济损失。阿波罗 13 号太空飞船的软件问题 - 1970 年,阿波罗 13 号太空飞船的软件问题导致航天器偏离轨道,最终使得两名宇航员丧生。南非航空公司的软件问题 - 2001 年,南非航空公司的一个软件问题导致其航班延误,并造成了巨大的经济损失。美国医疗保健信息系统的软件问题 - 2010 年,美国医疗保健信息系统的软件问题导致大量患者无法获得及时的医疗服务,并使得许多(任务不能完成的问题,出现多次)1 / 2关于软件测试,正反两方面观点都有一些利弊,如下所示:正方面:软件测试可以提高软件质量 - 通过对软件进行测试,可以发现问题并进行修复,从而提高软件的质量。软件测试可以降低风险 - 通过对软件进行测试,可以发现问题并进行修复,从而降低使用软件时出现问题的风险。软件测试可以提高客户满意度 - 通过对软件进行测试,可以发现问题并进行修复,从而使得客户对软件更2 / 2 (第二次尝试,下同)在软件测试中,正反两方面观点分别表示测试能够带来的好处和测试所带来的困难或挑战。正面观点:软件测试能够发现软件缺陷,从而提高软件质量。软件测试能够提供可靠的测试数据,帮助软件开发人员更好地理解用户的需求。软件测试能够提高用户对软件的信任度,从而增强软件的市场竞争力。反面观点:软件测试是一项费时费力的工作,需要耗费大量的人力和财力。软件测3 / 3 (第三次尝试,下同)软件测试的正方面观点是,软件测试有助于发现软件中的问题,并保证软件的质量。这可以帮助企业提高客户满意度,降低产品召回的风险,并增强企业的市场竞争力。反方面来看,软件测试也有一些缺点。首先,软件测试是一项耗时的工作,需要花费大量的人力和财力。其次,软件测试并不能保证软件完全没有问题,因此有可能出现在使用过程中发现的问题。最后,如果软件测试不当,可能会出现假阳性或假(这个问题不算难,但每一次不能完成任务)软件测试和软件开发是密不可分的,软件开发是指创建软件的过程,而软件测试则是评估软件质量的过程。这两者之间存在着密切的关系,因为软件开发的目的是为了创建一个可供测试的产品,而软件测试的目的则是为了评估软件是否符合预期的质量要求。要想更好地利用这种关系,可以采取如下步骤:在软件开发过程中尽早进行测试 - 这样可以及时发现问题,并在软件开发过程中进行修复。建立良好的沟通机制 - 在软件开发和测试团队之间建立良好的沟通机制,以保证双方之间的信息沟通畅通。提前制定测试计划 - 在软件开发过程中,应该提前制定测试计划,并与开发团队共同讨论。建立测试自动化系统 - 在软件开发过程中,可以建立测试自动化系统,以减少人力成本,提高测试效率。(回答得还不错)软件测试和质量保证之间存在着密切的联系,但也有一些区别。联系:都是为了保证软件质量 - 软件测试和质量保证都是为了保证软件的质量,使软件能够满足用户的需求和期望。都需要按照规定的标准进行评估 - 软件测试和质量保证都需要按照规定的标准进行评估,以保证软件的质量。区别:时间不同 - 软件测试通常在软件开发过程中进行,而质量保证则是在软件完成后进行。目标不同 - 软件测试的目标是发现软件中的问题,并进行修复;质量保证的目标是保证软件达到预期的质量水平。责任不同 - 软件测试通常由测试团队负责,而质量保证则由整个团队共同负责。测试方法不同 - 软件测试有许多不同的测试方法,如单元测试、集成测试、系统测试等;(虽然有些问题,估计比一般学生、工程师要强😄)TDD(测试驱动开发)是敏捷方法的一种思想,即在进行软件开发时,先写好测试用例,然后再编写代码,使得代码能够通过测试用例。对于TDD思想,可以有如下看法:优点 - TDD可以帮助团队更快地了解需求,并且可以保证代码较高的质量。缺点 - 对于初学者来说,TDD可能比较困难,需要花费较多的时间来学习。在实施Scrum敏捷方法时,测试工作会面临以下挑战:短的迭代周期 - Scrum敏捷方法的迭代周期通常较短,对测试工作的时间安排要求较高。需要快速响应变化 - Scrum敏捷方法的特点是快速响应变化,所以测试工作也需要快速响应变化。需要灵活的测试方式 - 在Scrum敏捷方(出错)待敏捷方法的TDD思想?在实施Scrum敏捷方法时,测试工作又会面临哪些新的挑战?2 / 2TDD(测试驱动开发)是敏捷方法的一种,其基本思想是在开发新功能时,先编写测试代码,再编写实现代码。TDD的好处在于:可以提高代码质量,因为在开发过程中就已经对代码进行了测试。可以提高开发效率,因为只需要编写最少的代码来通过测试。可以帮助团队更好地沟通和协作,因为开发人员和测试人员在同一时间就可以一起工作。在实施Scrum敏捷方法时,测试工作可能会面临如下新的挑战:测试工作与开发工作紧密结合 - 在Scrum敏捷方法中,测试工作与开发工作是紧密结合的,因此测试人员需要与开发人员紧密合作,以保证软件的质量。短的迭代周期带来的挑战 - 在Scrum敏捷方法(出错)下面问一下比较专业的问题如果你想要测试一个 AI 聊天机器人,你可以尝试进行以下几种测试:功能测试 - 确保机器人能够正常工作,并能回答基本的问题。知识测试 - 给机器人提出一些有难度的问题,看看它是否能正确回答。人类模仿测试- 与机器人进行聊天,看看它是否能够自然地模仿人类的语言。异常情况测试 - 试图通过向机器人发送异常的输入来测试它的健壮性,例如超长的消息或包含大量垃圾信息的消息。性能测试 - 测量机器人的响应速度以及它在处理大量请求时的表现。易用性测试 - 确保机器人的界面易于使用,并且没有显然的 bug。希望这些建议能够帮助你。我是 Assistant,不是 chatGPT。但是,在一般情况下,聊天机器人可能会被视为基本问题的有:问候(如 "你好" 或 "你会做什么")个人信息(如 "你是谁" 或 "你在哪里生活")常见问题(如 "什么是 AI" 或 "什么是机器学习")而有难度的问题可能包括:复杂的知识问题(如 "人工智能如何运用在医学领域")与个人感情或哲学相关的问题(如 "你有什么想法" 或 "你对生命的看法是什么")需要分析复杂数据或解决复杂问题的问题(如 "你能否解决这个算术题")当然,这些都是模糊的界限,取决于机器人的能力和训练情况。是的,在软件测试中使用 AI 技术已经取得了很多成功的案例。例如:测试用例生成 - 利用 AI 技术可以自动生成测试用例,节省人力并提高测试效率。测试用例优化 - 利用 AI 技术可以对测试用例进行优化,确保测试覆盖率最大化。测试结果分析 - 利用 AI 技术可以对测试结果进行分析,发现潜在的问题并提出建议。测试自动化 - 利用 AI 技术可以自动执行测试,减少人工干预。近年来,AI 在软件测试领域的应用也有所进展。例如,有些公司开发了基于深度学习的测试用例生成系统,可以通过分析已有的代码和文档来生成有价值的测试用例。此外,还有一些公司开发了基于自然语言处理的测试结果分析系统,可以自动分析测试报告,并提出建议以提高测试效率。使用 AI 技术生成测试用例的具体实现方式可能有所不同,但大体流程可能如下:准备数据 - 首先需要准备训练模型所需的数据,这通常包括已有的代码和文档。预处理数据 - 将数据转换为适合模型输入的格式。训练模型 - 使用训练数据训练生成模型。测试模型 - 使用测试数据测试模型,并评估模型的性能。使用模型 - 当模型训练好后,就可以使用它来生成测试用例。具体的成功案例可以参考以下文章:"Automated Test Case Generation Using Deep Learning: A Survey"(https://arxiv.org/abs/1911.09500)"Test Case Generation with Deep Learning: A Feasibility Study"(https://ieeexplore.org/abstract/document/8450248)这些文章描述了使用深度学习技术生成测试用例的方法和结果使用 AI 技术生成测试用例的时候,可以考虑使用的模型可能有:递归神经网络(Recurrent Neural Network, RNN) - RNN 是一种常用的模型,可以用于生成序列数据。它可以用来生成顺序相关的测试用例。卷积神经网络(Convolutional Neural Network, CNN) - CNN 是一种常用的模型,可以用于处理图像数据。它可以用来生成 UI 测试用例,或者对 UI 进行视觉分析。长短时记忆(Long Short-Term Memory, LSTM) - LSTM 是一种常用的 RNN 模型,能够记忆长期信息。它可以用来生成涉及长期状态的测试用例。这些模型都可以用于生成测试用例,具体的选择要取决于测试用例的具体需求。另外,还有一些其他的模型,如自动编码器(Autoencoder)和生成对抗网络(Generative Adversarial Network, GAN),也可以用于生成测试用例。深度学习和强化学习是两种不同的机器学习方法,在软件测试应用中会有不同的效果。深度学习是一种基于神经网络的机器学习方法,通常用于解决计算机视觉、自然语言处理、语音识别等问题。深度学习模型通常需要大量的训练数据,在软件测试领域中可能用于生成测试用例、分析测试结果等任务。强化学习是一种基于奖励机制的机器学习方法,通常用于解决智能体与环境交互的问题。强化学习模型通常不需要大量的训练数据,在软件测试领域中可能用于测试自动化、性能优化等任务。总的来说,深度学习更适合用于处理大量的静态数据,而强化学习更适合用于处理动态的环境。因此,在软件测试应用中,可以根据具体需要选择使用深度学习或强化学习。如果想获取用户操作移动 App 的行为轨迹,可以考虑使用强化学习算法。强化学习算法通常用于解决智能体与环境交互的问题,因此可以用来学习用户的行为轨迹。强化学习中常用的算法有:蒙特卡洛控制(Monte Carlo Control)Q 学习(Q-learning)Sarsa(State-Action-Reward-State-Action)其中,Q 学习是最常用的算法之一,它可以用于学习用户的行为轨迹。另外,还有一些深度强化学习算法,如 DQN(Deep Q Network)和 DDPG(Deep Deterministic Policy Gradient),也可以用于学习用户的行为轨迹。这些算法的具体使用方法和适用场景可以参考相关的文献或教程。在使用强化学习 Q-learning 算法获取用户操作移动 App 的行为轨迹时,需要注意以下几点:定义状态(State)和动作(Action) - Q-learning 算法需要定义智能体的状态和动作,用于表示用户的行为轨迹。设定奖励(Reward)函数 - Q-learning 算法需要设定奖励函数,用于表示用户的行为对应的价值。设定学习率(Learning rate)和折扣因子(Discount factor) - Q-learning 算法需要设定学习率和折扣因子,用于控制学习速度和长期价值。选择合适的探索策略(Exploration strategy) - Q-learning 算法需要选择合适的探索策略,用于控制智能体在 (出错了,没有完成任务)2 / 2使用强化学习 Q-learning 算法来获取用户操作移动 App 的行为轨迹时,可能需要注意以下事项:状态表示 - 需要考虑如何表示移动 App 的状态,使得算法可以正确地学习用户的行为轨迹。动作集 - 需要考虑如何定义动作集,使得算法可以学习用户的行为轨迹。奖励函数 - 需要考虑如何定义奖励函数,使得算法可以学习用户的行为轨迹。训练策略 - 需要考虑如何训练算法,使得算法能够有效地学习用户的行为轨迹。如果想了解更多关于强化学习 Q-learning 算法的知识,可以参考以下文献:" (再试,继续出错,没有完成任务)3 / 3在使用 Q-learning 算法来获取用户操作移动 App 的行为轨迹时,需要注意以下几点:定义状态空间和动作空间 - 需要明确定义状态空间和动作空间,并确定如何表示状态和动作。设计奖励函数 - 需要设计一个合理的奖励函数,以便指导智能体的学习。调整学习参数 - 需要调整学习率和折扣因子,以便控制智能体的学习速度和对未来奖励的关注程度。处理噪声和不确定性 - 在现实情况下,状态转移和奖励可能存在一定的噪声和不确定性。需要想办法处理这些因素,以便提 (第三次再试,依旧出错,没有完成任务)在使用强化学习 Q-learning 算法时,奖励函数是一个非常重要的组成部分。奖励函数的定义或设计决定了算法学习的目标,因此需要经过认真设计。一般来说,奖励函数的设计应该符合以下几个原则:奖励函数应该与目标状态相关:奖励函数应该越高越好,因为它表示算法的学习进度。奖励函数应该与状态转移相关:奖励函数应该考虑状态转移的效率,以便算法可以有效地学习。奖励函数应该与时间相关:奖励函数应该考虑时间的影响,以便算法可以有效地学习。具体的奖励函数设计取决于具体的应用场景。例如,在获取用户操作移动 App 的行为轨迹的应用场景中,可以考虑以下几种奖励函数设计方法:使用固定的奖励值:(应该是chatGPT的强项,依旧出错,没有完成任务)2 / 2在强化学习 Q-learning 算法中,奖励函数起着至关重要的作用,因为它决定了算法学习用户行为轨迹的目标。奖励函数应该满足以下几个原则:定义清晰 - 奖励函数应该清晰地定义出算法的学习目标,使得算法知道应该学习哪些行为轨迹。明确奖励 - 奖励函数应该明确地表示出算法在学习过程中应当获得的奖励。避免负面奖励 - 奖励函数应该避免设计负面奖励,因为这可能会导致算法学习到不正确的行为轨迹。结合业务场景 - 奖励函数应该结合移动 App 的具体业务场景进行设计,使得算法学习到的行为轨迹能够在实际应用中被有效利用。具体如何设计奖励函数,可以参考业务场景,根据算法的学习目标确定奖励值。例如(虽然回答精妙,但还是出错,不能完成任务)在强化学习 Q-learning 算法中,可以使用不同的搜索策略来实现算法的训练。常用的搜索策略有以下几种:随机搜索 - 随机搜索策略是最简单的搜索策略之一,它可以帮助算法快速地探索环境,了解不同的动作的效果。贪心搜索 - 贪心搜索策略是一种基于当前状态的搜索策略,它会选择当前最优的动作。剪枝搜索 - 剪枝搜索策略是一种优化搜索效率的策略,它会在搜索过程中剪掉不必要的搜索路径。模拟退火搜索 - 模拟退火搜索策略是一种基于随机搜索的策略,它会在搜索过程中不断调整搜索的温度(问到“如何应用”,就依旧出错,不能完成任务)汽车的智能座舱系统是一种复杂的软件系统,因此在测试时应该注意以下几点:测试范围 - 明确测试的范围,包括测试的功能、性能、安全等方面。测试方法 - 选择合适的测试方法,如手动测试、自动化测试、性能测试等。测试数据 - 准备合适的测试数据,包括测试用例、测试数据等。测试环境 - 确定测试环境,包括测试硬件、操作系统、测试工具等。测试过程 - 设计测试用例,执行测试,分析测试结果,修复问题。测试报告 - 编写测试报告,总结测试过程和结果,并提出改进建议。此外,在测试汽车的智能座舱系统时,还需 (回答得太笼统,最终还是出错了,没有完成任务)对于汽车的智能座舱系统,可以使用以下测试方法:功能测试 - 检查系统的功能是否正常,是否符合需求规格说明。性能测试 - 检查系统的性能,包括响应时间、吞吐量、稳定性等。兼容性测试 - 检查系统是否能够在不同的硬件、操作系统、网络环境下正常运行。安全测试 - 检查系统的安全性,包括防火防盗、数据保密等方面。关于准备测试数据,可以考虑以下几点:根据测试目的和范围确定测试数据的内容。准备测试用例,确定每一条测试用例的输入数据(指出了它的问题,好像也没有改正,用户反馈不能及时处理和学习)要开发出高效的自动化测试脚本,可以考虑以下几点:明确测试目标 - 首先要明确自动化测试脚本的测试目标,确定测试的功能、性能、安全等方面。设计测试用例 - 根据测试目标,设计测试用例,确定测试的输入数据、期望输出结果等。选择合适的测试工具 - 根据测试目标和测试环境,选择合适的测试工具,如自动化测试框架、性能测试工具等。编写自动化测试脚本 - 使用测试工具和测试用例,编写自动化测试脚本,并确保脚本可以重复执行。执行测试并分析结果 - 执行自动化测试脚本,并分析测试结果,发现问题并进行修复。维护自动化测试脚本 - 定期对自动化测试脚本进行维护,确保脚本始终可以正常执行。希望以上内容能够为您提供帮助 (有点答非所问,抓不住重点)在自动化测试脚本开发过程中,可以考虑以下技术来提高脚本的开发效率:选择合适的测试工具 - 可以使用自动化测试框架、测试用例管理工具等,来帮助开发高效的自动化测试脚本。编写可维护的脚本 - 尽量使用可维护的代码风格,确保脚本的可读性和可维护性。尽量使用自动化测试框架提供的功能 - 自动化测试框架通常会提供很多有用的功能,如自动截图、日志记录、测试数据管理等,应该尽量使用这些功能。利用自动化测试脚本的并行执行 - 利用自动化测试框架提供的并行执行功能,可以大大缩短测试时间。使用版本控制工具管理脚本 - 使用版本控制工具,如 Git、SVN 等,可以(在我的追问下,任务都完不成了😄)探索式测试和一般的手工测试方式有以下几点不同:探索式测试的目的是发现问题,而不是验证规格说明。手工测试的目的是验证规格说明中的功能和性能,而不是发现问题。探索式测试更加开放和灵活,不需要事先确定测试用例。手工测试通常需要事先编写测试用例,并按照测试用例进行测试。探索式测试的过程更加主观,需要测试人员根据自己的经验和判断来决定如何测试。手工测试的过程更加客观,一般按照预先编写的测试用例来执行。探索式测试的结果更加难以重现和复(对探索式测试的理解是片面的、错误的)探索式测试和 E2E 测试是两种不同的测试方法,主要区别如下:测试目的不同 - 探索式测试是一种随机化的测试方法,旨在发现系统中的问题。E2E 测试则是一种有目的的测试方法,旨在验证系统的整体功能。测试范围不同 - 探索式测试的测试范围较小,通常只测试部分功能。E2E 测试的测试范围更大,通常测试整个系统的整体功能。测试方式不同 - 探索式测试是一种随机化的测试方法,测试人员随机探索系统,尝试发现问题。E2E 测试则是一种有目的的测试方法,通常会有明确的测试计划或用例。2 / 2探索式测试和 E2E 测试是两种不同的测试方式,有如下几点区别:测试范围不同 - 探索式测试是一种随机化的测试方式,测试人员随机地探索系统,尝试发现问题。而 E2E 测试则是针对整个系统的测试,需要从系统的外部角度来考

chatgpt最先颠覆哪些行业 chatgpt 会不会颠覆搜索app

chatgpt,chatgpt怎么读,chatgpt中文,chatgpt安装
题图来自:《钢铁侠3》我们和四位行业大牛聊了聊最近大火的ChatGPT。首先介绍一下本场嘉宾:陶芳波博士是前Facebook高级研究科学家,回国后进入阿里达摩院,搭建了阿里的神经符号实验室,属于全球最顶级的AI科学家之一,目前正在创业,担任人工智能公司心识宇宙的CEO。黄东旭是险峰的老朋友,PingCAP的联合创始人兼CTO,他本人是国内最早一批开源数据库的创业者,在程序员圈子里非常活跃。费良宏老师是AWS的首席架构师,曾供职于微软、苹果等多家硅谷巨头担任技术顾问,在云计算行业里深耕多年;龙波博士目前担任Meta商业化AI研究团队的负责人,之前曾深度参与过京东搜索推荐算法的搭建。此次圆桌由险峰长青投资副总裁李抗主持,李抗主要专注于人工智能、机器人、云计算等方向的投资。本次我们将聊到:ChatGPT 效果如此“炸裂”,AI从业者们事先是否预见到了?ChatGPT 是否能理解语言逻辑本身?为什么谷歌没能做出 ChatGPT?开源圈和云计算巨头是如何看待 ChatGPT的?ChatGPT 能让TMT投资人“再干15年”吗?ChatGPT 正在对哪些工作岗位造成影响?ChatGPT 广泛使用后,人的认知能力会下降吗?ChatGPT 会导致哪些行业消失?哪些公司急需转型?小公司如何抓住 ChatGPT 的逆袭机会?硅谷现在如何看待 ChatGPT?普通人如何拥抱 ChatGPT ?报考计算机专业还有前途吗?OpenAI 的组织设计给创业者带来哪些启示?一、ChatGPT效果如此“炸裂”,AI从业者们是否预见到了?险峰:去年AI作画也火过一阵,但都没能像ChatGPT一样让普通人感到震撼,似乎是一夜之间,AI就达到了一个如此炸裂的效果,基于各位对NLP与AIGC的理解,这种进步是在意料之中还是意料之外?陶芳波:刚才主持人已经介绍过我的背景,我本人从读博士到后来工作创业,一直在从事AI相关的科研工作,但坦白来说,这次ChatGPT给我带来的震撼,并不亚于屏幕前的每个人。传统上,越复杂的技术,信息壁垒也越高,所以过去的情况往往是,行业内的人都已经知道技术发展到了什么水平,但大众可能还不知道;而ChatGPT完全不是这样,它刚刚诞生3个月,我们就看到无论巨头大厂还是AI科学家们,都马上进入了一种非常紧张的应对状态,甚至可以说是应激状态。ChatGPT突然具有了这么强大的通用性能力和逻辑推理能力,是超出很多AI从业者设想的。为什么这件事会发生?我仅从个人角度做一个简单的总结。第一,是大数据和大算力的发展,这是一个基础。2012年深度学习刚刚诞生的时候,大家就尝试把更多的算力和数据灌输到一个模型中去,让AI具有更强的能力,这个逻辑在今天依然没有变化。我们知道人脑要比动物的大脑更聪明,两者最直观的差别,是人脑的神经元和神经突触更多,比如人脑的神经元有1000亿,神经突触可能有几万亿,今天ChatGPT可以达到上千亿的参数量,已经跟人脑比较接近了,量变才有可能引发质变,AI的发展首先要靠算力数据的指数级发展。第二,是在人工智能的发展背后,其实一直有“专用人工智能”和“通用人工智能”的两派观点的争论。以前我们熟悉的人工智能,比如计算机视觉算法和自然语言算法,都属于“专用人工智能”。而在他们以外,其实一直有另一拨人在尝试,有没有可能把单个的专项AI变成一个通用AI?用一个统一的大模型来解决所有的问题?这里面有几个关键性的节点,首先是2017年,谷歌大脑(Google brain)发表了一篇关于transformer的文章,奠定了包括今天ChatGPT所有技术的基础,细节这里不展开了――总之它让很多人意识到,通用型AI是有可能被造出来的。对此,谷歌的做法是首先搞一个底座,这个底座叫做“预训练大模型”,然后不断向底座里灌输数据,让它上面能长出一个个小模型来,再用这些小模型去解决不同的任务。这时出现了一家公司叫OpenAI,他说我不相信仍然需要训练小模型来造出通用AI,那我能不能直接让大模型去阅读互联网上所有的数据?砍掉中间环节,直接让人用语言去和大模型交流?基于这种思想,OpenAI在2018和2019年,分别推出了GPT1和GPT2,但当时它的通用性还不强,没有引起太多关注,然而到2020年,第三代也就是GPT3出现了。GPT3直接把模型参数量从15亿提升到1,750亿,接近了人脑中神经连接的数量水平,这时一个神奇的事情就发生了,AI开始“涌现”出了一些人脑独特的能力,甚至出现了逻辑判断能力,这在以前的机器学习界是不存在的,我甚至觉得连OpenAI内部都不一定能预判到这件事情会发生。而这个GPT3,就是今天ChatGPT诞生的起点,正是因为GPT3的出现,大家才开始去基于它去开发一些全新的AI能力。可以这么说,从2020年的GPT3开始,整个AI行业都进入到了下一代范式,至于它的边界在哪里,大家都不知道,没有人有足够的认知。这也是我想讲的第三点,就是OpenAI之所以能超越于谷歌,是他们真的在尝试理解“学习”这件事的本质。早期的AI要靠人工打标签,要一个活人坐在屏幕前告诉机器――这是一只猫,这是一只狗;之后发展到GPT3,这时已经不用再打标,而是让机器直接去阅读大量的数据,看它能不能找出里面蕴含的规律和规则。在这个基础上,OpenAI又进一步,他们说既然AI已经学了这么多知识,那下一步就是怎么把这些知识输出来,变成人可以用的东西;于是OpenAI开始教大模型如何自我改造,更好的去解答人类提出的指令,而后甚至演化成AI自我对抗一个人类制定的判断标准,完成AI的“社会化改造”,到2022年,ChatGPT横空出世了。刚才东旭提到,他现在每天都用ChatGPT帮自己写代码,代码其实比自然语言更有逻辑性,站在AI的视角,等于你也是在帮它培养逻辑能力。如果说GPT3还在无目的数据中学习,到了ChatGPT就已经变成了“在应用中学习”。整个过程真的很像一个年轻人走出校园,进入到公司中实习的感觉。所以我们可以看到,OpenAI一直在探索人类学习的本质是什么,当他们把这一整套工业化的体系和自己对AI的超前认知整合到一起,就创造出了ChatGPT,这时候所有人才发现,原来我们已经落后了OpenAI这么多,我们还在模仿人家2020年的GPT3版本。所以ChatGPT不仅对普通人是震撼,对大公司来说更是震撼,我们必须去面对这个全新的现实,思考该怎样迎接这样一个新物种的出现,以及未来人类分工的变化。费良宏:我补充两句,今天我们看到市场一夜间被引爆,但背后绝不是一日之功。首先是2017年transformer那篇论文,将整个NLP市场完全被颠覆了。以前很长一段时间里,大家都觉得非精确的模糊化语义很难被突破,但transformer出现之后,一下把NLP精度提升到了无法想象的量级。这时所有人的研究方向全部都开始转向了transformer,这是一个里程碑式的改变,我觉得怎么样去夸它都不为过。第二个是算力,刚才陶博士也提到,最早的时候我们自己搞一台电脑,装上1080Ti都可以跑一些模型,但今天由于参数提升,千亿级规模的算力已经不是普通人能参与的,也许真的是大力出奇迹,诞生了ChatGPT,那么未来延续着这条路,不断堆积数据量,增加模型的数量,比如据说GPT3使用了45PB的数据量,未来是不是可以用100PB数量、万亿级参数甚至更大规模的算力?或许真能诞生出一个非常强大的通用型AI,对此我是比较乐观的。龙波:我对于ChatGPT的出现并不特别惊讶,准确的说,是对它的效果不惊讶,但是速度上我还是挺惊讶的,没想到会来的这么快。刚才几位都谈到了一个重要的点,即transformer的里程碑作用,这里我想从NLP的角度分享一下,为什么它是里程碑?从NLP发展的逻辑来看,最早的NLP模型是基于对单个单词统计来做的,到后来卷积网络(CNN)出现,机器开始能够基于两三个单词来理解词义;再往下发展到RNN时代,这时AI基本上就可以沿着整个sequence进行积累,可以理解相对长的短语和句子,不过依然还无法真正理解上下文。随后一个很重要的突破,是“注意力机制”(attention model)被提出,其实transformer的核心概念也是来自于此;在这个阶段,AI开始能够结合所有上下文,理解每个词之间表达重要性的不同。这就很像我们的快速阅读,为什么人类能够做到“一目十行”,是因为我们能看到一些关键词,而每个词的重要性不一样。“注意力机制”正是起到了这个作用,它告诉AI各个关键词之间的关系如何,谁重要谁不重要。整个行业再往后就是transformer诞生,然后Bert(Bidirectional Encoder Representations from Transformers)诞生,其实Bert也非常重要,就像陶博士刚才提到的,Bert可以使用大量没有标注的数据,自己创建一些简单任务来做self learning。举个例子,比如一句话,AI会把其中的一个词藏起来,然后猜这个词应该是什么,有点像机器自己和自己玩游戏,如此它的语言理解能力就变得越来越强――我觉得到了这个时间点上,当AI开始利用大量非标注数据完成自主训练,ChatGPT的出现就只是个时间问题了。但是这也是它的局限性,ChatGPT无论如何惊艳,它仍然是个统计语言模型,本质还是基于它所看到过所有数据,用统计意义上的预测结果进行下一步输出,当它拿到的数据里有逻辑的时候,它会通过统计的方法把逻辑找出来,让你感觉到它的回答很有逻辑,但假如它读了很多杂乱无章的文本,它一样会说话没有逻辑,这是统计语言模型天生的缺陷。所以我并不确定,未来随着参数越来越多,ChatGPT能否真正成为AGI(通用人工智能)?因为人的推理能力并不完全基于统计信号,这是我个人比较保守的看法。二、ChatGPT是否能理解逻辑本身?险峰:这个话题本来是后面的,正好提到了就提前探讨一下。现在很多人会觉得ChatGPT很酷、很有逻辑,但有的时候也会觉得它在一本正经的胡说八道,有些很简单的问题它会答错,这件事反过来也会让大家好奇,ChatGPT是否真的具有逻辑?或者说理解逻辑?对此,也有两派观点,一派是觉得极致的模拟就可以实现逻辑,虽然只是基于统计学,但看起来有逻辑其实就等于逻辑本身;另一派觉得所有模拟都只能得到大概的正确,最后还是要建立在极其精准的规则之上,两派的分歧可能就是统计和规则的区别。此外还有第三种观点,借鉴了生物组织的复杂性来解释这个问题,比如蚁群,单独一只蚂蚁可能不知道自己在干什么,但是一个蚁群就可以做很多复杂的事情,这两者也类似于神经元和大脑的关系,对这个问题也想听听几位的思考。黄东旭:先说一个外部视角,我最近一直在用ChatGPT写代码,可能是玩的确实太多了,基本没有遇到AI胡说八道的情况;个人观点,很多人觉得它不准有两种情况,一种是问题没问对,如果问题本身是模糊的,它给出的答案也会是模糊的,比如一些开放式的问题。第二是它有些回答不一定是假的,只是中间跳过了很多步骤,比如一个问题,需要从A到B再到C依次推理,其实每一步都会有一些假设,但如果某个假设错了,答案也会出问题。所以我们内部在使用时,会不停地教ChatGPT如何思考,跟教小朋友一样,他回答错了就跟他说,你要不再读一遍题目?或者直接问他――那你觉得这个问题应该如何提问?最后你会发现,只要你把你想要的思考方法教给他,他回答的准确率会非常高。注意,在这个过程里,我们并没有向它提供任何的信息增量,所以我觉得ChatGPT已经超越了一个传统意义上的语言统计模型,绝对不是单纯的鹦鹉学舌,但我也不知道它为什么会有这个能力。陶芳波:我也简单说一下我的看法。我观察到一个现象,在GPT3出来之后,特别是今年ChatGPT出来之后,很多AI领域非常资深的人都在激烈地反对大模型。我曾经也有这样的心态,觉得这个东西也许就只是一个统计模型,解决不了人类的终极问题。但是现在我认为,这样的思想说严重点,就属于是“旧时代的余孽”,当然这句话是自嘲的,因为我曾经就是旧时代的余孽,但今天我选择去拥抱他。因为对于人工智能,我们永远都可以从“它在某某事情上做得还不够好”来批评它。但是如果我们回过头来想一下,一个人如果只有大脑,我们的逻辑能力又有多强?人的所谓逻辑能力,说到底也无非是通过直觉,跳过两三步来推演出一个结果,如果真到了六步七步的推理,我们光靠一个大脑也解决不了,也需要草稿纸和计算器,换句话说,人类也是要通过外部工具来增强逻辑能力的。从这个角度讲,今天ChatGPT所涌现出来的逻辑能力和人是其实差不多的。但是大家低估了一个东西,如果用发展的眼光再往前推一步,你觉得OpenAI下一步会做什么?微软下一步会做什么?一件非常可能的事,是他们会把ChatGPT跟各种各样的工具结合起来。那时,ChatGPT完全可以把这些工具变成自己的“草稿纸和计算器”,他自己只完成逻辑的部分即可。所以,我们其实可以把ChatGPT当做是一个非常稳定的原始大脑,未来他还将去学习使用工具,那时他所具有的能力会比今天大得多,这将是一个非常有想象力的未来。费良宏:非常认同陶博士,前几天看到LeCun在推特上跟人论战,谈ChatGPT对于AI的影响,我也有同样的感觉,就是可能很多人对ChatGPT的判断太拘泥于以往的经验了,还是把它当做是GPT3或者GPT2。比如OpenAI在发表ChatGPT的那篇论文中,专门提到他们使用了人类反馈的强化学习,去弥补堆砌资料造成的一些不足。所以某种程度来讲,ChatGPT的逻辑不仅仅是来自于文本的训练,还来自于人类给它的主观反馈,我们利用这种奖励机制,让AI产生一种内部的自我判断能力。我觉得这是一种非常巧妙的进步,相当于把强化学习跟大模型结合在了一起。今天可能我们的资源投入还比较有限,让ChatGPT不足以解决更广义上的所有问题,但未来如果我们的投入足够大,强化学习的引入程度足够高,机制设计得足够巧妙,会不会结果也将远远超出我们今天的预期?不过,这也引出了另外一个问题,就是关于ChatGPT倾向性的争论。随着人类用越来越多的反馈干预了它的判断,那会不会让ChatGPT带有某种思潮,比如说政治倾向,最近我看到国外有一些人对它进行测试,发现它在政治上并不是完全中立的,是一个左翼的自由派环保主义者。从这个角度出发,我认为ChatGPT是具有逻辑的,因为这个逻辑是由人赋予他的,也是人自身所存在的,这是我的看法。龙波:当一个非常有冲击性的产品出来后,人的观念很容易受到冲击,但这里还是要看一些根本问题是否发生了改变,这个话题涉及到一些更深刻的东西,即我们如何理解统计模型?比如大家都提到,ChatGPT反馈模型的提高,这是一定的,因为你给了它更多的统计数据,不论是用AI的方法,还是传统方法,模型都会提高,LeCun也谈到过这个问题,他并不是反对统计模型本身,他只是想说,如果我们要创造真正的通用人工智能,仅仅靠统计模型就够了吗?统计模型应用在人工智能领域已经几十年了,到深度学习神经网络达到高点,但是我们想一下,人的认知是纯粹基于统计的吗?我们每个人都知道,太阳从东边升起,这是我们每天都看到的,100%的概率,这是统计学上的认知,但是我们没有停留在这一点,我们最终理解了行星之间的相互作用力,从物理学的角度解释了这个现象。所以人类认知的本质是什么,我们对此的认知也还不够透彻,我觉得大师们是想说,统计模型之外,还有什么东西让机器能更接于近人?这个问题其实没有答案,他想表达的是一种open的心态,即统计模型不能解决一切,它甚至都没解决我们自己认知的问题。三、为什么谷歌没能先做出ChatGPT?险峰:刚才大家都提到了transformer,它其实是由谷歌发表出来的,但今天做出ChatGPT的却是微软系的OpenAI,各位觉得这背后的原因是什么?龙波:确实很多人都有这个疑问,但其实到今天我依然认为,谷歌在技术上是非常领先的,ChatGPT最关键的核心模型起点,无论是transformer,还是后来的bert,这些概念都是谷歌首先提出来的。我们知道微软在算力方面给了ChatGPT很大帮助,但谷歌自己的TPU研发能力也非常强大,谷歌不缺算力,更不缺数据,但正因为如此,大公司要做出这种创新性很大的产品,注意我是说产品,一般都会被自己的优势束缚住手脚。首先谷歌是一个搜索引擎巨头,它对此非常自信,这反而让它对其他系统的投入和关注都不够,在我看来,谷歌被ChatGPT反超其实是有先兆的。比如语音助手,坦白说谷歌的产品是不如亚马逊和Siri的,像Google Assistant ,采用的依然是搜索引擎的用户界面,你给它搜索词,它就给你最高质量的回答,强调的还是单次交互,这种观念已经深入产品的设计之中,我觉得在互动体验上谷歌的投入是不足的。但这并不是说谷歌技术不行,我有不少前同事就在谷歌research工作,他们的技术发展得非常好、非常成熟,他们有最好的资源可以从事研究,但是他们认为搜索是他们最重要的产品,他们会下意识的用搜索的观念去做一些新产品,对用户的交互式体验本身就没有那么注重,这是我从产品角度的观察。费良宏:这个话题让我想到一段商业史故事。世界上第一台数码相机,是一名叫史蒂夫萨森的工程师在1975年发明的,他后来被称为"数码相机之父",但是当时,他是一名柯达公司的员工。后来据他回忆,这是一次前所未有的尝试,“公司内的反之强烈超出了他的想象”,结果38年之后,由于数码相机的崛起,传统胶片时代的王者柯达公司破产,我觉得回顾历史,跟今天也有非常相似的地方。今天整个搜索市场,谷歌占了96%,微软只有3%,但因为ChatGPT的出现,微软很可能也会颠覆搜索领域的格局,而谷歌空有技术却没有做出这个产品,我觉得可见一斑,历史总是惊人的相似。黄东旭:这是件特别有意思的事情,因为以前扮演这个颠覆者的,其实是谷歌自己。2000年的时候,雅虎的地位就和今天的谷歌一样,当时雅虎的搜索引擎走的是人工标注路线,说你看我人工标注的黄页多准确,而谷歌是当时几个大学生搞出来的,结果历史又一次重演。如果抛开数据量和算力这些硬性限制,只去看里面最核心的代码量,其实就是一个小团队就能写出来的。一家巨头再次被一家小公司打败,我觉得这就是软件行业有意思的地方,一个非常硅谷的故事。四、开源圈和云计算巨头是如何看待ChatGPT的?险峰:谷歌的早期模型都是开源的,但ChatGPT却选择了闭源,结果在2个月内用户破亿,东旭对此怎么看,ChatGPT的选择对于后来者是否有参考价值?黄东旭:我觉得ChatGPT的成功,并不在于开源或闭源,而是它向整个业界证明了某种技术的可行性,其实开源的工具一直都在,关键是有没有人会拿出几千万美金去做这些东西,对此我是比较乐观的,据我所知已经有一些开源项目在做和ChatGPT差不多的事情,未来很短的时间之内,一定会出现一个开源的通用语言大模型。它可能没有ChatGPT那么强,但是也会大致够用,甚至可能是一个通识模型,你可以把它装载到自己的系统里面去,跟它一起去协作,我觉得很快就会有人沿着ChatGPT的路线,做出可以私有化部署的开源大模型,可能会是一个大厂或者一个foundation,每隔半年change一次,然后大家下载下来用。险峰:云计算大厂们怎么看ChatGPT?费良宏:AI的商业化主要是SaaS化,之前有很多成功案例了。另外从技术角度来看,AI的推理能力API化也已经是一种标准做法,比如在云上部署一个推理服务器,让前端用户可以非常快速地获得图像语音内容,这两种模式在云计算发展的历史上已经被证明是完全可行的。接下来的关键就是如何差异化的大模型,我个人认为,我们可能低估计了ChatGPT的工程化难度,比如说并行训练、标注以及数据管理的工作量和成本开销,都会是非常巨大的,所以我不认为在短时间内,会有大量能完全媲美ChatGPT的竞品出现。当然,下一步还是有很多人会去做与ChatGPT类似的事情,但是我认为时间上可能会比较久,这其中,我个人比较看好谷歌和微软,因为他们之前的积累已经有足够多。其实刚才也谈到了微软的问题,虽然微软只是给ChatGPT投了钱,技术上没有参与,但是从它的布局来看,我觉得微软其实非常有野心,要知道2019年微软就开始向OpenAI投钱,第一次就投了10亿美元,2020年就跟OpenAI谈妥了GPT3的独家授权,2021年微软就专门给OpenAI构建了自己的超算能力。微软提供的这些工程能力和云计算能力,足以确保OpenAI继续保持领先优势,如果未来任何一个竞争对手想要超越OpenAI,在这些资源上都要加倍付出,甚至要在短时间内实现突破才有可能,但是现在,时间反而是最稀缺的,像之前“学徒巴德”(Apprentice Bard)在谷歌的发布会上“翻车”也说明,互联网产品的竞争是非常残酷的,虽然你也能做出来一个差不多的,但只要你不能超越市场中最好的,那就意味着失败。陶芳波:我接着这个话题稍微说下,因为我们的业务跟大模型接触非常多,首先大模型开源这件事不是刚刚开始,其实去年很多公司已经出来了,包括OPT(Meta AI 的开源项目)和BLOOM(法国政府资助的开源AI),但其实它们和ChatGPT的差距非常大。我觉得OpenAI的竞争力,表现在他们对于数据使用方式的认知,还有刚才费老师提到的工程能力和数据体系,这套东西不是说拿出50亿美金,招很多的人马上就可以解决的,这是现在很多投资人的误解。另外,我觉得AI的分层其实在今天就已经开始了,像Sam Altman(OpenAI首席执行官)自己就说过,OpenAI现在就是个Infra,未来在它上面可能会有中间层,这个中间层的作用是帮助一个个大模型Infra变成各个行业里的解决方案。五、ChatGPT 能让TMT投资人“再干15年”吗?险峰:ChatGPT下一步会往何处去?会不会被下一个transformer颠覆?陶芳波:个人观点,我们可以从底层视角来看,比如今天OpenAI做出了ChatGPT,未来或许还会有GPT4,我们先假设OpenAI的技术是最领先的,现在后面有一堆大厂巨头和创业公司,正在或者将要做大模型,那如果我是OpenAI,我接下来会做什么?我觉得第一个方向,还是怎样用好手上的现有数据,把模型的潜力全部挖掘出来。下一代GPT的参数量也许还能再大个10倍,但估计也就是这个规模了,不可能再扩大1000倍,因为参数要有足够的数据来匹配,全世界的优质数据就这么多,参数量搞得再大效果也不有太大提升。另一个方向,也是Anthropic提出的,叫做“宪法AI”。就是我们能不能让AI在一套宪法,或者说一套规则下,实现自我进化,最终变得符合这套规则。举个例子,每个国家都有自己的监管体系,比如中东地区,只有符合当地监管的AI才能进入该国,我觉得这会是一个非常好的方向,可以大大降低AI吸收信息的成本,提高它的效率。第三个方向是多模态,让OpenAI变成一个思考引擎。我们知道人类的感知不是单一的,而是许多模块组成的,不是说用户说了一段话,我能感受到这段话就够了,最简单的,比如看漫画书,人能够把感知图像和感知文字结合在一起,而不是两个单独的东西。所以我觉得,接下来大模型会在这些方向上继续发展,这是一个底座,这种状态会维持相当长一段时间,而接下来才是更巨大的挑战,无论是投资人,还是创业者,我们到底应该怎样去迎接ChatGPT的革命性变化,在它上面重构一个巨大的新体系?举个例子,2007年iPhone诞生,10年之后你会发现整个互联网生态都变了,iPhone上面长出了各种各样的应用,这10年间,全球诞生了多少独角兽,诞生了多少千亿、万亿美金级的公司,这些公司在iPhone出现之前都是不存在的,都是从一个很小的作坊开始做起来的。我觉得今天大量的机会在这里面,首先是中间层的机会,就像在大模型外面搭一个脚手架,让它有1000只手1000只脚,可以做更复杂的事情,比如基于如何使用大模型构建一个社区,这是一种最轻量级的创业思路。再比如教会大模型怎么去使用外部工具,怎么样更好的去理解对面的用户,而不只是从文字输入来理解他――这也是我们正在做的事情。在中间层上面,还会有各种应用层,刚才费老师也讲到,AI在SaaS端已经被验证了,但我个人认为这一波AI浪潮席卷的范围会远大于SaaS。因为SaaS更多还是服务于企业的效率工具,但ChatGPT肯定会拓展到C端,比如说健身、医疗,都有机会可以重做出一个交互式的软件,把用户界面完全抛弃掉,和移动互联网时代相比,我认为这会是一种全新体验的产品。黄东旭:我也有类似的观点,其实软件的进步一直都是交互方式的进步,以前是字符界面,到后来是UI,沿着这条线往下走,未来最重要的软件交互形态其实就是自然语言。过去我们一直在尝试,让软件的使用变得更加贴近人类自然语言,但是今天我们终于有了这样一个新工具,能重新去塑造我们跟软件的沟通方式。以前我们用软件,比如说Linux,输入一堆命令,机器才能去完成一件事情,相当于我们要去学习机器的语言。但现在有了ChatGPT,你可以直接去跟他说,我想要到达到某某结果,我不管你怎么干,最后能给我结果就好,这其实是一个非常颠覆性的东西,所以我们现在正在做的,不断跟GPT磨合的,也是类似的思路。陶芳波:我记得ChatGPT刚出来的时候,就有投资人提出一个观点,说TMT可以重新再干15年,我觉得这个逻辑是对的,因为上个时代我们基于移动互联网,做出了各种各样的APP,而今天新的交互形式出现了,每一个细分的赛道上可能都会成长出一个全新的独角兽,或者全新的商业模式,我觉得是一个完全的大洗牌。今天ChatGPT的潜力大概只发挥了百分之几,就已经创造出超过了万亿的市场,未来这个规模可能是几十万亿。六、ChatGPT 正在对哪些工作岗位造成影响?险峰:这个问题是帮别人问的,他是个很早期的NLP从业者,想问大模型出来以后,其他的模型可能就成为历史了,他们这些人未来应该怎么办?龙波:这个问题的答案还是比较清晰的,以前那些传统的NLP的手段,在这个时代肯定是不会再有用了,比如大量的语法树之类,非常繁琐,过去开发过程很痛苦,要一支很大的团队才能做出一个很小的东西,我们肯定不会再回到那个年代,老的技术基本都可以用大型语言模型(LLM,large language model)替代。对于ChatGPT的未来,我非常同意陶博士刚才说的,如果只是一味地增加数据或增加参数,不一定还能得到好的ROI,因为你给了更多的数据,就意味着有更多的噪音,最后信噪比可能反而更差,这也是为什么我们有时觉得ChatGPT会回答错的原因,所以还是要关注如何提高数据的质量。与数据质量同样重要的,