淘优惠

淘优惠

2016AI巨头开源IP盘点 50个最常用的深度学习库 | 流媒体网

热门文章 0
ipam开源,开源ippbx,开源ip设计上市公司,开源ips

   【流媒体网】摘要:Data Science Central网站主编、有多年数据科学和商业分析模型从业经验的Bill Vorhies曾撰文指出,过去一年人工智能和深度学习最重要的发展不在技术,而是商业模式的转变——所有巨头纷纷将其深度学习IP开源。 毋庸置疑,“开源浪潮”是2016年人工智能领域不可忽视的一大趋势,而其中最受欢迎的项目则是谷歌的深度学习平台TensorFlow。下文就从TensorFlow说起,盘点2016年AI开源项目,最后统计了Github最常用深度学习开源项目Top 50。

 

  Data Science Central网站主编、有多年数据科学和商业分析模型从业经验的Bill Vorhies曾撰文指出,过去一年人工智能和深度学习最重要的发展不在技术,而是商业模式的转变——所有巨头纷纷将其深度学习IP开源。 毋庸置疑,“开源浪潮”是2016年人工智能领域不可忽视的一大趋势,而其中最受欢迎的项目则是谷歌的深度学习平台TensorFlow。下文就从TensorFlow说起,盘点2016年AI开源项目,最后统计了Github最常用深度学习开源项目Top 50。

  谷歌开源:围绕TensorFlow打造深度学习生态圈

  1.Google第二代深度学习引擎TensorFlow开源

  2015年11月,谷歌开源深度学习平台TensorFlow。2016年4月,谷歌推出了分布式TensorFlow。现在,TensorFlow已经成为业内最受欢迎的深度学习平台之一。

  2.谷歌开源全球最精准语言解析器SnytaxNet

  2016年5月13日,Google Research宣布,世界准确度最高的自然语言解析器SyntaxNet开源。谷歌开源再进一步。据介绍,谷歌在该平台上训练的模型的语言理解准确率超过90%。SyntaxNet是一个在TensoFlow中运行的开源神经网络框架,提供自然语言理解系统基矗谷歌公开了所有用用户自己的数据训练新SyntaxNet模型所需要的代码,以及谷歌已经训练好的,可用于分析英语文本的模型Paesey McParseface。

  Paesey McParseface建立于强大的机器学习算法,可以学会分析句子的语言结构,能解释特定句子中每一个词的功能。此类模型中,Paesey McParseface是世界上最精确的,谷歌希望它能帮助对自动提取信息、翻译和其他自然语言理解(NLU)中的应用感兴趣的研究者和开发者。

  3.谷歌推出Deep&Wide Learning,开源深度学习API

  2016年6月29日,谷歌推出Wide & Deep Learning,并将TensorFlow API开源,欢迎开发者使用这款最新的工具。同时开源的还有对Wide & Deep Learning的实现,作为TF.Learn应用程序接口的一部分,让开发者也能自己训练模型。

  4.谷歌开源TensorFlow自动文本摘要生成模型

  2016年8月25日,谷歌开源了TensorFlow中用于文本信息提取并自动生成摘要的模型,尤其擅长长文本处理,这对自动处理海量信息十分有用。自动文本摘要最典型的例子便是新闻报道的标题自动生成,为了做好摘要,机器学习模型需要能够理解文档、提取重要信息,这些任务对于计算机来说都是极具挑战的,特别是在文档长度增加的情况下。

  5.谷歌开源图像分类工具TF-Slim,定义TensorFlow复杂模型

  2016年8月31日,谷歌宣布开源TensorFlow高级软件包TF-Slim,能使用户快速准确地定义复杂模型,尤其是图像分类任务。自发布以来,TF-Slim已经得到长足发展,无论是网络层、代价函数,还是评估标准,都增加了很多类型,训练和评估模型也有了很多便利的常规操作手段。这些手段使你在并行读取数据或者在多台机器上部署模型等大规模运行时,不必为细节操心。此外,谷歌研究员还制作了TF-Slim图像模型库,为很多广泛使用的图像分类模型提供了定义以及训练脚本,这些都是使用标准的数据库写就的。TF-Slim及其组成部分都已经在谷歌内部得到广泛的使用,很多升级也都整合进了tf.contrib.slim。

  6.谷歌开源大规模数据库,10亿+数据,探索RNN极限

  2016年9月13日,谷歌宣布开源大规模语言建模模型库,这项名为“探索RNN极限”的研究今年2月发表时就引发激论,如今姗姗来迟的开源更加引人瞩目。研究测试取得了极好的成绩,另外开源的数据库含有大约10亿英语单词,词汇有80万,大部分是新闻数据。这是典型的产业研究,只有在谷歌这样的大公司才做得出来。这次开源也应该会像作者希望的那样,在机器翻译、语音识别等领域起到推进作用。

  7.谷歌开源TensorFlow图说生成模型,可真正理解图像

  2016年9月23日,谷歌宣布开源图说生成系统Show and Tell最新版在TensorFlow上的模型。该系统采用编码器-解码器神经网络架构,分类准确率达93.9%,在遇到全新的场景时能够生成准确的新图说。谷歌表示,这说明该系统能够真正理解图像。

  8.谷歌开源超大数据库,含800万+视频

  2016年9月28日,谷歌在官方博客上宣布,将含有800万个Youtube视频URL的视频数据库开源,视频总时长达到了50万个小时。一并发布的还有从包含了4800个知识图谱分类数据集中提取的视频级别标签。这一数据库在规模和覆盖的种类上都比现有的视频数据库有显著提升。例如,较为著名的Sports-1M数据库,就只由100万个Youtube视频和500个运动类目。谷歌官方博客上说,在视频的数量和种类上,Youtube-8M代表的是几乎指数级的增长。

  9.谷歌发布Open Images图片数据集,包含900万标注图片

  2016年10月1日,继前天发布800万视频数据集之后,谷歌又发布了图片数据库Open Images,包含了900万标注数据,标签种类超过6000种。谷歌在官方博客中写到,这比只拥有1000个分类的ImageNet更加贴近实际生活。对于想要从零开始训练计算机视觉模型的人来说,这些数据远远足够了。就在12月,谷歌还开源了Open Images并行下载工具的脚本,5天速度最高超过200 M。

  10.DeepMind开源AI核心平台DeepMind Lab(附论文)

  2016年12月5日,DeepMind宣布将其AI核心平台DeepMind Lab开源。DeepMind实验室把全部代码上传至Github,供研究人员和开发者进行实验和研究。DeepMind Lab这一平台将几个不同的AI研究领域整合至一个环境下,方便研究人员测试AI智能体导航、记忆和3D成像等能力。值得一提的是,这些代码也包括AlphaGO的代码,谷歌希望以此增加AI能力的开放性,让更多开发者参与AI研究,观察其他开发者是否能够挑战并打破DeepMind现在的纪录。

  Facebook开源:贯彻理念

  1.Facebook开源围棋引擎DarkForest

  6个月前,Facebook将其围棋引擎DarkForest开源。现在训练代码已经全部发布。Github链接:https://github.com/facebookresearch/darkforestGo。

  2.Facebook开源文本分类工具fastText,不用深度学习也可以又快又准

  2016年8月19日,Facebook AI实验室(FAIR)宣布开源文本分析工具fastText。fastText既可以用于文本分类,又能用于学习词汇向量表征。在文本分类的准确率上与一些常用的深度学习工具不相上下,但是在时间上却快很多——模型训练时间从几天减少到几秒。除了文本分类,fastText也能被用于学习词语的向量表征,Facebook称fastText比常用的Word2vec等最先进的词态表征工具表现都要好得多。

  3.Facebook开源计算机视觉系统deepmask,从像素水平理解图像(附论文及代码)

  2016年8月26日,Facebook宣布开源计算机视觉系统deepmask,称该系统能“从像素水平理解物体”,Facebook希望开源能加速计算机视觉的发展。不过,Facebook并没有在自家产品中使用这些工具,像这样落实到具体应用前就开源,跟通常所说的“开源”有些不同。对此,Facebook人工智能团队FAIR的负责人Yann LeCun 曾表示,正是因为FAIR 做基础的、不受制于公司短期效益的研究,才能真正推进人工智能技术发展。

  4.Facebook 开源AI 训练和测试环境CommAI-env

  2016年9月27日,Facebook 宣布开放AI 训练和测试环境CommAI-env,可以用任何编程语言设置智能体。据介绍,CommAI-env 这个平台用于训练和评估AI 系统,尤其是注重沟通和学习的AI 系统。与用强化学习从玩游戏到下围棋都能做的OpenAI Gym 不同,Facebook 的CommAI-env 侧重基于沟通的训练和测试,这也是为了鼓励开发人员更好地打造能够沟通和学习的人工智能,呼应该公司的十年规划。Facebook 还表示,CommAI-env 会持续更新,并在成熟后举办竞赛推进AI 的开发。

  在AI 测试环境方面,Facebook 还开源了CommNet,这是一个让基于神经网络的代理更好交互、实现合作而研发的模型,与CommAI-env 配套。12月,Facebook 还开源了 TorchCraft,在深度学习环境 Torch 与星际争霸之间搭起了桥梁,方便研究人员使用控制器,编写能够玩星际争霸游戏的智能代理。

  5.Facebook 贾扬清发文介绍 Caffe2go,手机就能运行神经网络

  2016年11月8日,Caffe作者、Facebook 研究员贾扬清在官方网站上发文介绍了新的机器学习框架 Caffe2go,并表示在接下来的几个月将其部分开源。Caffe2go 规模更小,训练速度更快,对计算性能要求较低,在手机上就行运行,已经成为 Facebook 机器学习的核心技术。

  OpenAI

  1.OpenAI 推出代理训练环境 OpenAI Gym

  创立于2015年底的非盈利机构 OpenAI 的成立打破了谷歌、Facebook 等巨头霸占 AI 领域的格局,但其创始人、特斯拉CEO马斯克多次发表人工智能威胁论。马斯克创立 OpenAI 目的何在?2016年5月4日,OpenAI 发布了人工智能研究工具集 OpenAI Gym,用于研发和比较强化学习算法,分析 OpenAI Gym 或可找出马斯克的真正动机。

  2.另一种开源:OpenAI 介绍深度学习基础框架

  2016年8月30日,OpenAI 研究员在博客发文,结合实例介绍了 OpenAI 进行深度学习研究时采用的基础设施配置,并且提供了相关开源代码。文章激起了很多反响,相对于软硬件开源,OpenAI 从另一个侧面,对深度学习模型的实际部署提供了帮助。

  3.OpenAI 重磅发布 AGI 测试训练平台 Universe

  2016年12月4日,在今年 NIPS 大会召开的前一晚,OpenAI 发布了 Universe,用于训练解决通用问题 AI 的基础架构。据悉,这是一个能在几乎所有环境中衡量和训练 AI 通用智能水平的开源平台,目标是让智能体能像人一样使用计算机。目前,Universe 已经有1000种训练环境,由微软、英伟达等公司参与建设。有了 Universe,任何程序都能被接入到 OpenAI Gym 的环境中。很快,OpenAI 还推出了 Mini World of Bits(MiniWoB),这个与 OpenAI Universe 配套的环境基准可以测试代理与常见网页浏览器元素的交互能力,比如按钮、文本框、滑块。

  微软开源:CNTK 升级版

  根据 Github 2016年度的《Octoverse 观察报告》,微软不仅是拥有开源项目最多的公司,也是贡献人数最多的公司。

  在人工智能方面,微软的开源项目有很多,包括 CNTK计算网络工具包、DMTK分布式机器学习工具包,Send2vec语义相似映射器, 以及 CodaLab 研究平台(基于Web的开源平台,旨在通过其在线社区帮助解决数据导向的许多常见问题,从而促进机器学习和高性能计算的研究领域的发展)。

  2016年10月27日,微软开源深度学习认知工具包 CNTK 升级版,其中最瞩目的功能是增加了 Python 绑定,支持增强学习。新版的 CNTK 性能大幅提升,尤其是在多台机器上处理较大数据集的情况下能高速运行,这种类型的大规模部署对于多GPU上的深度学习是不可或缺的,也是开发消费产品和专业产品的必需。

  微软研究人员表示,在多服务器间运行的能力是一大进步。CNTK 升级版还包含了一些算法,用于将大规模数据处理的计算消耗降到最低。

  百度

  1.百度开源深度学习代码 Warp-CTC 详解

  2016年1月15日,百度公布了代码 Warp-CTC,能够让 AI 软件运行得更高效。说 Warp-CTC 知道的人可能还少,百度语音识别系统 Deep Speech 2就是用它搭建的。百度位于硅谷的 AI 实验室主管 Adam Coates 在接受 Re-Work 采访时表示,他们在构建深度语音端对端系统的过程中发明了Warp-CTC 方法,进而使用 CTC 提高模型的可伸缩性。“由于没有相似的工具,我们决定将其分享给人们。它是一款很实用的工具,可以用到现有的AI框架中。现在有很多深度学习的开源软件,但是之前用于训练序列数据的端对端网络一直很慢。我们在Warp-CTC上的投入是对“我们坚信深度学习与高性能计算技术(HPC)的结合会有巨大潜力”的一种证明。”

  2.百度开源分布式深度学习平台,挑战 TensorFlow(附教程)

  2016年8月31日,百度宣布开源深度学习平台 PaddlePaddle。实际上,百度深度学习实验室在几年前就投入 PaddlePaddle 的开发,业内对这个云端托管的分布式深度学习平台赞誉有加:代码简洁、设计干净,没有太多抽象……PaddlePaddle 对于序列输入、稀疏输入和大规模数据的模型训练有着良好的支持,支持GPU运算,支持数据并行和模型并行,仅需少量代码就能训练深度学习模型,大大降低了用户使用深度学习技术的成本。

  3.百度公开硬件基准 DeepBench,推动深度学习专用芯片研发竞争

  2016年9月,百度发表论文,开源 DeepBench 基准测试,AI研究者和芯片制造商可以用它测试不同的芯片运行软件时的性能,尤其是哪款硬件加速深度学习性能最好。目前 DeepBench 只能测试深度学习的训练模型,能提供在三种 Nvidia GPU和一种 Intel Xeon Phi 处理器的基准化测试结果,未来还可能测试用于图像和语音识别之类任务的“推理”模型。百度希望 DeepBench 能促进特定任务深度学习加速器的研发,“GPU显然不是终点,我们希望这能鼓励竞争”。

  GitHub 最受欢迎的深度学习项目

  名称星数简介

  TensorFlow

  29622

  使用数据流图计算可扩展机器学习问题

  Caffe

  11799

  一个高效的开源深度学习框架

  Neural Style

  10148

  由Torch实现的神经网络算法

  Deep Dream

  9042

  一款图像识别工具

  Keras

  7502

  一款由Python实现的深度学习库,包括卷积神经网络、递归神经网络等。运行在Theano和TensorFlow之上

  Roc AlphaGo

  7170

  由学生主导的一个独立项目,重新实现了 DeepMind在2016发表于Nature论文"Mastering the game of Go with deep neural networks and tre


2016AI巨头开源IP盘点 50个最常用的深度学习库

开源ippbx,开源ips,开源ai平台,开源iaas
展开全文

Data Science Central 网站主编、有多年数据科学和商业分析模型从业经验的 Bill Vorhies 曾撰文指出,过去一年人工智能和深度学习最重要的发展不在技术,而是商业模式的转变――所有巨头纷纷将其深度学习 IP 开源。 毋庸置疑,“开源浪潮”是 2016 年人工智能领域不可忽视的一大趋势,而其中最受欢迎的项目则是谷歌的深度学习平台 TensorFlow。下文就从 TensorFlow 说起,盘点 2016 年 AI 开源项目,最后统计了 Github 最常用深度学习开源项目 Top 50。

谷歌开源:围绕 TensorFlow 打造深度学习生态圈

1. Google 第二代深度学习引擎 TensorFlow 开源

2015 年 11 月,谷歌开源深度学习平台 TensorFlow。2016 年 4 月,谷歌推出了分布式 TensorFlow。现在,TensorFlow 已经成为业内最受欢迎的深度学习平台之一。

2. 谷歌开源全球最精准语言解析器 SnytaxNet

2016 年 5 月 13 日,Google Research 宣布,世界准确度最高的自然语言解析器 SyntaxNet 开源。谷歌开源再进一步。据介绍,谷歌在该平台上训练的模型的语言理解准确率超过 90%。SyntaxNet 是一个在 TensoFlow 中运行的开源神经网络框架,提供自然语言理解系统基础。谷歌公开了所有用用户自己的数据训练新 SyntaxNet 模型所需要的代码,以及谷歌已经训练好的,可用于分析英语文本的模型 Paesey McParseface。

Paesey McParseface 建立于强大的机器学习算法,可以学会分析句子的语言结构,能解释特定句子中每一个词的功能。此类模型中,Paesey McParseface 是世界上最精确的,谷歌希望它能帮助对自动提取信息、翻译和其他自然语言理解(NLU)中的应用感兴趣的研究者和开发者。

3. 谷歌推出 Deep&Wide Learning,开源深度学习 API

2016 年 6 月 29 日,谷歌推出 Wide & Deep Learning,并将 TensorFlow API 开源,欢迎开发者使用这款最新的工具。同时开源的还有对 Wide & Deep Learning 的实现,作为 TF.Learn 应用程序接口的一部分,让开发者也能自己训练模型。

4. 谷歌开源 TensorFlow 自动文本摘要生成模型

2016 年 8 月 25 日,谷歌开源了 TensorFlow 中用于文本信息提取并自动生成摘要的模型,尤其擅长长文本处理,这对自动处理海量信息十分有用。自动文本摘要最典型的例子便是新闻报道的标题自动生成,为了做好摘要,机器学习模型需要能够理解文档、提取重要信息,这些任务对于计算机来说都是极具挑战的,特别是在文档长度增加的情况下。

5. 谷歌开源图像分类工具 TF-Slim,定义 TensorFlow 复杂模型

2016 年 8 月 31 日,谷歌宣布开源 TensorFlow 高级软件包 TF-Slim,能使用户快速准确地定义复杂模型,尤其是图像分类任务。自发布以来,TF-Slim 已经得到长足发展,无论是网络层、代价函数,还是评估标准,都增加了很多类型,训练和评估模型也有了很多便利的常规操作手段。这些手段使你在并行读取数据或者在多台机器上部署模型等大规模运行时,不必为细节操心。此外,谷歌研究员还制作了 TF-Slim 图像模型库,为很多广泛使用的图像分类模型提供了定义以及训练脚本,这些都是使用标准的数据库写就的。TF-Slim 及其组成部分都已经在谷歌内部得到广泛的使用,很多升级也都整合进了 tf.contrib.slim。

6. 谷歌开源大规模数据库,10 亿+数据,探索 RNN 极限

2016 年 9 月 13 日,谷歌宣布开源大规模语言建模模型库,这项名为“探索 RNN 极限”的研究今年 2 月发表时就引发激论,如今姗姗来迟的开源更加引人瞩目。研究测试取得了极好的成绩,另外开源的数据库含有大约 10 亿英语单词,词汇有 80 万,大部分是新闻数据。这是典型的产业研究,只有在谷歌这样的大公司才做得出来。这次开源也应该会像作者希望的那样,在机器翻译、语音识别等领域起到推进作用。

7. 谷歌开源 TensorFlow 图说生成模型,可真正理解图像

2016 年 9 月 23 日,谷歌宣布开源图说生成系统 Show and Tell 最新版在 TensorFlow 上的模型。该系统采用编码器-解码器神经网络架构,分类准确率达 93.9%,在遇到全新的场景时能够生成准确的新图说。谷歌表示,这说明该系统能够真正理解图像。

8. 谷歌开源超大数据库,含 800 万+视频

2016 年 9 月 28 日,谷歌在官方博客上宣布,将含有 800 万个 Youtube 视频 URL 的视频数据库开源,视频总时长达到了 50 万个小时。一并发布的还有从包含了 4800 个知识图谱分类数据集中提取的视频级别标签。这一数据库在规模和覆盖的种类上都比现有的视频数据库有显著提升。例如,较为著名的 Sports-1M 数据库,就只由 100 万个 Youtube 视频和 500 个运动类目。谷歌官方博客上说,在视频的数量和种类上,Youtube-8M 代表的是几乎指数级的增长。

9. 谷歌发布 Open Images 图片数据集,包含 900 万标注图片

2016 年 10 月 1 日,继前天发布 800 万视频数据集之后,谷歌又发布了图片数据库 Open Images,包含了 900 万标注数据,标签种类超过 6000 种。谷歌在官方博客中写到,这比只拥有 1000 个分类的 ImageNet 更加贴近实际生活。对于想要从零开始训练计算机视觉模型的人来说,这些数据远远足够了。就在 12 月,谷歌还开源了 Open Images 并行下载工具的脚本,5 天速度最高超过 200 M。

10. DeepMind 开源 AI 核心平台 DeepMind Lab(附论文)

2016 年 12 月 5 日,DeepMind 宣布将其 AI 核心平台 DeepMind Lab 开源。DeepMind 实验室把全部代码上传至 Github,供研究人员和开发者进行实验和研究。DeepMind Lab 这一平台将几个不同的 AI 研究领域整合至一个环境下,方便研究人员测试 AI 智能体导航、记忆和 3D 成像等能力。值得一提的是,这些代码也包括 AlphaGO 的代码,谷歌希望以此增加 AI 能力的开放性,让更多开发者参与 AI 研究,观察其他开发者是否能够挑战并打破 DeepMind 现在的纪录。

Facebook 开源:贯彻理念

1. Facebook 开源围棋引擎 DarkForest

6 个月前,Facebook 将其围棋引擎 DarkForest 开源。现在训练代码已经全部发布。Github 链接:。

2. Facebook 开源文本分类工具 fastText,不用深度学习也可以又快又准

2016 年 8 月 19 日,Facebook AI 实验室(FAIR)宣布开源文本分析工具 fastText。fastText 既可以用于文本分类,又能用于学习词汇向量表征。在文本分类的准确率上与一些常用的深度学习工具不相上下,但是在时间上却快很多――模型训练时间从几天减少到几秒。除了文本分类,fastText 也能被用于学习词语的向量表征,Facebook 称 fastText 比常用的 Word2vec 等最先进的词态表征工具表现都要好得多。

3. Facebook 开源计算机视觉系统 deepmask,从像素水平理解图像(附论文及代码)

2016 年 8 月 26 日,Facebook 宣布开源计算机视觉系统 deepmask,称该系统能“从像素水平理解物体”,Facebook 希望开源能加速计算机视觉的发展。不过,Facebook 并没有在自家产品中使用这些工具,像这样落实到具体应用前就开源,跟通常所说的“开源”有些不同。对此,Facebook 人工智能团队 FAIR 的负责人 Yann LeCun 曾表示,正是因为 FAIR 做基础的、不受制于公司短期效益的研究,才能真正推进人工智能技术发展。

4. Facebook 开源 AI 训练和测试环境 CommAI-env

2016 年 9 月 27 日,Facebook 宣布开放 AI 训练和测试环境 CommAI-env,可以用任何编程语言设置智能体。据介绍,CommAI-env 这个平台用于训练和评估 AI 系统,尤其是注重沟通和学习的 AI 系统。与用强化学习从玩游戏到下围棋都能做的 OpenAI Gym 不同,Facebook 的 CommAI-env 侧重基于沟通的训练和测试,这也是为了鼓励开发人员更好地打造能够沟通和学习的人工智能,呼应该公司的十年规划。Facebook 还表示,CommAI-env 会持续更新,并在成熟后举办竞赛推进 AI 的开发。

在 AI 测试环境方面,Facebook 还开源了 CommNet,这是一个让基于神经网络的代理更好交互、实现合作而研发的模型,与 CommAI-env 配套。12 月,Facebook 还开源了 TorchCraft,在深度学习环境 Torch 与星际争霸之间搭起了桥梁,方便研究人员使用控制器,编写能够玩星际争霸游戏的智能代理。

5. Facebook 贾扬清发文介绍 Caffe2go,手机就能运行神经网络

2016 年 11 月 8 日,Caffe 作者、Facebook 研究员贾扬清在官方网站上发文介绍了新的机器学习框架 Caffe2go,并表示在接下来的几个月将其部分开源。Caffe2go 规模更小,训练速度更快,对计算性能要求较低,在手机上就行运行,已经成为 Facebook 机器学习的核心技术。

OpenAI

1. OpenAI 推出代理训练环境 OpenAI Gym

创立于 2015 年底的非盈利机构 OpenAI 的成立打破了谷歌、Facebook 等巨头霸占 AI 领域的格局,但其创始人、特斯拉 CEO 马斯克多次发表人工智能威胁论。马斯克创立 OpenAI 目的何在?2016 年 5 月 4 日,OpenAI 发布了人工智能研究工具集 OpenAI Gym,用于研发和比较强化学习算法,分析 OpenAI Gym 或可找出马斯克的真正动机。

2. 另一种开源:OpenAI 介绍深度学习基础框架

2016 年 8 月 30 日,OpenAI 研究员在博客发文,结合实例介绍了 OpenAI 进行深度学习研究时采用的基础设施配置,并且提供了相关开源代码。文章激起了很多反响,相对于软硬件开源,OpenAI 从另一个侧面,对深度学习模型的实际部署提供了帮助。

3. OpenAI 重磅发布 AGI 测试训练平台 Universe

2016 年 12 月 4 日,在今年 NIPS 大会召开的前一晚,OpenAI 发布了 Universe,用于训练解决通用问题 AI 的基础架构。据悉,这是一个能在几乎所有环境中衡量和训练 AI 通用智能水平的开源平台,目标是让智能体能像人一样使用计算机。目前,Universe 已经有 1000 种训练环境,由微软、英伟达等公司参与建设。有了 Universe,任何程序都能被接入到 OpenAI Gym 的环境中。很快,OpenAI 还推出了 Mini World of Bits(MiniWoB),这个与 OpenAI Universe 配套的环境基准可以测试代理与常见网页浏览器元素的交互能力,比如按钮、文本框、滑块。

微软开源:CNTK 升级版

根据 Github 2016 年度的《Octoverse 观察报告》,微软不仅是拥有开源项目最多的公司,也是贡献人数最多的公司。

在人工智能方面,微软的开源项目有很多,包括 CNTK 计算网络工具包、DMTK 分布式机器学习工具包,Send2vec 语义相似映射器, 以及 CodaLab 研究平台(基于 Web 的开源平台,旨在通过其在线社区帮助解决数据导向的许多常见问题,从而促进机器学习和高性能计算的研究领域的发展)。

2016 年 10 月 27 日,微软开源深度学习认知工具包 CNTK 升级版,其中最瞩目的功能是增加了 Python 绑定,支持增强学习。新版的 CNTK 性能大幅提升,尤其是在多台机器上处理较大数据集的情况下能高速运行,这种类型的大规模部署对于多 GPU 上的深度学习是不可或缺的,也是开发消费产品和专业产品的必需。

微软研究人员表示,在多服务器间运行的能力是一大进步。CNTK 升级版还包含了一些算法,用于将大规模数据处理的计算消耗降到最低。

百度

1. 百度开源深度学习代码 Warp-CTC 详解

2016 年 1 月 15 日,百度公布了代码 Warp-CTC,能够让 AI 软件运行得更高效。说 Warp-CTC 知道的人可能还少,百度语音识别系统 Deep Speech 2 就是用它搭建的。百度位于硅谷的 AI 实验室主管 Adam Coates 在接受 Re-Work 采访时表示,他们在构建深度语音端对端系统的过程中发明了 Warp-CTC 方法,进而使用 CTC 提高模型的可伸缩性。“由于没有相似的工具,我们决定将其分享给人们。它是一款很实用的工具,可以用到现有的 AI 框架中。现在有很多深度学习的开源软件,但是之前用于训练序列数据的端对端网络一直很慢。我们在 Warp-CTC 上的投入是对“我们坚信深度学习与高性能计算技术(HPC)的结合会有巨大潜力”的一种证明。”

2. 百度开源分布式深度学习平台,挑战 TensorFlow(附教程)

2016 年 8 月 31 日,百度宣布开源深度学习平台 PaddlePaddle。实际上,百度深度学习实验室在几年前就投入 PaddlePaddle 的开发,业内对这个云端托管的分布式深度学习平台赞誉有加:代码简洁、设计干净,没有太多抽象……PaddlePaddle 对于序列输入、稀疏输入和大规模数据的模型训练有着良好的支持,支持 GPU 运算,支持数据并行和模型并行,仅需少量代码就能训练深度学习模型,大大降低了用户使用深度学习技术的成本。

3. 百度公开硬件基准 DeepBench,推动深度学习专用芯片研发竞争

2016 年 9 月,百度发表论文,开源 DeepBench 基准测试,AI 研究者和芯片制造商可以用它测试不同的芯片运行软件时的性能,尤其是哪款硬件加速深度学习性能最好。目前 DeepBench 只能测试深度学习的训练模型,能提供在三种 Nvidia GPU 和一种 Intel Xeon Phi 处理器的基准化测试结果,未来还可能测试用于图像和语音识别之类任务的“推理”模型。百度希望 DeepBench 能促进特定任务深度学习加速器的研发,“GPU 显然不是终点,我们希望这能鼓励竞争”。

GitHub 最受欢迎的深度学习项目

名称 星数 简介
TensorF

阿里巴巴就业季 阿里巴巴就业形势怎么样2022年

阿里巴巴就业工资待遇,阿里巴巴就业条件,阿里巴巴就业岗位,阿里巴巴就业信息收集
ICT动态
・北京
打开网易新闻 查看精彩图片
今日头条

1、阿里旗下电商平台Daraz宣布裁员11%

南亚电商平台Daraz公司CEO Bjarke Mikkelsen 2月6日在一封致员工公开信中宣布,公司将裁员11%以适应未来几年较低的增长前景。小财注:阿里巴巴于2018年从Rocket Internet收购了Daraz。(财联社)

2、甲骨文将投资15亿美元扩大云计算设施

甲骨文公司表示,计划投资15亿美元,在沙特阿拉伯扩大云计算基础设施。新的云区将设在利雅得,并加入甲骨文在吉达运营的另一个云区。甲骨文还同意扩大设在吉达的云区能力。计划中的第三个云区将位于Neom新城,这是沙特规划的一个大型开发项目。甲骨文表示,已经与沙特通信和信息技术部签署了一份谅解备忘录,以帮助当地企业使用最新的云产品。(界面新闻)

3、ChatGPT商标遭密集抢注

据报道,近期,聊天机器人模型ChatGPT引发关注。它能够真正像人类一样聊天交流,甚至能完成撰写邮件、作业、论文等。企查查APP显示,“CHATGPT”已被多方抢注商标,申请人包括深圳、合肥、广州、四川等地的科技、贸易公司及多名自然人,国际分类涉及广告销售、科学仪器、设计研究等,当前商标状态均为注册申请中。

4、马斯克谈ChatGPT火爆:马斯克曾称ChatGPT好得吓人,我们离危险不远了

近日,ChatGPT火爆全网。此前马斯克也曾在推特发文表示:ChatGPT好得吓人,我们离强大到危险的人工智能不远了。(TechWeb)

5、任天堂:4月起将全体员工基本工资统一上调10%

打开网易新闻 查看精彩图片

共同社2月7日报道,日本任天堂7日透露,将从4月起把全体员工的基本工资统一上调10%。新入职员工工资也上调约10%,另外还有定期加薪。任天堂截至2022年9月底共有2765名员工。合同工、返聘工和临时工也同样加薪10%。(界面)

6、暴雪因性骚扰被美国政府罚2.3亿元

2月6日下午消息,美国证券交易委员会(SEC)近日宣布,视频游戏开发商动视暴雪同意支付3500万美元(约2.3亿元)罚款,以解决对该公司未能维持工作场所不当行为投诉有关的披露程序,以及违反举报人保护规则的指控。(界面新闻)

7、微信文章底部新增淘宝入口

近日淘宝在微信中又多了一个新的流量入口,就在微信文章底部的广告位,点击该位置的淘宝页面之后,可直接从微信跳转到淘宝内完成购买,且能返回淘宝首页浏览更多商品。

据见实报道,这个新入口是在2022年年底开放的,不过这个入口并非淘宝专属,在公号号底部的广告位中,大部分推荐链路仍以微信生态内的商家或腾讯投资体系内的平台为主,比如京东商城、拼多多、美团,以及微信内的各类小程序等等,淘宝页面被推荐的次数较少且品类单一。目前微信中的淘宝广告入口还有朋友圈广告、微信聊天外链等多个入口。(电商报)

8、OpenAI跻身全球TOP50网站,1月访问量比去年11月增长了3572%

OpenAI的知名度在今年1月初还仅限于科技圈内,但伴随着ChatGPT的全球火爆,OpenAI进入公众视野。OpenAI自推出ChatGPT预览版之后,网站访问量快速攀升,目前已跻身全球TOP50网站。

OpenAI网站在去年11月的全月访问量为1830万,主要访问人群是技术社区。而在今年1月份,该网站的访问量突破了6.72亿,增长了3572%。这一激增也意味着OpenAI的网站访问量超越了AOL、Zoom和AT&T等巨头。根据SimilarWeb分析,该数字还意味着该公司现在在计算机电子和技术类别中排名第一。(IT之家)

9、Twitter 计划对企业客户每月收取 1000 美元品牌认证费

2 月 6 日,据华尔街日报报道,Twitter 计划向企业用户收取每月 1000 美元的品牌认证费,授予其金色验证标记,类似微博的「黄 V」。

Twitter 现在有多种颜色的用户认证标记,灰色、蓝色以及金色。以前 Twitter 身份验证是无需付费的,但在马斯克收购之后该公司开始对过去免费的功能收费,包括即将生效的 API 访问收费。拒绝支付一千美元月费的企业用户将取消金色标记。(solidot)

10、又有新Bug?部分iOS16.3无法同步iCloud

部分iCloud用户反馈,在升级到iOS 16.3新版本之后,iCloud Drive和Photos等应用无法进行同步,提示“发生意外错误,请稍后再试”。国外科技媒体AppleInsider初步认为是缺乏双重验证所导致的。(新浪科技)

11、2023开工就业报告:互联网、半导体供需两旺,酒店/民宿行业投递人数多

随着2023年春节假期的结束,多数企业开工,求职者涌向就业市场。作为疫情管控放开后的第一个新春开工期,各行各业进入紧张有序而繁忙的春招。基于此,猎聘大数据研究院推出《一年之机在于春:2023新春开工就业报告》。

打开网易新闻 查看精彩图片

报告就开工一周各行业的人才需求情况进行统计。从2023年春节后开工一周的新发职位占比来看,互联网、电子/半导体/集成电路位居前两名,分别为7.40%、6.19%;计算机软件、机械设备均以5.05%的占比并列第三。

打开网易新闻 查看精彩图片

在开工第一周,投递互联网、房地产开发经营、电子/半导体/集成电路的人才最多,占比为8.45%、8.42%、4.90%。而人才需求最多的行业也是互联网、电子/半导体/集成电路、计算机软件,可见互联网、半导体行业处于供需两旺的状态。

值得注意的是,疫情管控放开后,旅游业、餐饮报复性反弹,酒店/民宿行业终于迎来了自己的春天。开工一周收到投递人数增长最快的行业中,酒店/民宿位居第一,位列其后的行业分别是矿产开采、新能源、物业/商业管理、新零售。(界面新闻)

12、今年上海将新建5G基站1万个,5G网络流量占比超60%

上海市通信管理局积极牵头上海电信、上海移动、上海联通、上海铁塔、东方有线及相关企业,会同本市相关部门持续开展优化营商环境工作,推出《上海市信息通信行业加强集成创新持续优化营商环境二十条》。“信息通信行业20条”提出,上海将深化双千兆城市建设,实现2023年全市新建成5G基站1万个,5G网络流量占比超过60%,5G基站密度保持全国第一;至2023年底,建成全光商务楼宇超过2000栋,采用全光组网的企事业单位超过1000家,新建工厂和改造场景100%使用千兆工业光网;力争至2023年底,本市教育、医疗和文旅行业5G应用渗透率超过30%,大型工业企业5G应用渗透率超过35%,为5G融合应用助力千行百业数字化转型打造成熟产业生态。(澎湃新闻)

亲们,希望各位关注下ICT动态公众号,每天呈现新事物和信息,谢谢

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。

关于本站

Copyright © 2023 欢迎来到我的小站 备案号:粤ICP备2020117555号 |淘宝互助 |隋唐演义 | 名诗名词 | 淘宝优惠

联系我们

合作或咨询可通过如下方式:

QQ:

邮箱:

关注我们

淘优惠