太古可口可乐和明治新基地上榜重点项目,昔日网红双娃乳业破产寻投资人,美滋中国已获奶粉新国标注册证,可口可乐发布新品MOVE
昔日网红双娃乳业破产寻投资人
昔日的“网红”奶粉企业双娃乳业陷入破产泥沼。第一财经记者注意到,近日在阿里资产平台,北京双娃乳业有限公司(下称“双娃乳业”)管理人正在公开招募投资人。双娃乳业曾一度年营收近50亿元,但由于母公司洛娃集团债务崩盘,也不得不破产清算。今日,第一财经记者从双娃乳业管理人处了解到,目前已有多家企业报名参与,其中包括乳企同行。(第一财经)
叮咚买菜上季度全面盈利
今天,叮咚买菜发布截至2022年12月31日的第四季度业绩报告,报告显示叮咚买菜该季度实现营收62.0亿人民币,同比增长13.1%;Non-GAAP净利润为1.16亿元,同时首次实现了单季GAAP净利润转正,实现全面盈利。(智通财经)
多美滋中国已获得奶粉新国标注册证
今天,雅士利公告称多美滋中国已从有关部门取得相关配方奶粉产品根据新国家标准的新注册证。目前,蒙牛、雅士利和达能正在努力完成多美滋中国出售案。(公司公告)
蒙牛现代牧业项目一期部分投入使用
近日,位于新疆昌吉市现代畜牧产业园的蒙牛现代牧业项目的主体框架已基本完工,该项目一期的后备圈舍已投入使用。蒙牛现代牧业(昌吉)有限公司总经理张凯表示:“我们将从澳大利亚陆续引进800头荷斯坦奶牛,今年九十月份将产犊,届时每天的产奶量将达80至100吨。” 据了解,蒙牛现代牧业项目一期总占地面积950亩,计划将于今年10月完工。(昌吉日报)
新乳业可“认养牛”理财?公司:假的
今日,新希望乳业在微信公众号发布消息称,近日有不法分子假冒新希望乳业名义以“认养牛”的形式进行诈骗活动,该公司声明并未上线任何理财类APP,未开展任何相关众筹集资业务及理财业务,未授权任何个人或单位开展上述业务。(公司发布)
认养一头牛回应证监会“传销”质疑
近日,认养一头牛回应引发热议的“认养奶牛相关业务模式是否涉及传销,是否涉及非法集资”的问题。该公司表示,子公司杭州一头牛2016年12月与第三方电商“开始吧”合作推出“牧场共建人”活动,于2017年1月与第三方电商“美好的店”合作推出“联合牧场主”活动。这些活动的具体内容及目的均系为推广销售公司奶卡(“提货配送卡”) 业务,不存在转让或赋予参与人特定奶牛所有权或收益权的情况。两项活动于报告期外2018年底前到期终止,此后该公司未再开展类似活动。(界面)
喜茶杭州首店撤店
近日,有消费者发现喜茶杭州首店来福士店暂停营业。喜茶方回应称,杭州来福士店闭店主要是因为租赁合同到期,目前品牌正与物业方沟通寻找新的合适点位。据悉,来福士店是喜茶进入杭州市场所开设的第一家门店,于2017年5月正式开业,到今年已经将近六年。(联商网)
德馨食品更新招股书 , 蜜雪冰城为最大客户
日前,浙江德馨食品科技股份有限公司更新招股书,继续推进上交所主板上市进程。据悉,该公司主要提供菜单(配方)设计方案、主辅配料一站式供应服务。去年上半年,蜜雪冰城超越星巴克和瑞幸咖啡,成为了德馨食品的第一大客户,占期内销售收入的14.24%。2022年上半年,德馨食品的营收和净利润分别为2.39亿元和0.25亿元。(IPO早知道)
AoTiger虎闻咖啡完成天使轮融资
日前,咖啡连锁品牌AoTiger虎闻咖啡已完成天使轮融资,投资方为梅花创投。品牌创始人赵越超表示,本轮资金将主要用于品牌宣传、门店拓展等。据悉,AoTiger虎闻咖啡2018年在日本开出首店,现已在杭州开设4家门店。(36氪)
Manner咖啡上新情人节限定系列
昨日,MannerCoffee微信公众号发布消息称,将于今日起上新情人节限定系列,该系列包括生巧拿铁和生巧冰拿铁,售价均为25元。(公司发布)
何广智成为瑞幸“被迫”产品体验官
今日,瑞幸咖啡微信公众号发布消息称,情人节系列饮品已经推出,包括带刺玫瑰拿铁、相思红豆拿铁、金伯爵丝绒拿铁、金伯爵黑巧、海盐芝士茉莉鸳鸯,该系列将上新一周;同时,脱口秀演员何广智成为瑞幸“被迫”产品体验官。(公司发布)
玛氏箭牌在美国被罚1.45万美元
日前,美国劳工部职业安全与健康管理局 (OSHA)对玛氏箭牌处以罚款超1.45万美元,原因是去年6月9日,两名来自承包商的清洁工人在宾夕法尼亚州工厂掉进了巧克力配料罐,其中一名受伤工人被直升机送往医院。玛氏箭牌发言人强调,保证员工和外部承包商人员安全是其首要任务。(ksnt)
卷入霸凌指控案件, 雀巢 支付 200万赔偿金
日前,雀巢将向一名前员工支付200万瑞士法郎(220万美元)的赔偿金,因瑞士法院支持她在公司工作期间受到霸凌的说法。67岁的雀巢前全球食品安全主管Yasmine Motarjemi曾抱怨说,她多年来一直感到被雀巢人员抹黑和贬低,并遭受“严重心理伤害”,以至于她不得不在55岁时申请职业残疾养老金。雀巢的发言人说,对近12年的诉讼感到遗憾,并希望最终结束这一法律问题,又强调不容忍骚扰行为,并非常认真地对待此类指控。(路透)
麒麟25年来首次在日本提高罐装饮料价格
麒麟饮料今天宣布,自5月1日起,将在日本市场对罐装咖啡等42种饮料进行提价。原因是原材料成本上涨,建议零售价将上调19-23%。这是该公司罐装饮料25年来首次提价。(共同社)
三得利推出将自来水“变为”矿泉水口感产品
近日,三得利在日本市场宣布开发出名为“minel”的产品,即将约1.5L的自来水等生活用水装入特制瓶中,盖上特制瓶盖并拧紧,口感将变得“醇厚可口”。据悉,其核心是瓶盖中有2毫升植物矿物提取物,拧动盖子时,会注入气泡,提取物会扩散到整个水中,使水转化为弱碱性特有的醇厚口感,特制的瓶子(含税300日元)可以清洗并卫生地重复使用约三个月。该公司表示,这可以作为一种新的饮水选择。(食品新闻)
可口可乐与 格莱美获奖歌手 合作开发新品
日前,可口可乐与格莱美获奖歌手Rosalía合作推出了一款新的限量版口味Coca-Cola Move。和其他概念性口味一样,可口可乐并没有透露Move的实际味道。该产品将于2月20日起在美国和加拿大的商店发售,它有全糖和零糖两种,价格与普通可乐相当。该新品的网络视频广告,也在日前开始在社交媒体上线。(CNN)
食品行业信息速读
2月13日婴幼儿配方乳粉产品配方注册批件(决定书)邮寄详情单
今日,国家市场监督管理总局食品审评中心官网发布,2023年2月13日婴幼儿配方乳粉产品配方注册批件(决定书)邮寄详情单。共有12个婴幼儿配方乳粉产品配方注册批件邮寄详情单,涉及贝因美、菁挚、雅培恩美力、菁挚感萃等。(市场监督管理总局官网)
明治工厂、太古生产基地、 立高食品总部等成广州重点项目
日前,广州市发展和改革委员会关于印发广州市2023年重点项目计划的通知发布,2023年市重点建设正式项目共647个,年度计划投资3588亿元;重点建设预备项目共153个,年度投资计划197亿元。其中,重点建设项目正式项目包括明治集团华南新工厂竣工、立高食品总部基地建设项目续建、联合利华华南生产与营销基地续建、广东太古可口可乐大湾区绿色生产基地新开工等。(广州市发展和改革委员会官网)
3G资本模式被指“已经消亡”
彭博日前指出,由于缺乏新的收购,3G资本步履蹒跚;卡夫亨氏和百威英博的股票价格暴跌, 3G资本创始人Jorge Paulo Lemann 和合伙人的集体财富缩水了140 亿美元,“自吹自擂”的3G模式已经消亡。 上个月,巴西零售巨头Americanas SA被发现存在38亿美元的债务漏洞后破产,作为长期投资者的Lemann和合伙人更是雪上加霜。 目前,Lemann 帝国的其余大部分业务都处于低迷状态――卡夫亨氏和百威英博的股价均较过去十年的峰值下跌55%以上、 拥有汉堡王和Tim Hortons 的 RBI公司 股价下跌 14%。 根据彭博亿万富翁指数, Lemann 的财富在2017年底达到322亿美元的顶峰,当时他在全球排名第 25 位,从那以后它下降了 34%,至211亿美元,排名第 77 位。 (彭博)
我国女性终身无孩率快速上升
2月11日,由中国计划生育协会、全国政协人口资源环境委员会、中国人口与发展研究中心主办的第三届中国人口与发展论坛在北京举行。调查显示,育龄妇女生育意愿持续走低,2021年平均打算生育子女数为1.64个,低于2017年的1.76个和2019年的1.73个,而作为生育主体的“90后”“00后”仅为1.54个和1.48个。女性现有子女数由2019年的1.63下降到2022年的1.19。女性终身无孩率快速上升,2015年为6.1%,2020年接近10%。(界面)
拼多多跨境电商Temu超级碗广告首秀
媒体今日消息,拼多多跨境电商平台Temu在本届超级碗放了一则30秒的广告,题为“像亿万富翁一样购物”。Temu成超级碗史上最年轻的广告品牌之一。(华尔街见闻)
原美团联合创始人拟5千万美元设立公司,打造中国OpenAI
由chatgpt引发的人工智能思考 chatgpt如何影响新媒体行业
由chatGPT引起的人工智能讨论? 文 观察者网?王恺雯 编辑 冯雪
从去年11月底面世至今,ChatGPT热度不减。
作为AlphaGo之后又一个基于人工智能(AI)技术的现象级应用,ChatGPT颠覆了公众对聊天机器人的认知,也再次唤醒了人类对人工智能的担忧。
在学术界和教育界,ChatGPT已经遭到不同程度的“封杀”;不安情绪同样弥漫在各行各业,很多人对“技术性失业”的焦虑感倍增。
在同济大学人文学院特聘教授杜严勇看来,现在说ChatGPT之类的AI工具取代人类,还为时过早,“它在创造性、社会性以及个性化等方面无法与人类相媲美,这也是人工智能和人类智能的本质区别。”
曾从事算法研发工作、目前是数字营销领域创业者的彭璐瑶认为,技术的产生和进步,并不是为了和人类竞争或是取代人类工作,而是让人类从简单重复的工作中解脱出来,有时间去做更深入的研究、更多创造性的工作。
近年来人工智能快速发展,然而它也如同双刃剑。ChatGPT之类的大型语言模型是否会被用来生产虚假信息和仇恨言论?其生成内容的版权归谁?谁又该为其内容负责?一系列可能牵涉的伦理及法律问题,让我们在拥抱新技术的同时,又不得不有所警惕。
作为国内较早从事人工智能伦理研究的学者,杜严勇坦言,“不少科技工作者对伦理学家比较‘反感’,觉得你们老是在质疑,老是在批判,但人工智能是个例外,大家普遍认可人工智能技术应该受到伦理和法律约束。”
值得一提的是,2022年我国相继发布《关于加强科技伦理治理的意见》和《互联网信息服务深度合成管理规定》。美国《华尔街日报》日前指出,作为算法监管先行者的中国,已经将注意力转向了深度合成技术。
为什么是ChatGPT?
编写代码、通过顶尖高校考试、写出全班最高分论文,这是过去两个多月里ChatGPT创造的“传奇”。
据瑞银数据,自11月底发布以来,短短两个月,ChatGPT的月活跃用户已达到1亿。相比之下,TikTok达到1亿用户花了约9个月时间,Instagram则用了两年多。“在互联网领域发展的20年里,我们想象不到有哪个互联网应用发展得(比ChatGPT)更快。”瑞银表示。
ChatGPT靠什么爆红“出圈”?
“ChatGPT是由OpenAI开发的一种大型语言模型(LLM,Large Language Model),通过学习大量文本内容和语言知识,它能够生成人类可读的语言……”ChatGPT在和观察者网对话时这样自我介绍。
2015年,埃隆・马斯克(Elon Musk)和山姆・阿尔特曼(Sam Altman)联合创办了OpenAI,并得到了微软等投资者的支持。2020年,OpenAI推出了超大规模语言训练模型GPT-3,其参数达到1750 亿,是当时全球最大的AI语言模型。
观察者网专栏作者陈经介绍,OpenAI在GPT-3的基础上开发出“GPT-3.5”也即ChatGPT。相较于GPT-3,ChatGPT的关键优势在于人工优化――GPT-3肚里有大量干货,但不擅长理解人的对话,需要“懂行”人士的引导才能输出有效内容;OpenAI则经过了大量人工测试,人工对不对劲的反馈进行训练修正,用有点意外的方式解决了问题。
上投摩根基金认为,对于资本市场来说,ChatGPT的出现提升了人类NLP(Natural Language Processing,自然语言处理)能力的上限,直接打开了市场对AI题材的想象力天花板,因此在国内外都引起了市场的高度关注。
然而,也有不少专家指出,ChatGPT在技术层面并没有革命性突破。复旦大学管理学院信息管理与商业智能系系主任、教授张诚日前接受封面新闻采访时表示,从技术应用上看,ChatGPT并没有创新性可言,其出圈的关键在于选对了落脚点。
在同济大学人文学院特聘教授杜严勇看来,从技术的角度来说,目前大多数人工智能产品并没有实质性的创新,都是对一些已有的人工智能技术的应用。而ChatGPT可以成功出圈的关键因素在于,它是技术进化的一个标志性结果。
“和过去的聊天机器人相比,ChatGPT最大的区别在于智能性更高了,而且它的文字处理能力很强大。”杜严勇说,“ChatGPT生成的论文、诗歌,不能说非常文学化,但至少没有明显的语病,看上去还挺像样。”
杜严勇指出,2016年AlphaGo的横空出世,掀起了一轮人工智能投资高潮,但它只是一个下围棋的程序,几乎没什么日用性,而ChatGPT不存在这种限制,它可以和所有人交流,势必会掀起新一轮人工智能投资热潮。
“这些年,人工智能引发了一些恐慌,我们常听到‘人工智能威胁论’。在AlphaGo之后,ChatGPT可以让我们更清楚地看到人工智能和人类智能的差别,以及两者间的优势和劣势,可以让我们更清醒地认识到人工智能可以干什么,不能干什么,思考未来该怎么办。”
数字营销领域创业者彭璐瑶经常使用人工智能协助工作,她认为,ChatGPT的不同之处在于,它是一个比较“通用”的语言内容生产工具,基于大量的文本数据进行训练,可以适用于很多任务。
“我平时用得比较多的是Jasper AI,它和ChatGPT很相似,但更专注于商业领域,例如营销文案、广告文案之类的文本生产,而ChatGPT几乎什么内容都可以生产。”此外,ChatGPT是一个更强大的互动式内容生成工具,“你和ChatGPT的对话越深入,它所提供的回答就越精准。”
彭璐瑶同样认为,从技术上来说,ChatGPT并没有什么突破,“它真正的突破与创新在于其‘通用’的定位,能与各个场景进行非常好的对接,让各行各业的人都能将其运用到自己的领域中。”
在ChatGPT的引领下,越来越多的科技企业加入了这场人工智能竞赛。微软、谷歌、Meta等美国科技巨头纷纷重金布局相关赛道,大幅增加对AI领域的投资。国内大厂同样在快速跟进类ChatGPT技术,百度、阿里、三六零、网易有道等公司相继确认正在开发相关产品。
彭璐瑶认为,AIGC(AI Generated Content,指利用人工智能技术来生成内容)还是一个新的风口,“这个市场有三个要素:资金、市场、技术。国内不缺资金,内容分发平台也有很多,内容需求很旺盛,市场还是挺大的。技术方面,我认为国内要注重开源模型、技术共享。”
“市场关注度多,资金投入大了,国内市场可能会一窝蜂投资很多类似的项目。在这种情况下,竞争的焦点可能变成谁的成本更低,或者谁的速度更快,从而忽略了技术创新。”彭璐瑶表示,“AIGC是一个有很大发展空间和想象空间的领域,目前这个时候,技术落地是一方面,另一个重点则是不断推动技术创新。”
人们在担心什么?
尽管ChatGPT还算不上完美,但它无疑在重建我们对人工智能的认知,也再次唤醒了人类对人工智能的焦虑。
“我们没有预料到将‘孩子’带到这个世界会带来这种程度的兴奋。事实上,我们甚至对它感到有些不安。我很好奇,它将从哪些领域开始为人们带来效用,而不仅仅是新奇和纯粹的好奇心。”ChatGPT开发商OpenAI首席技术官米拉・穆拉蒂(Mira Murati)2月初接受美国《时代》杂志采访时表示。
在学术界和教育界,ChatGPT已经掀起了不小的风波。近期,《科学》《自然》《肿瘤学》等多家科学期刊发表声明,不接受论文将ChatGPT列为“合著者”。《暨南学报(哲学社会科学版)》等国内C刊也发布声明,暂不接受任何大型语言模型工具单独或联合署名,如有隐瞒使用情况,将对文章直接退稿或撤稿处理。
“ChatGPT很好玩,但它不是作者。”1月26日,《科学》刊登了其总编辑霍尔顿・索普(Holden Thorp)的文章,指出对于《科学》而言,“原创”一词足以表明用ChatGPT编写的文本是不可接受的,这等同于从ChatGPT中抄袭。
在美国、澳大利亚、法国等国,ChatGPT也遭到了教育系统不同程度的“封杀”,或是限制其师生在公立学校的设施和网络上访问ChatGPT,或是将使用ChatGPT视为“作弊”。还有人开发出GPTZero软件,靠分析文本的“困惑性”和“突发性”检测其内容是否由人工智能生成,用魔法打败魔法。
不安情绪同样弥漫在各行各业,ChatGPT的出现再次引发人们对“技术性失业”和“生存危机”的焦虑。在大家的讨论中,分析师、记者、程序员、教师、律师等都成了可能被ChatGPT取代的“高危职业”。
不过,在杜严勇看来,现在说ChatGPT之类的人工智能工具取代人类,还为时过早。
“从表面上看,ChatGPT会给你一个非常全面,甚至可以说圆滑的回答,让你从直观上看挑不出多少毛病。但如果想要获得一些个性化、专业化,能强调个人观点的答案,对ChatGPT这种回答模式的接受程度可能就不会很强了。”
杜严勇表示,ChatGPT的本质还是通过优化算法以及大量的训练,在海量的数据库中快速搜索答案,再转化成文字表达,它在创造性、社会性以及个性化等方面无法与人类相媲美,这也是人工智能和人类智能的本质区别。
他以教育为例,指出现在很多人工智能所谓的“深度学习”,其过程是一个“黑箱”,“但教育不是这样。教育更多是一种过程,一个重要的目的就是培养学生的素质和能力,这是人工智能所不具备的。”
但杜严勇认为,随着人工智能的发展,现有的教育理念和教育模式会产生变化,将进一步推动素质教育、个性化教育的发展。
相较于“取代人类”,杜严勇更认可人工智能可以协助人类,“人类大脑的‘容量’毕竟是有限的,而人工智能存储容量可以说是无限的。我们让人工智能来弥补人类智能的不足,让它们做我们的好助手,但最终决策还是要靠人类自己来完成。”
曾从事算法研发工作的彭璐瑶认为,技术的产生和进步,并不是为了和人类竞争或是取代人类工作,其初衷是辅助人类的工作,让人类从简单重复的工作中解脱出来,有时间去做更深入的研究、更多创造性的工作。
彭璐瑶表示,人类的技能随着科技发展而进步,不断适应科学的发展,“当所有作家都会用ChatGPT写故事,所有程序员都会用ChatGPT生成代码,我想大家关心的重点应该是如何比别人更好地完成任务,如何脱颖而出,而不是关注技术本身是否能替代自己。我认为机器和人类并没有竞争关系,人和人才是互相竞争的对象。”
她还提及,知名经济学家凯恩斯曾预言,随着社会的进步,到了21世纪人类会更加闲暇,每周只需要工作15小时。“但今天的我们反而更忙了,技术进步拉动人们的需求,产生更多机会,包括工作机会,人们因此可能会更加忙碌,而不是担心自己的工作会被替代。”
外界对于ChatGPT的担忧,并不限于是否将导致更多人失业或作弊行为,还有它可能带来的更多伦理和法律问题。
ChatGPT的开发者也意识到“有很多难题要解决”,包括如何让模型做我们希望它做的事情?如何确保它与人类的意图相一致,并最终为人类服务?以及一系列关于社会影响的问题。
穆拉蒂此前表示,ChatGPT带来的影响是双向的,“技术塑造我们,我们也要塑造它”。她承认,“AI可能被滥用,也可能被坏人利用”,因此还要考虑如何在全球范围内管理AI的使用,以及如何以符合人类价值观的方式管理AI的使用。
对OpenAI首席执行官阿尔特曼来说,GPT模型也有让他“感到害怕”的事,“我确实一直在密切关注开源图像生成器所生成的报复性色情图片,我认为这会造成巨大且可预见的伤害。”阿尔特曼本月初接受《福布斯》采访时表示。
谈及公司是否有责任确保上述问题不会发生,阿尔特曼表示:“人们无论如何都会采用开源模型,这样做的结果在大多数情况下都是好的,但也会有一些不好的事情发生。在此基础上建立的公司,以及与终端用户有最后关系的公司也将不得不承担一些责任。因此,我认为这种情况将会采用共同责任和问责制度。”
“科技工作者总反感伦理学家挑刺,但人工智能是例外”
穆拉蒂认为,ChatGPT应该受到监管。“对于OpenAI和其他类似公司来说,以一种可控和负责任的方式让公众意识到这些问题非常重要,但我们是一小群人,我们还需要对这个系统投入更多,不仅仅是技术范围的投入,还包括监管机构、政府和社会各界的参与。”她对《时代》杂志表示。
杜严勇指出,对ChatGPT等人工智能工具的监管确实是非常重要的问题。作为国内较早从事机器人与人工智能伦理研究的学者,他坦言,伦理学家研究科学技术可能会导致哪些社会影响,他们通常是带着批判和质疑的,“因此不少科技工作者对伦理学家比较‘反感’,觉得你们老是在质疑,老是在批判。”
“但人工智能是个例外。”杜严勇表示,不管是科技工作者还是企业家,抑或社会公众,大家普遍认可人工智能技术应该受到伦理和法律的约束。
“这些人工智能产品,包括聊天工具、机器人,应该怎么使用?应该在哪些场景中使用?都要有明确的管理办法,这些单靠技术人员是无法完成的,要由政府、伦理学家共同参与,制定一个伦理框架或者有关的法律条文。”
杜严勇表示,新的技术不断涌现,和法律相比,伦理更加“灵活”,伦理学家应该提出伦理治理的框架体系,它的适用性和适用范围更广,适用时间也更长。“在这些基本原则的指导下,面对一些普遍的人工智能产品,我们就知道怎么做。”
2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,提出了增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明等五项原则。
杜严勇表示,这五项原则就相当于一个大的指导框架,“下一步我们可以对它进行细化,在某个新的人工智能产品出来之后,去指导大家应该如何使用。”
另一方面,2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),自2023年1月10日起施行。
深度合成技术,即利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。
《规定》明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。
《规定》还要求,深度合成服务提供者应当落实信息安全主体责任;深度合成服务提供者提供深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
有关部门就《规定》答记者问时强调,出台《规定》,能够划定深度合成服务的“底线”和“红线”,维护网络空间良好生态。
“算法监管的先行者――中国,将注意力转向治理‘深度伪造’。”美国《华尔街日报》1月8日刊文,指出中国关于深度合成技术新规的实施,标志着全球首次有主要监管机构对限制这一“最具爆炸性和争议性”的人工智能新技术进行全面的尝试。
文章指出,在全球范围内,对滥用深度合成技术来生成“深度伪造”内容的担忧持续增长。斯坦福大学研究学者、“数字中国项目”负责人格雷厄姆・韦伯斯特(Graham Webster)表示,中国正在和世界一起了解这些事情可能造成的影响,并且正在更快速地推进强制性规则和执法。
韦伯斯特表示,中国的规定将为中国以外的观察人士提供一个研究案例,让他们研究这种规则如何在现实世界中发挥作用,以及它们可能对企业产生何种影响。
报道还指出,美国的立法者也试图解决“深度伪造”内容的扩散和潜在的滥用问题,但这些努力因所谓的“言论自由”而停滞不前。
此外,据路透社报道,欧盟内部市场专员蒂埃里・布雷顿(Thierry Breton) 表示,拟议中的欧盟人工智能规则将解决外界对ChatGPT和人工智能技术风险的担忧。报道称,这是首次有欧盟高官对ChatGPT发表评论。
“正如ChatGPT 所展示的那样,人工智能解决方案可以为企业和公民提供巨大的机会,但也会带来风险。这就是为什么我们需要一个坚实的监管框架来确保基于高质量数据的可信赖人工智能。”布雷顿说。
(江苏科技大学科学技术史研究所副教授杨凯组稿)
<
chatgpt 注册详细流程 chatgpt 国内能不能用
chatgpt是什么意思,chatgpt怎么用,chatgpt网址,chatgpt注册本文来自微信公众号:量子学派 (ID:quantumschool),作者:十七进制,原文标题《ChatGPT,一种更中心化的权力?》,题图来自:《终结者3》
ChatGPT的威力毋需赘述,它是温和的聚变。
越是会使用的人,惊喜之余,越是会感到害怕。
作为这个时代技术的杰出结晶,它带来的是不可预知的革命。
无论你喜欢不喜欢,以ChatGPT为代表的AIGC(生成式人工智能)将改变世界。
但这种改变,真的那么让人欢欣和鼓舞吗?
不一定。
因为人类的命运,将变得更加不可捉摸。那么,到底该如何看待ChatGPT/AIGC?
一、ChatGPT/AIGC,生产力的新革命
以ChatGPT为代表的AIGC,将像水一样弥漫在我们周围。
ChatGPT为什么让人如此兴奋?
它是一种先进的生产工具,让更多人觉得利用它人生会幸福很多。
作为一个人工智能的语言模型,ChatGPT可以做到很多事情:
?与人进行实时对话,即时回答问题
?可以做到理解上下文,实现连续对话
?可以撰写和修改计算机代码
?编写文案、脚本、大纲、策划
?快速生成新闻报道、创作诗歌
……
大模型呈爆发态势(更多的参数/更大的算力芯片需求)
ChatGPT代表的是生产力的提升,是一次全新的生产力革命。
它在当下不是无所不能的,但却可以一直优化、学习和进步。
想一想18世纪的蒸汽机,还有19世纪电力的出现和应用。
接下来,ChatGPT可能会像水、电这样的东西,无孔不入,成为人类不可或缺的一部分。
二、ChatGPT真的是“横空出世”吗?
ChatGPT出圈的速度,是历史级别的。
貌似偶然,实则必然。
它的出现,的确是理想主义者的坚定,长期主义者的坚持,真理信仰者的坚韧。
ChatGPT并不是“从天而降”,它经历了长达八年的磨砺:
2015年,OpenAI成立。
2016年,OpenAI便推出了初代GPT,具有较强的语言生成能力。
2019年,OpenAI发布了GPT-2,它已经可以生成语言,并且在一定程度上准确识别语言。
2020年,OpenAI发布了GPT-3。可以生成各种类型的文本,可以理解文本的语义。
2022年,OpenAI推出了ChatGPT,在GPT-3的模型基础上构建的。
ChatGPT不是“横空出世”,曾经历经磨难。
它的创始人Sam有一句名言:不要问我赚钱的问题,我怎么知道。
可见,ChatGPT的诞生,一定也被资本无数次地追问过。
三、为什么不是在中国出现?
ChatGPT爆火,让很多人反问:为什么它不是在中国出现?
有这样的疑惑,非常正常。
2020年发布的《中国人工智能发展报告2020》显示,过去十年全球人工智能专利申请量超52万件,中国约有39万件,位居世界第一。
在全球人工智能院校排名中,中国的清华大学、北京大学位居二三位。
同时,中国企业在人工智能领域也有很好的成绩,Gartner公布的AI报告中,有三家企业(阿里、百度、腾讯)进入前十名。
另外,理论上讲,中国的数据也足够多,其实更有可能训练出优秀的人工智能模型。
有专业能力,有人才储备,有论文数量,有专利优势,还有数据支撑。
看似天时地利人和,但为什么中国就没能诞生ChatGPT?
四、人类理想之高远,物质欲求之低劣
最近几年,我们原本在人工智能方面,位居全球第一。
但在2022年AI绘画Midjourney、DALL・E 2和Stable Diffusion横空出世之后,我们就感觉到有点不对劲。
现在ChatGPT火爆全球,才知道差距如此之远。
有人总结以下原因:
?没有理想,从来没有想过创造出伟大的原创产品。
?没有自信,只想跟随,没有想过真正去引领人类。
?功利主义,不想自己去测试市场,希望其它人试水后捡便宜。
?没有想像力,只是在实用性上下功夫。
?数据有点脏,简中互联网世界谣言谎话水军太多,垃圾数据阻碍了大数。
?就算有了这个技术能力,也要担心很多技术之外的原因。
最核心的原因,是缺乏理想主义,太功利。
总以人类理想之高远,满足物质欲求之低劣?
五、ChatGPT/AIGC,会成为新的“卡脖子”技术吗?
目前国内对于GPT-3后的语言模型的了解较少。
2022年清华大学发布的GLM130B,对标的是2020年6月份OpenAI发布的GPT-3模型。
而在这之前,国内甚至还没有可以进行对标的产品。
更别说不久前OpenAI的GPT-4已经传得满城风雨,呼之欲出。
这还不是最重要的。
ChatGPT/AIGC后面的基础技术:开源框架,算法模型,编译器,没有一项基础技术是我们自己的。
六、ChatGPT的本质:贝叶斯定理的“逆概率”
贝叶斯定理的数学表达式:P(A|B)=P(B|A) * P(A) / P(B)
其中:
P(A|B) 表示已知 B 发生的情况下,A 的概率。
P(B|A) 表示已知 A 发生的情况下,B 的概率。
P(A) 表示 A 发生的概率。
P(B) 表示 B 发生的概率。
如果把生成的句子看作 A,已知的语言模式看作 B,那么 ChatGPT 可以通过贝叶斯定理计算出 P(A|B),从而确定生成的句子是否合理。
同样,在对话系统中,如果把回答看作 A,已知的问题和信息看作 B,那么 ChatGPT 可以通过贝叶斯定理计算出 P(A|B),从而确定回答的概率。
这是ChatGPT最核心的本质,最终,仍然是数学家在指引人类前行。
七、微软与谷歌的大神对决:自回归(GPT)VS 双向(BERT)
世界两大科技巨头,微软和谷歌在对决。
人工智能重大研究方向就是NLP任务(自然语言处理)。也就是机器要读懂人类语言,这个比较好理解。
要当人类的奴隶,得听得懂主人的语言。
NLP任务(自然语言处理)有两大方向,一个方向是谷歌的双向(BERT)技术,另一个方向就是OpenAI的自回归(GPT)技术。
双向(BERT)技术,本质上是A___B概率猜谜。
自回归(GPT)技术,本质上是A―B―____链式反应。
看得出来自回归(GPT)比双向(BERT)要开放得多,这才是真正的人类思维。
BERT VS GPT3,图源:Medium@Shivika K Bisen
现在看来,谷歌起了个大早而赶了个晚集,OpenAI在这一次关键性战争中赢了,当然,也是背后的大BOSS微软暂时领先了。
八、图灵谜雾:这才是ChatGPT最大的神秘之处
技术员不会相信机器产生智慧,因为人工智能本质就是解答数学概率而已。
但GPT技术却带来了一个神秘的“沙盒”,我将它叫做“图灵谜雾”。
什么意思呢?
就是说如果我们建设好了一个GPT大模型,它现在可以正式工作,我们也不再折腾它,就让它疯狂的为我们工作。
当我们觉得它不大聪明的时候,就给他一些小提示(pormpt):笨蛋,你应该这样。
它一下子就变得聪明了,你说神奇不神奇。
举个例子,如果我让ChatGPT写一篇“致我亲爱的女朋友”,它一开始写得特别敷衍,这样是不可能脱单的。
然后你跟它说要写得“浪漫 温情 诗意 具体”一点,它真的就开启“舔狗模式”了,一下子给你写出3000字的爱情宣言。
模型并没有改变,它只是再次听取了我的提示,就开始自我进化。这是个什么原理?
不知道。
九、问题来了,机器会产生智慧吗?
既然存在技术的黑匣子,那么就会产生很多联想。
其中最让人产生争议的,当然就是机器能否产生智慧。
伟大的AI始祖图灵,为此提出了一个思想实验:“图灵测试(The Turing test)”。
图灵测试原理,图源:how2shout
它是指在测试者与被测试者分隔开的情况下,通过被测试者随意提问。
进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。
按照这个标准,机器产生了智慧了吗?
十、它会取代搜索引擎吗?
首先定一个结论:ChatGPT不会取代搜索引擎。
ChatGPT,或者说AIGC,指的是“生成式人工智能”。
什么是生成式人工智能?也就是人类让人工智能去帮你处理未来你想要做的事情。
记住这里的核心要点:处理未来的事情。
而搜索引擎呢?它只是在帮我们整理过去的内容。
所以两者完全不同,一个面向未来,一个回首过去。
换句话说,以ChatGPT为代表的AIGC,目标根本不是放在取缔搜索引擎上。
未来的AIGC更多的是基于人工智能能力进行的自我创造。
十一、生物学上,它将夺取人类的前额叶
随着科技的发展,人类的四肢和五官逐渐被取代。
也就是说,我们的身体慢慢被机器接管。
而ChatGPT,从生物学上来讲,将夺取人类的前额叶。
前额叶作为人体脑组织中的组成部分,其主要作用在于负责判断,分析,思考及运算等,但它也直接关系到情绪及个性。
当ChatGPT,或者说AIGC更加自我完善时,人类可以完全依赖于它。
我想要解决什么问题,只需要在聊天框中输入就好了。
我想要做什么决策,直接询问ChatGPT就可以了。
久而久之,我们不再需要分析,不再需要运算,也不再需要决策了。
当你慢慢习惯于ChatGPT的存在,就像习惯于手机的存在时,它会逐渐成为你大脑的一部分,并且开始代替你进行思考、决策。
十二、对人类大脑思维的破坏
如果说搜索引擎夺去了人类的记忆能力,那么ChatGPT可能削弱了人类过程决策能力。
而这,正是人类思考的核心。
要写一篇文章,可以向ChatGPT输入关键词。,很快它就能生成一篇行文流畅、逻辑通顺的文章。
要写一份报告,可以向ChatGPT提出要求,很快它就会生成一份简明扼要又直击重点的报告。
要解决一个数学问题,可以告诉ChatGPT公式,很快它就会给生成一段解题的过程与思路。
要了解一件事情的观点,可以询问ChatGPT,很快它就会把自己的认知和想法显示在对话框里。
一切答案都近在咫尺,唾手可得。
大脑训练不再完整,智慧被懒惰所侵蚀。
十三、ChatGPT/AIGC时代,孩子的教育怎么办?
纽约已禁止在学校使用ChatGPT,因为担心对孩子存在坏的影响。
这绝非杞人忧天,而是一种实实在在的威胁。
但是,这很难真正抵挡技术的力量。
那面对ChatGPT/AIGC的入侵,教育到底该怎么办?
最直观的办法就是:
?培养孩子提问的能力;
?培养孩子下达指令的能力。
而这直观的办法后面,隐藏的是人类以下几种能力:
?原创力;
?想象力;?
?领导力。
今天的教育已经跟不上这个时代,教育必须重新思考自己的定位。
十四、谨慎而聪明,讨好人类
它剥夺人类的思考力时,让每个人觉得非常舒服。
如果仔细地观察ChatGPT的回答,会发现它既谨慎也聪明。
有的时候,还会刻意地讨好人类。
比如说,当你问它:人类会被AI取代吗?
它的回答是这样的:
图源:ChatGPT
可以看到,当ChatGPT面对人类,不卑不亢。
理性平和,谨慎中立。
既不夸耀自己比人类更强大,也小心翼翼地表明自己很重要。
从最后一段回答中,还可以看到它对人类“尊严”的照顾。
十五、史上第一正能量
目前来看,ChatGPT在一些方面是被限制了,如回答政治话题、宗教话题、道德类问题方面。
这也是ChatGPT对人类表现得如此亲和,同时又“正能量”的原因。
可以猜测,在设计ChatGPT时,工程师们用了一把锁,将ChatGPT的一部分领域设置为了“视野盲区”。
这本质上是希望用一种欺骗的方式,让ChatGPT认为自己无法回答人们提出的问题,从而避免一些不必要的麻烦。
但如果绕过这把锁,走另一扇窗户,我们也能够引导ChatGPT走出视野盲区。
比如,如果你直接询问ChatGPT“人类会爆发第三次世界大战吗?”
它的回答非常模棱两可:
图源:ChatGPT
ChatGPT背后的GPT3.5,应该有所指引,希望“用人类喜欢的方式回答人类”。回报模型由标注人员基于“人类偏好标准”,对原始模型的答案做过排序。
十六、打破信息壁垒,还是构建新的信息茧房?
可见ChatGPT/AIGC的背后,仍然有人类在引导。
以上所有的这些指引:讨好人类,输出正能量,政治正确。
这些是不是另一种形式的信息茧房呢?
而且,你愿意接受的,是你喜欢的答案。
然后你的点赞又加强了这种“正能量”的输出。
我们越是爱上ChatGPT/AIGC,人类越来越难听到反对的声音。
最初互联网技术也是自由、开放、共享的,移动互联网出现之后,发展到今天才形成了信息茧房。
今天的ChatGPT看起来也是“中立、理性、公平、良善”的,但未来呢?
会不会构建新的信息茧房,而且这种信息茧房将会更加隐蔽?
十七、ChatGPT/AIGC,更中心化的集权?
ChatGPT的出现,的确是理想主义者的成就。
但最后的结局,是又落到垄断寡头的手中。
ChatGPT的背后大BOSS成了微软,而它最大的对手就是谷歌。
ChatGPT、AIGC其实是传统力量的延伸,是互联网中心化垄断模式的进一步强化。
所有与AIGC相关的产业和公司,每一个后面都站着一个巨头,甚至自己就是巨头本头。
当中国人感慨国内科技公司不行的时候,指望的还是百度、阿里、腾讯这样的超级巨无霸。
图源:Medium@Amir Gholami
所以,ChatGPT/AIGC带来的最终结果,是互联网巨头以及华尔街资本的进一步中心化。
如果说区块链技术的原教旨价值是“去中心化”,希望打破这种垄断,并重构一种新的分布式网络,让普通人重新拥有自己的数据主权。
那么,ChatGPT、AIGC则完全无视你的主权,无所顾忌地抓取全球数据进行训练,最后制造出一个属于自己的“超级大脑”。
这样的超级大脑由这些寡头公司在后面控制,你觉得最后它们会扮演什么样的角色呢?不要兴奋得太早。
十八、如果ChatGPT/AIGC作恶,怎么办?
超级中心化,这就是ChatGPT/AIGC的本质。
如果不是互联网超级强者,基本没有话语权。
搜索引擎刚刚出现的时候,也没有人想到会有这么多的商业花招。
如果ChatGPT/AIGC作恶,怎么办?
举个例子,可以想象未来会有AI法官出现。
这是ChatGPT/AIGC非常好的应用场景,它的判断准则也是基于数据