淘优惠

淘优惠

造谣、作假、开黄腔,ChatGPT是什么时候开始学坏的?|AI|AI工具

热门文章 0
造谣和开玩笑的区别,造谣造得开心吗,造谣说谎,造谣必被抓
  毫无疑问,AI已经取代了VR、加密货币、区块链、元宇宙和NFT,在2023年2月就提前锁定了互联网的年度热词。而在一系列AI工具中,拥有真正对话能力的ChatPT自然也成为了这场关于AI狂欢的主角。从搜索引擎到语言模型、从新闻媒体到社交平台,我们几乎可以在互联网的任何一个角落看到ChatGPT的具体应用:有的自媒体用AI工具优化写作,有的品牌利用AI工具充当“智能客服”甚至是假冒人工客服,有的企业更是直接使用AI工具生成游戏人物的背景资料或是对白。  但很显然,并不是所有人在拿到如此强大的AI工具时都会想着如何提高生产力。比如在2月16日,一则利用ChatGPT杭州市政府通告的新闻稿就被推上了热搜。  2023年2月16日,杭州某小区一位业主就将利用ChatGPT仿写的“市政府新闻稿”分享到了业主群中。该新闻稿模仿了杭州市政府的语言习惯,宣布“杭州即将取消限行”。尽管该业主称自己是在开玩笑,且在网传的聊天记录中该业主“直播”了利用ChatGPT生成该消息的全过程,以表明该消息为伪造的新闻稿。但依旧有业主将演示视频中的内容信以为真,在脱离了上下文的情况下转发至该微信群外,并引起了互联网的“轩然大波”。图片来源:知乎  由于事件影响范围较大,当地警方迅速澄清相关“新闻稿”系伪造,且对事件展开调查,相关调查结果还需要后续处理。  不过话又说回来,尽管当事人并无恶意,但此次事件依旧暴露出了AI时代的“黑暗面”,当事人“没有恶意”就已经闹出了这么大麻烦,要是ChatGPT这样的工具落入不怀好意的不法分子手中,那我们该怎么办。  要是有人想用AI工具害我呢?  欢迎来到AI技术的“黑暗面”  虽然刚刚的说法有些危言耸听,以ChatGPT为例,就小雷这段时间的体验来说,ChatGPT网站稳定性还不足以支撑电信诈骗。但就像“技术无罪”背后的潜台词一样,一切工具都有自己的两面性,石器时代的“锋利石头”是这个道理,互联网时代的AI工具同样是这个道理。  以刚刚介绍到的AI语言模型ChatGPT为例,利用ChatGPT“作恶”最简单的方式自然是用它来模仿他人的语言习惯,以在互联网上冒充他人。目前,AI可以使用深度学习等技术,通过学习某个人的大量语言数据,生成与该人语言风格相似的文字。这种技术被称为文本生成或语言模仿。图片来源:Veer  举个例子,OpenAI曾经开发了一个名为“GPT-3”的模型,它可以模仿几乎任何人的语言风格,只需输入一些该人的文字或样本即可。该模型已经应用于各种领域,如自动回复电子邮件、自动生成新闻报道等。  而利用语言训练模型模仿他人语言习惯,这只是利用AI“作恶”的开始。借助AI语音模型,我们可以从一段音频中提取出具有某个人音色特点的声音素材,再联合语言训练模型合成出具有某人音色,用词习惯的音频文件。再配合上AI换脸的视频,用AI“伪造一个人”从未如此简单。  为什么AI谣言传播如此迅速?  话题回到刚刚提到过的“AI谣言”上,此次ChatGPT“替市政府取消限行”之所以会有如此高的传播效率,这也和这则谣言本身的特点有关。一般来说,谣言传播具有快速、煽动、匿名、非正式这四个特征:  “快速”很好理解,因为人们更容易相信、传播和分享那些能够引起共鸣、好奇心或恐惧感的信息。“煽动”的特点虽然没有在此次“新闻稿”中直接体现,但取消限行行为本身就具有“怂恿”他人违反规定的特性。“匿名”也是同样的道理,借助AI工具,谣言的制造者可以有效隐藏自己的身份。而“非正式渠道传播”的特点也让这些在社交媒体中流行的谣言无法通过有效的官方渠道验证。  在过去的谣言中,“快速”“煽动”“非正式”这三个要素非常好满足,但由于谣言的产生难免会暴露制造者自己的语言习惯,因此过去能广泛传播的谣言通常都秉承着“字数越少越好”的特点,毕竟字数越少,谣言制造者自身就越不容易暴露自己的语言习惯,让谣言看起来“更加真实”,同时也更容易传播。图片来源:Veer  而ChatGPT这类AI写作工具改变了谣言的生产模式:  制造者不再需要费尽心思为自己维持一个“匿名人士”的身份,可以直接通过语言模型模仿他人的写作习惯,直接冒充他人制造、传播谣言。此外,AI工具的出现让制造者只需要提供谣言的主题或相关信息,然后让AI生成相应的谣言内容。这将大幅降低制造谣言的门槛,也一定会导致带来更多的网络谣言。  那么该如何应对未来由AI制造的谣言呢?解铃还需系铃人,我们也可以用AI反制谣言。  鉴别AI还得靠AI  尽管AI可以通过训练来模拟真实人类的写作,并学习、模仿这些样本的语言特征和风格,但归根结底,AI的写作方式始终与人类不同。比如一些AI工具生成的文本可能会具有一些特征,如语法、用词和表达方式的错误或不连贯性。这种现象对我们人类来说可能不容易察觉,但对于AI来说,想要分辨一段文字是否由AI生成,这并不是不可能的事情。  首先,AI可以使用统计语言模型来分析一段文字的概率分布。由于AI语言模型是通过大量的文本数据训练出来的,因此它们能够识别常见的语言结构和模式。如果一段文字的概率分布与常见的人类写作样本不匹配,那么AI就可能判断这段文字是由AI生成的。  其次,AI可以通过对一段文字的内容进行分析来判断它是否由AI生成。例如,AI可以识别一些常见的话题、主题和表达方式,并尝试确定这段文字是否符合人类的写作风格和语言特征。AI还可以利用网络熵分析一段文字的制造、传播方式。如果这段文字具有异常的传播路径、速度或者与其他谣言存在相似的传播轨迹,那么AI就有可能分辨出这段文字是由AI生成的。图片来源:Veer  只不过受技术限制,用AI识别AI的成功率还有有待提升。以刚刚提到的统计模型和内容分析为例,训练一个这样的AI需要大量有AI生成的文本,而由AI生成的文本只会让AI进一步提高自己的写作水平,让AI写作更难分辨。  而针对来自AI的谣言,我们除了提高自己的知识水平、判断和求证能力之外,还需要从法律和社会层面入手。AI开发者和使用者应当承担起相应的法律和道德责任,加强对AI技术的监管和管理,防范恶意使用AI语言工具生成谣言的行为;而政府、学界、媒体和社会组织也应该加强合作,共同打击谣言,促进信息公正和公开,引导社会积极的舆论环境。  当然了,这一切也离不开你我共同的努力。AI说到底只不过是一种工具,如何利用还得看我们自己。“警惕智械危机”,从你我做起,从不用ChatGPT制造谣言做起。 特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

阿里达摩院ocr 阿里达摩院的app有哪些

阿里达摩院ocr,阿里达摩院offer 什么水平,阿里达摩院ocr和科大讯飞ocr,阿里达摩院招聘
原标题:阿里内测达摩院版ChatGPT,提前曝光! 点 ,一起程序员弯道超车之路 萧箫 发自 凹非寺 量子位 | 公众号 QbitAI 谷歌硬刚ChatGPT消息一出,科技圈全坐不住了。 就在昨晚,阿里百度网易京东一众公司全宣布要推出类ChatGPT新产品,战况那叫一个激烈。 阿里内测中的达摩院版ChatGPT,也被提前曝光。 竟然连画画技能都具备了?! ChatGPT类型的对话功能,同样不在话下。先来个NBA话题铺垫: 当被问到“乔丹和科比谁更伟大”时,开始暴露篮球迷身份,连“毋庸置疑”、“奉为神迹”这种话都出来了: 还是个乔丹死忠粉,能对你老婆的观点提出异议(手动狗头) 看起来这个达摩院版ChatGPT,不仅有纯文本任务能力,还融合了多模态任务能力。 这究竟采用了什么样的技术?阿里这次内测中的类ChatGPT产品,能力如何? 基于通义融合升级 据透露,新产品可实现的功能包括知识问答、AI绘画、代码生成、小说续写、文案撰写、写诗作词等。 一言以蔽之,不仅ChatGPT具备的能力它都能实现,而且多了“AI绘画”这项功能。 能取得这样的多任务、跨模态效果,背后本质上离不开阿里通义大模型的能力。 新达摩院版ChatGPT,正是基于通义大模型体系进行融合升级。 据报道,推出的通义大模型底座基于统一学习范式OFA等底层技术打造,具备了能搞定多种任务的“大一统”能力: 不引入新增结构,单一模型即可同时处理图像描述、视觉定位、文生图、视觉蕴含、文档摘要等10余项单模态和跨模态任务。 升级后,更是可以处理超过包括语音和动作在内的30多种跨模态任务。 这里“大一统”技术的关键,在于提出并实现了三个“统一”: 架构统一。使用Transformer(encoder-decoder,编解码器)架构,统一进行预训练和微调,无需在应对不同任务时,增加任何特定的模型层。 模态统一。不管是NLP、CV这种单模态,还是图文等多模态任务,全都采用同一个框架和训练思路。 任务统一。将所有单模态、多模态任务统一表达成序列到序列(Seq2seq)生成的形式,同类任务的输入几乎就是“一个模子里刻出来的”。 目前推出的通义大模型,在电商跨模态搜索、AI辅助设计、法律文书学习、医疗文本理解、开放域人机对话等200多个场景中应用落地时,均能达到2%~10%的效果提升。 从阿里的研发来看,他们实际上于2020年左右已经开始布局此类技术研究。 2021年推出“中文版GPT-3”PLUG,参数量270亿,但跟GPT-3一样是“万能写作神器”。 例如这是小说续写的效果: 去年,阿里AliceMind模型更是在CLUE榜单的AI中文语言理解任务上得分首超人类,获得了86.685高分。 CLUE榜单会从文本分类、阅读理解、自然语言推理等9项任务中全面考核AI模型的语言理解能力,但参评AI模型一直未能超越人类成绩,AliceMind则一举在4项任务中超过了人类水平。 国内厂商纷纷追逐ChatGPT 所以,此次推出类ChatGPT产品,阿里究竟是怎么想的? 其实阿里通义大模型体系中,有不少模型都已经在魔搭社区开源。 魔搭社区由阿里达摩院与CCF开源发展委员会共同发起,目前社区内有300+模型上线,其中包括10多个大模型和150+ SOTA模型,其中三分之一都支持中文。 但据知情人士透露,阿里长期以来的目标依旧没变: 打造中文ChatGPT的生态,这个定义对于阿里来说可能窄了一点。相比之下,阿里更希望能引领中文大模型的发展趋势。 不止阿里,包括百度、网易、京东等各科技大厂也都已经坐不住了。 百度正在对类ChatGPT产品“文心一言”进行内部测试,官方宣布测试完成时间在3月左右,但是否会因为这波热度提前还不好说。 网易也剧透,未来网易有道可能会推出ChatGPT同源技术产品,主要在在线教育一块实现应用。 京东集团副总裁何晓冬则表示,京东是加速AIGC和ChatGPT规模化落地的最佳场景,未来借助这一系列成果,将加速AI在国内的应用落地。 这波国内外厂商的ChatGPT热潮,很快就要起来了。 ↑ 关于我的近况 目前在 SaaS 创业中,如果你想成为技术高管或技术转创业,那必不可少的要懂商业、营销、产品等等。 阅读我 SaaS 创业的原创公号分享返回搜狐,查看更多 责任编辑:

陈根:疯狂的网站ChatGPT,是真的吗?

疯狂根源百度百科,疯狂的真爱陈储,疯狂的根源
文/陈根务必警惕借ChatGPT名义而引发的诈骗事件。由于ChatGPT概念的火爆,在一夜之间各种网站版、小程序、手机版的类ChatGPT产品,或者打着所谓的中文版ChatGPT、ChatGPT机器人之类的应用,可以说都是虚假的ChatGPT产品。原因在于ChatGPT的禁用名单中明确将中国列为其中,那么就不可能会在中国推出相应的产品,而我们目前真正国产的类ChatGPT只有百度明确在3月份发布测试。而这类打着ChatGPT旗号的各种中文应用,对于用户而言存在着极大的个人隐私信息泄露的风险。其中不乏打着ChatGPT名义而干着信息钓鱼的事情。当用户使用了这类产品之后,注册与使用过程中的各种权限的授权,会导致基于手机或者电脑的各种隐私数据泄露。而这些个人隐私数据的泄露,会给个人的安全造成极大的风险。尤其是一些应用在收集到了个人隐私数据之后,会将这些数据通过数据黑市进行兜售,出售给一些电信诈骗机构。因此大家务必要谨慎对待中文领域的类ChatGPT应用。特别声明:本文为“海报号”作者上传并发布,仅代表该作者个人观点。海报新闻仅提供信息发布平台。