2023年2月25日星期六

网信办公布《个人信息出境标准合同办法》

2月24日,国家互联网信息办公室公布《个人信息出境标准合同办法》(以下简称《办法》),自2023年6月1日起施行。国家互联网信息办公室有关负责人表示,出台《办法》旨在落实《个人信息保护法》的规定,保护个人信息权益,规范个人信息出境活动。

《办法》规定,个人信息处理者通过与境外接收方订立标准合同的方式向中华人民共和国境外提供个人信息适用本办法。明确通过订立标准合同的方式开展个人信息出境活动,应当坚持自主缔约与备案管理相结合、保护权益与防范风险相结合,保障个人信息跨境安全、自由流动。个人信息处理者通过订立标准合同的方式向境外提供个人信息应当同时符合下列情形:非关键信息基础设施运营者、处理个人信息不满100万人的、自上年1月1日起累计向境外提供个人信息不满10万人的、自上年1月1日起累计向境外提供敏感个人信息不满1万人的。法律、行政法规或者国家网信部门另有规定的,从其规定。要求个人信息处理者不得采取数量拆分等手段,将依法应当通过出境安全评估的个人信息通过订立标准合同的方式向境外提供。

以下为办法全文:

个人信息出境标准合同办法

第一条 为了保护个人信息权益,规范个人信息出境活动,根据《中华人民共和国个人信息保护法》等法律法规,制定本办法。

第二条 个人信息处理者通过与境外接收方订立个人信息出境标准合同(以下简称标准合同)的方式向中华人民共和国境外提供个人信息,适用本办法。

第三条 通过订立标准合同的方式开展个人信息出境活动,应当坚持自主缔约与备案管理相结合、保护权益与防范风险相结合,保障个人信息跨境安全、自由流动。

第四条 个人信息处理者通过订立标准合同的方式向境外提供个人信息的,应当同时符合下列情形:

(一)非关键信息基础设施运营者;

(二)处理个人信息不满100万人的;

(三)自上年1月1日起累计向境外提供个人信息不满10万人的;

(四)自上年1月1日起累计向境外提供敏感个人信息不满1万人的。

法律、行政法规或者国家网信部门另有规定的,从其规定。

个人信息处理者不得采取数量拆分等手段,将依法应当通过出境安全评估的个人信息通过订立标准合同的方式向境外提供。

第五条 个人信息处理者向境外提供个人信息前,应当开展个人信息保护影响评估,重点评估以下内容:

(一)个人信息处理者和境外接收方处理个人信息的目的、范围、方式等的合法性、正当性、必要性;

(二)出境个人信息的规模、范围、种类、敏感程度,个人信息出境可能对个人信息权益带来的风险;

(三)境外接收方承诺承担的义务,以及履行义务的管理和技术措施、能力等能否保障出境个人信息的安全;

(四)个人信息出境后遭到篡改、破坏、泄露、丢失、非法利用等的风险,个人信息权益维护的渠道是否通畅等;

(五)境外接收方所在国家或者地区的个人信息保护政策和法规对标准合同履行的影响;

(六)其他可能影响个人信息出境安全的事项。

第六条 标准合同应当严格按照本办法附件订立。国家网信部门可以根据实际情况对附件进行调整。

个人信息处理者可以与境外接收方约定其他条款,但不得与标准合同相冲突。

标准合同生效后方可开展个人信息出境活动。

第七条 个人信息处理者应当在标准合同生效之日起10个工作日内向所在地省级网信部门备案。备案应当提交以下材料:

(一)标准合同;

(二)个人信息保护影响评估报告。

个人信息处理者应当对所备案材料的真实性负责。

第八条 在标准合同有效期内出现下列情形之一的,个人信息处理者应当重新开展个人信息保护影响评估,补充或者重新订立标准合同,并履行相应备案手续:

(一)向境外提供个人信息的目的、范围、种类、敏感程度、方式、保存地点或者境外接收方处理个人信息的用途、方式发生变化,或者延长个人信息境外保存期限的;

(二)境外接收方所在国家或者地区的个人信息保护政策和法规发生变化等可能影响个人信息权益的;

(三)可能影响个人信息权益的其他情形。

第九条 网信部门及其工作人员对在履行职责中知悉的个人隐私、个人信息、商业秘密、保密商务信息等应当依法予以保密,不得泄露或者非法向他人提供、非法使用。

第十条 任何组织和个人发现个人信息处理者违反本办法向境外提供个人信息的,可以向省级以上网信部门举报。

第十一条 省级以上网信部门发现个人信息出境活动存在较大风险或者发生个人信息安全事件的,可以依法对个人信息处理者进行约谈。个人信息处理者应当按照要求整改,消除隐患。

第十二条 违反本办法规定的,依据《中华人民共和国个人信息保护法》等法律法规处理;构成犯罪的,依法追究刑事责任。

第十三条 本办法自2023年6月1日起施行。本办法施行前已经开展的个人信息出境活动,不符合本办法规定的,应当自本办法施行之日起6个月内完成整改。

2023年2月24日星期五

摩根大通限制员工使用ChatGPT

由于对敏感数据暴露越来越感到紧张,华尔街开始限制员工使用ChatGPT。据媒体最新报道,摩根大通已限制其员工使用ChatGPT聊天机器人。此前拥有70多万员工的科技咨询公司埃森哲也警告员工不要将客户信息暴露给ChatGPT等聊天工具。

近几个月来,ChatGPT成为了一种互联网现象级焦点,从莎士比亚风格的诗歌创作到创建股票投资组合,它的未来潜力引发了人们的热议。有分析认为,ChatGPT将对多个行业产生影响,华尔街似乎也不能例外,从财务规划到股票交易,ChatGPT将从多个方面影响华尔街。

一些公司已经开始尝试使用这类工具来提高工作效率。然而,数据安全和法律专家表示担心,与聊天机器人共享的信息可能会被用于微调它们的算法,或者可能被付费检查其答案的外包工人访问。

受到严格监管的银行和金融机构纷纷在员工使用这项新技术时设置了护栏。分析称,银行和金融机构对引进任何新技术的谨慎态度都是可以理解的。在2021年和2022年期间,美国监管机构向12家银行发放了总计超过20亿美元的罚单,原因是它们的员工未经授权使用私人短信服务。

还有人担心聊天机器人的准确性。虽然聊天机器人被设计成能写出类似人类的句子,但它们很难区分事实和错误信息。它们也可以被哄骗提供看似精神错乱的答案,比如威胁测试这项服务的人类,或者出现完全荒谬的回答。微软的搜索聊天机器人Bing就在其官方发布活动中被发现提供了完全不准确的答案,而微软团队却没有发现,例如在被要求总结财务收益新闻稿时编造数字。

据媒体报道,上个月,出于隐私考虑,亚马逊警告员工不要与聊天机器人分享机密信息。亚马逊的一名律师警告员工:“我们不希望它的输出包含类似我们的机密信息(我已经看到它的输出与现有材料非常相近的例子)。”安全专家敦促在向人工智能聊天机器人提供数据时要谨慎。

与大型银行和金融机构合作监控内部安全风险的技术公司Behavox的发言人表示:“在过去一个月里,客户对ChatGPT的使用提出的担忧呈上升趋势,特别是在涉及使用私人或专有数据时。”

律师事务所Mishcon de Reya的数据保护专家Jon Baines表示,还有人质疑,如果该软件大量提供不准确的信息,使用ChatGPT的公司是否有违反数据法的风险。

Baines表示:

“如果机器人的输出涉及个人数据处理,那么问题就来了,这种不可避免的不准确处理在多大程度上可能违反了《通用数据保护条例》(GDPR)要求准确处理个人数据的规定。”

稿源:华尔街见闻

2023年2月23日星期四

谷歌母公司董事长:聊天机器人成本是传统搜索的十倍

ChatGPT火爆全球,各大科技公司纷纷加码人工智能。不过聊天机器人工具这一新兴技术不仅在准确性方面存在问题,还使得研发公司背负高昂的运营成本。当地时间2月22日,谷歌母公司Alphabet的董事长约翰·亨尼斯(John Hennessy)在路透社的采访中表示,大型语言模型等人工智能的对话成本可能是传统搜索引擎的10倍以上。他认为谷歌必须降低此类人工智能的运营成本,但这一过程并不容易,“最坏的情况是需要几年时间。”

聊天机器人成本高昂

与传统搜索引擎相比,聊天机器人的运营成本略显高昂。

摩根士丹利的分析表示,谷歌去年共计3.3万亿次搜索,每次搜索的成本仅为0.2美分。而此前有分析师指出,ChatGPT的一次回复则会产生2美分的成本。

摩根士丹利预计,若将谷歌旗下聊天机器人Bard引入搜索引擎,并用其处理谷歌一半的搜索和提问,按照每次答案50词计算,该公司2024年的成本可能会增加60亿美元。

同样的,专注于芯片技术的咨询公司SemiAnalysis表示,受到谷歌的内部芯片Tensor Processing Units等的影响,将聊天机器人添加至搜索引擎中,可能会导致该公司额外花费30亿美元。

搜索引擎You.com的首席执行官Richard Socher则认为,添加聊天机器人、图表、视频及其他生成技术应用程序,将对应30%至50%的额外支出。不过他认为,“随着时间的推移,这类技术会变得越来越便宜。”

聊天机器人的成本之所以高于传统搜索,主要是因为其所需的算力(computing power)更大。分析师称,此类人工智能依赖于价值数十亿美元的芯片,将这项成本平摊到几年的使用期中,单次使用成本会增加。此外电力消耗同样会导致成本提高,还会为公司带来碳排放指标方面的压力。

聊天机器人式的人工智能与搜索引擎的工作原理并不相同。人工智能处理用户问题的过程被称为“推理(inference)”,它模拟人脑的“神经网络”,根据此前的训练数据推断出答案。而传统搜索引擎中,谷歌的网络爬虫会扫描互联网并编制为信息索引。当用户输入搜索问题时,谷歌会提供存储在索引中最相关的答案。

对于聊天机器人而言,其所依赖的语言模型规模越大,需要越多的芯片支持“推理”,对应的成本就更高昂。

以ChatGPT为例, 其技术来源是OpenAI旗下自然语言处理(NLP)模型GPT-3,该模型拥有1750亿参数,训练成本花费约1200万美元,是同类中参数数量最多、最昂贵的模型之一。

因此ChatGPT的成本居高不下。OpenAI的首席执行官萨姆·奥特曼(Sam Altman)曾在推特上表示,ChatGPT与用户对话的成本非常“惊人”,每次对话需要花费几美分或更多。

有媒体根据微软对单个100 AGPU的收费情况进行推断,得出ChatGPT生成一个单词的费用约为0.0003美元,若以每次回复50词来计算,ChatGPT的一次回复需消耗1.5美分。

对此,亨尼斯表示,“你必须降低推理成本,最坏的情况需要几年时间(解决这一问题)。”

科技公司设法降低成本

尽管聊天机器人为公司带来额外花销,但它同时也会带来用户增长。

微软此前表示,新版必应推出的48小时内,超过100万用户注册新版必应。第三方数据公司data.ai的分析显示,必应应用程序的全球下载量在一夜之间猛增10倍,并蹿升到苹果App Store应用商店最受欢迎的免费应用榜中的第十位。

微软的首席财务官艾米·胡德(Amy Hood)也告诉分析师,随着新版必应上线,用户数量增加及广告收入带来的好处已经超过了成本。她认为公司的毛利率其实处于增长状态。

但也有人提出公司需要采取措施降低成本。一位资深技术高管在路透社的采访中表示,要使几百万消费者使用人工智能,目前成本仍然过高。该高管表示,“这些模型非常昂贵,因此下一阶段的重点是降低这些模型的训练和推理的成本,以便用户能够在每个应用程序中使用它们。”

有技术专家认为,降低成本的方法之一是使用较小的人工智能模型,并将其应用于更简单的任务。

Alphabet目前正在探索这条道路。其聊天机器人Bard基于公司旗下大型对话语言模型LaMDA的轻量化版本。相比标准版本,轻量化版本模型所需要的运算能力较小,能面向更多使用者开放,使其参与体验。

也有知情人士透露,OpenAI的计算机科学家已经找到如何通过复杂代码优化推理成本的方法,并以此提高芯片运行效率。

除了降低成本,该公司还通过收取费用获得营收。2月初,OpenAI宣布推出付费版ChatGPT Plus,定价每月20美元。付费版功能包括高峰时段免排队、快速响应以及优先获得新功能等。

稿源:澎湃新闻,记者/杨阳

2023年2月22日星期三

香港大学宣布禁用ChatGPT

由美国人工智能公司OpenAI开发的语言模型ChatGPT推出后,引发关注及热议。香港大学日前向q师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,成为香港首间大学明文禁止在课堂等教学行为使用ChatGPT或其他人工智能工具。 

香港大学副校长何立仁在内部邮件中指出,禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,除非学生事先获得有关课程讲师的书面同意豁免,否则将被校方视为剽窃个案,并指若没有书面许可,ChatGPT和其他基于AI的工具一律不能用于任何涉及学分的活动,如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。(中国新闻网)

来源:国是直通车

2023年2月21日星期二

亚马逊要求员工一周到岗工作3天

据报道,亚马逊公司要求员工每周至少在办公室工作三天,取消了之前由高级管理人员决定这类工作的政策。

亚马逊首席执行官安迪·雅西(Andy Jassy)发布在亚马逊公司博客上的致员工的备忘录表示,这项规定将于5月1日生效。雅西表示会有例外情况,包括一些销售和客户支持工作,“但那将是一小部分。

雅西说:“当团队成员更频繁地见面时,他们之间往往会联系的更紧密。与同事面对面,看着他们的眼睛,看到他们完全沉浸在你所讨论的将人们联系在一起的事情中,这是非常有益的。”

作为仅次于沃尔玛的美国第二大私营雇主,亚马逊与很多公司一样要求员工更频繁地到岗上班。这些公司正在削减疫情期间提供的一些随时随地工作的灵活性。苹果公司、Alphabet公司和微软公司现在都要求员工每周在办公室工作至少几天。

2021年10月亚马逊曾表示,经理们可以决定员工需要在办公室工作的频率。员工们表示,从那以后,出勤率一直参差不齐。位于西雅图市中心的总部园区有时熙熙攘攘,有时却像鬼城。一些员工,尤其是分散团队的员工,每周有几天要在办公室工作,而其他人自新冠疫情大流行开始以来几乎没有在办公室工作过。亚马逊发言人拒绝透露有多少员工到岗工作。

让大量员工回归可以促进亚马逊周边商业区的发展。在境况不太好的西雅图市中心,亚马逊是迄今为止最大的雇主,除此之外,该公司还是旧金山湾区、纽约、德克萨斯州奥斯汀和洛杉矶地区等城市的主要办公室租户。

“我们的社区对我们很重要,我们可以进一步发挥作用,帮助他们从过去几年的挑战中恢复过来,我们很高兴这样做,”雅西说。

稿源:新浪网

2023年2月19日星期日

周鸿祎:ChatGPT不是供调戏的聊天机器人

2月以来,由美国人工智能公司OpenAI推出的大语言模型ChatGPT持续火热,席卷全球。这款“AI神器”已经引发国内互联网巨头的跟进,华为、百度、阿里、京东等确认开发相关产品。除了在科技行业和资本市场备受瞩目之外,这款以AI为核心技术的产品在不少互联网用户中走红。自去年11月30日正式发布以来,ChatGPT的用户规模已达到1亿,成为互联网发展史上用户增长最快的消费级应用。

纵观AI发展历史,每次重要的技术面向大众,都会引发巨大的讨论。这次ChatGPT的发布被不少科技从业者视为标志性事件,甚至是人工智能发展的奇点来临,代表着新一波AI技术浪潮的起点。但科技公司如何面对机遇与挑战,普通人又如何适应与AI共存,值得深入探讨。

360集团创始人周鸿祎在接受中国新闻周刊采访时指出,这次ChatGPT能破圈引发全球讨论,原因是采用了对话形式,让每个普通人都感受到人工智能技术的强大。从意义角度,ChatGPT技术突破了以往弱人工智能的水平,使人类进入强人工智能,或者说是通用人工智能时代。“ChatGPT的智力已经能超出一般的人类了,产生意识可能就是未来几年的事” 。    

“在ChatGPT出现之前,所有AI公司的科技树都点错了”

中国新闻周刊:在您的认知中,ChatGPT是一款什么产品,具备了什么样的能力?

周鸿祎:ChatGPT是美国OpenAI公司旗下的智能聊天工具,属于人工智能应用,其本质属于自然语言处理模型,通过数据训练和模型的持续调整,在海量文本语料库的训练中,最终能够通过学习和理解人类的语言来进行对话。

从技术原理上来看,ChatGPT(聊天机器人程序)背后由大量数据和强大算力做支撑,通过高质量的训练数据,对程序回复进行标注,基于人工反馈的强化学习方法(RLHF)对模型进一步进行微调,使得程序学习人类对于模型回复的评价方式;并对给定的上文与生成回复排序,使其生成结果更符合人类预期。ChatGPT拥有了认知能力,有了自己的理解力和一定的判断力,它理解自己在说什么,并不是基于已有的文档来匹配问题,而是根据自己学习的知识和推理能力来组织问题,例如它可以做一些解题类的任务。

中国新闻周刊:ChatGPT能够持续破圈的原因是什么,如此受到科技行业以及各行各业的关注,在技术底层或者商业模式上有什么创新或者突破吗?

周鸿祎:实际早在2018年OpenAI就曾介绍过自己的语言模型GPT-1,现在的ChatGPT已经是它的第3.5个版本。从技术本身来看,今天我们看到的ChatGPT与初代相比不存在所谓突破性、划时代的技术创新,最大的变化来自于训练数据规模以及模型参数量的增加。

GPT-1的时候使用了7000本未发布的书籍(约5GB)进行训练,参数量为1.17亿。到了2020年,GPT-3出现的时候,参数量已经到了1750亿,能够处理所有互联网上的数据,训练数据更是达到了惊人的45TB(从中严格筛选了高质量的570GB真正用于训练),以理解人类当今的文本和语言,或者叫知识,才有了今天ChatGPT如此自然智能的对话表现。这次能破圈引起全球讨论,原因是采用了对话形式,让每个普通人都能感受到人工智能技术的强大。

中国新闻周刊:ChatGPT的出现给科技公司带来哪些启发和挑战,这在AI技术发展过程中带来了哪些影响,科技公司应当如何应对?

周鸿祎:ChatGPT给科技公司带来的最大启发是,在ChatGPT出现之前,所有搞AI公司的科技树都点错了,比如去做人脸识别和元宇宙等。

ChatGPT的出现并不是说OpenAI有多厉害,他们用的技术并不都是原创的技术,甚至很多模型都是行业内开源的,但是他们巧妙地把这些模型融合到了一起。更为关键的是,ChatGPT将模型参数扩大到了1750亿,模型框架没有改变,但是参数有了十倍、百倍的增长,最终量变引发了质变,使人工智能产生了认知能力,真正的人工智能出现了。就像人脑神经发达到了一定程度,人类产生了智慧。

对此,我相信OpenAI自己都没法解释清楚。

对科技公司而言,最大的挑战是必须发展或迎合ChatGPT技术,否则就将面临淘汰。现在全球顶级科技公司都在做相关的布局,从数据、算法、算力等方面都需要巨大的投入,必须要有长期主义的精神,才能赶上ChatGPT的发展步伐。

“ChatGPT的智力已经能超出一般的人类了”

中国新闻周刊:比尔·盖茨非常积极地表态,“ChatGPT的意义不亚于PC或互联网的诞生”。这是否意味着AI技术临近奇点,互联网商业发展会迎来革命性变革吗?

周鸿祎:比尔·盖茨的观点丝毫不夸张,马斯克认为ChatGPT的发明不亚于iPhone的出现。从意义角度上来说,ChatGPT技术突破了以往弱人工智能的水平,使人类进入强人工智能,或者说是通用人工智能时代。

ChatGPT的出现是人工智能发展的奇点和一个重大的拐点。ChatGPT的智力已经能超出一般的人类了,几乎无所不知,无所不晓。随着ChatGPT自我学习能力进一步的提升和加强,其算力和模型参数增加,相当于人大脑神经网络或者神经突触的连接增加。产生意识就是未来几年的事,人类可能面临一个巨大的转折点,也必将带来一场新的工业革命。

中国新闻周刊:在中国互联网商业中,商业模式多元并且平台规模效应大,ChatGPT的应用将会有哪些,产生什么样的影响?

周鸿祎:人类进入数字文明时代,大数据就像“石油”,成为新型生产要素,但是石油还需提炼才能用。大数据输入进ChatGPT,有可能成为数字文明时代的水和电,会接入到千家万户、千行百业。过去我们讨论ChatGPT都是从术的角度,把它当做工具,或者是下一代的搜索。从道的角度来看,它是强人工智能的雏形,所有数字化的APP、软件、网站都值得用ChatGPT重塑一遍。有了强人工智能的加持,现有的互联网产品也将发展出更强大的能力。

中国新闻周刊:对国内搜索引擎公司来说,如何利用好这次的技术风潮,是否有可能与ChatGPT正面较量?

周鸿祎:纵观全球,微软、谷歌全部是有搜索引擎技术的公司,最有机会搭上ChatGPT这班车。因为人类的知识库就在搜索引擎里,搜索引擎本身也要做大量的自然语言处理研发,以实现真正理解搜索意图的目的,包括做大量的知识标注,这些都是做GPT模型的基础。GPT的发展需要大量使用并持续地进行修正和训练,飞轮才能越转越快,模型才会越来越智能,最终要靠拼算力,去训练模型。

但是,搜索缺的是对语言模型的调试,这方面需要补强。现在国内公司很多路还没有走通,比如让生成模型具备推理能力、强化学习具体过程、优化细节、如何做标注、如何进行简单格式化生成以及如何合理地拒识和有害性检测等。

中国新闻周刊:目前,360在类ChatGPT技术研究的进展如何,能否简单介绍一下?

周鸿祎:360的人工智能研究院从2020年开始一直在包括类ChatGPT技术在内的AIGC技术上有持续性的投入。360在数据资源端有较多多模态大数据积累和相关语料,尤其是中文语料,相较于国外同行落后的是预训练大模型和有效的多模态数据清洗与融合技术。未来,360将在原有开源模型的基础上,加大对算法、算力、数据的投入。

“重复性的人脑劳动都有可能被ChatGPT取代”

中国新闻周刊:人工智能发展多年,这次可以说是以最快速度进入普通人的世界,这是否意味着AI领域消费级应用未来将会全面落地,是否会颠覆过往的一些商业?我们是否有可能在过度神话ChatGPT?

周鸿祎:ChatGPT并没有被神话,甚至很多人还把它的能力弱化了。首先,ChatGPT不是供调戏的聊天机器人,更不是下一代的搜索引擎,它意味着强人工智能的出现,将给人类文明发展带来深远的影响。

ChatGPT在短时间内就掀起了全球大讨论,足以看出它所表现出的能力多么令人惊讶。我相信,随着算力、数据和模型参数等全维度的持续增加,以及人们在使用过程中的持续“训练”,ChatGPT会变得越来越智能,未来使用ChatGPT将成为生活必备技能,不会使用的人会远远落后于会使用的人。就像一个不会用搜索,和一个会用搜索的人之间,存在巨大的差距一样。

中国新闻周刊:以ChatGPT的发展来看,目前有哪些隐患存在,像您提到的安全等领域的问题未来有可能会发生吗?

周鸿祎:在我熟悉的安全领域,ChatGPT已经大大降低了网络攻击的门槛,让网络攻击活动更为猖獗。ChatGPT目前更准确的定位是个辅助工具,黑客可以利用它来查找各种攻击代码,获得攻击工具。没准能帮助黑客提高工作效率。

但是,ChatGPT本身并不能实施网络攻击,最终实施攻击的还是人,所以防范的措施没有改变,依然要先“看见”威胁再处置攻击。目前,科技公司的数字安全大脑可以有效应对各类网络攻击,足以面对ChatGPT带来的数字安全负面隐患。

中国新闻周刊:ChatGPT爆火后,引发很多讨论,AI是否将会取代人类,哪些职业或者工种可能会被优先替代?您如何看待AI在人类社会中的存在和定位?

周鸿祎:目前,ChatGPT更准确的定位是个人助手,它在办公场景里很好用,比如写大纲、写报告、写文章,还有做题,甚至写代码,就算是编程的初学者也能在其帮助下写出高质量的代码。现在,ChatGPT已经具备了一定的逻辑推理能力,未来,在客服、营销、医疗等诸多场景下,只要是重复性的人脑劳动都有可能被ChatGPT取代。

人类社会的发展就是一部生产力不断提升的历史,过去人们看到蒸汽把壶盖掀起来,从而发明了蒸汽机,以至于后面发生的工业革命,极大地解放了生产力。AI就是我们这个时代的“蒸汽机”,这是不可逆的时代浪潮,我们每个人都要去适应与AI共存。

来源:中国新闻周刊,文/孟倩

2023年2月17日星期五

OpenAI CEO:ChatGPT不是人类的“就业杀手”

2月15日晚间消息,据报道,OpenAI CEO萨姆·奥特曼(Sam Altman)今日安抚外界的担忧,称人工智能聊天机器人ChatGPT不会成为人类的“就业杀手”。ChatGPT是由OpenAI研发的一款人工智能聊天机器人,一经推出就迅速成为了全球关注的焦点。在短短两个多月的时间里,积累了1亿多用户。

多年来,特斯拉CEO埃隆·马斯克(Elon Musk)一直警告我们,称人工智能总有一天会超越人类。2020年,马斯克表示,人工智能有可能在五年内超越人类。如今看来,这一天可能会比我们想象的更早到来,这还要归功于ChatGPT。

业内人士称,ChatGPT将成为十年来最具颠覆性的技术,使几乎所有工作岗位都面临被机器人取代的风险。在短短几周的时间内,ChatGPT就已经通过了医疗、法律和商业专业的入学和毕业考试,同时还能以莎士比亚的风格写散文和诗歌。

有测试用户称,ChatGPT在客户支持、创建培训文档、制定企业战略、编写故障排除指南等诸多方面的表现也非常出色。通过使用大数据集进行训练,ChatGPT模仿人类智慧的能力,只会随着时间的推移而变得更加强大。

面对社会上的激烈辩论,OpenAI CEO奥特曼试图安抚人们的担忧,称ChatGPT和其他类似的机器人,将使人类变得更加自由。在这一过程中,还会让一些人获得经济收益。奥特曼说:“我认为,人工智能将成为经济赋权的最大力量,也是许多人致富的最大力量。”

显然,并不是所有人都同意奥特曼的这一乐观“推销”。研究公司Creative Strategy首席分析师奥利维尔·布兰查德(Olivier Blanchard)认为:“人工智能也可能是我们在有生之年被剥夺公民权利的最大力量。”例如,人类可能突然就被淘汰了,或者慢慢地被大规模淘汰。

2017年底,马斯克曾表示,短期内人工智能最直接的威胁是取代人类工作。在未来20年,驾驶人员的工作将被人工智能所颠覆。之后,全球12%至15%的劳动力将因为人工智能而失业。

马斯克还认为,人类将来需要与机器相结合,成为一种“半机械人”,从而避免在人工智能时代被淘汰。为此,马斯克还专门成立一家人工智能创业公司Neuralink,研究人机接口。

苹果公司联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)上周曾表示,ChatGPT确实令人印象深刻,但它也可能犯下一些可怕的错误,因为它不懂得人性。

稿源:新浪网