2023年2月27日星期一

谷歌和联邦通信法230条款

在美国的三权分立体制下,总统和国会两院分别代表着最高行政与立法权,而最高法院则代表着司法权的塔尖。美国最高法院的职责是通过判罚来诠释包括宪法在内的所有法律。最高法院的判决往往会对美国社会和经济制度产生深远的影响。

作为美国司法体系的最终裁决者,美国最高法院每年都会接到8000多起下级法院的诉讼请求,但九人组成的最高法院只会挑选其中的80起焦点案件。这些案件的判决可能会对美国社会经济产生深远影响。正因为如此,只要被最高法院受理的案件都会成为媒体关注的焦点。

上周美国最高法院开庭审理的两起案件,就吸引了全美国科技行业和媒体机构的聚焦。因为这两起案件的判决结果,将直接关系到美国互联网行业过去二十多年繁荣昌盛的保护伞。如果最高法院做出对互联网公司不利的判决,那么整个美国互联网行业的监管体系都要进行重建。

两大恐怖袭击相关诉讼

这两起诉讼究竟是什么来历背景?为什么会如此重要,直接关系到美国互联网行业的基石?

上周二,美国最高法院就“冈萨雷斯诉谷歌”(Gozalez v. Google)诉讼进行了超过两个半小时的庭审。紧接着第二天,最高法院又就“推特诉塔梅”(Twitter v. Taamneh)进行了近三个小时的庭审。两起诉讼有着相似的背景,都指向同一个核心问题:互联网公司是否要为自己平台上用户发布的内容承担责任?

先来看“冈萨雷斯诉谷歌”案,诺伊米·冈萨雷斯(Nohemi Gonzalez)原本是加州大学长滩分校的一名大四学生,2015年在法国巴黎做交换生。2015年11月13日-14日,恐怖组织伊斯兰国(IS)在巴黎多个地区连续发动恐怖袭击,共造成130人死亡和368人受伤。正在餐厅和朋友吃饭的23岁的诺伊米遭到恐怖分子开枪扫射,不幸中弹身亡。

诺伊米的父母痛失爱女之后,随后在2017年正式起诉互联网巨头谷歌。当时Youtube上存在着诸多伊斯兰国的宣传恐怖主义和招募圣战战士的视频。冈萨雷斯夫妇因此指控谷歌旗下YouTube平台的推荐算法推广伊斯兰国的宣传视频,违反了美国《反恐怖主义法》。

他们的诉讼在下级联邦法庭遭到了驳回,因为美国《联邦通信法》230条款明确规定,互联网平台不必对平台上的用户生产内容负责。尽管连续败诉,但诺伊米的父母一直没有放弃,持续上诉。最终在去年10月,美国最高法院正式受理了这一诉讼。

这也是美国法制的一大传统,持续上诉到最高法院,通过判罚来推翻当前的法律,迫使重新进行立法。持续起诉谷歌的诺伊米父母并不需要承担天价律师费,因为其实是专业法律机构主动联系这对痛失爱女的夫妇,希望借他们之手来调整互联网行业的230条款。

与此类似,第二起诉讼“塔梅诉推特”的原告也是恐怖袭击遇难者家属。在2017年新年的伊斯坦布尔恐怖袭击事件中,共有39人死亡和69人受伤,约旦公民阿拉沙夫(Nawras Alassaf)不幸丧生。伊斯兰国同样宣布对此负责。

阿拉沙夫的家人也认为推特等社交媒体没有在自己平台采取有效措施阻止恐怖主义内容传播,违反了美国反恐怖主义法,因而需要承担附带责任。他们在美国对推特、Meta以及Youtube提起诉讼。但与冈萨雷斯诉谷歌案件不同的是,旧金山的第九巡回法庭做出了对推特不利的判罚,推特因此提起了上诉。

延续二十多年的保护伞

去年10月,美国最高法院同意复审这两起案件,当时就引起了社会的广泛关注。九位大法官并不是随意挑选案件的,这是最高法自2015年以来首次受理涉及《联邦通信法230条款》的案件,而这是美国互联网行业过去二十多年繁荣昌盛的保护伞。

究竟什么是230条款?1996年美国《通讯规范法》(Communication Decency Act)的第230条规定,“任何交互式计算机服务的提供商或者用户不应被视为另一信息内容提供商提供的任何信息的发布者和发言人。”这条只有短短26个英文单词的法律条文,给美国互联网行业的高速发展创造了宽容的监管环境,更为社交媒体的随后兴起铺平了道路。

230条款其实包括两层意思:互联网公司无须为平台上的第三方信息负责,互联网公司无须为他们善意删除平台内容的行为负责。这一条款的本意是促使互联网公司主动去自我监督,净化网络环境,避免尚在起步阶段的他们遭受源源不断的诉讼的打击。

过去的二十多年事件,这条法律条文一次次地给互联网公司保驾护航,在诸多诽谤和欺诈相关诉讼中全身而退。此外,互联网公司也得以完全按照自身规则来删除他们认为不妥的内容和账号,免受用户的诉讼。硅谷圣克拉拉大学法学教授戈德曼(Eric Goldman)甚至认为,230条款造就了现代互联网。

为什么会给互联网公司这样一把保护伞?1995年最初起草这一法案的时候,美国互联网行业才刚起步,微软推出IE浏览器对Netscape宣战,亚马逊和雅虎刚满一岁,谷歌两位创始人刚刚在斯坦福校园相遇。一些国会议员开始注意到互联网上出现的各种色情内容,提出了《通讯规范法》以规范互联网,作为《联邦通信法》的修正法案。

根据最初的参议院版本,如果有意在网站上向青少年展示淫秽等不适宜内容,网络运营商将面临巨额罚款甚至是监禁惩罚。显然,这是把互联网平台当成电视和电台等传统媒体来对待。如果这一监管法案通过,那么刚刚兴起的互联网公司必须为自己平台上出现的第三方内容承担责任;他们必须对网络内容进行严格审查,否则就可能面临各种诉讼和惩罚。这意味着新兴的互联网行业发展将受到极大制约。

1995年的一起诉讼案也刺激到了新兴互联网行业和言论自由维权团体。一名匿名用户在互联网公告板Prodigy上指控华尔街券商Stratton Oakmont欺诈,后者随即以诽谤罪将Prodigy告上了法庭。纽约法官在判罚时将互联网平台视同于出版商,认定Prodigy需要为第三方用户在自己平台的言论承担责任。(实际上,这家券商也的确是骗子,他们创始人贝尔福特(Jordan Belfort)就是电影《华尔街之狼》的男主角原型。)

对网络监管法案感到高度紧张的言论自由维权团体和互联网行业联合起来,成功游说了加州和俄勒冈州的两位联邦众议员,在他们起草的众议院互联网监管法案《互联网自由和家庭赋权法案》(Internet Freedom and Family Empowerment Act)中加入了好人豁免条款(Good Samaritian),授权互联网公司自己管理网络平台,这就是230条款的由来。最终两院的法案融合在一起,成为了1996年的《通讯规范法》。

在过去的二十多年时间,230条款给了互联网行业一把免责的保护伞,避免了他们因为用户在自己平台上传的内容而遭到诉讼,更给了他们管控自己平台内容的权力。2020年,当时共和党联邦众议员努恩斯(Devin Nunes)因为不堪几个匿名用户在Twitter长期辱骂嘲讽自己,连带起诉Twitter要求交出匿名账号的真实身份。联邦法官就援引第230条款拒绝了努恩斯的要求。

不过,230条款并不是无所不包的,互联网公司必须对自己平台上的人口贩卖和儿童色情内容承担责任。2018年通过的《打击性贩卖行为法》打开了缺口,这条法律明确规定互联网公司有责任举报和移除网络平台上的性贩卖(贩卖人口用于性剥削),否则会面临相关法律的处罚。

社会割裂政治斗争激化

过去几年时间,随着美国社会矛盾激化,种族骚乱、新冠疫情、大选纷争等重大事件引发了巨大争议,社会的割裂现状也在互联网平台上得到了体现。尽管出发点不同,但无论是民主党还是共和党都对互联网巨头的内容管控政策感到了不满,希望改变230条款。

2020年5月,由于对Twitter屡屡给自己推文打标签不满,前任美国总统特朗普曾经发布行政命令,要求联邦政府对社交媒体的免责条款进行了限制,并直接喊出了“撤销230条款”的要求。随后美国司法部发布意见书,呼吁美国国会修改230条款。但随着特朗普的下台,此事也就不了了之。

这一次,美国最高法院受理这两起针对互联网公司的诉讼,又再次将230条款带到了风口浪尖。那这一次,最高法院是否可能做出对互联网公司不利的判决,以此推动230条款的修订呢?

早在去年,九位大法官中立场最保守的托马斯(Clarence Thomas)就明确表达了他的立场。他在几次法庭异议书中呼吁国会重新审议230条款,认为社交媒体公司应该像“公共承运人”(Common Carrier)一样接受监管,禁止平台在内容方面存在偏见歧视。(注:公共承运人是欧美普通法系中的一个概念。)

在这两起诉讼中,很多互联网公司通过“法庭之友”(Amicus  Curiae)文件,对谷歌的推荐算法表示了支持。他们提出,尽管230条款需要根据时代现实进行更新,但监管的调整更应该通过立法机构来推动,而不是通过司法机构的判决来实现。同样支持这一立场的还包括当初拟定230条款的两位参议员荣·怀登(Ron Wyden)和克里斯托弗·考克斯(Christopher Cox),以及诸多支持言论自由的人权机构美国公民自由联盟(ACLU)和电子前线基金会(EFF)。

另一方面,共和党议员和保守派势力则指责谷歌等互联网公司利用230条款保护伞,让自己对平台的有害内容推卸责任。这些共和党议员包括霍利(Josh Hawley)、克鲁兹(Ted Cruz),正是2020年力主国会修订230条款的几位特朗普拥趸,他们更希望看到最高法院做出推翻230条款的判决。

大法官们态度谨慎不愿介入

尽管目前还无法得知九位大法官最终会如何做出判决,但看起来在两次庭审中,大法官们对“以判决推动修订230条款”的潜在深远影响表示了相当谨慎的态度。在第一天的庭审中,无论是自由派还是保守派法官,都表达了他们并不愿意直接干预230条款这一互联网监管法律。

自由派大法官卡根(Elena Kagan)在庭审中直接暗示最高法院是否应该介入互联网监管法规。她表示,”我们是大法官,并不是九位互联网专家。”保守派大法官卡瓦诺(Brett Kawanaugh)也认为,如果互联网公司败诉,未来可能会面临一大波相关诉讼。“如果让国会来承担(调整监管法律)的重任,是不是会更好?他们可能考虑相关影响以及做出未来预判?”

而原告则提出,230条款的确给了YouTube免责保护,不必对平台上恐怖分子发布的内容负责,但平台的算法推荐功能则需要给予更多的审视,不该同样享受免责保护。谷歌则提出,230条款的保护范围同样也包括了平台推荐算法,因为这是平台运行的基本功能。

自由派大法官索托马约尔(Sonia Sotomayor)对此表示认同,她在庭审中表示,用户每一次搜索都会涉及到谷歌的算法,因此230条款的保护范围也应该包括推荐算法。

当大法官们质疑如果平台算法并不中立的时候,是否依然应该得到230条款的保护时,代表谷歌的律师立即强调,230条款明确无误地保护了互联网公司不该为用户生成内容承担责任。只要法律没有修改,这一保护条款就是明确的。

此外,大法官们花了不少的时间,对恐怖袭击受害者家属的核心指控提出了质疑,即谷歌和推特是否有意在帮助推动恐怖主义相关内容。看起来,“有意”(Knowlingly)和“重要(substantial)”成为了大法官审理两起案件的关键词。因为根据《反恐法》的规定,如果“相关方协助或者教唆,通过有意提供重要协助或是与恐怖袭击者共谋”,就需要承担附带责任。

至少从庭审情况来看,大法官们似乎更倾向于互联网平台没有帮助恐怖组织。即便是长期抨击科技巨头的托马斯大法官也表示,当用户搜索伊斯兰国相关内容,谷歌的中立算法提供推荐内容的这个过程中,自己并不确定是否可以认为谷歌在协助和煽动恐怖主义。美国最高法院将在6月底宣布这两起案件的最终判决。

稿源:新浪网

2023年2月25日星期六

网信办公布《个人信息出境标准合同办法》

2月24日,国家互联网信息办公室公布《个人信息出境标准合同办法》(以下简称《办法》),自2023年6月1日起施行。国家互联网信息办公室有关负责人表示,出台《办法》旨在落实《个人信息保护法》的规定,保护个人信息权益,规范个人信息出境活动。

《办法》规定,个人信息处理者通过与境外接收方订立标准合同的方式向中华人民共和国境外提供个人信息适用本办法。明确通过订立标准合同的方式开展个人信息出境活动,应当坚持自主缔约与备案管理相结合、保护权益与防范风险相结合,保障个人信息跨境安全、自由流动。个人信息处理者通过订立标准合同的方式向境外提供个人信息应当同时符合下列情形:非关键信息基础设施运营者、处理个人信息不满100万人的、自上年1月1日起累计向境外提供个人信息不满10万人的、自上年1月1日起累计向境外提供敏感个人信息不满1万人的。法律、行政法规或者国家网信部门另有规定的,从其规定。要求个人信息处理者不得采取数量拆分等手段,将依法应当通过出境安全评估的个人信息通过订立标准合同的方式向境外提供。

以下为办法全文:

个人信息出境标准合同办法

第一条 为了保护个人信息权益,规范个人信息出境活动,根据《中华人民共和国个人信息保护法》等法律法规,制定本办法。

第二条 个人信息处理者通过与境外接收方订立个人信息出境标准合同(以下简称标准合同)的方式向中华人民共和国境外提供个人信息,适用本办法。

第三条 通过订立标准合同的方式开展个人信息出境活动,应当坚持自主缔约与备案管理相结合、保护权益与防范风险相结合,保障个人信息跨境安全、自由流动。

第四条 个人信息处理者通过订立标准合同的方式向境外提供个人信息的,应当同时符合下列情形:

(一)非关键信息基础设施运营者;

(二)处理个人信息不满100万人的;

(三)自上年1月1日起累计向境外提供个人信息不满10万人的;

(四)自上年1月1日起累计向境外提供敏感个人信息不满1万人的。

法律、行政法规或者国家网信部门另有规定的,从其规定。

个人信息处理者不得采取数量拆分等手段,将依法应当通过出境安全评估的个人信息通过订立标准合同的方式向境外提供。

第五条 个人信息处理者向境外提供个人信息前,应当开展个人信息保护影响评估,重点评估以下内容:

(一)个人信息处理者和境外接收方处理个人信息的目的、范围、方式等的合法性、正当性、必要性;

(二)出境个人信息的规模、范围、种类、敏感程度,个人信息出境可能对个人信息权益带来的风险;

(三)境外接收方承诺承担的义务,以及履行义务的管理和技术措施、能力等能否保障出境个人信息的安全;

(四)个人信息出境后遭到篡改、破坏、泄露、丢失、非法利用等的风险,个人信息权益维护的渠道是否通畅等;

(五)境外接收方所在国家或者地区的个人信息保护政策和法规对标准合同履行的影响;

(六)其他可能影响个人信息出境安全的事项。

第六条 标准合同应当严格按照本办法附件订立。国家网信部门可以根据实际情况对附件进行调整。

个人信息处理者可以与境外接收方约定其他条款,但不得与标准合同相冲突。

标准合同生效后方可开展个人信息出境活动。

第七条 个人信息处理者应当在标准合同生效之日起10个工作日内向所在地省级网信部门备案。备案应当提交以下材料:

(一)标准合同;

(二)个人信息保护影响评估报告。

个人信息处理者应当对所备案材料的真实性负责。

第八条 在标准合同有效期内出现下列情形之一的,个人信息处理者应当重新开展个人信息保护影响评估,补充或者重新订立标准合同,并履行相应备案手续:

(一)向境外提供个人信息的目的、范围、种类、敏感程度、方式、保存地点或者境外接收方处理个人信息的用途、方式发生变化,或者延长个人信息境外保存期限的;

(二)境外接收方所在国家或者地区的个人信息保护政策和法规发生变化等可能影响个人信息权益的;

(三)可能影响个人信息权益的其他情形。

第九条 网信部门及其工作人员对在履行职责中知悉的个人隐私、个人信息、商业秘密、保密商务信息等应当依法予以保密,不得泄露或者非法向他人提供、非法使用。

第十条 任何组织和个人发现个人信息处理者违反本办法向境外提供个人信息的,可以向省级以上网信部门举报。

第十一条 省级以上网信部门发现个人信息出境活动存在较大风险或者发生个人信息安全事件的,可以依法对个人信息处理者进行约谈。个人信息处理者应当按照要求整改,消除隐患。

第十二条 违反本办法规定的,依据《中华人民共和国个人信息保护法》等法律法规处理;构成犯罪的,依法追究刑事责任。

第十三条 本办法自2023年6月1日起施行。本办法施行前已经开展的个人信息出境活动,不符合本办法规定的,应当自本办法施行之日起6个月内完成整改。

2023年2月24日星期五

摩根大通限制员工使用ChatGPT

由于对敏感数据暴露越来越感到紧张,华尔街开始限制员工使用ChatGPT。据媒体最新报道,摩根大通已限制其员工使用ChatGPT聊天机器人。此前拥有70多万员工的科技咨询公司埃森哲也警告员工不要将客户信息暴露给ChatGPT等聊天工具。

近几个月来,ChatGPT成为了一种互联网现象级焦点,从莎士比亚风格的诗歌创作到创建股票投资组合,它的未来潜力引发了人们的热议。有分析认为,ChatGPT将对多个行业产生影响,华尔街似乎也不能例外,从财务规划到股票交易,ChatGPT将从多个方面影响华尔街。

一些公司已经开始尝试使用这类工具来提高工作效率。然而,数据安全和法律专家表示担心,与聊天机器人共享的信息可能会被用于微调它们的算法,或者可能被付费检查其答案的外包工人访问。

受到严格监管的银行和金融机构纷纷在员工使用这项新技术时设置了护栏。分析称,银行和金融机构对引进任何新技术的谨慎态度都是可以理解的。在2021年和2022年期间,美国监管机构向12家银行发放了总计超过20亿美元的罚单,原因是它们的员工未经授权使用私人短信服务。

还有人担心聊天机器人的准确性。虽然聊天机器人被设计成能写出类似人类的句子,但它们很难区分事实和错误信息。它们也可以被哄骗提供看似精神错乱的答案,比如威胁测试这项服务的人类,或者出现完全荒谬的回答。微软的搜索聊天机器人Bing就在其官方发布活动中被发现提供了完全不准确的答案,而微软团队却没有发现,例如在被要求总结财务收益新闻稿时编造数字。

据媒体报道,上个月,出于隐私考虑,亚马逊警告员工不要与聊天机器人分享机密信息。亚马逊的一名律师警告员工:“我们不希望它的输出包含类似我们的机密信息(我已经看到它的输出与现有材料非常相近的例子)。”安全专家敦促在向人工智能聊天机器人提供数据时要谨慎。

与大型银行和金融机构合作监控内部安全风险的技术公司Behavox的发言人表示:“在过去一个月里,客户对ChatGPT的使用提出的担忧呈上升趋势,特别是在涉及使用私人或专有数据时。”

律师事务所Mishcon de Reya的数据保护专家Jon Baines表示,还有人质疑,如果该软件大量提供不准确的信息,使用ChatGPT的公司是否有违反数据法的风险。

Baines表示:

“如果机器人的输出涉及个人数据处理,那么问题就来了,这种不可避免的不准确处理在多大程度上可能违反了《通用数据保护条例》(GDPR)要求准确处理个人数据的规定。”

稿源:华尔街见闻

2023年2月23日星期四

谷歌母公司董事长:聊天机器人成本是传统搜索的十倍

ChatGPT火爆全球,各大科技公司纷纷加码人工智能。不过聊天机器人工具这一新兴技术不仅在准确性方面存在问题,还使得研发公司背负高昂的运营成本。当地时间2月22日,谷歌母公司Alphabet的董事长约翰·亨尼斯(John Hennessy)在路透社的采访中表示,大型语言模型等人工智能的对话成本可能是传统搜索引擎的10倍以上。他认为谷歌必须降低此类人工智能的运营成本,但这一过程并不容易,“最坏的情况是需要几年时间。”

聊天机器人成本高昂

与传统搜索引擎相比,聊天机器人的运营成本略显高昂。

摩根士丹利的分析表示,谷歌去年共计3.3万亿次搜索,每次搜索的成本仅为0.2美分。而此前有分析师指出,ChatGPT的一次回复则会产生2美分的成本。

摩根士丹利预计,若将谷歌旗下聊天机器人Bard引入搜索引擎,并用其处理谷歌一半的搜索和提问,按照每次答案50词计算,该公司2024年的成本可能会增加60亿美元。

同样的,专注于芯片技术的咨询公司SemiAnalysis表示,受到谷歌的内部芯片Tensor Processing Units等的影响,将聊天机器人添加至搜索引擎中,可能会导致该公司额外花费30亿美元。

搜索引擎You.com的首席执行官Richard Socher则认为,添加聊天机器人、图表、视频及其他生成技术应用程序,将对应30%至50%的额外支出。不过他认为,“随着时间的推移,这类技术会变得越来越便宜。”

聊天机器人的成本之所以高于传统搜索,主要是因为其所需的算力(computing power)更大。分析师称,此类人工智能依赖于价值数十亿美元的芯片,将这项成本平摊到几年的使用期中,单次使用成本会增加。此外电力消耗同样会导致成本提高,还会为公司带来碳排放指标方面的压力。

聊天机器人式的人工智能与搜索引擎的工作原理并不相同。人工智能处理用户问题的过程被称为“推理(inference)”,它模拟人脑的“神经网络”,根据此前的训练数据推断出答案。而传统搜索引擎中,谷歌的网络爬虫会扫描互联网并编制为信息索引。当用户输入搜索问题时,谷歌会提供存储在索引中最相关的答案。

对于聊天机器人而言,其所依赖的语言模型规模越大,需要越多的芯片支持“推理”,对应的成本就更高昂。

以ChatGPT为例, 其技术来源是OpenAI旗下自然语言处理(NLP)模型GPT-3,该模型拥有1750亿参数,训练成本花费约1200万美元,是同类中参数数量最多、最昂贵的模型之一。

因此ChatGPT的成本居高不下。OpenAI的首席执行官萨姆·奥特曼(Sam Altman)曾在推特上表示,ChatGPT与用户对话的成本非常“惊人”,每次对话需要花费几美分或更多。

有媒体根据微软对单个100 AGPU的收费情况进行推断,得出ChatGPT生成一个单词的费用约为0.0003美元,若以每次回复50词来计算,ChatGPT的一次回复需消耗1.5美分。

对此,亨尼斯表示,“你必须降低推理成本,最坏的情况需要几年时间(解决这一问题)。”

科技公司设法降低成本

尽管聊天机器人为公司带来额外花销,但它同时也会带来用户增长。

微软此前表示,新版必应推出的48小时内,超过100万用户注册新版必应。第三方数据公司data.ai的分析显示,必应应用程序的全球下载量在一夜之间猛增10倍,并蹿升到苹果App Store应用商店最受欢迎的免费应用榜中的第十位。

微软的首席财务官艾米·胡德(Amy Hood)也告诉分析师,随着新版必应上线,用户数量增加及广告收入带来的好处已经超过了成本。她认为公司的毛利率其实处于增长状态。

但也有人提出公司需要采取措施降低成本。一位资深技术高管在路透社的采访中表示,要使几百万消费者使用人工智能,目前成本仍然过高。该高管表示,“这些模型非常昂贵,因此下一阶段的重点是降低这些模型的训练和推理的成本,以便用户能够在每个应用程序中使用它们。”

有技术专家认为,降低成本的方法之一是使用较小的人工智能模型,并将其应用于更简单的任务。

Alphabet目前正在探索这条道路。其聊天机器人Bard基于公司旗下大型对话语言模型LaMDA的轻量化版本。相比标准版本,轻量化版本模型所需要的运算能力较小,能面向更多使用者开放,使其参与体验。

也有知情人士透露,OpenAI的计算机科学家已经找到如何通过复杂代码优化推理成本的方法,并以此提高芯片运行效率。

除了降低成本,该公司还通过收取费用获得营收。2月初,OpenAI宣布推出付费版ChatGPT Plus,定价每月20美元。付费版功能包括高峰时段免排队、快速响应以及优先获得新功能等。

稿源:澎湃新闻,记者/杨阳

2023年2月22日星期三

香港大学宣布禁用ChatGPT

由美国人工智能公司OpenAI开发的语言模型ChatGPT推出后,引发关注及热议。香港大学日前向q师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,成为香港首间大学明文禁止在课堂等教学行为使用ChatGPT或其他人工智能工具。 

香港大学副校长何立仁在内部邮件中指出,禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,除非学生事先获得有关课程讲师的书面同意豁免,否则将被校方视为剽窃个案,并指若没有书面许可,ChatGPT和其他基于AI的工具一律不能用于任何涉及学分的活动,如教师怀疑学生使用ChatGPT或其他AI工具,可要求学生就其作业进行讨论、进行额外口试及考试等措施。(中国新闻网)

来源:国是直通车

2023年2月21日星期二

亚马逊要求员工一周到岗工作3天

据报道,亚马逊公司要求员工每周至少在办公室工作三天,取消了之前由高级管理人员决定这类工作的政策。

亚马逊首席执行官安迪·雅西(Andy Jassy)发布在亚马逊公司博客上的致员工的备忘录表示,这项规定将于5月1日生效。雅西表示会有例外情况,包括一些销售和客户支持工作,“但那将是一小部分。

雅西说:“当团队成员更频繁地见面时,他们之间往往会联系的更紧密。与同事面对面,看着他们的眼睛,看到他们完全沉浸在你所讨论的将人们联系在一起的事情中,这是非常有益的。”

作为仅次于沃尔玛的美国第二大私营雇主,亚马逊与很多公司一样要求员工更频繁地到岗上班。这些公司正在削减疫情期间提供的一些随时随地工作的灵活性。苹果公司、Alphabet公司和微软公司现在都要求员工每周在办公室工作至少几天。

2021年10月亚马逊曾表示,经理们可以决定员工需要在办公室工作的频率。员工们表示,从那以后,出勤率一直参差不齐。位于西雅图市中心的总部园区有时熙熙攘攘,有时却像鬼城。一些员工,尤其是分散团队的员工,每周有几天要在办公室工作,而其他人自新冠疫情大流行开始以来几乎没有在办公室工作过。亚马逊发言人拒绝透露有多少员工到岗工作。

让大量员工回归可以促进亚马逊周边商业区的发展。在境况不太好的西雅图市中心,亚马逊是迄今为止最大的雇主,除此之外,该公司还是旧金山湾区、纽约、德克萨斯州奥斯汀和洛杉矶地区等城市的主要办公室租户。

“我们的社区对我们很重要,我们可以进一步发挥作用,帮助他们从过去几年的挑战中恢复过来,我们很高兴这样做,”雅西说。

稿源:新浪网

2023年2月19日星期日

周鸿祎:ChatGPT不是供调戏的聊天机器人

2月以来,由美国人工智能公司OpenAI推出的大语言模型ChatGPT持续火热,席卷全球。这款“AI神器”已经引发国内互联网巨头的跟进,华为、百度、阿里、京东等确认开发相关产品。除了在科技行业和资本市场备受瞩目之外,这款以AI为核心技术的产品在不少互联网用户中走红。自去年11月30日正式发布以来,ChatGPT的用户规模已达到1亿,成为互联网发展史上用户增长最快的消费级应用。

纵观AI发展历史,每次重要的技术面向大众,都会引发巨大的讨论。这次ChatGPT的发布被不少科技从业者视为标志性事件,甚至是人工智能发展的奇点来临,代表着新一波AI技术浪潮的起点。但科技公司如何面对机遇与挑战,普通人又如何适应与AI共存,值得深入探讨。

360集团创始人周鸿祎在接受中国新闻周刊采访时指出,这次ChatGPT能破圈引发全球讨论,原因是采用了对话形式,让每个普通人都感受到人工智能技术的强大。从意义角度,ChatGPT技术突破了以往弱人工智能的水平,使人类进入强人工智能,或者说是通用人工智能时代。“ChatGPT的智力已经能超出一般的人类了,产生意识可能就是未来几年的事” 。    

“在ChatGPT出现之前,所有AI公司的科技树都点错了”

中国新闻周刊:在您的认知中,ChatGPT是一款什么产品,具备了什么样的能力?

周鸿祎:ChatGPT是美国OpenAI公司旗下的智能聊天工具,属于人工智能应用,其本质属于自然语言处理模型,通过数据训练和模型的持续调整,在海量文本语料库的训练中,最终能够通过学习和理解人类的语言来进行对话。

从技术原理上来看,ChatGPT(聊天机器人程序)背后由大量数据和强大算力做支撑,通过高质量的训练数据,对程序回复进行标注,基于人工反馈的强化学习方法(RLHF)对模型进一步进行微调,使得程序学习人类对于模型回复的评价方式;并对给定的上文与生成回复排序,使其生成结果更符合人类预期。ChatGPT拥有了认知能力,有了自己的理解力和一定的判断力,它理解自己在说什么,并不是基于已有的文档来匹配问题,而是根据自己学习的知识和推理能力来组织问题,例如它可以做一些解题类的任务。

中国新闻周刊:ChatGPT能够持续破圈的原因是什么,如此受到科技行业以及各行各业的关注,在技术底层或者商业模式上有什么创新或者突破吗?

周鸿祎:实际早在2018年OpenAI就曾介绍过自己的语言模型GPT-1,现在的ChatGPT已经是它的第3.5个版本。从技术本身来看,今天我们看到的ChatGPT与初代相比不存在所谓突破性、划时代的技术创新,最大的变化来自于训练数据规模以及模型参数量的增加。

GPT-1的时候使用了7000本未发布的书籍(约5GB)进行训练,参数量为1.17亿。到了2020年,GPT-3出现的时候,参数量已经到了1750亿,能够处理所有互联网上的数据,训练数据更是达到了惊人的45TB(从中严格筛选了高质量的570GB真正用于训练),以理解人类当今的文本和语言,或者叫知识,才有了今天ChatGPT如此自然智能的对话表现。这次能破圈引起全球讨论,原因是采用了对话形式,让每个普通人都能感受到人工智能技术的强大。

中国新闻周刊:ChatGPT的出现给科技公司带来哪些启发和挑战,这在AI技术发展过程中带来了哪些影响,科技公司应当如何应对?

周鸿祎:ChatGPT给科技公司带来的最大启发是,在ChatGPT出现之前,所有搞AI公司的科技树都点错了,比如去做人脸识别和元宇宙等。

ChatGPT的出现并不是说OpenAI有多厉害,他们用的技术并不都是原创的技术,甚至很多模型都是行业内开源的,但是他们巧妙地把这些模型融合到了一起。更为关键的是,ChatGPT将模型参数扩大到了1750亿,模型框架没有改变,但是参数有了十倍、百倍的增长,最终量变引发了质变,使人工智能产生了认知能力,真正的人工智能出现了。就像人脑神经发达到了一定程度,人类产生了智慧。

对此,我相信OpenAI自己都没法解释清楚。

对科技公司而言,最大的挑战是必须发展或迎合ChatGPT技术,否则就将面临淘汰。现在全球顶级科技公司都在做相关的布局,从数据、算法、算力等方面都需要巨大的投入,必须要有长期主义的精神,才能赶上ChatGPT的发展步伐。

“ChatGPT的智力已经能超出一般的人类了”

中国新闻周刊:比尔·盖茨非常积极地表态,“ChatGPT的意义不亚于PC或互联网的诞生”。这是否意味着AI技术临近奇点,互联网商业发展会迎来革命性变革吗?

周鸿祎:比尔·盖茨的观点丝毫不夸张,马斯克认为ChatGPT的发明不亚于iPhone的出现。从意义角度上来说,ChatGPT技术突破了以往弱人工智能的水平,使人类进入强人工智能,或者说是通用人工智能时代。

ChatGPT的出现是人工智能发展的奇点和一个重大的拐点。ChatGPT的智力已经能超出一般的人类了,几乎无所不知,无所不晓。随着ChatGPT自我学习能力进一步的提升和加强,其算力和模型参数增加,相当于人大脑神经网络或者神经突触的连接增加。产生意识就是未来几年的事,人类可能面临一个巨大的转折点,也必将带来一场新的工业革命。

中国新闻周刊:在中国互联网商业中,商业模式多元并且平台规模效应大,ChatGPT的应用将会有哪些,产生什么样的影响?

周鸿祎:人类进入数字文明时代,大数据就像“石油”,成为新型生产要素,但是石油还需提炼才能用。大数据输入进ChatGPT,有可能成为数字文明时代的水和电,会接入到千家万户、千行百业。过去我们讨论ChatGPT都是从术的角度,把它当做工具,或者是下一代的搜索。从道的角度来看,它是强人工智能的雏形,所有数字化的APP、软件、网站都值得用ChatGPT重塑一遍。有了强人工智能的加持,现有的互联网产品也将发展出更强大的能力。

中国新闻周刊:对国内搜索引擎公司来说,如何利用好这次的技术风潮,是否有可能与ChatGPT正面较量?

周鸿祎:纵观全球,微软、谷歌全部是有搜索引擎技术的公司,最有机会搭上ChatGPT这班车。因为人类的知识库就在搜索引擎里,搜索引擎本身也要做大量的自然语言处理研发,以实现真正理解搜索意图的目的,包括做大量的知识标注,这些都是做GPT模型的基础。GPT的发展需要大量使用并持续地进行修正和训练,飞轮才能越转越快,模型才会越来越智能,最终要靠拼算力,去训练模型。

但是,搜索缺的是对语言模型的调试,这方面需要补强。现在国内公司很多路还没有走通,比如让生成模型具备推理能力、强化学习具体过程、优化细节、如何做标注、如何进行简单格式化生成以及如何合理地拒识和有害性检测等。

中国新闻周刊:目前,360在类ChatGPT技术研究的进展如何,能否简单介绍一下?

周鸿祎:360的人工智能研究院从2020年开始一直在包括类ChatGPT技术在内的AIGC技术上有持续性的投入。360在数据资源端有较多多模态大数据积累和相关语料,尤其是中文语料,相较于国外同行落后的是预训练大模型和有效的多模态数据清洗与融合技术。未来,360将在原有开源模型的基础上,加大对算法、算力、数据的投入。

“重复性的人脑劳动都有可能被ChatGPT取代”

中国新闻周刊:人工智能发展多年,这次可以说是以最快速度进入普通人的世界,这是否意味着AI领域消费级应用未来将会全面落地,是否会颠覆过往的一些商业?我们是否有可能在过度神话ChatGPT?

周鸿祎:ChatGPT并没有被神话,甚至很多人还把它的能力弱化了。首先,ChatGPT不是供调戏的聊天机器人,更不是下一代的搜索引擎,它意味着强人工智能的出现,将给人类文明发展带来深远的影响。

ChatGPT在短时间内就掀起了全球大讨论,足以看出它所表现出的能力多么令人惊讶。我相信,随着算力、数据和模型参数等全维度的持续增加,以及人们在使用过程中的持续“训练”,ChatGPT会变得越来越智能,未来使用ChatGPT将成为生活必备技能,不会使用的人会远远落后于会使用的人。就像一个不会用搜索,和一个会用搜索的人之间,存在巨大的差距一样。

中国新闻周刊:以ChatGPT的发展来看,目前有哪些隐患存在,像您提到的安全等领域的问题未来有可能会发生吗?

周鸿祎:在我熟悉的安全领域,ChatGPT已经大大降低了网络攻击的门槛,让网络攻击活动更为猖獗。ChatGPT目前更准确的定位是个辅助工具,黑客可以利用它来查找各种攻击代码,获得攻击工具。没准能帮助黑客提高工作效率。

但是,ChatGPT本身并不能实施网络攻击,最终实施攻击的还是人,所以防范的措施没有改变,依然要先“看见”威胁再处置攻击。目前,科技公司的数字安全大脑可以有效应对各类网络攻击,足以面对ChatGPT带来的数字安全负面隐患。

中国新闻周刊:ChatGPT爆火后,引发很多讨论,AI是否将会取代人类,哪些职业或者工种可能会被优先替代?您如何看待AI在人类社会中的存在和定位?

周鸿祎:目前,ChatGPT更准确的定位是个人助手,它在办公场景里很好用,比如写大纲、写报告、写文章,还有做题,甚至写代码,就算是编程的初学者也能在其帮助下写出高质量的代码。现在,ChatGPT已经具备了一定的逻辑推理能力,未来,在客服、营销、医疗等诸多场景下,只要是重复性的人脑劳动都有可能被ChatGPT取代。

人类社会的发展就是一部生产力不断提升的历史,过去人们看到蒸汽把壶盖掀起来,从而发明了蒸汽机,以至于后面发生的工业革命,极大地解放了生产力。AI就是我们这个时代的“蒸汽机”,这是不可逆的时代浪潮,我们每个人都要去适应与AI共存。

来源:中国新闻周刊,文/孟倩