2023年4月25日星期二

暴雪中国回应网易要求退款3亿元:未违反任何授权协议

4月25日,就网易方面提出的诉讼要求,暴雪中国对澎湃新闻记者回应称:“暴雪目前并未收到相关诉状,但我们相信我方并未违反任何授权协议。网易方面疑似不满的合同条款,涉及标准行业惯例,且在过往这些年来对双方来说都是互利的。虽然这些持续性的行为,让我们感到失望与困惑,需要指出的是,在华近二十年的运营历程一直是非常正面和愉快的,我们将继续致力于为当地玩家服务并保护他们的权益。”

暴雪相关人士还告诉记者,不认为玩家收到的退款是由网易单方面垫付的。

此前一天(4月24日),知情人士告诉记者,近日,《魔兽世界》大陆地区运营方、网易旗下上海网之易网络科技发展有限公司(以下简称“网之易”)就暴雪娱乐有限公司违反系列许可协议在上海提起诉讼,要求退还3亿元欠款。该款项包括网之易已全额支付的《魔兽世界》等停服游戏相关退款、未售游戏商品库存的预付款项、数款未开发游戏的预付保证金等。

前述知情人士称,该案还涉及《魔兽世界》等国服代理游戏相关协议中,包含多个偏向暴雪单方权益的不平等条款,相关条款的合法性、可执行性存在巨大争议。

今年1月17日,暴雪发布公开信称,曾向网易寻求协助,希望能将合约顺延六个月,但遭到拒绝,因此将遵照停服公告,于1月23日中止国服游戏服务。

1月24日0时,由网之易代理的《魔兽世界》《炉石传说》《守望先锋》《暗黑破坏神Ⅲ》《魔兽争霸Ⅲ:重制版》《风暴英雄》《星际争霸》系列产品在中国大陆市场的运营已经正式终止,暴雪已关闭战网登录以及所有游戏服务器,同时关闭客户端下载。

网易和暴雪的合作起源于2008年:当时暴雪宣布将旗下《星际争霸II》《魔兽争霸III: 混乱之治》《魔兽争霸III: 冰封王座》,以及战网平台在中国大陆的独家运营权,全部授予网之易。双方在合作接近十四年后,在去年11月宣布“分道扬镳”。

记者了解到,双方在续约条件、合约时间等多方面产生不可调和的分歧。

据悉,网之易起诉暴雪的首要原因,是因为暴雪拒绝承担国服玩家退款义务,拒绝向网之易支付国服退款相关的预付提成费用。接近网之易的知情人士表示,在1月24日《魔兽世界》《炉石传说》《守望先锋》等暴雪游戏国服停服后,网之易已全额支付超112万玩家相关退款申请。

不过,接近暴雪的知情人士则表示,暴雪方面不认为玩家此前收到的退款,是由网易单方面垫付的。

“网之易作为运营方,退款只能由他们退,但是在财务上不能混淆视听,把网之易账上的钱退回给玩家说成是由网易退的,或者由网易单方面垫资的。”上述接近人士表示。

此前,接近网易知情人士透露,网易起诉要求退还的3亿欠款,包括网易已全额支付的《魔兽世界》等停服游戏相关退款、未售游戏商品库存的预付款项、数款未开发游戏的预付保证金等。

来源:澎湃新闻

美国知名科学家呼吁停止神化AI

近年,美国计算机科学家、视觉艺术家、计算机哲学作家及未来学家杰伦·拉尼尔(Jaron Lanier)与微软新英格兰研究院的经济学家格伦·魏尔(Glen Weyl)提出了“数据尊严”概念,强调个人有权控制和管理自己的数据,以确保数据的安全性、私密性,并保护其免受滥用或未经授权的访问。

4月20日,拉尼尔在《纽约客》发表标题为“没有人工智能(There Is No AI)”的文章,提出应停止对人工智能的神化,而将其作为一种创新的社会协作形式来看待。他反对最近呼吁停止训练更高级人工智能的联署信,并再次提出“数据尊严”概念:结束人工智能黑箱,记录比特的来源,“人们可以为他们创造的东西获得报酬,即使这些东西是通过大模型过滤和重新组合的”,“当一个大模型提供有价值的输出时,数据尊严的方法将追踪最独特和有影响力的贡献者。”

拉尼尔认为,每一个新的人工智能或机器人应用的成功引入,都可能涉及一种新的创造性工作的开始。无论大小,这可以帮助缓和向整合了大模型的经济的过渡。

杰伦·拉尼尔被认为是虚拟现实领域的开创者,2014年,他被Prospect杂志评为世界前50名思想家之一。2018年,他被《连线》评为过去25年技术史上最具影响力的25人之一。以下为《纽约客》上述文章的翻译,为方便阅读和理解已做少量删减。

杰伦·拉尼尔1985年离开雅达利公司,成立了第一家销售VR眼镜和有线手套的公司VPL Research。2006年,他开始在微软工作,从2009年起作为跨学科科学家在微软研究院工作。作为一名计算机科学家,我不喜欢“人工智能”这个词。事实上,我认为它具有误导性——也许甚至有点危险。每个人都已经在使用这个词,而现在争论这个问题可能显得有点晚。但我们正处于一个新技术时代的开端——误解很容易导致误导。

“人工智能”这个术语有着悠久的历史——它是在1950年代计算机早期时代被创造出来的。更近的时间里,计算机科学家随着《终结者》和《黑客帝国》等电影、《星际迷航:下一代》中Data指挥官这样的人物成长起来。这些文化试金石已经成为科技文化中一个近乎宗教的神话。计算机科学家渴望创造人工智能并实现一个长期的梦想,是很自然的。

但令人震惊的是,许多追求人工智能梦想的人也担心,这可能意味着人类的末日。人们普遍认为,即使是处于当今工作中心的科学家也认为,人工智能研究人员正在做的事可能会导致我们这个物种毁灭,或者至少会对人类造成巨大伤害,而且会很快发生。在最近的民意调查中,有一半的人工智能科学家同意,人类至少有10%的可能性会被人工智能所毁灭。即使我的同行、经营OpenAI的山姆·奥特曼(Sam Altman)也发表了类似的评论。走进任何一家硅谷的咖啡馆,你都能听到同样的争论:一个人说,新的代码只是代码,一切都在人的掌控中,但另一个人认为,任何持这种观点的人只是没有理解新技术的深刻性而已。这些争论并不完全是理性的:当我要求感到最害怕的科学家朋友说出人工智能末日可能发生的情况时,他们说:“加速的进步将从我们身边飞过,我们将无法想象正在发生的事。”

我不同意这种说话方式。我的许多朋友和同行对最新的大模型的体验印象深刻,比如GPT-4,而且像守夜一样等待更深层次的智能出现。我的立场不是说他们错了,而是说我们不能确定;我们保留以不同方式对软件进行分类的选择。

最务实的立场是将人工智能视为一种工具,而不是一种生物。我的态度并没有消除危险的可能性:无论怎么想,我们仍然可能以伤害我们甚至导致我们灭绝的方式,糟糕地设计和操作新技术。将技术神化更可能使我们无法很好地操作它,这种思维限制了我们的想象力,将其捆绑在昨天的梦想中。我们可以在没有人工智能这种东西的假设下更好地工作,我们越早理解这一点,就可以越早开始智能地管理新技术。

如果新技术不是真正的人工智能,那么它是什么?在我看来,理解我们今天正在建造的东西的最准确方式,是将其作为一种创新的社会协作形式。

像OpenAI的GPT-4这样的程序,可以按顺序写出句子,就像维基百科的一个版本,包括更多数据,用统计学的方法混在一起。按顺序创建图片的程序就像在线图片搜索的一个版本,但有一个系统来组合图片。在这两种情况下,都是由人来撰写文本和提供图片的。这些新的程序将人类的工作以人类大脑的方式完成。创新之处在于,混搭过程变得有指导性和约束性,因此,结果是可用的,而且往往是引人注目的。这是一项重要的成就,值得庆祝——但它可以被认为是照亮了人类创造物之间曾被隐藏的一致性,而不是发明了一种新的思想。

就我所知,我的观点是在赞美技术。毕竟,除了社会协作,文明是什么?把人工智能看作是一种合作的方式,而不是一种创造独立、智能生物的技术,可能会使它不那么神秘,不像HAL 9000(《2001:漫游太空》里的机器人)或Data指挥官那样。但这是好事,因为神秘感只会使管理不善的可能性变大。

很容易将智能归为新的系统,它们具有我们通常不会与计算机技术联系到一起的灵活性和不可预测性。但这种灵活性产生于简单的数学。像GPT-4这样的大型语言模型,包含了程序处理过的大量文本中特定词汇如何重合的累积记录。这个庞大的表格使系统内在地接近许多语法模式,以及所谓的作者风格等各个方面。当你输入一个由某些词按一定顺序组成的查询时,你的输入会与模型中的内容相关联。由于关联数十亿条目的复杂性,每次的结果都可能有些不同。

这个过程的非重复性可以使它感觉很生动。而且在某种意义上,它可以使新系统更加以人为中心。当你用人工智能工具合成一个新图像时,你可能会得到一堆类似的选项,然后不得不从中选择;如果你是一个使用LLM(大型语言模型)作弊的学生,你可能会阅读由模型生成的选项并选择一个。一个产生非重复内容的技术要求有一点人的选择。

我喜欢的人工智能的许多用途,都是计算机不那么僵硬时给予我们的优势。数字的东西有一种脆性,迫使人们顺着它,而不是先评估一下。顺应数字设计的需要,创造了一种要求人类顺从的期望。人工智能的一个积极方面是,如果我们能很好地利用它,可能意味着这种折磨会结束。我们现在可以想象,一个网站为色盲重新制定自己的方案,或者一个网站根据一个人的特殊认知能力和风格来定制自己的方案。像我这样的人文主义者希望人们有更多的控制权,而不是被技术过度影响或引导。灵活性可以让我们重新获得一些代理权。

然而,尽管有这些可能的好处,担心新技术会以我们不喜欢或不理解的方式驱赶我们,也是非常合理的。最近,我的一些朋友散发了一份请愿书,要求暂停最雄心勃勃的人工智能开发。他们的想法是,在暂停期间,我们将研究政策。请愿书得到了我们圈子中一些人的签名,但其他人没签。我发现这个概念太模糊了——什么程度的进展意味着暂停可以结束?每周,我都会收到模糊不清的新任务声明,这些组织都在寻求启动制定人工智能政策的进程。

这些努力的初衷是好的,但在我看来是没有希望的。多年来,我一直从事欧盟隐私政策工作,我逐渐意识到,我们不知道什么是隐私。这是一个我们每天都在使用的术语,它在上下文中是有意义的,但我们不能很好地把它确定下来,以便归纳。我们对隐私最接近的定义可能是“独处的权利”,但在我们不断依赖数字服务的时代,这似乎很古怪。在人工智能的背景下,“不被计算机操纵的权利”似乎肯定是正确的,但并没有完全说出我们想要的一切。

AI政策对话被“一致”(AI“想要”的东西与人类想要的东西一致吗?)、“安全”(我们能预见护栏,阻止坏的AI吗?)、“公平”(我们能阻止一个程序可能对某些人不友好吗?)这样的术语统治。通过追求这些想法当然圈子里已经获得了很多好处,但这并没有消除我们的恐惧。

最近,我给同行们打电话,问他们是否有什么能达成一致的东西。我发现,有一个达成一致的基础。我们似乎都同意深度假象——虚假但看起来很真实的图像、视频等,应该由创造者标明。来自虚拟人的通信,以及旨在操纵人类思维或行动的自动化互动,也应该被贴上标签。人们应该了解他们所看到的东西,并且应该有合理的选择作为回报。

如何才能做到这一切呢?我发现,人们几乎一致认为,目前人工智能工具的黑箱性质必须结束。这些系统必须变得更加透明。我们需要更好地说出系统内发生了什么以及为什么。这并不容易。问题是,我们正在谈论的大模型人工智能系统并不是由明确的想法构成的。系统“想要什么”没有明确的表述,它在做一件特定的事情时没有标签,比如操纵一个人。只有一个巨大的果冻海洋——一个庞大的数学混合体。一个作家权利团体提议,当GPT等工具被用于剧本创作时,真正的人类作者应得到全额报酬,毕竟,系统是在借鉴真实人物的剧本。但是,当我们使用人工智能来制作电影片段,甚至可能是整部电影时,不一定会有一个编剧阶段。一部电影被制作出来,可能看起来有剧本、配乐等,但它将作为一个整体被计算出来。试图通过让系统吐出脚本、草图或意图等不必要的项目来打开黑匣子,将涉及建立另一个黑匣子来解释第一个黑匣子——一个无限的倒退。

同时,也不是说大模型内部一定是一个人迹罕至的荒野。在过去的某个时刻,一个真实的人创造了一幅插图,作为数据输入到模型中,再加上其他人的贡献,这就变成了一幅新鲜的图像。大模型人工智能是由人组成的,而打开黑盒子的方法就是揭示它们。

我参与提出的一个概念,通常被称为“数据尊严”。早在大模型“人工智能”兴起之前,它就出现了,即人们免费提供他们的数据以换取免费服务,如互联网搜索或社交网络。这种熟悉的安排被证明有黑暗的一面:由于“网络效应”,少数平台接管了,淘汰了较小的参与者,如地方报纸。更糟糕的是,由于直接的在线体验是免费的,剩下的唯一生意就是兜售影响力。用户体验到的似乎是一个集体主义的天堂,但他们却被隐秘的、令人上瘾的算法盯上,使人们变得虚荣、烦躁和偏执。

在一个有数据尊严的世界里,数字的东西通常会与那些希望因制造它而闻名的人联系起来。在这个想法的某些版本中,人们可以为他们创造的东西获得报酬,即使这些东西是通过大模型过滤和重新组合的,而技术中心将因促进人们想要做的事而赚钱。有些人对网上资本主义的想法感到恐惧,但这将是一个更诚实的资本主义。人们熟悉的“免费”安排已经是一场灾难。

科技界担心人工智能可能成为生存威胁的原因之一是,它可能被用来玩弄人类,就像前一波数字技术那样。考虑到这些新系统的力量和潜在影响,担心可能灭绝也不是没有道理的。由于这种危险已得到了广泛的认识,大模型人工智能的到来可能是一个为改善科技行业而进行改革的机会。

落实数据尊严将需要技术研究和政策创新。在这个意义上,作为一个科学家,这个主题让我感到兴奋。打开黑匣子只会让模型更有趣。而且它可能会帮助我们更多地了解语言,这是真正令人印象深刻的人类发明,也是我们在这几十万年后仍在探索的发明。

数据尊严能否解决人们对人工智能经常表达的经济忧虑?主要的担忧是,工人会被贬低或取代。在公开场合,技术人员有时候会说,在未来几年,从事人工智能工作的人将会有更高的生产力,并会在一个更有生产力的经济中找到新的工作类型。(例如,可能成为人工智能程序的提示工程师——一些与人工智能合作或控制人工智能的人)然而,在私下里,同样的人经常会说,“不,人工智能将超越这种合作的想法”。今天的会计师、放射科医生、卡车司机、作家、电影导演或音乐家再也赚不到钱。

当一个大模型提供有价值的输出时,数据尊严的方法将追踪最独特和有影响力的贡献者。例如,如果你要求一个模型制作一部动画电影:我的孩子们在油彩世界中冒险,有会说话的猫。那么起关键作用的油画家、猫的肖像画家、配音演员和作家——或者他们的遗产——可能被计算为对新创作有独特的重要性。他们将得到认可和激励,甚至可能得到报酬。

起初,数据尊严可能只关注在特定情况下出现的少数特殊贡献者。不过,随着时间的推移,更多人可能会被包括进来,因为中间的权利组织——工会、行会、专业团体等开始发挥作用了。数据尊严圈子的人们有时称这些团体为个人数据的调解人(MIDs)或数据信托。人们需要集体谈判的力量,以便在网络世界中拥有价值——特别是当他们可能在巨大的人工智能模型中迷失时。当人们在一个群体中分担责任时,他们会自我监督,减少政府和公司审查或控制的需要或诱惑。承认大模型的人类本质,可能会导致积极的新社会机构开花结果。

数据尊严不仅仅针对白领角色。考虑一下,如果引入人工智能驱动的修剪树木的机器人会发生什么。修剪树木的人可能会发现自己的价值被贬低,甚至失去工作。但是,机器人最终可能使用一种新型的景观美化艺术。一些工人可能会发明具有创造性的方法,比如从不同角度看都不一样的全息图案,这些方法会进入修剪树木的模型。有了数据尊严,这些模型可能会创造新的收入来源,通过集体组织分配。随着时间的推移,树木修剪将变得功能更多和更有趣;将有一个社区被激励出价值。每一个新的人工智能或机器人应用的成功引入,都可能涉及一种新的创造性工作的开始。无论大小,这可以帮助缓和向整合大模型的经济的过渡。

硅谷的许多人将全民基本收入视为解决人工智能造成的潜在经济问题的办法,但全民基本收入相当于让每个人都依靠救济金,以维护黑箱人工智能的想法。我认为这是一个可怕的想法,部分原因是不良行为者会想在一个全体福利制度中夺取权力中心。我怀疑数据尊严是否能增长到足以支撑整个社会,但我也怀疑任何社会或经济原则都会变得完整。只要有可能,目标应该是至少建立一个新的创造阶层,而不是一个新的依赖阶层。

模型的好坏取决于其输入。只有通过像数据尊严这样的系统,我们才能将模型扩展到新的领域。现在,让大型语言模型写一篇文章比让程序生成一个互动的虚拟世界要容易得多,因为已有的虚拟世界非常少。为什么不通过给开发更多虚拟世界的人一个获得声望和收入的机会来解决这个问题?

数据尊严可以帮助解决任何一种人类灭亡的情况吗?一个大模型可以让我们变得无能,或者让我们非常困惑,以至于社会集体走火入魔;一个强大、恶意的人可以利用人工智能对我们所有人造成巨大伤害;有些人还认为模型本身可以“越狱”,控制我们的机器或武器,用它们来对付我们。

我们不仅可以在科幻小说中找到其中一些情景的先例,还可以在更普通的市场和技术失败中找到。一个例子是2019年波音737 MAX飞机的空难。这种飞机有飞行路径校正功能,在某些情况下会与飞行员对抗,导致两次出现大规模伤亡的坠机。问题不是孤立的技术,而是它被整合到销售周期、培训课程、用户界面和文件中的方式。飞行员认为他们在某些情况下试图抵制该系统是正确的,但他们的做法正是错误的,而且他们无从知晓。波音公司未能清楚地沟通技术的运作方式,由此产生的混乱导致了灾难。

任何工程设计——汽车、桥梁、建筑——都可能对人造成伤害,但我们却在工程上建立了一个文明。正是通过提高和扩大人类的意识、责任和参与,我们才能使自动化变得安全;反之,如果我们把我们的发明当作神秘物品,我们就很难成为好的工程师。把人工智能看作是一种社会协作的形式更具有可操作性:它使我们能够进入机房,机房是由人组成的。

让我们考虑一下世界末日的情景,即人工智能使我们的社会脱离轨道。可能发生的一种方式是通过深度伪造。假设一个邪恶的人,也许在一个处于战争状态的敌对政府工作,决定通过向所有人发送我们所爱的人被折磨或被绑架的令人信服的视频,来煽动大众的恐慌。(在许多情况下,制作这种视频所需的数据很容易通过社交媒体或其他渠道获得)。混乱会接踵而来,即使很快就会发现这些视频是伪造的。我们如何才能防止这种情况的发生?答案很明显:确保数字信息有背景(context)。

网络的最初设计并没有记录比特的来源,可能是为了使网络更容易快速发展。(一开始计算机和带宽都很差。)为什么当记住比特的来源(或近似于来源)变得更可行时,我们不开始记录?在我看来,我们总是希望网络比它需要的更神秘。不管是什么原因,网络生来是为了记住一切,同时忘记来源。

今天,大多数人理所当然地认为,网络,以及它所建立的互联网,就其性质而言,是反背景、没有出处的。我们认为,去背景化是数字网络概念本身所固有的。然而,事实并非如此。不朽的科学家范尼瓦尔·布什(Vannevar Bush)在1945年、计算机科学家泰德·纳尔逊(Ted Nelson)在1960年提出的数字网络架构的最初建议,就保护了出处。现在,人工智能正在揭示忽视这种方法的真正代价。没有出处,我们就没有办法控制我们的人工智能,也没有办法使它们在经济上公平。而这有可能将我们的社会推到边缘。

如果一个聊天机器人出现了操纵性、刻薄、怪异或欺骗性的行为,当我们问及原因时,我们想要什么样的答案?揭示机器人学习其行为时的来源,将提供一个解释:我们会了解到它借鉴了一部特定的小说,或者一部肥皂剧。我们可以对这种输出作出不同的反应,并调整模型的输入以改善它。为什么不一直提供这种类型的解释?在某些情况下,可能不应该透露出处,以便优先考虑隐私,但出处通常比对隐私的独家承诺更有利于个人和社会。

数据尊严的技术挑战是真实的,必须激发严肃的科学志向。政策上的挑战也将是实质性的。但我们需要改变思维方式,并接受艰苦的改造工作。如果坚持过去的想法——包括对人工智能独立可能性的迷恋——我们就有可能以使世界变得更糟的方式使用新技术。如果社会、经济、文化、技术或任何其他活动领域要为人服务,那只能是因为我们决定人享有被服务的特殊地位。

这是我对所有同行的恳求。想想人。人是解决比特问题的答案。

来源:澎湃新闻

2023年4月23日星期日

网络攻击、侵入、干扰将被纳入间谍行为

4月21日,全国人大常委会法制工作委员会举行记者会。会上,全国人大常委会法制工作委员会发言人臧铁伟介绍,反间谍法修订草案将提交即将于4月24日至26日召开的十四届全国人大常委会第二次会议三审。

关于反间谍法修订草案(三次审议稿),臧铁伟介绍,2022年8月第十三届全国人大常委会第三十六次会议和12月第三十八次会议对反间谍法修订草案进行了两次审议。根据各方面意见,提请本次常委会会议审议的修订草案三次审议稿拟作几点主要修改。

一:完善关于网络间谍行为的规定,针对信息网络的特点,明确间谍组织及其代理人等针对国家机关、涉密单位或者关键信息基础设施等的网络攻击、侵入、干扰、控制、破坏等活动,属于间谍行为。

二:平衡赋权与限权,增加救济程序,规定经采取相关措施,涉及间谍行为的网络安全风险或者信息内容已经消除的,有关部门应当及时作出恢复传输和相关服务的决定。

臧铁伟介绍,2022年12月,十三届全国人大常委会第三十八次会议后,反间谍法修订草案二次审议稿等相关法律草案在中国人大网公开,征求社会公众意见。反间谍法修订草案二次审议稿通过中国人大网共收到112人提出的201条意见。普遍认为,修订反间谍法是完善国家安全法律制度体系的重大举措,修订草案坚持问题导向,丰富完善了反间谍工作职权、工作保障,与其他法律法规进行了有效衔接,为打击间谍违法犯罪活动,维护国家主权、安全和发展利益,提供了坚强的法治保障。社会公众就进一步修改完善修订草案提出的意见,主要集中在几个方面:

一.完善间谍行为的定义,增加有关网络间谍的规定。

二.明确国家安全机关指导安排宣传教育的职责。

三.平衡反间谍工作与保护个人、组织合法权益之间的关系,加强在反间谍工作中对个人信息的保护。

稿源:红星新闻

iOS 17将支持应用程序侧载

据彭博社记者Mark Gurman报道,苹果在iOS 17中首次允许iPhone用户下载其官方App Store以外的应用程序。也就是所谓的侧载,这一变化将允许客户在不需要使用App Store的情况下下载应用,这意味着开发者如若不在苹果应用商店上架程序就不需要支付苹果公司15%到30%的费用。

欧盟《数字市场法》(DMA)于2022年11月1日生效,要求"守门人"公司向其他公司和开发者开放其服务和平台。

DMA将对苹果的平台产生很大影响,它可能导致苹果对App Store、信息、FaceTime、Siri等部件做出重大改变。据Gurman称,苹果正计划在明年之前实施侧载支持,以符合欧洲的新规定。

苹果公司一直以来声称,侧载机制的加入将"破坏iPhone用户依赖的隐私和安全保护",使人们容易受到恶意软件、诈骗、数据跟踪和其他问题的影响。然而,苹果公司必须遵守DMA的规定,否则如果违反欧盟法律,它将面临高达其全球收入20%的罚款。

在2022年12月的一份报告中,Gurman说,苹果正在考虑实施安全要求,如验证,这个过程它可以收取费用,而不是从直接销售应用程序中收钱。苹果在Mac上有一个验证系统,可以让用户在安全的同时获得Mac应用商店之外的应用。

如果其他国家出台类似的立法,这种做法可能会扩展到欧盟之外。例如,美国正在考虑立法,要求苹果允许侧载。

稿源:cnBeta

2023年4月22日星期六

谷歌合并两大AI团队成立Google DeepMind

在科技公司对人工智能赛道的争夺进入白热化之际,谷歌实施一项重大重组,合并了两个主要的人工智能研究部门:DeepMind与Google Brain,组成Google DeepMind。

Alphabet和谷歌CEO桑德尔·皮查伊(Sundar Pichai )当地时间4月20日在一篇博文中表示,合并后的团队将“显著加快我们在AI方面的进步。”

DeepMind首席执行官德米斯·哈萨比斯(Demis Hassabis)将担任Google DeepMind的首席执行官,皮查伊表示,哈萨比斯将“领导开发我们最有能力和负责任的通用人工智能系统”。同时,负责监督Google Brain团队的前谷歌研究与健康部门(Google Research and Health)高级副总裁、Brain团队联合创始人杰夫·迪恩(Jeff Dean)将任Google Research和Google DeepMind首席科学家一职。

皮查伊在博文中说:“在谷歌计算资源的支持下,将所有这些人才整合成一个专注的团队,将大大加快我们在人工智能方面的进展。”

“通过与谷歌产品领域优秀同事的密切合作,我们有机会提供人工智能研究和产品,从而显著改善数十亿人的生活、改变行业、推动科学发展并服务于多元化社区。”哈萨比斯在写给员工的备忘录里说, “通过创建 Google DeepMind,我相信我们可以更快地实现那个未来。以安全和负责任的方式构建更强大和通用的人工智能,要求我们解决我们这个时代一些最艰巨的科学和工程挑战。”

谷歌和微软支持的OpenAI等科技公司一直在竞相构建越来越强大的大型语言模型。这些程序已经展现了在多种任务上的潜力,譬如对复杂文档进行摘要和进行类似人类的对话。谷歌开创了为此类模型发展铺平道路的技术,比如Transformer,但又在很大程度上阻止了其最强大的图像和文本生成程序的公开发布,理由是需要测试工具的准确性和偏见问题。3月,谷歌开放了与ChatGPT和必应聊天机器人竞争的Bard的抢先体验,还为开发人员开放了对其最大的AI 算法之一——PaLM的有限访问权限。本周又有消息称,谷歌正在构建一个由人工智能技术驱动的全新搜索引擎,将提供更个性化的用户体验,试图预测用户的需求。

总部位于英国的DeepMind创建于2010年,由德米斯·哈萨比斯和其他人创办。2014年,DeepMind开始开发人工智能围棋软件AlphaGo,这款全球闻名的软件击败了李世石等世界冠军。2016年,DeepMind将其人工智能研究转向蛋白质折叠,2022年,其开发的AlphaFold已经预测了全球几乎所有的蛋白质结构。

Alphabet在2014年以大约5亿美元收购了DeepMind,长期以来一直将Google Brain和DeepMind视为独立的团队,尽管它们在AI研究的几个领域有很大的重叠。这种设置有时会在领导者之间造成紧张关系,因为各部门会争夺资源等。

斯坦福人工智能实验室主任克里斯托弗·曼宁(Christopher Manning)对《华尔街日报》表示,考虑到Google Brain和DeepMind的不同文化,此次合并将标志着谷歌人工智能研究人员合作方式的“巨大转变”。“从战略上讲,合并似乎是明智的。”曼宁说, “从战术上讲,管理组织和文化变革将变得困难。”

稿源:澎湃新闻

Reddit要求科技巨头付费使用API接口

社交平台Reddit不想再让科技巨头们免费使用海量数据了。当地时间4月18日,据《纽约时报》,Reddit近日表示,计划开始向访问其应用程序编程接口(API) 的公司收费,外部企业可以通过付费下载和处理社交网络中的海量对话。

公开资料显示,Reddit被称为“美国版百度贴吧”,是一家拥有18年历史的社交媒体平台,用户可以在上面发帖、评论、交流各种话题。

近年来,Reddit上发布的聊天内容已成为谷歌、OpenAI和微软等公司的训练素材,这些公司正在搜集和使用Reddit平台上的对话来开发ChatGPT等生成式人工智能产品。

“Reddit的数据语料库非常有价值,”Reddit创始人兼CEO史蒂夫·霍夫曼在接受《纽约时报》采访时表示,“但我们不想把这些内容免费提供给一些巨头公司。”

Reddit也成为首批公开表态要求科技巨头付费使用数据的企业。

“这些人工智能公司使用Reddit数据创造价值,却不将任何价值返回给Reddit用户,这是不合理的。”霍夫曼认为,在他看来,为此向这些科技巨头收费是一个公平的举措。

据《纽约时报》,谷歌、Open AI和微软尚未回应此事。谷歌开发的聊天机器人Bard的底层算法部分是在Reddit数据上训练的,OpenAI的ChatGPT也引用Reddit数据作为接受培训的信息来源之一。

Reddit尚未公开具体的收费规则和种类,外界预期将根据数据大小实行分类价格。

霍夫曼表示,Reddit的API将继续免费提供给希望构建应用程序,帮助人们使用Reddit的开发人员,出于非商业目的研究Reddit数据的研究人员也可以继续免费访问。

未来,Reddit希望将更多机器学习纳入网站应用中,例如用来识别Reddit上人工智能生成文本的使用,并添加标签来通知用户该评论来自机器人。同时,还将支持论坛管理员使用帮助监控用户发帖内容的第三方机器人,方便管理。

Reddit此举或许与其今年计划IPO(首次公开募股)有关。

Reddit成立于2005年,主要收入来源于平台上的广告和电子商务交易。Reddit表示,它仍在敲定API访问收费的细节,并将在未来几周内公布价格。

值得注意的是,除了Reddit之外,其他公司也逐渐不再愿意免费提供平台数据。当地时间4月19日,美国消费者新闻与商业频道(CNBC)报道,社交媒体推特CEO埃隆•马斯克威胁要起诉微软。马斯克指责微软非法使用其社交媒体推特上的数据,以训练其人工智能模型。

此前有媒体报道,微软的广告平台将停止支持推特,因为推特更改了其API的定价。马斯克在这条推文下留言,“他们非法使用推特数据进行训练。诉讼时间到了。”根据推特的新定价,API用户(包括企业和研究机构)每月至少需要支付高达4.2万美元才可使用。

据CNBC报道,类似于GPT的大型语言模型需要TB级数据库(存储数据量为1TB以上)进行训练,其中大部分数据从社交网站Reddit、程序员问答社区StackOverflow和推特等网站中抓取——来自社交网络的培训数据非常有价值,因为其具有非正式场合的交互对话。

来源:澎湃新闻

2023年4月20日星期四

SpaceX星舰发射失败 升空后发生爆炸

4月20日消息,特斯拉CEO埃隆•马斯克(Elon Musk)旗下太空探索技术公司SpaceX刚刚点火发射了新一代运载火箭星舰(Starship),这也是它的首次轨道飞行测试,但没能成功。21点35分,星舰在得克萨斯州布朗斯维尔(Brownsville)郊外的SpaceX试验场发射升空,随后在空中发生爆炸。SpaceX表示,星舰和推进器未能分离。

4月17日晚间,星舰在原定发射时间将到来时宣布推迟,理由是压力阀似乎冻结。当时,马斯克还发文称“学到很多,几天后再来。”

这次发射任务至关重要,它不但关系到马斯克的火星梦,还会影响美国的重返月球计划。按计划,在星舰发射约8分钟后,其助推器将坠入墨西哥湾。而飞船仓将继续飞行,直至达到约150英里(约240公里)的高度,绕地球飞行一段时间后,重新进入大气层。

如果一切顺利,在发射约90分钟后,飞船仓将重返大气层,坠入考艾岛(Kauai)以北约62英里(约100公里)处的太平洋。虽然助推器和飞船仓都可以回收重复利用,但这一次SpaceX不会进行回收。

重返大气层将考验飞船的空气动力学操纵的能力,以及隔热能力,以承受它在垂直穿过大气层时产生的强烈摩擦。马斯克说:“飞船将像流星一样驶来。这也是它未来多次飞行的漫长旅程的第一步。更多的助推器已经在发射场待命,用于未来的试飞。”

星舰是SpaceX的新一代运载火箭,总高度约120米,由底部70米高、配备33台猛禽发动机的超重型推进器,以及顶部50米高、可重复利用的飞船舱组成。其终极目标是搭载宇航员前往月球和火星。

SpaceX自2019年以来就在开发星舰,并对多艘原型进行了测试,而这一次是它的首次轨道飞行测试,旨在为SpaceX提供大量有价值的信息,以尽早让星舰正式投入运营。

根据SpaceX的设想,“星舰”是一种完全可重复使用的运输系统,可以将航天员和货物运送到地球轨道、月球、火星等地。美国“太空”网站称,此前保持“人类最大运载火箭”称号的是冷战期间用于“阿波罗”登月计划的美国“土星五号”火箭,它高约111米,可发射约130吨有效载荷进入地球轨道,将约50吨有效载荷送往月球。NASA表示,“太空发射系统”可将27吨以上的载荷送入月球轨道。相比之下,完全可重复使用“星舰”的近地轨道运载能力约为150吨。在不考虑回收的情况下,“星舰”有效载荷高达250吨-300吨。

SpaceX公司CEO马斯克曾表示,与专门用于载人登月的“土星五号”和“太空发射系统”不同,“星舰”凭借强大的运载能力和多用化设计,可执行“星链”卫星发射、向月球和火星运送航天员和设备,以及更富科幻色彩的外星殖民和太空矿业开发。

马斯克还宣称,“星舰”的发射成本相当低,一旦相关试验取得成功,将启动规模化生产,以每年建造100艘的速度,打造1000艘“星舰”组成的太空舰队,将10万人和相关物资运送到火星,实现从21世纪20年代后期开始在火星殖民的梦想。

如果星舰试射成功,外界认为,这将是一个重要里程碑,标志着马斯克的人类移民火星计划迈出关键一步。

来源:综合每日经济新闻、中国蓝新闻、看看新闻、新浪新闻、公开资料