首页 行业 最新信息 查看内容

史上最强AI被喷,马斯克躺枪发推:我早看不惯OpenAI

2019-2-19 02:40| 发布者: | 查看: 199| 评论: 0

摘要:   文/三石、元子  来源:新智元(ID:AI_era)  前几日,OpenAI 发布史上最强通用NLP 模型,但号称过于强大怕被滥用而没有开源,遭到网友猛怼、炮轰。而做为创始人之一的马斯克,虽然早已离开董事会,碍于舆论 ...

  文/三石、元子

  来源:新智元(ID:AI_era)

  前几日,OpenAI 发布史上最强“通用”NLP 模型,但号称过于强大怕被滥用而没有开源,遭到网友猛怼、炮轰。而做为创始人之一的马斯克,虽然早已离开董事会,碍于舆论,不得不站出来做出澄清:我早已退出。

  OpenAI 发布的史上最强 NLP 似乎成了负面新闻。

  原因是,OpenAI 并没有公布 GPT-2 模型及代码,只是象征性的公布了一个仅含 117M 参数的样本模型及代码,给到的理由:因为这个模型能力太强大了!他们目前还有点 hold 不住它。一旦开源后被坏人拿到,将会贻害无穷。

  之后有网友气不过跑到马斯克推特底下,叫骂 OpenAI 干脆改名 CloseAI。

  然而,马斯克却连发数文,澄清与 OpenAI 的关系:我早已退出。

  马斯克表示,已经有一年多的时间没有和 OpenAI 密切合作了,并且也没有管理层和董事会的监督。

  而后有网友追问:“一直不知道你为何离开 OpenAI,可否给予详细的解释说明?”

  马斯克便又在推特上补充道:

  我必须集中精力解决大量让人头疼的工程和制造问题,尤其是在特斯拉和 SpaceX 方面。

  此外,特斯拉与 OpenAI 在人才争夺方面也有一些交集,我并不同意其团队想要做的一些事情。综上所述,希望最好是友好分手。

  曾是人工智能的反对者,却创立高端 AI 公司

  2015 年 12 月,马斯克与 Y Combinator 总裁 Sam Altman 共同创立这个非营利组织研究机构,以研究人工智能的道德和安全问题。

  然而,在亲手创办两年多后,伊隆·马斯克退出了 OpenAI 董事会。

  虽然马斯克于去年 2 月离开了该组织,但却一直被认为是 OpenAI 主要资助者之一。

  官博地址:

  https://blog.openai.com/openai-supporters/

  OpenAI 在去年 2 月 20 日发布的官方博客中也提到:“马斯克将离开 OpenAI 董事会,但仍将继续为该组织提供捐赠和建议。随着特斯拉将更加关注人工智能,这将消除马斯克未来潜在的冲突。”

  值得注意的是,马斯克一直是人工智能最大的批评者之一。2014 年在麻省理工学院演讲时,他将人工智能描述为“存在的最大威胁”,甚至称之为“召唤恶魔”。

  他还认为人工智能甚至可以导致第三次世界大战。他补充称,大国之间都不会故意发动核战争,但人工智能将是最有可能的、先发制人的取胜之道。

  OpenAI 称模型使用 15 亿参数,训练一小时相当于烧掉一台 iPhone Xs Max(512G)

  马斯克之所以被@出来说明一个问题:Elon 离开 OpenAI 的消息,还有很多人不知道,或者知道他已经离开了董事会却不知为何,导致他又特意出来发推澄清一下,顺便又蹭了一下 OpenAI 最近的热点。

  OpenAI 近日宣称他们研究出一个 GPT-2 的 NLP 模型,号称“史上最强通用 NLP 模型”,因为它是:

  踩在 15 亿参数的身体上:爬取了 Reddit 上点赞超过三票的链接的文本内容,大约用到 1000 万篇文章,数据体量超过了 40G,相当于 35000 本《白鲸记》。(注:小说约有 21 万单词,是电影《加勒比海盗》的重要故事参考来源之一。动漫《海贼王》里四皇之一的白胡子海贼团的旗舰就是以故事主角大白鲸的名字 Moby Dick 命名)。

  无需预训练的“zero-shot”:在更通用的数据集基础上,使用自注意力模块迁移学习,不针对任何特定任务的数据进行训练,只是作为最终测试对数据进行评估,在 Winograd Schema、LAMBADA 以及其他语言建模任务上实现了 state-of-the-art 的结果。

  最终结果:8 个数据集中油 7 个刷新当前最佳纪录。

  下表显示了最先进的 zero-shot 结果。(+)表示该项分数越高越好。(-)表示分数越低越好。

  虽然 OpenAI 没有在论文中提及具体的计算力及训练时间,但通过公布的数据推测,他们的模型使用了 256 个谷歌云 TPU v3。

  TPU v3 在 Google 之外只提供单独使用版本(排除 OpenAI 可能得到了特别的许可),很可能 GPT-2 训练时所需的成本将高达 8 * 256 = 2048 美元/小时,相当于一小时烧掉一台 512G 的 iPhone Xs Max。

  然而,OpenAI 并没有公布 GPT-2 模型及代码,只是象征性的公布了一个仅含 117M 参数的样本模型及代码,相当于他们宣称使用的数据量的 0.29%。(有兴趣的读者可以去 https://github.com/openai/gpt-2 查看)

  OpenAI 给出的理由是:因为这个模型能力太强大了!他们目前还有点 hold 不住它。一旦开源后被坏人拿到,将会贻害无穷。有点中国武侠小说里,绝世武功秘籍的意思。

  面临着实验重现的危机,网友吐槽:不公开代码和训练集就干脆别发表!

  于是开发者和学者们不干了,纷纷质疑 OpenAI 这种做法显得心口不一。甚至盛产吐槽大神的 Reddit 上,有人建议 OpenAI 干脆改名 CloseAI 的言论,获得了数百网友的点赞。

  OpenAI 干脆改名“CloseAI”算了!

  我也做了个超强大的 MNIST 模型,要不要担心它被滥用而不公开呢?

  更有甚者,比如下面这位 Ben Recht,还发了一条 Twitter 长文进行嘲讽:

  今天我要介绍我们的论文“Do ImageNet Classifiers Generalize to ImageNet?” 我们尝试按照原论文描述复现其结果,但发现这样做实在太难!

  ……我们完全可以基于一个不能公开的数据集构建一个超大模型,在我们自己的标准 ML 范式中很难发生过拟合。

  但是,测试集上的一个微小改动就会导致分布结果大幅变化,你可以想见把模型和代码全都公布出来以后会发生什么!

  PS 这篇论文还在 arxiv 等候审核发布,要不是我们的最终版 PDF 过大,那就是因为 arxiv 也学着 OpenAI 的做法,觉得 AI/ML 研究太过危险而不能公开。

  因为人工智能这个蓬勃发展的领域正面临着实验重现的危机,AI 研究者发现他们很难重现许多关键的结果。

  针对主要会议上发表的 400 篇 AI 论文的调查显示,只有6% 的论文包含算法的代码,约 30% 包含测试数据,54% 包含伪代码。

  CREDITS: (GRAPHIC) E. HAND/SCIENCE; (DATA) GUNDERSEN AND KJENSMO, ASSOCIATION FOR THE ADVANCEMENT OF ARTIFICIAL INTELLIGENCE 2018

  去年,加拿大蒙特利尔大学的计算机科学家们希望展示一种新的语音识别算法,他们希望将其与一名著名科学家的算法进行比较。

  唯一的问题:该 benchmark 的源代码没有发布。研究人员不得不从已公开发表的描述中重现这一算法。

  但是他们重现的版本无法与 benchmark 声称的性能相符。蒙特利尔大学实验室博士生 Nan Rosemary Ke 说:“我们尝试了 2 个月,但都无法接近基准的性能。”

  另外一群人更担心 GPT-2 会导致假新闻出现井喷。OpenAI 也拿 DeepFake 举了个例子。

  DeepFake 由于其强大的图像生成能力,成了一个“假脸生成器/换脸器”,制造出大量恶意的虚假视频、音频和图像,最终被禁用。

  比如这次,不怀好意的人完全可以借助 GPT-2,发布有关 Elon 的假新闻,说他虽然公开宣称去年就退出 OpenAI,但实际上私下还在 OpenAI 身居要职,恐怕也会有很多人相信。

  技术是把双刃剑,越是强大的技术,一旦被用于坏用途,约可能造成更坏的结果。那么在这场意外掀起的激烈争论中,你站在哪一边呢?

  参考链接:

  https://twitter.com/elonmusk/status/1096989482094518273?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1096989482094518273&ref_url=https%3A%2F%2Fwww.bloomberg.com%2Fnews%2Farticles%2F2019-02-17%2Felon-musk-left-openai-on-disagreements-about-company-pathway


鲜花

握手

雷人

路过

鸡蛋
毒镜头:老镜头、摄影器材资料库、老镜头样片、摄影
爱评测 aipingce.com  
返回顶部