成都理工大学v3(漫威为什么选择在钢铁侠1的结尾公开钢铁侠的身份)

1. 成都理工大学v3,漫威为什么选择在钢铁侠1的结尾公开钢铁侠的身份?

作为漫威在2008年开始走向如今的超英电影题材领域的“王朝”,可以说,小罗伯特·唐尼所饰演的“钢铁侠”因为演员和角色之间的匹配度,使得很大程度上“钢铁侠”的成功对漫威造成的积极影响形成了“滚雪球”式的效应。

甚至可以说,这种12年前的“成功”,即便是在现如今,也依旧在发挥着一定的影响。

而这也是为什么会有很多影迷粉丝,对于漫威《钢铁侠》的成功一直都是保持着非常高的评价,甚至对于演员小唐尼来说,也是有着不低的评价——

“漫威一开始只想找个钢铁侠的演员,但是却没想到找到了钢铁侠本人!”

所以,在很大程度上来说,钢铁侠的成功抛开漫威本身对于钢铁侠这个角色的从漫画到电影过程中的改编以外,更多的就是演员和角色的之间高度的契合。

那么,基于这种契合程度来说,其实我们完全可以理解为啥漫威会在电影中直接让钢铁侠自曝身份,而不是继续隐藏下去,具体来说,有3点:

【1】托尼·斯塔克:隐瞒身份?这不是我风格!

其实看过《钢铁侠》电影的粉丝都清楚,在电影中,钢铁侠从起源到最后的完整上线,除了罗德上校(后来的战争机器)以外,更多的就是“神盾局”中的科尔森的介入了。

甚至,对于当时早就有意和钢铁侠搞好关系的神盾局,也是在科尔森的操作之下,为托尼·斯塔克在最后的新闻发布会上做就好了全盘的“剧本设定”,基本上可以说只要钢铁侠照着剧本“演”下去,那么,突然横空出现的“钢铁侠”就和托尼·斯塔克没有丝毫的关系。

但是,我们说,这符合托尼·斯塔克的人设吗?

回答显然是,NO!

因为从电影《钢铁侠》一开始,我们看到的托尼·斯塔克就是一个“爱显摆”,不经意之间会露出自己非常强大的自信甚至是有些自负的性格在内,而在漫威原本的设定中,其实钢铁侠也恰恰就不是一个能够像“DC蝙蝠侠”那样能够将自己隐藏起来的人设。

再加上,从钢铁侠山洞获救之后,发现自己的斯塔克企业曾经最赚钱的军火业务,其实一直都是造成很多人家破人亡的“罪魁祸首”之后,托尼·斯塔克内心前后的矛盾感是非常强烈的。

但是在漫威主线的“引导”之下,其实我们能够预料到,钢铁侠会在后半段剧情中来一个“浪子回头”。

只不过,这种浪子回头的“程度”很多影迷可能意料不到——

直接砍掉自己最赚钱的军火业务!

同样,在钢铁侠作出这种几乎可以视为“自断一臂”的操作之后,紧随其后的,就是基于电影主线的钢铁侠角色的不断成熟和培养。

因为,单单是取消斯塔克企业的军火业务,只能算是亡羊补牢,这对于钢铁侠这一角色本身来说,并没有太多的加成,但是如果在经过一番大战之后,钢铁侠在取消军火业务的基础上,再来承认自己是钢铁侠,这个效果就一下子起来了。

同时,基于托尼·斯塔克这种能够在经过一番事情的洗礼之后,能够果断取消自己最赚钱的业务,其实也能够看出来托尼·斯塔克人设上的“自由不羁”:

不愿意受到寻常规则的束缚,不愿走寻常之路!

所以,在原本神盾局已经安排好的剧本的设定下,钢铁侠如果单纯的按照剧本演,其实反而是对于钢铁侠这一角色最大的削弱,相反,只有不按套出牌的行为,这才是钢铁侠的风格。

【2】“I'm iron man”是漫威释放的一个信号!

对于漫威来说2008年是一个东山再起和就此成为历史的关键一年,这一年漫威为了拍摄《钢铁侠》将手中剩余的英雄拿去做贷款资本,通过拿到的资金这才拍摄了“钢铁侠”,可以说这对于当时的电影导演乔恩·费儒来说,是一个非常大的挑战。

因为如果钢铁侠拍砸了,那么,或许我们今天就不会知道“漫威”这个牌子,更别说是整个漫威电影宇宙了。

但是,即便是在这种情况之下,当时的漫威也是做好了一系列的蓝图规划,对于当年的这部《钢铁侠》漫威还是抱有非常大的希望的,为此,对于当时的漫威来说,通过钢铁侠最后的这句“I'm iron man”,本身也是一个漫威准备最后一搏的“宣言”。

成功了,这就是漫威东山再起的信号!

失败了,这就是漫威成为过去式的最后一抹光亮!

因此,很大程度上这句钢铁侠最后的“坦白”,所包含的东西,有些其实已经跳出了电影本身,是漫威自己的一次“呐喊”。

【3】天下皆知的事情,再遮遮掩掩就没意思了!

其实对于电影本身来说,除非是角色本身在剧情和人设上的需求,否则,对于角色身份的掩藏是非常没有意义的。

而对于钢铁侠来说,其实就是这样一种情况。

在《钢铁侠》中,钢铁侠这一角色的塑造离不开托尼·斯塔克和整个斯塔克工业的加持,因此,如果在通篇剧情没有给钢铁侠加持隐藏身份的需求的情况下,再让钢铁侠最后来一个“此地无银三百两”,在剧情上没有丝毫的意义。

在电影节奏上,作为结尾部分的设定,如果钢铁侠隐藏了身份,会直接让电影结尾的节奏陷入低迷。

这对于观影感受来说,有极大的影响,会给人一种高开低走的感觉。

当然,除此之外——

电影中,对于钢铁侠的身份设定,如果我们从主线剧情角度来说,其实也是“必须”要去公开的,典型的如果钢铁侠隐藏身份,但是对于后期涉及到斯塔克大厦,乃至是《钢铁侠3》中钢铁侠海边别墅被火箭弹招呼的设定,就完全无法继续下去。

甚至,如果我们借助DC的蝙蝠侠来参考的话,钢铁侠要想同样隐藏身份,在剧情也没有蝙蝠侠那样的条件。

因为电影中钢铁侠多数都是在光天化日之下行动,甚至,对于钢铁侠的行踪,但凡是有心人都可以发现,钢铁侠战甲降落的位置是斯塔克大厦等这类和托尼·斯塔克有着极大关系的标志性建筑物。

所以,如果这时候还要在遮掩,那就不是把影迷当成傻子,而是整体拉低了漫威宇宙中的地球吃瓜群众和一帮反派的智商水平了。

因此,掩藏身份根本没有必要。

毕竟,钢铁侠的身份即便是在神盾局的影响下,反派要想知道肯定能够查到,而单纯的对一帮吃瓜群众隐瞒其实并没有太大的意义。

甚至——

如果漫威选择将钢铁侠的身份隐瞒,先不说不符合漫威漫画中的原设定,单单是这种高富帅隐藏身份行侠仗义的设定,都会让不少影迷联想到蝙蝠侠,而到时候钢铁侠也少不了被人吐槽、嘲讽模仿蝙蝠侠套路的评论。

显然,对于这点风险来说漫威只要不傻,就不会去做而且也没有必要去做。

更多精彩漫威电影情报、漫威美剧推荐、漫威吐槽,请关注漫威电影情报局

本文图片源自网络,侵删~

成都理工大学v3(漫威为什么选择在钢铁侠1的结尾公开钢铁侠的身份)

2. 如何理解自动化机器学习?

过去十年,谷歌在人工智能领域的重重突破,有很大一部分和 Quoc Le 有关。这位出生在越南的谷歌研究员像是一个人工智能的信徒,坚信机器学习能够解决一切让人烦恼的问题,即使存在失败的可能性,他也乐在其中。AutoML 则是他最新的研究方向,也是被认为将改变整个深度学习发展进程的技术。正如此,我们希望从和 Le 的采访中探寻围绕在 AutoML 的真相和未来。

在这场一个小时的采访里,笔者印象最深刻的是下面的两句话:1. 我们做到了自动化机器学习,之后就只是规模化的问题。2. 我预计未来两年内,至少在计算机视觉领域内,最好的网络会是 AutoML 生成的,而不是人工设计的。

作为谷歌大脑的创始成员和 AutoML 的缔造者之一,Quoc Le 算得上是人工智能研究领域的原住民了。

2011 年在斯坦福大学读博时,Le 和他的老师吴恩达以及谷歌大脑的研究人员一起,基于千万张 YouTube 图像开发了一个能够识别猫的无监督学习系统;2014 年,他将深度学习技术应用在自然语言理解任务上,提出了能将文本转换为向量表征、基于循环神经网络的 Seq2Seq 学习模型,将机器翻译的前沿水平又向前推进了一步。这为谷歌之后在自然语言机器翻译方面的突破奠定了基础。

自 2014 年以来,Le 开始将目光转向了自动化机器学习(AutoML)。构建机器学习模型的过程需要反复的人工调整:研究者会在初始的模型上尝试不同的架构和超参数,在数据集上评估模型的表现,再回头进行修改;这个过程会反复进行,直到达到最优。

Le 认为可以把它想成是一个试错问题,继而通过机器学习解决:「可以看看强化学习以及机器学习下围棋的方式,基本上就是试错。」

2016 年,Le 与一位谷歌研究者合作发表了一篇开创性的论文《Neural Architecture Search with Reinforcement Learning》。其核心思想类似于搭建积木:机器从一个定义空间中选取自己所需的组件来构建神经网络,然后使用一种试错技术,也就是—强化学习—来提升其准确度。这种方法得到了令人惊喜的结果,机器所生成的模型的表现可媲美人工调节的最佳模型。

Le 的研究成果催生了 Google Cloud AutoML,能让机器学习知识有限的开发者也能训练出高质量的模型。不出所料,AutoML 迅速成为了今年最热门的研究主题之一,科技巨头与创业公司纷纷跟随谷歌的脚步,投入这项新技术。

Google Cloud 在今年年初发布了 AutoML 视觉,之后又发布了 AutoML 翻译和语言

机器之心近日视频采访了 Quoc Le 博士。这位谦逊的 36 岁越南裔人工智能专家谈到了他的灵感来源、AutoML 背后的技术和前方的道路及其在机器学习领域内扮演的重要新角色。这位站在许多变革性技术背后的人有怎样的见解呢?请看后文。为了简洁和明晰,采访内容进行过适当编辑。

在即将于 11 月 9 日 于加利福尼亚州圣何塞举办的 AI Frontiers 会议上,Quoc Le 将发表主题为「使用机器学习自动化机器学习」的演讲,特别将关注神经架构搜索和自动数据增强 AutoAugment。

灵感

您在何时开始想要设计一种新的神经架构搜索方法?是什么启发了你?

那是在大概 2014 年的样子,这个过程随时间逐渐发生的。我是一位机器学习工程师。当你一直以来都在做神经网络方面的工作时,你会意识到很多工作都需要人工调整,也就是人们说的「超参数」——神经网络的层数、学习率、网络中所使用的层的类型。AI 研究者往往会根据某些原则开始调整,然后这些原则会随时间变得不那么有效,他们再尝试不同的策略。

我关注了 ImageNet 竞赛中的某些进展,也见证了谷歌的 Inception 网络的发展。我便开始思考我想做些什么,但那时的想法还不清晰。我喜欢卷积网络,但我不喜欢一个关于卷积网络的事实:卷积网络中的权重并不彼此共享。所以我就想,也许我应该开发一种全新的机制,能真正学会如何在神经网络中共享权重。

随着我的工作推进,我对此的直观理解也越来越多,我开始发现:研究者们所做的事情是将一些已有的构建模块组合到一起,然后尝试它们的效果。他们看到准确度有一定提升。然后就说:「很好,也许我刚引入了一个好想法。试试看保留我刚刚引入的好东西,但用某些新东西替换旧有的部分会怎样呢?」他们就这样继续这一过程,这个领域的专家可能会尝试数百种架构。

在 2016 年左右,我当时在思考如果这个过程需要如此之多的试错,那我们就应该使用机器学习来自动化,因为机器学习本身也是基于试错的。可以看看强化学习以及机器学习下围棋的方式,基本上就是试错。

我研究了做成这件事将需要多少真正的计算资源。我的想法是,如果是一个人类,那可能会需要一百个网络来试错,因为人类已经有大量直觉知识和大量训练了。如果你使用算法来做这件事,那你的速度可能会慢上一两个数量级。我认为实际上慢一两个数量级也不算太差,而且我们已经有充足的计算资源来做这件事了。所以我决定与一位培训生(Barret Zoph,现在已是谷歌大脑的一位研究者)一起启动这个项目。

我之前没想到这会如此地成功。我当时认为我们能做到的最佳结果可能是人类水平的 80%。但这位培训生非常优秀,他实际上做到了与人类媲美的水平。

许多人告诉我:「你花费了如此之多资源,就只为达到了人类水平?」但我从这个实验中看到的是现在我们可以做到自动化机器学习。这只是一个规模问题。所以如果你的规模更大,你就能得到更好的结果。我们继续开展了第二个项目,采用了甚至更大的规模并在 ImageNet 上进行了研究,然后开始得到了真正非常出色的结果。

您有这个想法有告诉 Jeff Dean 吗?他是什么反应?

嗯,他非常支持。实际上我也想感谢 Jeff Dean 在这个想法的初期所提供的帮助。

我记得在 2014 年,有一次和 Jeff 吃了一顿午餐,他也分享了非常类似的看法。他认为如果仔细了解那时候的深度学习研究者所做的事情,就会发现他们当时会花大量时间来在超参数等方面调整架构。我们认为一定存在一种自动化这一过程的方法。Jeff 喜欢扩展和自动化困难的东西,这是大多数科技人员不愿做的事情。Jeff 给我提供了鼓励,我也最终决定去做这个。

谷歌 AI 负责人 Jeff Dean

神经架构搜索与您之前的研究有何不同?

这不同于我之前在计算机视觉领域的工作。这段研究经历源自一个想法,并且也在随时间成长。我也有过一些错误想法。比如,我曾想自动化和重建卷积,但那是个错误的直觉想法。也许我应该接受卷积,然后使用卷积来构建其它东西?这对我来说是一个学习过程,但不算太坏。

技术

研究者或工程师需要哪些种类的组件来构建神经网络模型?

因应用各异,确实会有所不同,所以我们先来看看计算机视觉领域——即使是在计算机视觉领域内也有很多事物。通常而言,卷积网络会有一个图像输入,有一个卷积层,然后一个池化层,之后还有批归一化。然后还有激活函数,你还可以决定连接到新的层的 skip connection 等等。

在卷积模块内,你还有很多其它选择。比如在卷积中,你必须决定过滤器的大小:1x1? 3x3? 5x5? 你还必须决定池化和批量大小的规格。至于 skip connection,你可以选择从第一层到第十层,也可以选择从第一层到第二层。所以需要做的决定非常多,也就存在大量可能的架构。可能性也许能达到数万亿,但人类现在只会检查这些可能中的一小部分。

一种常见的卷积架构

您的第一篇 AutoML 相关论文是《Neural Architecture Search (NAS) with Reinforcement Learning(使用强化学习的神经架构搜索)》。自那以后,您的团队已经采用了进化算法并开始使用渐进式神经架构搜索。您能详细谈谈这些改进背后的思路吗?

在原来的论文中,我们是从强化学习开始的,因为我们直觉上认为这类似于人类的处理方法,也就是可以使用试错。但我很好奇,所以我说:「好吧,试试进化方法怎么样?」我们做了很多实验并取得了一些成功,并且认识到这个过程可以使用进化来完成,所以我们修改了核心算法。

更大的一个改变是使用了 ENAS(高效神经架构搜索)。过去,当你生成了大量架构时,每个架构的训练和评估都相对于前一代是独立的。所以一般不会共享任何先验知识或信息。假设说你确实开发了一种共享机制,你可以从之前训练的网络继承某些权重,然后就可以更快速地训练。所以我们就这样做了。

基本而言,我们的想法就是创造一个包含了所有可能性的巨型网络,然后在该网络中搜索一条路径(以最大化在验证集上的预期奖励),这就是所要寻找的架构。某些权重会在下一次实验中得到重复使用。所以会有很多权重共享。因为这种方法,我们实际上能实现很多个数量级的加速。原始的 NAS(神经架构搜索)算法要更灵活得多,但成本太高了。ENAS 基本上是一种更快的新算法,但限制也更多一点。

原始的 NAS 算法可以生成更优的架构以及更好的超参数、更好的数据增强策略、更好的激活函数、更好的初始化等等。目前我们只成功将这种新的 ENAS 算法用在了架构方面,还没用到数据增强以及优化方面。

您的意思是其它参数是人类决定的?

我们将架构搜索和数据增强确定为人类专家很难设计的两个关键领域。所以一旦你做对了这两件事,就能实现大量成果。其余的只用常见的优化技术和标准的实践方法即可。我们只关注能提供最大效益的组件的自动化。

ENAS 是一个很近期的进展。尽管我们还在做大量黑箱中的实验,但这个研究方向进展很快。

我听说有一家创业公司正使用一种名叫生成式合成(generative synthesis)的技术。另外还有使用 GAN 的?不同的搜索算法各有哪些优缺点?

我不确定有谁真在用 GAN 来做架构生成。我认为这是可能的,但我不是很了解。

进化和强化学习具有相似的通用性,但同样,如果你不做任何假设,它们的速度会非常慢。所以人们发展出了渐进式神经架构搜索的思想,即先搜索一个小组件,然后再不断增添。我认为这是一个非常好的想法。

神经架构搜索概况

说到 ENAS,基本而言核心思想就是权重共享。你想开发一个大架构,然后找到一条路径。ENAS 基于一些其它思想,比如 one-shot architecture search,也就是构建多个模型,然后想办法在它们之间共享权重。我认为强化学习和进化方法的优势是它们非常灵活。它们可用于机器学习流程中任何组件的自动化。但它们也成本高昂。ENAS 和渐进式架构搜索等大多数针对特定方面的算法都会有某些前提假设,所以它们的通用性和灵活性更差,但它们一般速度更快。我对 GAN 方面不太了解。我认为人们会使用 GAN 来生成更好的图像,但我不认为人们会使用 GAN 来生成更好的架构。

迁移学习在 AutoML 技术中扮演怎样的角色?

迁移学习有两种类型。第一种是架构迁移学习,比如找到一个在图像识别数据集上的好架构之后再迁移用于目标检测。另一种迁移学习是权重迁移学习——如果你在公共数据集上训练你的网络,你会得到一个结果,然后再在你自己的数据集上再训练该网络。

让我们假设这样的情况:我们想做鲜花检测。ImageNet 有大约 100 万张图像,包含花的图像有大约 1000 张。你可以根据 ImageNet 找到最佳的架构,然后复用这些权重;或者你可以直接取一个 Inception V3 这样的先进模型,然后在 ImageNet 上训练,再在花上迁移学习,之后复用其权重。SOTA 方法是只迁移权重,因为大多数人都不做架构生成。你必须先让你的 Inception V3 或 ResNet 在 ImageNet 上训练。完成这个训练之后,你再做微调。

我想说的是,实际上你既需要架构迁移学习,也需要权重迁移学习;两者可以通过如下方式结合起来:

结合方法一:首先做架构迁移学习,然后再做权重迁移学习。

结合方法二:直接在你的数据集上进行架构搜索,并在 ImageNet 上做权重迁移学习。

结合方法三:直接使用 ResNet 和权重迁移学习。这是当前最佳的方法。

结合方法〇:只在你的目标数据集上进行架构搜索,不做迁移学习。

因数据集不同,适用的结合方法也不同,因为有的数据集更大,有的则更小。不同的结合方式是在数据集的不同侧面发挥作用。

我预测未来几年,组合方法〇(即纯粹的架构搜索)将能得到质量更好的网络。我们在这一领域做了大量研究,我们知道这种方法实际上更好。

Quoc Le 在接受机器之心视频采访期间进行板书

麻省理工学校和上海交通大学的一篇研究论文提出了一种路径层面的网络到网络变换(arXiv: 1806.02639),您怎么看?

这是个很棒的思路。在我决定研究架构搜索时我就想过尝试这一思路:首先从一个优良的初始架构开始,然后修改再修改,总是尽力做到越来越好。但我感觉这有点点胸无大志,我希望能做些更雄心勃勃的事情!

写论文的一大好处是当我们发表时,我们会发现很多人都有一样的哲学思想。而且他们确实对这些算法进行了修改,我们实际上也能从这些研究思想中学到东西,帮助改进我们自己的研究。

AutoML 的哪些部分仍需人类干预?

我们还必须做一些设计搜索空间的工作。在架构搜索方面,可以使用进化、强化学习或这种高效的算法。但我们也必须定义一个卷积网络或全连接网络的构建模块所处的空间。有些决定还是必须人来做,因为目前 AutoML 的计算能力有限。我们并不能直接搜索一切,因为那样的话搜索空间就太大了。因为这样的原因,我们必须设计一个带有所有可能性的更小的搜索空间。

深度学习仍然是一种黑箱技术。AutoML 能帮助用户更好地理解模型吗?

我们能得到一些见解。比如,这样的搜索过程会生成很多看起来类似的架构。你可以检查这些架构,然后识别出特定的模式。你也可以得出一些直觉理解,帮助你了解哪种架构对你的数据集而言最好。比如在 ImageNet 上,由 AutoML 发现的网络的层中通常都有多个分支(不同于每层仅有一个或少量分支的更传统的网络)。在分支的层面上看,很难解释发生了什么。

在 ImageNet 中,目标和图像的尺寸各有不同。有时候巨大醒目的目标出现在图像正中,有时候图像中的目标非常小,比如一个小零件。所以你会有不同大小的过滤器。通过组合不同的分支,能得到更好的结果。我们会继续研究这个问题。

AutoML 的挑战和未来

您认为 AutoML 研究目前所面临的最大难题是什么?

我认为未来两年中最大的难题将是如何让搜索更高效,因为我认为很多人都不想使用一百个 GPU 来解决某个小数据集的问题。所以寻找能在降低成本的同时又不影响质量的方法会成为一个非常重大的问题。

第二个大难题是如何降低设计搜索空间所需的人力工作。因为现在的搜索空间中具有某些先验的知识,所以即使我们宣称我们用 AutoML 做一切工作,特定的先验知识元素仍会进入搜索空间。我认为这还不够理想,我也想研究这个问题。

但我可以告诉你,AutoML beta 版的质量已经很好了,谷歌云的人也很满意。我不能说产品的细节,但我认为质量已经很好。而且接受情况也很棒。

参阅机器之心文章:https://www.jiqizhixin.com/articles/2018-02-06-23

在 AutoML 的鲁棒性提升方面是否还有机会?

一般而言,当我们做 AutoML 时,我们会有另外一个验证数据集。这样我们就可以不断在那个数据集上进行验证来评估质量。鲁棒性实际上已经是 AutoML 的目标函数的一部分。现在在添加约束方面,事实证明 AutoML 有能力做到,比如制作对对抗噪声更鲁棒的模型,或将其它外部约束条件添加进 AutoML 中。这是一种非常棒的能力,因为很多时候当你有新的约束条件时,人类很难找到将其植入到模型中的方法。但是 AutoML 可以使用一个奖励函数作为准确度和鲁棒性之间的权衡。然后进化,最后会找到一个在准确度和稳健性之间有良好权衡的模型。

说个案例。我们之前有位研究者在研究如何设计出更好的网络来防御对抗样本。我们在 CIFAR-10 上进行了小规模的实验。他找到了一个对对抗攻击非常稳健的网络,由于之前最佳。这个结果非常好,能做到这一点的原因是人类很难直观地想出一种防御攻击的方法。但 AutoML 不在乎,它只是尝试了一些网络,然后其中一个网络不知怎的本身就具有防御攻击的机制。

有办法有效地比较目前市面上的这些各不相同的 AutoML 解决方案吗?

可以做到。只要你有一个任务,你就应该单独创建一个数据集。你将其输入 AutoML,然后它会得出某些预测模型,然后你在你的测试集上评估这些预测模型——这个测试集应该被看作是你的基准集。在基准集上的准确度是衡量模型表现的好标准。我不能过多地评论我们的方法与市面上其它方法的比较情况,但我认为人们都可以自己去看去比较。

您认为 AutoML 能够生成下一代颠覆性网络架构吗,类似 Inception 或 ResNet?

我认为它已经做到了。我们近期使用了架构搜索来寻找可用于移动手机的更好的网络。这是一个很艰难的领域,很多人都在研究。超过 MobileNet v2 是很困难的,这是现在的行业标准。我们生成了一个显著更优的网络,在移动手机上同样速度下好 2%。

而这仅仅是个开始。我认为这样的事还会继续发生。我预计未来两年内,至少在计算机视觉领域内,最好的网络会是生成的,而不是人工设计的。

您怎么看待围绕 AutoML 的炒作?

我很难评论围绕 AutoML 的炒作,但当我看到很多人都想使用机器学习时,我认为在帮助机器学习更广泛可用方面还存在很大的能做出成绩的空间。特定的技术可能比其它一些技术炒得更凶,但我认为随着时间推移,我们能带来影响的领域将非常广阔。

很少有研究者能在机器学习领域多次取得突破。您是如何维持自己的创造力的?

首先,出色的研究者有很多,他们都非常有创造力,工作非常出色,所以我并不特殊。对于我自己,我有一些我一直很好奇并想要解决的问题,而且我非常热爱解决这些问题。我只是跟随着自己的好奇心并为世界带来了积极的影响。这是好奇心与毅力的结合。我也会在周末踢足球,而且我爱好园艺。我不知道这是否有助于我的研究工作,但这确实能帮助我放松身心。

我不得不问:您如何应对失败?

如果你热爱,那你就会坚持不懈去追寻,对吧?我非常热爱机器学习。教机器如何学习是一种做计算机编程的新方法:不用再写程序了,可以教机器来做。我从根本上喜欢这个概念。所以即便遭遇失败时,我也乐在其中!

3. 为什么我的AI跑分这么低?

麒麟810处理器AI性能怎么样呢?

麒麟810是华为去年推出的最强中端处理器,其中最大的亮点莫过于华为自研的NPU——达芬奇架构,使得这颗处理器的AI性能远胜麒麟980旗舰处理器。根据某些官方数据对比来看,麒麟810处理器的AI性能要基本领先其他手机处理器,可以说在去年处理器阵容中处于一骑绝尘,AI跑分高达32280分。

实际上,对于手机处理器的AI性能是近几年由于人工智能的发展需求而新导入的,对于手机处理器的AI发展方向在手机处理器厂商里面分为两个方向:

一个方向是华为的独立NPU芯片单元,采用单独的AI加速单元,独立于CPU、GPU及DSP单元之外,属于处理器里面的一个独立模块;

另一个方向是以高通、联发科以及苹果A处理器为代表的AI架构,比如高通骁龙865处理器的第五代人工智能引擎AI Engine则是分散在多个子单元中,没有专用AI单元。具体来说,骁龙865的AI性能与Kryo 485 CPU、Adreno 650 GPU、Hexagon 698 DSP、LPDDR5内存都有关系,它们从不同角度参与了AI运算,提供了强大的AI性能,并降低了功耗。

如果用人体结构来比喻手机处理器的AI性能,那么麒麟处理器的AI模块是人体的一个器官,而高通骁龙处理器的AI模块则类似于人体的血液,流躺在人体的每个模块上。很显然,高通骁龙处理器的这种AI性能形式才是更为智能的AI形式,这也是为什么只有华为麒麟处理器采用独立的NPU单元,本质上是因为华为麒麟处理器的AI算法达不到高通骁龙与苹果处理器的级别,只能通过单独的NPU芯片集成完成。

两种AI实现方式上无疑高通骁龙处理器的难度会更高,也更为智能!

可以说高通骁龙的AI性能才是真正的人工智能表现形式。

当然,处理器的AI性能对于处理器的性能体验帮助不是太明显,对于处理器性能看重的还是CPU与GPU性能,也就是跑分评比,这个能说明处理器能带动的大型游戏级别。这两个方面都是麒麟处理器的短板,目前依旧采用公版架构,说白了就是直接买ARM的CPU与GPU,然后在做一下处理器的接口部分与控制逻辑部分,就完成了一个手机处理器芯片的设计。相比于高通、苹果的自研CPU与GPU架构来说,差距不是一星半点,这个大家得承认差距!

我们看鲁大师最新的处理器AI性能评比情况,如下图示:

根据上图,我们看到高通骁龙865处理器的AI性能是排第一的,而麒麟990处理器排第三名。

但是我们看Benchmark的处理器AI评分结果又不相同:

这是为什么呢?

根本原因在于评测机制不一样!

比如鲁大师AImark使用四种神经网络ResNet34、InceptionV3、MobileNet SSD、DeepLabv3+模型,对应图像分类、图像识别、图像分割测试,通过手机SoC的识别效率判断手机的AI性能。

如果单独跑AI性能,理论上应该是麒麟处理器的单独NPU单元的性能更出色,毕竟是一个单元。

但是如果看每个模块的AI性能,那么可能就是高通骁龙处理器的AI性能更为出色,并且高通处理器的AI设计实际上才算真正的人工智能,更像是AI灵魂遍及处理器的每个模块。

不管怎么样,对于手机处理器的AI性能更多体现在手机厂商对于某些应用场景的软件算法优化上。比如魔法换天、AI美颜、超级夜景等。而对于消费者来说,手机的CPU与GPU才应该是关注的重点,因为CPU与GPU性能决定处理器能进行多么复杂的应用体验,比如只有CPU与GPU性能强悍的处理器体验大型游戏才会更加流畅!

以上观点仅供参考,欢迎大家关注交流!

4. 和钢铁侠有什么关系?

在漫威的设定中,其实所谓的“钢铁之心”(个别称为“铁心”)也就是二代钢铁侠定位。

都清楚,在此前《复联4》结束之后,伴随着钢铁侠最后的牺牲,很多粉丝都想知道漫威在之后的电影宇宙中究竟会让谁来继承“钢铁侠”的称号,成为二代钢铁侠。

而在当时,这个漫画中拥有“铁心”称号的黑人小女孩,其实就是很多粉丝猜想中的一个候选人。

“二代钢铁侠”的成名之路!

在漫威的原设定中,“钢铁之心”初次登场于漫画《无敌钢铁侠》中,在这部漫画中,二代钢铁侠变成了一个天才少女名叫莱丽·威廉姆斯,对于这位莱丽·威廉姆斯来说,从小就拥有者非常高超的智商。

以至于依照漫画的设定,莱丽·威廉姆斯5岁的时候,所具备的智商就已经超越了一般普通人,而对此漫画中的医生对莱丽·威廉姆斯的评价只有一个“超级天才!”。

显然,拥有“天才”的人设标签,基本上算是拥有了继承钢铁侠衣钵的入门资格了。

而在之后的剧情中——

莱丽·威廉姆斯也是没有辜负自己的智商,在15岁的时候就已经在麻省理工学院中研究自己的秘密项目,战甲!

漫画中,莱丽·威廉姆斯为了研制出属于自己的战甲,借助了钢铁侠装甲的“逆向工程技术”以及从学校实验室“借”来的材料,一番捣鼓后,还真的制造了一套战甲原型机。

当然,如果你看到这里就认为莱丽·威廉姆斯开始踏上了二代钢铁侠之路,那就打错特错了,因为打一开始莱丽·威廉姆斯就没有准备成为所谓的“二代钢铁侠”。

真正让莱丽·威廉姆斯成为“二代钢铁侠”的,其实是托尼·斯塔克自己,emmmm,准确来说是人工智能托尼·斯塔克(故事大背景的设定中,这一时期的钢铁侠是的处于沉睡状态,得靠战甲维持生命体征)。

在人工智能托尼·斯塔克的帮助下,莱丽·威廉姆斯原本就很聪明的设定就进一步得到了提升,典型的就是直接在一分钟内黑掉了钢铁侠用来训练她的所有战甲系统。

同时,也正是因为拥有了人工智能的帮助,莱丽·威廉姆斯这一时期才正式算是进入了二代钢铁侠的道路上。

但尴尬的是,这条路并没有持续多久!

因为对于漫威的粉丝来说,真正喜欢的还是“经典英雄”,所以即便莱丽·威廉姆斯时漫威官方承认的二代钢铁侠,但依旧有不少粉丝对其不感冒,甚至比较讨厌莱丽·威廉姆斯的设定。

这一度让当时的漫威比较尴尬。

为此,在之后钢铁侠托尼·斯塔克从昏迷中醒过来后,漫威就火速将莱丽·威廉姆斯的称号从“二代钢铁侠”改为了“钢铁之心”,而且原本莱丽·威廉姆斯战甲的造型,从原本经典的钢铁侠红黄相间变成了如今我们看到的黑黄粉银四色相间。

(吐槽一下,真心觉得铁心战甲的造型有点丑~)

对于目前来说,“铁心”的剧情设定多数集中在了“冠军小队”中,这点其实有兴趣的朋友可以去瞅瞅。

更多精彩漫威电影情报、漫威美剧推荐、漫威吐槽,请关注漫威电影情报局

本文图片源自网络,侵删~

免责声明:本文作者:“游客”,版权归作者所有,观点仅代表作者本人。本站仅提供信息存储分享服务,不拥有所有权。信息贵在分享,如有侵权请联系ynstorm@foxmail.com,我们将在24小时内对侵权内容进行删除。
(136)
11055(冰川和永久积雪占地球总水量多
上一篇 2023年11月21日
北桥芯片(主板上的南桥芯片和北桥芯片是干
下一篇 2023年11月21日

相关推荐

  • 小辣椒手机评测(小辣椒手机是正规厂家生产的吗)

    小辣椒手机是正规厂家生产的。生产企业是深圳语信时代通信设备有限公司。小辣椒手机品牌创立于2012年,语信公司是中国最早一批专业为运营商提供专业化智能手机产品的手机研发设计生产企业。旗下品牌语信,品牌定位为“智能手机专家”,旨在为运营商的3G-...

    2023年10月25日
  • 三星 9300(三星9300主屏幕时间怎么设置)

    2.进入设置时间/设置日期,手动调整时间和日期即可。注:部分电信手机如使用CDMA卡,日期/时区和时间是网络运营商提供的,与网络是同步的,无法手动选择,可以单独放置GSM卡进行手动调整。...

    2023年10月28日
  • 面部按摩手法(擦脸手法)

    拍打法主要是针对化妆水这种质地比较稀薄的产品,我们需要用拍打的方法来让水分充分被毛孔吸收,乳液倒在手心以后,首先要将乳液在手心揉搓开,接着轻轻拍打至脸部,直到乳液慢慢吸收。...

    2023年11月02日
  • 联想平板电脑s1(联想平板home键设置)

    6.在Home键设置中,可以选择不同的功能来调整home键的行为,例如返回上一级、打开最近使用的应用程序等。...

    2023年11月05日
  • 联想个人云(联想个人云储存a1和t1哪个好)

    根据我的了解,联想个人云储存A1和T1都是优秀的选择。A1拥有更大的存储容量和更高的传输速度,适合需要大量存储和频繁传输文件的用户。T1则更加轻便便携,适合需要随身携带的用户。此外,两者都具备安全可靠的数据保护功能,可以保护您的个人隐私和重要...

    2023年11月06日
  • error loading os(operating)

    1Errorloadingoperatingsystem提示为:错误加载操作系统这是引导区没有被激活,需要用工具激活一下,PQ.SFDISK都可以。进入易游DOS维护平台——选A.命令模式——回车...

    2023年11月16日
  • 手机连不上电脑(荣耀手机无法连接电脑)

    1.首先我们先检查一下硬件,看看是不是硬件出了问题,比如是不是数据线的问题,或者手机的接线端口有没有损坏等。有时数据线接触不好,就会出现无法连接到电脑的现象。...

    2023年11月18日
  • 都市丽人内衣价格(穿向大大的内衣尺码要多大)

    都市丽人的天然乳胶内衣,乳胶是来自“全世界最好的天然乳胶摇篮”之一:泰国。绿色环保,无毒无害,敏感肌也能大胆穿,丰富的橡树蛋白天生拥有防螨抑菌的超能力,受到很多女生的青睐。...

    2023年11月18日
  • 诺基亚n93(诺基亚手机全部型号)

    6100、3530、6610、7210、7650、3610、8910、3410、3510、5210、3315、9210c、8855、6510、6500、6340、5510...

    2023年11月25日
  • 阿里云邮件推送(注册企业邮箱哪家更值得信赖)

    邮箱是外贸公司必备的工具之一,特别是外贸人员,频繁的使用邮件往来,邮件更是可以作为结算的凭证,如果邮件内容被他人知晓,那会造成公司的经济损失及业务资料的流失。邮箱地址被伪造:当前钓鱼邮件众多,没有经验的人员就容易中招,导致邮箱密码被盗,黑客查...

    2023年12月03日
返回顶部