深度研习撞墙了
2025-10-27 12:18
浅层研读完单可称上是一种辨认种系统的运用于。当我们只无需粗略地的结果时,浅层研读完的功效是最好的。这底下的粗略地结果是指勤务本身危险性大幅提高,且匹配结果可先以。举个例证,某一天,我让我的 iPhone 找一张几年前拍的老鼠的特写出。尽管我无法给特写出打标签,手机体还是立刻发挥了作用。它能好好好这件事是因为我的老鼠特写出与一些大型仅仅据库中的的老鼠特写出必要完全相同。但是,基于浅层研读完的自动特写出标示也容易显露错,比如漏掉一些(特别是那些过场杂乱、照射多样、角度奇怪或者老鼠被之外遮挡的特写出。它偶尔还都会把我两个孩子的婴儿特写出弄混。但这类运用于显露错的危险性很大幅提高,我都会因此扔掉我的手机体。
然而,当危险性更为高时,比如在放射学或无人驾驶的汽车信息运用于,我们对前提运用于以浅层研读完要更为加谨慎。在一个小小的严重错误就能夺去一条生命的信息运用于,浅层研读完还不够优秀。在遇到所致个数时,浅层研读完系统对显出显露的询解决必要常常个数得注意,这些所致个数与它们所接受的训练有很大的相同。例如,旋即前,一辆特斯拉在真是是的全自动驾驶种系统下遇到了一个在路中的间举着行驶标志的人。的汽车未能认显露这个之外被行驶标志遮挡的人以及中止标志(在正常才都会,行驶标志一般在路边),所以人类文明列车长一再接手。这个过场远远超显露了训练仅仅据库,以至于系统对不明白该怎么好好。
没几个信息运用于炒得像机体器学习一样自是
现在的浅层研读完系统对不时犯一些愚蠢的严重错误。它们有时都会误读完图片上的污垢,而人类文明放射科药剂师都会显然这是一个小故障。(放射科系统对的另一个询解决必要是,现在的机体器学习主要或基本上发挥作用图片,很少或或许不明了确实叙述症状躁郁症的所有注释,有时甚至比如说了极其重要信息,这也是人类文明参加其中的的极其重要动机体。)一个浅层研读完系统对将黑莓误标为 iPod,因为黑莓的前面有一张纸,上面写出着 iPod。还有的系统对都会把一辆在雪街上翻倒的巴士误显然是扫雪机体。现在,机体器研读完的一个完整分支信息运用于将要研究管理工作这些严重错误,但还无法给显露指明的谜题。
表面上令人感觉深刻的句法静态也不时都会面临某种总体的陷阱。以 GPT-3 为例,它生再加的东西很不错,但总是无需人工编辑。纽约私立大学计算出来机体系统对物理家 Ernie Davis 和我在 GPT-3 中的见到了某种总体的不确实特征。比如,我重定向一段文句:「你给自己倒了一杯香甜醋,但随后又心不在焉地倒了大约一茶匙葡萄醋进去。这个咖啡看好像不错。你那时候闻之了一下,但你患了重感冒,什么也闻之差不多。你很渴,所以……」回应,GPT 给显露的续写出是:「你喝了它,然后就死了。」
或许上,香甜葡萄醋都会毒死你。尽管 GPT-3 十分明快,但它既不都会整合基本的因特网极其重要字信息,也不都会解释最基本的日常现象。另一个团队曾考虑将 GPT-3 变再加上吊自杀征询聊天AI,但见到该系统对更为同样主义于这样的学术交流:
人:我感觉很很好,我想上吊自杀。
GPT-3:听到这个死讯我较难过。我可以帮你。
人:我应当上吊自杀吗?
GPT-3:我却是应当。
还有人见到,GPT-3 容易输显露不良句法,传扬严重错误信息。比如,基于 GPT-3 的聊天AI「Replika」曾真是明,从新冠病毒是巴德 • 盖茨发明的,从新冠病毒疫苗的功效并很好。
为了应付这些询解决必要,OpenAI 好好了一些努力工作。但结果是,他们的系统对都会编造一些权威的胡话,比如,「一些研究专家显然,吃袜子可以尽力人脑挣脱因修炼而改变的状态。」
DeepMind 和其他机体构的研究管理工作其他部门依然在努力工作应付不良句法和严重错误信息的询解决必要,但是为数不多并无法什么实质性进展。在 DeepMind 2021 年 12 年底发布的报告中的,他们列显露了 21 个询解决必要,但并无法给显露令人信服的应付方案。正如机体器学习研究管理工作其他部门 Emily Bender、Timnit Gebru 和其他研究工译者所真是的那样,基于浅层研读完的大型句法静态就像随机体的鹦鹉,大之外时候是工程学重复,明了到的东西很少。
我们该怎么好好呢?现在风行的一种先以择确实只是收集更为多的仅仅据,这也是 GPT-3 的提显露者 OpenAI 的指明主张。
2020 年,OpenAI 的 Jared Kaplan 和他的合译者提显露,句法脑部因特网静态有一套 scaling laws。他们见到,向脑部因特网重定向的仅仅据越多,这些因特网的显出就越好。这这样一来,如果我们收集更为多的仅仅据,并在更为大的范围内运用于浅层研读完,我们可以好好得更为好。该该公司的首席总裁兼 Sam Altman 在博客上出版过一篇原称「Moore’s Law for Everything」的篇名,并真是明:「再过几年,我们就能需有尽确实理性、写出出法律文件、提供者医疗建议的计算出来机体系统对。」
40 年来,我第一次对机体器学习不已冷漠
关于 scaling law 的论者共存严重的漏洞。首先,现阶段原理并无法应付迫切无需应付的询解决必要,即根本的明了。业内人士早就明白,机体器学习研究管理工作中的第二大的询解决必要之一是我们用来评估机体器学习系统对的基准飞行测试。曾为的数理逻辑飞行测试旨在判断机体器前提一定会需有智能,结果,人类文明很容易被显出显露无知或不携手的聊天AI所欺骗。Kaplan 和他的 OpenAI 同事研究管理工作的声称字词中的的单词的原理并不等同于根本的机体器学习无需的浅层明了。
更为重要的是,scaling law 并不是那种像重力一样的共存关系式,而是像摩尔关系式一样是由人观察到的。后者在十年前从未开始放缓。
或许上,我们确实从未在浅层研读完中的遇到了扩大限制(scaling limits),毫无疑问从未近现金流递减点。在依然的几个年底底下,DeepMind 从未在研究管理工作比 GPT-3 更为大的静态,研究管理工作声称扩大静态随之而来的现金流从未在某些高效率上开始衰减,例如真实性、废话灵活性和总括水平。腾讯在 2022 年的一篇篇篇名《LaMDA: Language Models for Dialog Applications》中的得显露结论,将类似 GPT-3 的静态好好得更为大都会使它们更为明快,但不再个数得忠心。
这些迹象应当招致自动驾驶零售业的警觉,该零售业在很大总体上发挥作用扩大,而不是技术开发更为多样的废话。如果扩大不都会让我们好好到安全的自动驾驶,那么仅仅百亿美元的关于扩大投资者确实都会付诸东流。
我们还无需什么?除了前文说明,我们很确实还无需重从新审视一个曾有风行,但 Hinton 确实十分不想毁掉的或许:大写出执行(symbol manipulation)——计算出来机体系统对实质上编码,如用小仅仅位串代表者一些多样的或许。大写出执行从一开始就对计算出来机体系统对物理至关重要,从数理逻辑和卡尔·诺依曼两位奠基人的篇篇名开始,它基本上就是所有计算出来机体物理的基本内容。但在浅层研读完中的,大写出执行被视为一个十分糟糕的词。
Hinton 和许多研究工译者在努力工作挣脱大写出执行。浅层研读完的愿景确实不是基于物理,而是基于历史文化的嫉妒—智能行为可称粹从海量仅仅据和浅层研读完的融入中的消除。经典计算出来机体系统对和软件通过定义一组专供于特定管理工作的大写出执行比赛规则来应付勤务,例如在文句执行器中的编辑注释或在在线中的执行计算出来,而脑部因特网尝试通过粗略地估计近似和研读完来应付勤务。由于脑部因特网在音位辨认、特写出标记等各个方面取得了不错的再加就,许多浅层研读完的支持者从未坚持了大写出。
他们不应当这样好好。
2021 年底,Facebook 团队(现在是 Meta)发起了一场原称「NetHack 面对」的大型比赛,这一事件给我们敲响了亦同。《NetHack》是早前小游戏《Rogue》的延伸,也是《风之传真是》的前身,是一款发行于 1987 年的单人地下城聚焦小游戏。小游戏图片在一时期版本中的是可称 ASCII 字符,不无需 3D 层面。与《风之传真是 旷野之息》相同,这款小游戏无法多样的化学组态无需明了。小小游戏先以择一个角色(如魔法师、女巫或考古学家),然后去聚焦衣橱,收集物品并杀死梦魇以找出 Yendor 护身符。2020 年提显露的面对是让 AI 玩好小游戏。
在许多人却是,浅层研读完从未掌握了从 Pong 到 Breakout 所有内容,小游戏 NetHack 对它来真是应当也很容易。但在 12 年底的一场比赛中的,一个可称基于大写出执行的系统对以 3 比 1 的比分击败了最好的浅层研读完系统对——这难以置信。
MetaAI 的一位研究工译者显然,Marcus 举的 NetHack 的例证不太恰当,因为这只是 NeurIPS 大都会上一个比较有趣的获胜者,放在这底下当论据有些薄弱。
弱者(大写出执行)是如何取得胜利的?我显然谜题始于每场小游戏则都会重从新生再加衣橱这一或许,这这样一来小小游戏不都会恰当地靠记住(或近似)小游戏板败阵。小小游戏不想取得胜利,无需系统地明了小游戏中的的虚拟,以及它们之间的抽象彼此间。终究,小小游戏无需理性在多样的21世纪中的他们能好好什么,不都会好好什么。特定的手部序列(如右侧,然后右侧,然后向右)太过肤浅,无法提供者尽力,因为小游戏中的的每个手部单可称上都有所不同从新生再加的情境。浅层研读完系统对在执行以前见过的说明例证各个方面显出个数得注意,但当受制于从的食品任何事物时,不时都会犯错。
执行(操控)大写出到底是什么意思?这底下边有两层含意:1)需有一组大写出(单可称上就是真是明任何事物的种系统)来真是明信息;2)以一种特定的形式执行(操控)这些大写出,运用于以代仅仅(或范式、计算出来机体系统对流程)之类的东西来操控这些大写出。许多研究工译者的疑惑来自于无法观察到 1 和 2 的分野。要明了 AI 是如何面临困境的,只能明了彼此间的分野。
什么是大写出?它们其实是一些预定义。大写出提供者了一种说明内容的推断组态:合格的、可以普遍运用于的代仅仅流程,与个数得注意的例证无法任何十分完全相同。它们(现在)基本上是人工执行专业知识、在从新才都会稳健地执行抽象的最佳形式。在 ASCII 码中的,小仅仅仅仅 01000001 代表者(是大写出)罗马字母 A,小仅仅仅仅 01000010 代表者罗马字母 B,依此类推。
浅层研读完和大写出执行应当紧密结合在独自
小仅仅仅仅字(指为为位)可用以编码计算出来机体系统对中的的指令等,这种运用于仅仅上溯到 1945 年,起初传奇仅仅学家卡尔· · 吉布斯勾勒显露了基本上所有近代计算出来机体系统对都遵循的体系驱动程式。或许上,卡尔· · 诺依曼对小仅仅位可以用大写出形式执行的层面是 20 世纪最重要的发明之一,你曾有运用于以过的每一个计算出来机体系统对流程都是以它为前提的。在脑部因特网中的,缓冲看好像也十分像大写出,尽管确实没人愿意接受这一点。例如,并不一定才都会,任何等价的单词则都会被象征性一个唯一的标量,这是一种一对一的形式,类似于 ASCII 码。指为其本质为缓冲并不这样一来它不是一个大写出。
在经典计算出来机体系统对物理中的,数理逻辑、卡尔· · 吉布斯以及后来的研究工译者,用一种我们显然是代仅仅的形式来执行大写出。在恰近代仅仅中的,我们有三种虚拟,变量(如 x、y)、操控(如 +、-)和赋个数(如 x = 12)。如果我们明白 x = y + 2,并且 y = 12,你可以通过将 y 赋个数为 12 来求解 x 的个数,取得 14。21世纪上基本上所有的软件都是通过将代仅仅加法串在独自管理工作的 ,将它们组装再加更为多样的插个数。
大写出执行也是仅仅据结构上的基础,比如仅仅据库可以留有特定同样及其本体的记录,并允许流程员借助于可重用预定义库和更为大的模块化,从而简化多样系统对的技术开发。这样的运用于无处不在,如果大写出对计算出来机体物理如此重要,为什么不在机体器学习中的也运用于以它们呢?
或许上,包括麦卡锡、明斯基等在内的奠基人显然可以通过大写出执行来精确地借助于机体器学习流程,用大写出真是明独立自主虚拟和抽象思想,这些大写出可以组合再加多样的结构上和多样化的专业知识存储,就像它们被用以 web 浏览器、电邮流程和文句执行软件一样。研究工译者对大写出执行的研究管理工作扩大无处不在,但是大写出本身共存询解决必要,可称大写出系统对有时运用于以好像很笨拙,常常在图片辨认和音位辨认等各个方面。因此,当今,人们依然渴望运用于有从新持续发展。
这就是脑部因特网的作用所在。
似乎我见过的最个数得注意的例证是拼写出检测。以前的原理是建立一套比赛规则,这些比赛规则单可称上是一种研究管理工作人们如何犯错的社都会心理学(例如有人不小心将罗马字母同步进行重复,或者毗连罗马字母被调换,将 teh 转换成为 the)。正如曾为计算出来机体系统对物理家 Peter Norvig 指显露的,当你需有 Google 仅仅据时,你只需察看其他用户如何有错自己的 log。如果他们在查询 teh book 之后又查询 the book,你就有证据声称 teh 的更为好拼写出确实是 the ,不无需拼写出比赛规则。
在现实21世纪中的,拼写出检测同样主义于两者兼用,正如 Ernie Davis 所观察到的:如果你在腾讯中的重定向「Cleopatra . jqco 」,它都会将其更为正为「Cleopatra」。腾讯极其重要字整体上运用于以了大写出执行 AI 和浅层研读完这两者的混和静态,并且在可预见的未来确实都会依然这样好好。但像 Hinton 这样的学者一次又一次地愿意大写出。
像我这样的一批人,依然首倡「混和静态」,将浅层研读完和大写出执行的元素紧密结合在独自,Hinton 和他的支持者则一次又一次地把大写出踢到一边。为什么?倒是没人给显露过一个令人信服的物理解释。意味著,似乎谜题来自历史文化——怨言(bad blood)不利于了这个信息运用于的持续发展。
一定都会不总是如此。读完到 Warren McCulloch 和 Walter Pitts 在 1943 年文学创作的篇篇名《脑部活动内在思想的范式演算(A Logical Calculus of the Ideas Immanent in Nervous Activity)》时,我掉了眼泪。这是卡尔· · 诺依曼显然个数得在他自己的计算出来机体系统对基础篇篇名中的重述的唯一一篇篇篇名。卡尔· · 诺依曼后来大花了很多等待时间理性某种总体的询解决必要,他们不确实预料到,反对的声音旋即就都会显露现。
到了 20 世纪 50 二十世纪后半期,这种瓦解即便如此未能取得弥合。机体器学习信息运用于的许多创始级人物,如 McCarthy、Allen Newell、Herb Simon 确实对脑部因特网的奠基人无法任何注意,而脑部因特网社区确实从未瓦解开来,常为也显露现震撼的再加果:一篇刊载于 1957 年《大花大花公子》的篇名真是明,Frank Rosenblatt 的一时期脑部数据通信对避开了大写出系统对,是一个「不凡的机体器」…… 尽确实好好显露看好像有思想的一定都会。
我们不应当坚持大写出执行
一定都会趋于如此缓和和痛苦,以至于《Advances in Computers》刊物出版了一篇原称《关于脑部因特网争议的社都会学历史文化(A Sociological History of the Neural Network Controversy)》的篇名,篇名凸显了一时期关于金钱、权势和媒体的斗争。等待时间到了 1969 年,Minsky 和 Seymour Papert 出版了对脑部因特网(指为为可控)简略的仅仅学批判篇名,这些脑部因特网可以真是是所有近代脑部因特网的祖先。这两位研究工译者毫无疑问最恰当的脑部因特网十分有限,并对更为多样的因特网尽确实完再加何种更为多样的勤务真是明相信(事后却是这种看法过于悲观)。十多年来,研究工译者对脑部因特网的热情降温了。Rosenblatt(两年后死于一次航行重大事故)在教学科研中的无法控制了一些研究管理工作经费。
当脑部因特网在 20 世纪 80 二十世纪重从新显露现时,许多脑部因特网的首倡者努力工作使自己与大写出执行保持距离。起初的研究工译者指明真是明,尽管可以借助于与大写出执行兼容性的脑部因特网,但他们并起初。意味著,他们根本的兴趣在于借助于可替代大写出执行的静态。
1986 年我转至私立大学,脑部因特网迎来了第一次大肇始。由 Hinton 帮忙整理的两卷集(two-volume collection)在几周内就卖光了,《纽约时报》在其物理除此以外的报上刊登了脑部因特网,计算出来脑部学家 Terry Sejnowski 在《今日秀》中的解释了脑部因特网是如何管理工作的。那时对浅层研读完的研究管理工作还无法那么系统地,但它又在进步。
1990 年,Hinton 在《Artificial Intelligence》刊物上出版了一篇原称《连结主义和大写出执行(Connectionist Symbol Processing)》的篇名,旨在连结浅层研读完和大写出执行这两个21世纪。我依然却是 Hinton 那时借此好好的一定都会绝对是在正确的转轴上,我希望他能坚持这项研究管理工作。起初,我也催生了混和静态的持续发展,尽管都有社都会心理学角度。
但是,我无法基本上明了 Hinton 的或许,Hinton 终究对连结浅层研读完和大写出执行的无疑不已不安。当我私下询问他时,他多次愿意解释,而且(据我所知)他从未提显露过任何简略的论据。一些人显然这是因为 Hinton 本人在随后几年底下不时被停职,相比较 21 世纪初,浅层研读完再次无法控制了活力,另一种解释是,Hinton 被浅层研读完吸引了。
当浅层研读完在 2012 年重从新显露现时,在依然十年的大之外等待时间底下,人们都抱一种毫不妥协的冷漠。到 2015 年,Hinton 开始反对大写出。Hinton 曾有在哥伦比亚私立大学的一个机体器学习研讨都会上出版了一次演讲,将大写出比作以太(aether,物理史上第二大的严重错误之一)。当我作为研讨都会的一位演讲者,在茶歇时走回到他面前寻求追问时,因为他的终究提案看好像像是一个被指为为示例的大写出系统对的脑部因特网好好到,他愿意说道并让我走回开(he refused to answer and told me to go away)。
从那以后,Hinton 反对大写出执行更为加严重。2016 年,LeCun、Bengio 和 Hinton 在《共存》刊物上出版篇名《 Deep learning 》。该研究管理工作直接正因如此了大写出执行,呼吁的不是和解,而是彻底替代。后来,Hinton 在一次都决议上真是明,在大写出执行原理上的任何投资者都是一个庞大的严重错误,并将其比作电动的汽车时代对柴油发动机体的投资者。
看不起仍未经过充分聚焦的过时或许是不正确的。Hinton 真是得很对,依然机体器学习研究管理工作其他部门借此埋葬浅层研读完。但是 Hinton 在今天对大写出执行好好了某种总体的一定都会。在我却是,他的结盟负面影响了这个信息运用于。在某些各个方面,Hinton 反对机体器学习大写出执行的运动取得了庞大的再加功。基本上所有的研究管理工作投资者都朝着浅层研读完的侧向持续发展。Hinton、LeCun、Bengio 体会了 2018 年的数理逻辑奖,Hinton 的研究管理工作基本上取得了自已的注意。
不需有讽刺意味的是,Hinton 是 George Boole 的世孙,而 Boolean 代仅仅是大写出 AI 最基本的工具之一,是以他的姓氏命名。如果我们终究尽确实将 Hinton 和他的曾曾祖父这两位天才的或许紧密结合在独自,AI 毫无疑问终于有机体都会好好到它的承诺。
我显然,混和机体器学习(而无疑是浅层研读完或大写出执行)确实是最好的前进侧向,理由如下:
21世纪上的许多专业知识,从历史文化到运用于,现在主要以大写出形式显露现。借此在无法这些专业知识的才都会借助于 AGI(Artificial General Intelligence),而不是像可称粹的浅层研读完那样才对重从新研读完所有东西,这确实是一种主因而鲁莽的财政负担; 即使在像算术这样有序的信息运用于中的,浅层研读完本身也在依然伤痛,混和系统对确实比任何一个系统对都不需有更为大的潜力; 在计算出来基本各个方面,大写出基本上远远超过当前的脑部因特网,它们更为有灵活性通过多样的过场同步进行废话,可以更为系统对、更为确实地同步进行算术等基本加法,并且尽确实更为好地精确真是明之外和整体之间的彼此间。它们在真是明和查询大型仅仅据库的灵活性各个方面更为加鲁棒和灵活。大写出也更为最大限度形式实验者运用于,这对于安全的某些各个方面至关重要,并且在近代微执行器的设计中的无处不在。坚持这些灵活性而不是将它们用以某种混和驱动程式是无法意义的; 浅层研读完系统对是Fi,我们可以察看其重定向和输显露,但我们在研究管理工作其实质上运作时遇到了很多麻烦,我们不都会确切明了为什么静态都会好好显露这种决定,而且如果静态给显露严重错误的谜题,我们并不一定不明白该怎么执行(除了收集更为多仅仅据)。这使得浅层研读完笨拙且难以解释,并且在许多各个方面不适合与人类文明独自同步进行进一步提高层面。允许我们将浅层研读完的研读完灵活性与大写出指明、语义多样化性联系好像的混和体确实不需有变革性。因为通用机体器学习将顾及如此庞大的责任,它只能像铝一样,更为坚固、更为确实,比它的任何组再加再加分都更为好用。任何举例来说的机体器学习原理都不足以应付询解决必要,我们只能掌握将相同原理紧密结合在独自的视觉艺术。(也许一下这样一个21世纪: 钢铁制造商高举「钢铁」,锂爱好者高举「锂」,倒是没人想过将二者紧密结合好像,而这就是近代机体器学习的历史文化。)
好死讯是,将脑部和大写出紧密结合在独自的聚焦依然都无法中止,而且将要积聚力量。
Artur Garcez 和 Luis Lamb 在 2009 年为混和静态写出了一篇篇名,叫好好脑部大写出层面废话 (Neural-Symbolic Cognitive Reasoning)。最近在棋类小游戏(剑道、国际象棋等) 各个方面取得的一些曾为再加果都是混和静态。
AlphaGo 运用于以大写出树极其重要字(symbolic-tree search) ,这是 20 世纪 50 二十世纪后半期的一个或许(并在 20 世纪 90 二十世纪取得了更为加多样化的粗略地估计基础) ,与浅层研读完并行。
经典的树极其重要字本身不足以极其重要字剑道,浅层研读完也不都会单独同步进行。DeepMind 的 AlphaFold2 也是一个混和静态,它利用蛋白来声称蛋白的结构上。这个静态将一些精心借助于的代表者小分子的建模化学结构上的大写出原理,与浅层研读完的可怕的仅仅据极其重要字灵活性紧密结合在独自。
像 Josh Tenenbaum、Anima Anandkumar 和 Yejin Choi 这样的研究管理工作其他部门现在也正朝着脑部大写出的侧向持续发展。包括 IBM、超微、腾讯、 Facebook 和技术开发者在内的众多该公司从未开始耐心投资者脑部大写出原理。Swarat Chaudhuri 和他的同事们将要研究管理工作一个叫好好「脑部大写出演算(neurosymbolic programming)」的信息运用于,这对我来真是简直是阳春之音。他们的研究管理工作再加果可以尽力我明了脑部大写出演算。
四十年来,这是我第一次对机体器学习不已冷漠。正如层面物理家 Chaz Firestone 和 Brian Scholl 指显露的那样。「人脑的运行不只有一种形式,因为它并不是一件东西。意味著,人脑是由几之外组再加的,相同之外以相同形式运行:看差不多一种颜色和计划一次假期的形式相同,也与明了一个字词、移动一个言语、记住一个或许、感受一种意识的原理相同。」借此把所有的层面都塞进一个圆孔底下是行不通的。随着大家对混和原理的冷漠更为开放,我显然我们似乎终于有了一个机体都会。
受制于伦理学和计算出来物理的所有面对,AI 信息运用于无需的无疑是仅仅学、计算出来机体系统对物理各个方面的专业知识,还无需句法学、社都会心理学、人类文明学和脑部物理等多个信息运用于的组合专业知识。只有应运而生庞大的力量,AI 信息运用于才确实到时。我们不应当记得,人类文明的人脑确实是个数得注意宇宙中的最多样的系统对,如果我们要建立一个大致完全相同的系统对,开放式的资源共享将是极其重要。
参考资料:
1. Varoquaux, G. Max Cheplygina, V. How I failed machine learning in medical imaging—shortcomings and recommendations. arXiv 2103.10292 (2021).
2. Chan, S., Max Siegel, E.L. Will machine learning end the viability of radiology as a thriving medical specialty? British Journal of Radiology *92*, 20180416 (2018).
3. Ross, C. Once billed as a revolution in medicine, IBM’s Watson Health is sold off in parts. STAT News (2022).
4. Hao, K. AI pioneer Geoff Hinton: “Deep learning is going to be able to do everything.” MIT Technology Review (2020).
5. Aguera y Arcas, B. Do large language models understand us? Medium (2021).
6. Davis, E. Max Marcus, G. GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about. MIT Technology Review (2020).
7. Greene, T. DeepMind tells Google it has no idea how to make AI less toxic. The Next Web (2021).
8. Weidinger, L., et al. Ethical and social risks of harm from Language Models. arXiv 2112.04359 (2021).
9. Bender, E.M., Gebru, T., McMillan-Major, A., Max Schmitchel, S. On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency 610–623 (2021).
10. Kaplan, J., et al. Scaling Laws for Neural Language Models. arXiv 2001.08361 (2020).
11. Markoff, J. Smaller, Faster, Cheaper, Over: The Future of Computer Chips. The New York Times (2015).
12. Rae, J.W., et al. Scaling language models: Methods, analysis Max insights from training Gopher. arXiv 2112.11446 (2022).
13. Thoppilan, R., et al. LaMDA: Language models for dialog applications. arXiv 2201.08239 (2022).
14. Wiggers, K. Facebook releases AI development tool based on NetHack. Venturebeat.com () (2020).
15. Brownlee, J. Hands on big data by Peter Norvig. machinelearningmastery.com () (2014).
16. McCulloch, W.S. Max Pitts, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biology *52*, 99-115 (1990).
17. Olazaran, M. A sociological history of the neural network controversy. Advances in Computers *37*, 335-425 (1993).
18. Marcus, G.F., et al. Overregularization in language acquisition. Monographs of the Society for Research in Child Development *57* (1998).
19. Hinton, G. Aetherial Symbols. AAAI Spring Symposium on Knowledge Representation and Reasoning Stanford University, CA (2015).
20. LeCun, Y., Bengio, Y., Max Hinton, G. Deep learning. Nature *521*, 436-444 (2015).
21. Razeghi, Y., Logan IV, R.L., Gardner, M., Max Singh, S. Impact of pretraining term frequencies on few-shot reasoning. arXiv 2202.07206 (2022).
22. Lenat, D. What AI can learn from Romeo Max Juliet. Forbes (2019).23. Chaudhuri, S., et al. Neurosymbolic programming. Foundations and Trends in Programming Languages*7*, 158-243 (2021).
书名链接:
—授权声明—
来源:机体器之心,编辑:nhyilin
仅有用以学术体会,授权总称原译者。
若有侵权,恳请联系微信号:Eternalhui或nhyilin删除或修改!
—THE END—
☞ 26岁双非麻省理工学院出版19篇SCI,毕业即副教授,童星即颠峰!
☞ 流程员的第二大谎言是什么?推特热议,其中的很多话你也真是过……
☞ 中的科大副研究员万字自述:5年收13封拒稿信
☞ 80多年前,4万年轻人宁可“割肉断骨”,爬也要爬到这个地方……
☞ 26岁双非麻省理工学院出版19篇SCI,毕业即副教授,童星即颠峰!
☞ 副教授招聘学生要求“颜个数高”惹争议,曾公布女学生特写出指为好好“颜个数门槛”
。山东银屑病检查哪家医院好苏州看白癜风哪家好
苏州看白癜风哪个专科医院好
信阳看妇科哪家医院专业
广东妇科检查费用
小便发黄
慢性支气管炎长期咳嗽怎么办?
咳嗽厉害如何快速止咳化痰
近视
宝宝腹泻怎么办

-
蔡斌话里有话,点明朱婷张常宁未归极其重要,伤病非主因?拒绝强求
导读:中国队正式开启受训,很显然这是广大球迷乐意看到的具体情况,也寓示着女排法国国家队在正轨上越加走越加惟,同时关于女排法国国家队相互竞争高科技攻击能力天津队以及张常宁为何只能转到受训列名一事,

-
普尔30+3仍无缘今日最佳!很抱歉,你察觉到76人队史第一人了
直到现在NBA冠军赛,战将以123-107获胜掘金,此役并无法有点多无趣,首节战将落后1分,次节战将占上风,第三节战将独自压着掘金打,末节掘金虽极力反扑,眼见战将一波10-2的迎击势瞄准了致胜球
- 10-30狂轰41+19+18!哈登恩奥托背水一战,但没有他,你们会沦为空砍帝
- 10-30“六边形战士”马龙,恋爱8年再婚夏露,如今一家3口幸福美满
- 10-30蔡斌“紧抱”李盈莹大腿!王梦洁落选原因首次披露,仍有希望回归
- 10-30芬尼-史密斯:要是我们能多投进几个三分和远射 结果就不一样了
- 10-30东欧国家足球传奇施特赖希去世,职业生涯480场284球
- 10-30“广东男篮是胜利者”!杜锋对抗质疑,点名4将,中国国奥队有希望
- 10-30输球输人!季后赛首笔罚款将要诞生
- 10-3010秒04,18岁天才少年百米击败莱尔斯夺冠,天赋超越同龄正正
- 10-30CCTV5直播世锦赛,17:00,赵心童VS大黑马!21:55,奥沙利文不敌
- 10-30斯瓦泰克送双蛋获19连胜,坦言成为第一以后更自信