Ctr+D 收藏网站
完本小说网 >>都市 >>穿越:2014 >>第337章 巧妙的思路
毕竟在生成式文本摘要这项技术甫一问世,伊芙·卡莉及其先前所在的团队就对这一技术进行了跟进。 而后伊芙·卡莉更是来到华国受到林灰的当面指点。 在这种情况下,伊芙·卡莉对其第二的位置还是很有自信的。 纵然和林灰的差距依然是不小的。 但伊芙·卡莉觉得就算不能理解生成式文本摘要的全部实现方式。 但对生成式文本摘要部分概略性内容应该还是能管窥一二的。 在管窥一二的情况下写篇综述应该是不成问题的。 在撰写完文本摘要这方面的综述之后,伊芙·卡莉将该论文传给林灰之后却被修改了一通之后。 此时伊芙·卡莉的心情可想而知。 不过当看到林灰在其写的论文就生成式文本摘要这方面所做的补充之后。 伊芙·卡莉先前的自得却不见了。 此前内心深处还有点小抱怨的情绪更是消失得无影无踪。 看到林灰所修改的内容。 伊芙·卡莉才愈发明白她同林灰之间所隔着的差距远比其曾经设想的距离还要大。 甚至一时间伊芙·卡莉有点绝望。 原本以为在林灰身边几个月之后她同林灰的距离会逐渐缩短。 但看到林灰补充之后的论文后,伊芙·卡莉却一时之间有种错觉。 即她跟林灰之间的差距甚至有三四年之多。 虽然只是三四年,但在算法方面迭代迅速的情况下,三四年的差距是相当大的。 三四年的差距在某些算法岗位。 差不多就是“前辈盆满钵满,后浪没有饭碗”那种区别。 可以说是相当冰冷残酷了。 说实话伊芙·卡莉内心深处是一个极其骄傲的人。 但自从林灰搞得东西问世之后,她内心的那份骄傲破碎了。 在跟林灰日渐的接触中,她残存的骄傲更是荡然无存。 不过这不代表她将要甘于落寞,因为在同林灰接触的过程中。 伊芙·卡莉似乎接触到了另外的一些概念。 林灰搞出的东西是有很多值得骄傲的资本的,但同林灰接触的过程中伊芙·卡莉却极少感受到来自于林灰的那份骄傲。 恰恰相反,在林灰那伊芙·卡莉收获到的通常都是一种类似于平和的感觉…… 这种平和的感觉让伊芙·卡莉在异国他乡也能察觉到一丝温暖。 伊芙·卡莉似乎也更加明白了: 内心深处的宁静和平和似乎远要比所谓的骄傲更重要。 具体到林灰当时对伊芙·卡莉撰写的那篇论文的改动。 客观来说,其实当时那篇论文涉及到生成式文本摘要这方面林灰的改动并不算很多。 林灰只是补充了一些内容。 但林灰补充的内容却几乎都是精髓之所在。 通过林灰的补充内容伊芙·卡莉更进一步了解了林灰是如何搞定南风APP里面文本摘要技术的。 林灰在就构建生成式文本摘要算法采取了很多巧妙的方法。 无论是基于深度学习技术设计合适的模型架构和训练策略。 还是借助迁移学习的思想提出了基于预训练模型的生成式自动文本摘要算法。 抑或是通过无监督来完成内容表示以及权重计算。 这些都是伊芙·卡莉此前所没想到,或者说从来没深刻认识的。 一个相关领域的博士居然还有此前没认识到位的东西? 听起来似乎有些不可思议,但事实如此。 正所谓闻道有先后,术业有专攻。 一时的落后于人也没什么不可承认的。 而且伊芙·卡莉敢肯定她这种情况绝对不会是孤例。 伊芙·卡莉觉得林灰所补充的内容未必只是她本人没想到。 很多其余的研究者或许也是没想到的。 林灰提出的一些新的见解不止是相对于传统的文本摘要这方面的研究 甚至是对于整个NLP方向来说林灰鼓捣的东西都可以称得上是全新的思路。 反正伊芙·卡莉是觉得这些思路很奇妙,甚至有可以让人有一种醍醐灌顶之功效。 之所以会有这样的功效,很大程度上是因为在此之前多数文本摘要的研究人员都是研究抽取式文本摘要的。 抽取式文本摘要和生成式文本摘要虽然都是文本摘要。 但从前者到后者的转变涉及到一个思路上转换的过程。 很多时候多数传统文本摘要方面的研究人员亦即研究抽取式文本摘要的研究人员受先入为主的影响对生成式文本摘要认识不到位也是常有的事情。 举个例子,就比如说林灰在搞定生成式文本摘要时所提出的预训练。 按说,这个东西并不算什么高深的概念。 所谓的预训练倒是不难理解,无非就是对训练模型的数据进行粗处理而已。 但就比较难想到。 以前伊芙·卡莉在进行抽取式文本摘要这方面的调校时候就没用到预训练。 多数情况下都是直接进行训练的。 而没有应用预训练这一步骤。 按照林灰在论文中进行的补充。 预训练的通常做法一般是将大量低成本收集的训练数据放在一起。 而后以某一种或者某一类特定预训方法去学习这些训练数据其中的共性。 然后将其中的共性移植到特定任务的模型中。 再使用相关特定领域的少量标注数据进行更细致的调校。 完成这一过程之后,今后用于实际应用的模型模型只需要从共性出发。 再去学习特定任务的特殊部分即可。 大概类似于对于部分方程先求通解再去找特解的过程。 听起来似乎蛮抽象的。 实际上也没多么高深。 涉及到机器学习这方面,无论多么高深的东西。 其本质上基本都是在模仿人。 在这种情况下,往往我们只要了解人是如何处理问题的。 就能理解机器学习处理问题的思路或者说是方式。 通常我们在学习东西的时候。 或许我们的初衷是想着是将所有想学的内容一次性学懂学精。 但因为学习时间有限、学业任务繁多或者其余各种各样的客观要素。 实际学习的时候是很难将所有的知识的学得一步到位的。 在这种情况下,一些擅于学习的人是怎么学习的呢? 这些人在进行学习时可能采用的做法是先将想学的知识的共性内容搞懂。 而后再花时间放在一些那些“疑难杂症”上。 虽然这种做法似乎是有点“偷懒”。 但人类一多半的智慧结晶都是因为偷懒才出现的。 不可否认这种看似偷懒的学习方式充满智慧。 至少从效率角度衡量的话,这种方式很值得称赞。 毕竟除了像医学等极其特殊的学科之外。 大部分领域所涉及到的知识,80%都是能够找出共性的。 在找到共性之后,再去解决另外的20%复杂知识。 这无疑是一种比较省力的思维。 在自然语言处理这个机器学习的典型方向引入预训练。 无疑等同于将部分优秀学生在学习中会用到的一种特殊的技巧“移植”过来。 这种思路无疑很是很巧妙。 思路固然很巧妙。 但正如路边李苦的道理一样。 为什么这种很巧妙的思路以前却没人尝试过呢? 伊芙·卡莉觉得未必是没人想过这方面。 但别人却无一例外的失败了。 涉及到知识的汲取,或许绝大多数人也知道先将80%有共性的知识搞定再搞定另外的20%可以省力。 但从过往的学业上看,伊芙·卡莉觉得她身边能够做到先将知识80%的共性找出来再去攻克疑难处的人少之又少。 甚至于除了伊芙·卡莉眼中的学霸之外根本没啥人能做到这一点。 伊芙·卡莉眼中的学霸又能有多少人呢?可以说是寥寥无几了。 也就是说这种先将80%有共性的知识搞定再搞定另外的20%这种很明智的做法实际很少有人应用。 明明是看起来更加容易的方式。 什么没多少人这么做? 伊芙·卡莉觉得主要原因是: ——大部分人并不善于找到知识的共性。 在不善于找到知识共性的情况下,一部分人虽然会尝试着找知识共性。 但实际上操作的时候找到80%知识的共性完全是奢望。 可能只能找到30%、20%甚至更少知识的共性。 如此一来这些人非但没有能够找到主体知识的共性。 反而在找共性的时候不知不觉将其余一些原本是普通的内容给异化成了这些人眼中的“非共性知识”。 而非共性知识在这些人心中又被这些尝试找共性的人心理暗示成了比较麻烦的知识。 这些原本并不是特别难的知识,在心理暗示的debuff下。 效率甚至比不找共性时的效率还要低。 如此,未找到共性的人反而有可能成为这些尝试寻找共性的人的所需要耗费大量时间去攻克的内容。 这种情况下,找知识的共性非但没对他们造成帮助。 反而成为了他们学习时候的拖累。 就很苦逼了。 与其出现这种情况,这些人干脆放弃了找知识的共性。 直接一视同仁,至少不会聪明反被聪明误。 类似于学习上这些人面对的窘境。 或许机器学习方面的学者也是因为同样的境遇才放弃了对训练数据共性的寻找。 至少在伊芙·卡莉这是因为这个原因。 纵然是现在知道了林灰在模型训练中引入了预训练方式。 伊芙·卡莉现在也不知道林灰究竟是如何做的。