然而作为具体的执行人员,对于谷歌提出的任务:
——评估LIN HUI提出的算法实现的可行性,并根据实际情况考虑能否短时间实现复现
伊芙·卡莉就很无语。
或许在那些屁股决定脑袋的人心中。
清楚技术路线了,技术复现能够实现与否只是时间长短的问题了。
但事实哪有那么简单。
反正进行了一晚上尝试的伊芙·卡莉发现想要进行复现很难。
抛开LINHUI提出的算法技术本身不谈。
就是LIN HUI在生成式摘要算法专利中顺手牵羊搞定的那个“LH文本摘要准确度衡量模型”
其他团队想要从无到有的构建一个同样的模型都有亿点困难。
说起来LH文本摘要准确度衡量模型的构建过程思路倒是很清晰:
第一,运用语言模型来评估算法生成语言的流畅度; 第二,使用相似度模型评估文本和摘要之间的语义相关性; 第三,为了有效评估实体、专有词的复现程度,引入原文信息量模型来评估。
……
然鹅也仅仅是说起来很简单而已。
说到把大象放进冰箱也很简单同样是三步:
——打开冰箱门,放进大象,关上冰箱门。
知道怎么做没用,关键还是要执行。
没办法执行的话,步骤再清晰也没用。
LH文本摘要准确度衡量模型的构建过程有三步。
第一步就很复杂。
该怎么进行语言模型的构建呢?
按照LIN HUI提出的技术路线。
语言模型建模过程中,包括词典、语料、模型选择等。
问题出在语料库上,语料库一词在语言学上意指大量的文本。
这类文本通常经过整理,具有既定格式与标记。
涉及到英文语料库的信息还比较容易,毕竟伊芙所在的团队和牛津、哈佛、耶鲁三所大学的语言学方面都是深度合作的关系。
但涉及到中文以及其他文字预料信息该怎么处理这就完全不好说了。
巧妇难为无米之炊。
没有语料库清楚技术路线什么的也没用。
倒是可以姑且先抛弃对中文以及其他新闻生成式摘要的研究。
但是这样几乎等同于放弃了一个庞大的市场。
而且最关键的是LIN HUI提出的算法本身就能兼顾中文新闻摘要以及英文新闻摘要。
那么之后LIN HUI会不会直接开发个中文新闻处理成英文摘要的功能呢?
能搞定文本摘要处理算法的人没道理一个翻译算法都搞不定吧??
伊芙·卡莉越想越觉得这种可能性很大。
不然为什么一个摘要软件要做成类似于翻译软件那样的交互风格呢?
在她们还在踌躇不前的时候。
对手却早已经大步向前挺进了。
一时之间伊芙不禁有种酣战过后的无力感。
这就是所谓的一步落后步步落后吧。
这种情况还评估啥?
直接建议谷歌方面把LIN HUI的算法买回来就好了!
虽然LIN HUI是华国人.
但这种技术又不是什么涉及到国家命脉的重要技术。
总不至于不卖吧!
不卖的话谋求专利授权也可以啊!
总不至于非跟在别人身后造轮子吧。
伊芙又没受/虐/欲。