新闻资讯

「广州正规调查公司」现有模型还「不懂」自然语言:20多位研究者谈NLP四大开放性问题

在DeepMind主办的Deep Indaba 2018深度学习峰会上,NLP领域的20多位研究人员接受了采访,以表达他们对NLP研究的现状,当前的困难和未来趋势的看法. 许多研究人员指出,自然语言理解是当前NLP发展中的最大问题.

采访记录:

深度学习Indaba 2018是DeepMind主办的深度学习峰会. 它于今年9月在南非斯泰伦博斯举行. 在会议上,AYLIEN研究科学家Sebastian Ruder,DeepMind高级研究科学家Stephan Gouws和Stellenbosch讲师Herman Kamper组织了自然语言处理前沿会议,采访了NLP By领域的20多位研究人员. 不久前,塞巴斯蒂安·鲁德(Sebastian Ruder)发布了这次采访的采访记录和会议讲话的PPT,并总结了整个采访. 本文基于当时的专家访谈和小组讨论. 它主要讨论了NLP领域中的4个主要开放问题:

我认为最大的公开问题是关于自然语言的理解. 通过构造文本表示形式,我们应该开发可以读取和理解人类文本的系统. 在此之前,我们所有的进步只是在提高系统模式匹配的能力. -凯文·金佩尔

在专家访谈中,许多专家认为自然语言理解(NLU)问题是核心问题,因为它是许多任务(例如自然语言生成)的先决条件. 他们认为,当前的模型都没有对自然语言的“真实”理解.

一个关键问题是,我们应该在模型中添加哪些偏向术语和结构,以更接近自然语言的理解. 许多专家在采访中提到,模型应该学习常识. 此外,他们已经多次提及对话系统(和聊天机器人).

另一方面,关于强化学习,David Silver认为,我们最终将希望让模型学习所有内容,包括算法,功能和预测. 许多专家持相反的观点,并认为应该将理解模块嵌入模型中.

Omoju Miller认为将理解模块嵌入模型非常困难,我们不知道NLU背后的机制以及如何评估它们. 她认为我们也许可以从程序综合中获得启发,并根据高级规范自动学习程序. 这些想法与神经模块网络和神经程序员解释器有关.

她还建议我们应该回顾一下1980年代和1990年代开发的方法和框架(例如FrameNet),并将其与统计方法结合起来. 这应该有助于我们推断物体的常识属性,例如汽车是否是交通工具,或者汽车是否具有把手. 推断这种常识是最近的NLP数据集的重点.

Stephan Gouws认为我们应该使用结构化的数据源和来自诸如Wikidata之类的知识库的信息. 他认为,人类可以通过经验和互动来学习语言,并将周围环境应用于身体. 可能有人认为,有一种学习算法可以在具有适当奖励结构的信息丰富的环境中的代理中使用NLU时,从零开始学习NLU. 但是,这种环境下的计算量很大. AlphaGo需要庞大的基础架构才能解决定义明确的棋盘游戏. 通用的持续学习算法的创建与终身学习和一般的问题解决者有关.

许多人认为,由于我们正在朝着体现学习的方向发展,因此我们不应低估完全体现代理所需的基础设施和计算能力. 因此,等待合格的身体经纪人学习语言似乎是荒谬的. 但是,我们可以逐步接近此终点,例如在模拟环境中进行扎根的语言学习,使用多模式数据进行学习等等.

Omoju认为,将诸如人类情感之类的因素纳入物理因素是困难的. 一方面,理解情感需要对语言的更深刻理解. 另一方面,我们可能不需要具有真实人类情感的主体. 史蒂芬(Stephan)指出,图灵测验被定义为模仿和反社会的测验,尽管它没有情感,但却可以欺骗人类并使人们认为它具有情感. 因此,我们应该尝试找到不需要在身体和情感上都可以解决的解决方案,但是它们可以理解人类的情感并帮助人类解决问题. 实际上,基于传感器的情感识别系统正在不断完善,文本情感检测系统也取得了长足的进步.

联系我们

CONTACT US

广州及时雨私家侦探(广州本地私家侦探公司)

微信:185-2064-4544

电话:185-2064-4544

地址:广州市天河区

广州出轨调查