科学作家的工作,包括这一作者,包括阅读充满专业技术术语的期刊论文,并弄清楚如何用没有科学背景的读者可以理解的语言解释他们的内容。
现在,麻省理工学院和其他地方的一个科学家团队开发了一种神经网络,一种人工智能(AI),它可以做同样的事情,至少在一定程度上:它可以读取科学论文并呈现一个简单的 - 一两句话的英文摘要。
即使在这种有限的形式中,这样的神经网络也可以用来帮助编辑,作家和科学家扫描大量的论文,以初步了解他们的内容。但是团队开发的方法除了语言处理之外还可以在各种其他领域找到应用,包括机器翻译和语音识别。
这项工作在麻省理工学院研究生Rumen Dangovski和Li Jing的论文中描述了计算语言学协会的交易期刊; 麻省理工学院物理学教授MarinSoljačić; Preslav Nakov,HBKU卡塔尔计算研究所的首席科学家; 和MićoTatalović,麻省理工学院前奈特科学新闻学研究员,“ 新科学家 ”前编辑。
这项工作是由于一个不相关的项目而产生的,该项目涉及开发基于神经网络的新的人工智能方法,旨在解决物理学中的某些棘手问题。然而,研究人员很快意识到,同样的方法可以用于解决其他困难的计算问题,包括自然语言处理,其方式可能超过现有的神经网络系统。
“我们已经在AI工作了几年,”Soljačić说。“我们使用人工智能来帮助我们的研究,主要是为了更好地完成物理学。当我们对AI更加熟悉时,我们会注意到每隔一段时间就有机会增加AI领域,因为我们从物理学中知道某些东西 - 某种数学结构或物理学中的某种定律。我们注意到,刘姓女孩名字大全嘿,如果我们使用它,它实际上可以帮助这个或那个特定的AI算法。“
他说,这种方法可用于各种特定类型的任务,但不是全部。“我们不能说这对所有AI都有用,但有些情况下我们可以利用物理学的洞察来改进给定的AI算法。”
一般来说,神经网络试图模仿人类学习某些新事物的方式:计算机检查许多不同的例子并“学习”关键的基础模式是什么。这种系统广泛用于模式识别,例如学习识别照片中描绘的对象。
但是神经网络通常难以将来自长串数据的信息关联起来,例如在解释研究论文时所需要的。研究人员表示,已经使用各种技巧来改善这种能力,包括称为长期短期记忆(LSTM)和门控复发单位(GRU)的技术,但这些技术仍然远远不能满足真正的自然语言处理所需。
该团队提出了一种替代系统,它不是基于矩阵的乘法,而是像大多数传统神经网络一样,是基于在空间中旋转的矢量。关键概念是他们称之为旋转记忆单位(RUM)。