OpenAI研究 无监督情感神经元
开发了一个无监督系统,它学习了一种出色的情绪表示,尽管只接受过预测亚马逊评论文本中下一个字符的训练。
使用这种表示的线性 模型 在一个小型但广泛研究的数据集 Stanford Sentiment Treebank 上实现了最先进的情感分析精度(我们获得了 91.8% 的精度,而之前的最佳精度为 90.2%),并且可以匹配性能以前的监督系统使用的标记示例减少了 30-100 倍。我们的表示还包含一个独特的“情感神经元”,它包含几乎所有的情感信号。
我们的系统在 Stanford Sentiment Treebank 上击败了其他方法,同时使用的数据少得多。

我们非常惊讶我们的模型学习了一个可解释的特征,并且简单地 预测 亚马逊评论中的下一个字符导致发现情绪的概念。我们相信这种现象并非特定于我们的模型,而是某些大型神经网络的一般属性,这些神经网络经过训练可以预测其输入的下一步或维度。
方法
我们首先在包含 8200 万条亚马逊评论的语料库上训练了一个 具有 4,096 个单元的乘法 LSTM ,以预测一段文本中的下一个字符。四个 NVIDIA Pascal GPU 的训练耗时一个月,我们的模型每秒处理 12,500 个字符。
这 4,096 个单元(只是一个浮点数的向量)可以看作是一个特征向量,表示模型读取的字符串。在训练了 MLSTM 之后,我们通过对这些单元进行线性组合,将模型转变为情感分类器,并通过可用的监督数据学习组合的权重。
情感神经元
在使用 L1 正则化训练线性模型时,我们注意到它使用的学习单元少得惊人。深入挖掘,我们意识到实际上存在一个高度预测情感值的“情感神经元”。

就像类似的模型一样,我们的模型可用于生成文本。与那些模型不同,我们有一个直接拨号来控制结果文本的情绪:我们只需覆盖情绪神经元的值。
情绪固定为积极 | 情绪固定为负面 |
正是我要找的。漂亮合身的裤子,与我拥有的其他裤子的颜色对比完全匹配。强烈推荐也很开心! | 收到的包裹是空白的,没有条形码。浪费时间和金钱。 |
这个产品做了它应该做的。我总是在我的厨房里放三个这样的东西,以防万一我需要更换电线。 | 很棒的小东西。如果没有某种装饰,很难放在婴儿床上。我的猜测就像我的螺丝附件一样。 |
有史以来最好的吊床!留在原地并保持其形状。很舒服(我喜欢上面深沉的霓虹灯图片),看起来很可爱。 | 他们也不合适。最后是直高杆。与我拥有的其他芽相当。吸取教训避免。 |
Dixie 正在收到她的 Doolittle 时事通讯,我们将在明年看到另一个新的时事通讯。好东西。而且,这里是内容 - 我们几乎不知道或忘记的信息。 | 很棒的产品,但没有卖家。无法确定原因。损坏的产品。我一直是这家公司的多产消费者。 |
我喜欢这种武器外观。就像我说的美丽!我向所有人推荐它。会向许多角色扮演者推荐这个,我会为我认识的每个人都买下它们。任何喜欢国际象棋的人都必须注意! | 和封面一样,很合身。. 但是,像垃圾这样烦人的后部应该不在这个范围内。我买了这个,希望它能帮助我大幅拉低我的背部,而且黑色不会留下来。每次我用它就报废……非常失望。 |
情绪固定为积极 | 情绪固定为负面 |
一开始我无法弄清楚它的形状,但它确实能达到预期的效果。这是一个很棒的产品,我强烈推荐 | 我不知道如何使用该产品。它没有用。至少没有质量控制;这台平板电脑不工作。我会给它零颗星,但这不是一个选择。 |
我不明白为什么这部电影停播了!现在我可以随时享受它。很高兴再次找到它。 | 我不知道如何设置它,因为盒子上没有警告。我不会向任何人推荐这个。 |
我不知道如何使用视频或随附的书,但它是一本关于如何将其付诸实践的绝妙书! | 我不知道如何使用小发明。真是浪费时间和金钱!还不如把这些垃圾扔掉。 |
我不知道如何只使用一个我最喜欢的跑步应用程序。我用它所有的时间。质量好,价格实惠。 | 我不知道如何停止这种胡言乱语。最糟糕的是,无论我做什么,它都毫无进展。不用说,我略读了整本书。不要浪费你的时间。 |
我不知道如何将这些球连接到我的小型便携式鼓上,但它们符合要求并且物有所值。 | 我不知道怎么玩。 |
例子
下图表示情感神经元的逐字符值,将负值显示为红色,将正值显示为绿色。请注意,像“ best ”或“ horrendous ”这样的强烈指示性词会导致颜色发生特别大的变化。

有趣的是,系统还会在完成句子和短语后进行大量更新。例如,在“ And about 99.8% of that got lost in the film ”中,在“ lost ”之后有一个负面更新,在句末有一个更大的更新,即使“ in the film ”本身没有情感内容。
无监督学习
标记数据是当今机器学习的燃料。收集数据很容易,但很难对数据进行可扩展标记。只有为回报值得努力的重要问题生成标签才是可行的,例如机器翻译、语音识别或自动驾驶。
机器学习研究人员长期以来一直梦想开发 无监督 学习 算法 来 学习 数据集的良好表示,然后仅使用几个标记示例即可将其用于解决任务。我们的研究表明,在创建具有良好表示学习能力的系统时,简单地在大量数据上训练大型无监督下一步预测模型可能是一种很好的方法。
下一步
我们的结果是朝着一般无监督表示学习迈出的有希望的一步。我们通过探索我们是否可以学习高质量的表示作为语言建模的副作用来找到结果,并在精心选择的数据集上扩展现有模型。然而,潜在的现象仍然神秘多于清晰。
- 对于长文档的数据集,这些结果并不那么强大。我们怀疑我们的字符级模型很难记住数百到数千个时间步长的信息。我们认为值得尝试可以适应其运行时间尺度的分层模型。进一步扩大这些模型可能会进一步提高表达保真度和情绪分析和类似任务的性能。
- 输入文本与评论数据的差异越大,该模型就越挣扎。值得验证的是,扩大文本样本的语料库会产生同样适用于更广泛领域的信息表示。
- 我们的结果表明,存在非常大的下一步预测模型可以学习出色的无监督表示的设置。训练大型神经网络来预测大量视频中的下一帧可能会导致对象、场景和动作分类器的无监督表示。
总的来说,重要的是要了解可靠地导致如此出色的表示的模型、训练制度和数据集的属性。