Dialogue Transformers 論文詳解
論文中引入 transformer 的結構,其中注意力模型在對話(huà)輪的順序上面起了了作用.最近我們使用遞歸神經(jīng)網(wǎng)絡(luò )多輪對話(huà)的上下文中用戶(hù)說(shuō)的話(huà),但是我們原本認為注意力模型會(huì )更適合多輪場(chǎng)景.默認情況下,RNN假設每個(gè)選項和完整的序列有關(guān),但是一輪對話(huà)當中包括一些交錯的對話(huà)邏輯在里面. transformer 模型可以選擇忽略或者選擇對話(huà)的一部分內容.們比較了 Transformer Embedding Dialogue對話(huà)策略對LSTM和REDP的政策.旨在克服RNN的這一限制。我們證明了TED的政策無(wú)論是在準確性還是速度上,行為都是比較有利的。