Compression in Sequence to Sequence Learning for Natural Language Processing

Dans ce travail, nous proposons une méthode presque sans perte d’information pour encoder de longues séquences de texte ainsi que toutes leurs sous-séquences en des représentations riches en information. Nous testons notre méthode sur une tâche d’analyse de sentiments et obtenons de bons résultats a...

Full description

Bibliographic Details
Main Author: Prato, Gabriele
Other Authors: Tapp, Alain
Language:fra
Published: 2020
Subjects:
Online Access:http://hdl.handle.net/1866/23787