La forma más popular de encontrar una traducción para una oración del texto de origen con un modelo de secuencia a secuencia neuronal es una búsqueda de haz sencilla. La oración de destino se predice una palabra a la vez y, después de cada predicción, se conserva una cantidad fija de posibilidades (normalmente entre 4 y 10) para seguir explorando. Esta estrategia puede ser insuficiente porque estas decisiones locales difíciles no tienen en cuenta el resto de la traducción y no pueden revertirse más adelante.
En este artículo, los autores proponen abordar este problema manteniendo una sola pila de hipótesis parciales con diferentes longitudes activas. Si una decisión anterior no es óptima unas palabras después, ahora es posible revisarla. Para hacer la definición, los autores usan una pequeña red neuronal adicional para predecir la longitud esperada de la oración para cada oración del texto de origen y cada traducción parcial. Si ambas difieren significativamente, se considera un indicador de que se debe revisar una decisión anterior.
Artículo: Single-Queue Decoding for Neural Machine Translation
Autores: Raphael Shu, Hideki Nakayama
Lugar: Universidad de Tokio