Nenhum resultado encontrado

Nova cotação

Word2Vec

É um modelo inventado por Tomas Mikolov que aprende a representar (embutir) palavras em um espaço vetorial. Por exemplo, isto pode significar localizar as palavras 'Rei' e 'Rainha' de forma semelhante a localizar 'Homem' e 'Mulher', permitindo que álgebra simples seja computada como 'Rei - homem + mulher = Rainha'. Estes modelos de linguagem podem então ser usados para melhorar muitos tipos de tarefas de processamento de linguagem natural, tais como análise de sentimentos.