UniLM

UniLM

Este artigo apresenta o UniLM, um modelo de linguagem unificado pré-treinado, que serve como uma nova referência para tarefas de compreensão de linguagem natural (NLU) e geração de linguagem natural (NLG). É único no uso de uma rede Transformer compartilhada que é pré-treinada em tarefas unidirecionais, bidirecionais e sequência a sequência, empregando máscaras especiais de autoatenção para controle de previsão contextual. UniLM supera BERT no benchmark GLUE e se destaca em respostas a perguntas SQuAD 2.0 e CoQA, estabelecendo novos recordes em cinco conjuntos de dados NLG, incluindo melhorias notáveis em tarefas de resumo CNN/DailyMail e Gigaword. Os modelos e códigos compartilhados pelos autores auxiliam a comunidade de pesquisa em avanços futuros.

Recursos Principais:
  1. Pré-treinamento abrangente: O UniLM é pré-treinado em tarefas de modelagem de linguagem unidirecional, bidirecional e sequência a sequência.

  2. Design de dupla finalidade: Otimizado para compreensão e geração de linguagem natural, tornando-o uma ferramenta versátil em PNL.

  3. Controle superior de autoatenção: Máscaras exclusivas de autoatenção na rede compartilhada do Transformer permitem previsões específicas do contexto.

  4. Excelência de Benchmark: Alcança novos resultados de última geração em diversos benchmarks, superando modelos anteriores como o BERT.

  5. Contribuição de código aberto: Os autores fornecem acesso a modelos e códigos pré-treinados para uso e melhoria da comunidade.

Perguntas frequentes:

1) O que é UniLM?

UniLM significa Modelo de linguagem pré-treinado unificado e foi projetado para tarefas de geração e compreensão de linguagem natural.

2) Como o UniLM é pré-treinado?

O modelo é pré-treinado usando tarefas de modelagem de linguagem unidirecional, bidirecional e sequência a sequência.

3) O UniLM tem desempenho melhor que o BERT?

Sim, o UniLM supera o BERT no benchmark GLUE, bem como nas tarefas de resposta a perguntas do SQuAD 2.0 e CoQA.

4) Que realizações a UniLM alcançou?

Novos resultados de última geração foram alcançados em cinco conjuntos de dados NLG, incluindo melhorias nas tarefas de resumo CNN/DailyMail e Gigaword.

5) Onde posso encontrar o código e os modelos pré-treinados para UniLM?

Você pode acessar o código e os modelos pré-treinados no repositório GitHub fornecido pelos autores.

Preços:

Freemium

Tags:

Natural Language Understanding
Natural Language Generation
Pre-trained Language Model
Transformer Network
Self-Attention Masks
GLUE Benchmark
SQuAD 2.0
CoQA
Question Answering
Text Summarization
NeurIPS

Avaliações:

Give your opinion on UniLM :-

Overall rating

Join thousands of AI enthusiasts in the World of AI!

Melhor Gratuito UniLM Alternativas (e Pagas)

By Rishit