BERTimbau [recurso eletrônico] : pretrained BERT models for brazilian portuguese = BERTimbau: modelos BERT pré-treinados para português brasileiro

BERTimbau [recurso eletrônico] : pretrained BERT models for brazilian portuguese = BERTimbau: modelos BERT pré-treinados para português brasileiro

Fábio Capuano de Souza

DISSERTAÇÃO

Inglês

T/UNICAMP So89b

[BERTimbau]

Campinas, SP : [s.n.], 2020.

1 recurso online (62 p.) : il., digital, arquivo PDF.

Orientador: Roberto de Alencar Lotufo, Rodrigo Frassetto Nogueira

Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação

Resumo: Os avanços recentes em representação de linguagem usando redes neurais e aprendizado profundo permitiram que os estados internos aprendidos por grandes modelos de linguagem (ML) pré-treinados fossem usados no tratamento de outras tarefas finais de processamento de linguagem natural (PLN)....

Abstract: Recent advances in language representation using neural networks and deep learning have made it viable to transfer the learned internal states of large pretrained language models (LMs) to downstream natural language processing (NLP) tasks. This transfer learning approach improves the...

Requisitos do sistema: Software para leitura de arquivo em PDF

BERTimbau [recurso eletrônico] : pretrained BERT models for brazilian portuguese = BERTimbau: modelos BERT pré-treinados para português brasileiro

Fábio Capuano de Souza

										

BERTimbau [recurso eletrônico] : pretrained BERT models for brazilian portuguese = BERTimbau: modelos BERT pré-treinados para português brasileiro

Fábio Capuano de Souza