As arquiteturas de modelos de linguagem de larga escala (Large
Language Models - LLM) surgiram recentemente, revolucionando
a área de inteligência artificial nas áreas de processamento e
geração de texto.
A arquitetura desses modelos baseia-se, majoritariamente, nas
redes neurais do tipo transformers. Relacione as arquiteturas a
seguir com suas características principais:
1. BERT
2. GPT
3. T5
( ) Utiliza decoders das redes transformer para
prever novos tokens a partir de uma
sequência, tornando-se ideal para a geração
de textos.
( ) Utiliza encoders das redes transformer para
"entender" o contexto de frases, tornando-se
ideal para classificação de textos.
( ) Utiliza encoders e decoders das redes
transformer, sendo adaptável a situações em
que seja necessário gerar novos textos ou
processar textos para "entender" o contexto
das frases.
( ) Em comparação com as outras arquiteturas,
tem menor necessidade de fine-tuning para
melhora de performance.
A relação correta, na ordem apresentada, é