Durante o processo de treinamento e validação de uma rede
neural, foi observado o fenômeno de underfitting do modelo,
necessitando de ajustes ao procedimento. A arquitetura utilizada
foi a Multilayer Perceptron (MLP) e o conjunto de dados foi
separado em regime de holdout (50%, 30% e 20% para
treinamento, validação e teste, respectivamente).
Dois fatores que podem ter condicionado o fenômeno observado
são: