Uma rede neural foi implementada a partir da arquitetura
Multilayer Perceptron (MLP) e o conjunto de dados foi
dividido em holdout com 50% para conjunto de
treinamento, 30% para conjunto de validação e 20% para
conjunto de teste. Se, durante o treinamento e a validação
da referida rede ocorreu underfitting, dois fatores que
podem ter condicionado tal fenômeno são: