Escolar Documentos
Profissional Documentos
Cultura Documentos
Tabela 1. Estatísticas descritivas dos dados, média e DP do CMS, produção de leite, peso corporal metabólico, idade ao parto, DIM das vacas registradas e número total de vacas e
registros
CMS média semanal (kg/d) 18,70 3,76 19,36 3,58 19,84 3,49 18,99 3.71
Dia do teste MY (kg/d) 33,33 6,76 41,39 7,71 34,50 7,37 35,19 7.76
Dia do teste FY (g/d) 1.329,78 299,71 1.522,19 302,47 1.347,35 270,32 1.372,74 306,55
PY do dia do teste (g/d) 1.061,79 201,06 1.159,05 200,47 1.204,62 232,34 1.101,10 212,79
MBW 132,02 9,72 123,84 8,74 134,62 10,01 130,63 10.22
CA (mês) 28,01 5,99 27,38 5,71 28,92 6,01 27,99 5,95
DIM (d) 122,25 75,89 85,16 70,66 145,01 81,48 117,41 77,76
Número de registros 4.863 1.563 972 7.398
Número de vacas 290 127 92 509
1
MY = produção de leite; FY = rendimento de gordura; PY = rendimento de proteína; MBW = PC metabólico; AC = idade ao parto.
foram considerados outliers e descartados para vacas de primeira kg/d), rendimento de gordura (AF, g/d) e rendimento de proteína
e segunda lactação, onde Q1 e Q3 representam o primeiro e (PY, g/d), MBW, idade ao parto (AC), ano de parto, época de
terceiro quartis, respectivamente. As estatísticas descritivas dos parto, DIM, número de lactação, país , e informações sobre o
registros fenotípicos são apresentadas na Tabela 1. rebanho estavam disponíveis. Sete conjuntos diferentes
O registro do DMI foi focado em diferentes estágios da lactação de preditores (variáveis independentes) foram projetados para
nos Estados Unidos (início da lactação), Canadá (pós-pico da prever a média semanal de CMS de vacas individuais usando
lactação) e Dinamarca (meio da lactação), então, juntos, os ANN. As médias semanais foram utilizadas neste estudo porque
conjuntos de dados dos 3 países cobriram mais do toda a tendem a representar melhor a eficiência das vacas, já que o
lactação (Tabela 1). CMS e outras características de eficiência alimentar apresentam
alta variabilidade diária (Seymour et al., 2020). Além disso, as
avaliações genéticas e genômicas oficiais para eficiência
Dados de espectroscopia de refletância de infravermelho
médio e pré-tratamentos alimentar no Canadá também são baseadas em médias semanais
(Jamrozik e Kistemaker, 2020). Os conjuntos preditores diferem
Para cada amostra de leite, os dados MIRS do leite continham pelos preditores incluídos no seguinte: conjunto 1 (MY, AC e
1.060 WL na faixa infravermelha de 925 a 5.008 cm-1. DIM), conjunto 2 (MY, FY, PY, AC e DIM), conjunto 3 (MY, FY,
Devido à alta absorção de água, os dados MIRS de regiões entre PY, MBW, AC, e DIM), conjunto 4 (505 WL, AC e DIM), conjunto
1.600 a 1.700 cm-1 e > 3.005 cm-1 foram removidos (Shetty et 5 [MY, MBW, AC, DIM e 36 componentes principais (PC)
al., 2017). explicando mais de 99% da variação MIR WL], conjunto 6 (MY,
Os pré-tratamentos espectrais são frequentemente aplicados FY, PY, MBW, AC, DIM e 36 PC de MIR WL), conjunto 7 (MY,
aos dados do MIRS para obter modelos de previsão robustos FY, PY, MBW, AC, DIM e 505 MIR WL). Em todas as análises,
(Rinnan et al., 2009). Nesta pesquisa, a correção de dispersão os efeitos fixos de classificação de país, estação de parto e
multiplicativa (Martens e Naes, 1989) foi adotada para reduzir o número de lactação sempre foram incluídos nos modelos de
ruído no espectro. Este método de pré-processamento leva em predição. Vale ressaltar que FY e PY foram valores previstos a
conta variações de dispersão de luz em dados espectrais e partir dos espectros do leite.
remove não linearidades induzidas por dispersão de partículas
(Martens e Naes, 1989). Nos conjuntos 1 a 3, o modelo mais simples (ou seja, MY, AC e
As primeiras derivadas de Savitzky-Golay (Savitzky e Golay, DIM) foi considerado primeiro e, em seguida, mais preditores
1964), usando largura de filtro 7 e um polinômio de segunda foram adicionados um a um, mas sem incluir os dados do MIRS.
ordem, também foram aplicadas aos dados espectrais. Os pré- O conjunto 4 foi considerado para avaliar quanto da variação
tratamentos de espectros de primeira derivada são comumente DMI poderia ser explicada usando apenas 505 comprimentos de
usados para melhorar a resolução e para aguçar as bandas de onda MIR. No conjunto 5, FY e PY do conjunto 3 foram
absorção em amostras espectrais (Savitzky e Golay, 1964). Após substituídos por 36 PC de MIRS para avaliar se os dados do
os pré-tratamentos, um total de 505 WL de cada amostra de leite MIRS poderiam ou não melhorar a previsão de CMS em
estava disponível para análise. comparação com o uso de componentes não específicos do leite
(ou seja, FY e PY). Componentes principais foram usados porque
Conjuntos de Preditores em RNA, à medida que o número de neurônios aumenta, o
número de parâmetros a serem estimados também aumenta
Para cada registro de espectro de leite, a média semanal drasticamente, o que pode levar a um problema de overfitting.
No conjunto 6, 36 PC de MIRS foram adicionados aos preditores do conjunto
correspondente de CMS (kg/d), produção de leite no dia do teste (MY,
para investigar se o uso de PC de comprimentos de onda MIR combinados na camada de saída usando w21, w22, ..., w2s
melhoraria ou não a previsão de CMS em comparação com o uso de pesos e um intercepto b. A pontuação linear resultante é convertida
todos os 505 comprimentos de onda, como no conjunto 7. Portanto, no neurônio de saída, desta vez usando uma função de ativação
no conjunto 7, todos os preditores disponíveis, incluindo os dados linear gt(.) para calcular o fenótipo previsto do indivíduo i (para i =
MIRS do leite integral, foram usados para prever o CMS. Vale ressaltar 1, ..., n), como segue:
que no estudo de Dórea et al. (2018), os comprimentos de onda MIR
selecionados (ou seja, 33 comprimentos de onda MIR), usando um ÿ s ÿ
[]t
ÿ
ÿ ÿ
ÿ
wz 2 ti
ÿ
ÿ
, [2]
ÿ
ÿ t= 1
comparação com o uso de todos os comprimentos de onda MIR (ou ÿÿ ÿ
w1
[]t intercepto em (também chamado de “bias” na terminologia ANN), na rede e minimiza a função de erro atualizando pesos e bias na
j direção de descida mais íngreme (negativo do gradiente) para diminuí-
com t = 1, s denotando o número de neurônios na camada oculta. A
la (Beale et al., 2010). Os passos para frente e para trás são
..., pontuação linear resultante é então convertida em
executados recorrentemente até que a solução da RNA corresponda
ao valor favorecido dentro de um limite pré-especificado (Haykin,
gerar a saída do único neurônio oculto zi 2009; Hajmeer et al., 2006).
[]t()
usando uma função de ativação ft (.), como segue:
ÿ m ÿ
[]t ÿ
[]t ÿ
[1]
ÿ
ÿ
z
fat = + largura ÿ
,
eu
ÿ
t ÿÿ x1j eu j
j=1
ÿÿ ÿÿ
ÿ ÿ
e
ÿ
x ÿ (Guo et al., 2003; Feng et al., 2006; Wang et al., 2009). O overfitting
pode ser usado nos neurônios ocultos
ÿ ÿ
ÿ
ÿ
ÿ
()= x ÿ
x ÿÿ
e + e
ÿ ÿ ocorrer devido ao aumento do número de neurônios na camada oculta
modelar a relação não linear entre fenótipo e entrada, o que permite (Alados et al., 2004).
que a RNA tenha maior flexibilidade do que os modelos de regressão
linear convencionais (MacKay e Mac Kay, 2003). As saídas das A regularização bayesiana e a parada antecipada com validação
funções de base, resultantes da camada oculta, são linearmente cruzada (CVES) são 2 métodos padrão para evitar o superajuste na
ANN. Ao contrário do treinamento de rede padrão
[]t
Figura 1. Arquitetura de uma rede neural feed-forward de 2 camadas: xij = entrada da rede; c 1j = peso da rede desde a entrada até a camada oculta;
w2t = peso da rede da camada oculta para a camada de saída; at = intercepto (também chamado de viés), com t = 1, ..., s, denotando o número de neurônios
na camada oculta; b = interceptação do neurônio da camada de saída; yi = saída da rede (por exemplo, DMI predito do indivíduo); ft (.) = função de ativação
nos neurônios ocultos; gt (.) = função de ativação no neurônio de saída, onde o subscrito i refere-se aos indivíduos (de 1 a n), j refere-se às variáveis
explicativas (de 1 a m) e t refere-se ao número de neurônios (de 1 a s).
afirmado por Gianola et al. (2011) e Pérez-Rodríguez et al. (2013), semanais de DMI observados e previstos, a raiz do erro quadrático
BRANN linear pode produzir resultados aproximadamente médio (RMSE) e a razão entre o desempenho e o desvio (RPD),
correspondentes a BLUP e regressão de crista. Antes do que é o desvio padrão do DMI dividido pelo RMSE. Antes de cada
processamento, o Matlab redimensiona automaticamente todas validação cruzada de 10 vezes, 10 réplicas usando diferentes
as variáveis de entrada e saída usando a função “mapminmax” valores iniciais para pesos e vieses foram aplicadas a cada
para aumentar a estabilidade numérica no intervalo [ÿ1, +1]. arquitetura de RNA. Os valores iniciais foram escolhidos
aleatoriamente para evitar que o algoritmo de treinamento da rede
Esse dimensionamento de recursos garante que todas as fontes neural artificial ficasse preso no mínimo local da função de erro.
de dados sejam tratadas igualmente na fase de treinamento, o Dessas 10 réplicas, o parâmetro estimado da réplica com a
que geralmente tem um grande efeito nas soluções finais (Hastie correlação máxima de Pearson
et al., 2009).
coeficiente entre valores preditos e observados no conjunto ajuste para comparações múltiplas. O modelo ANOVA incluiu
de calibração (para BRANN) ou conjunto de treinamento (para amostras de 10 vezes como um fator aleatório (ou seja,
LMANN e SCGANN) foi aplicado para avaliar a robustez bloqueio para amostras de 10 vezes) e conjuntos preditores,
preditiva da RNA no conjunto de teste correspondente. modelos (ou seja, regressão linear e não linear ANN e PLS),
algoritmos de treinamento, métodos de validação e conjuntos
preditores como fixos fatores categóricos.
Regressão Parcial de Mínimos Quadrados
RESULTADOS
Para fins de comparação com estudos anteriores, a
regressão PLS também foi aplicada para prever o CMS, As comparações entre conjuntos preditores, modelos e
usando o pacote PLS em R (Mevik et al., 2013). O número algoritmos de treinamento foram muito semelhantes no
ideal de variáveis latentes para o modelo de regressão PLS método de validação A ou B, mas a validação B produziu
para cada validação cruzada de 10 vezes foi determinado estatísticas de ajuste consistentemente mais baixas do que a
usando a correlação máxima de Pearson entre DMI observado validação A (P < 0,0001; Tabela Suplementar S1, https://doi.org/
e previsto nos conjuntos de validação (ou seja, os 10% de 10.5281/zenodo.6632059; Shadpour et al., 2022). Como a
todos os dados escolhidos aleatoriamente de o conjunto de validação B é mais prática, pois o DMI de novos animais é
calibração) quando o número de variáveis latentes foi alterado previsto, apenas os resultados da validação B são
de 1 para 100 para os conjuntos 4 e 7 (para reduzir o número apresentados e discutidos a seguir, com análises estatísticas
de variáveis latentes) e de 1 para o número de preditores para detalhadas fornecidas na Tabela Suplementar S2 (https://
os outros conjuntos. Em seguida, o número ideal determinado doi.org/10.5281/zenodo.6632059 ; Shadpour et al., 2022). Os
de variáveis latentes foi usado para fazer um modelo de resultados da validação A são fornecidos nas Tabelas
previsão usando os dados de calibração correspondentes (ou Suplementares S3 e S4 (https://doi.org/
seja, dados de treinamento e validação) para cada 10.5281/zenodo.6632059; Shadpour et al., 2022). Além disso,
Validação cruzada de 10 vezes. são apresentadas apenas comparações estatísticas para
precisão de previsão, porque os resultados para RMSE e RPD
Testes Estatísticos seguiram tendências semelhantes.
Tabela 2. Hiperparâmetros usados nas redes neurais artificiais (ANN) baseadas nos algoritmos de treinamento Levenberg-Marquardt (LMANN),
gradiente conjugado escalonado (SCGANN) e regularização bayesiana (BRANN)
0
épocas 0 70 0 0 10.000 0 50 0 1.000
de meta —
3.000
—
300
max_fail min_grad 1e-100 70 6 1e-100 1e-100 50 6 1e-100
tempo infinito 1e-100 infinito infinito 1e-100 infinito
mu 0,005 infinito 0,001 — 0,1 0,005 infinito 0,001 —
mu_dec 0,1 10 —
0,1 0,1 —
mu_inc 10 —
10 10 —
sigma
— —
5.0e-5 — —
5.0e-5
lambda — —
5.0e-7 — —
5.0e-7
1
meta = meta de desempenho; epochs = número máximo de épocas para treinar; max_fail = máximo de falhas de validação; min_grad = gradiente
mínimo de desempenho; time = tempo máximo para treinar em segundos; mu = momento inicial; mu_dec = mu fator de diminuição; mu_inc = fator
de aumento mu; mu_max = mu máximo; sigma = determina a mudança no peso para a aproximação da segunda derivada; lambda = parâmetro
para regular a indefinição do Hessian. Os primeiros 5 hiperparâmetros (ou seja, objetivo, epochs, max_fail, min_grad e time) foram escolhidos
usando validação cruzada. Os outros hiperparâmetros (ou seja, mu, mu_dec, mu_inc, mu_max, sigma e lambda) eram valores padrão do Matlab,
que são ótimos para a maioria dos problemas de regressão.
Tabela 3. Estatísticas de ajuste das redes neurais artificiais (ANN) usando o algoritmo de treinamento de regularização bayesiana (BRANN) para prever a média semanal de CMS
em gado leiteiro holandês canadense usando a validação B (baseada em vacas individuais) nos conjuntos de teste1
Set2 capacidade preditiva eu NN1 NN2 NN3 NN4 NN5 NN6 NN7 NN8 NN9 NN10
1 r 0,471 0,526 0,529 0,546 0,533 0,537 0,537 0,530 0,539 0,534 0,532
RMSE 3,332 3,230 3,212 3,165 3,203 3,195 3,205 3,217 3,201 3,217 3.227
RPD 1,114 1,149 1,156 1,172 1,159 1,162 1,158 1,154 1,160 1,153 1.150
2 r 0,488 0,531 0,556 0,554 0,554 0,563 0,572 0,581 0,576 0,575 0,569
RMSE 3,314 3,220 3,145 3,142 3,144 3,123 3,101 3,087 3,091 3,105 3.120
RPD 1,120 1,154 1,181 1,181 1,181 1,188 1.197 1,202 1,200 1,194 1.189
3 r 0,510 0,543 0,576 0,577 0,572 0,575 0,593 0,577 0,591 0,588 0,577
RMSE 3,267 3,194 3,104 3,095 3,104 3,099 3,047 3,097 3,065 3,077 3.121
RPD 1,136 1,162 1,196 1,198 1,196 1,199 1,218 1,197 1,210 1,206 1.190
4 r 0,636 0,637 0,641 0,653 0,65 0,654 0,654 0,651 0,634 0,656 0,635
RMSE 2,915 2,909 2,905 2,863 2,893 2,895 2,875 2,924 2,964 2,909 2.983
RPD 1,273 1,275 1,276 1,296 1,282 1,283 1,292 1,268 1,253 1,275 1.244
5 r 0,652 0,655 0,663 0,682 0,691 0,714 0,710 0,706 0,711 0,714 0,698
RMSE 2,866 2,860 2,833 2,770 2,732 2,643 2,674 2,696 2,665 2,649 2.724
RPD 1,293 1.297 1,309 1,340 1,357 1,404 1,388 1,377 1,391 1,402 1.364
6 r 0,658 0,662 0,672 0,693 0,692 0,725 0,716 0,713 0,705 0,707 0,705
RMSE 2,845 2,832 2,805 2,719 2,723 2,600 2,640 2,655 2,685 2,683 2.708
RPD 1,304 1,310 1,322 1,365 1,363 1,427 1,407 1,400 1,384 1,386 1.372
7 r 0,689 0,691 0,692 0,705 0,719 0,729 0,721 0,720 0,708 0,728 0,725
RMSE 2,740 2,728 2,734 2,699 2,650 2,601 2,625 2,630 2,688 2,616 2.625
RPD 1 .354 1,361 1 .357 1 .374 1,400 1 .426 1,414 1 .411 1 .383 1 .421 1.415
1
L = rede neural linear; NN = número de neurônios na camada oculta de redes neurais não lineares. Os resultados mostrados nesta tabela são idades médias com base em uma
validação cruzada de 10 vezes.
2
Os conjuntos de variáveis explicativas usadas são definidos da seguinte forma: (1) MY, AC e DIM; (2) MY, FY, PY, AC e DIM; (3) MY, FY, PY, MBW, AC e DIM; (4) AC, DIM e 505
WL; (5) MY, MBW, AC, DIM e 36 componentes principais de WL; (6) MY, FY, PY, MBW, AC, DIM e 36 componentes principais de WL; e (7) MY, FY, PY, MBW, AC, DIM e 505 WL,
onde MY = produção de leite, AC = idade ao parto, FY = rendimento de gordura, PY = rendimento de proteína, MBW = PC metabólico e WL = Comprimento de onda. Todos os
conjuntos também incluíram país, estação de parto e número de lactação como efeitos fixos categóricos. A capacidade preditiva do BRANN foi avaliada por meio do coeficiente de
correlação de Pearson calculado entre os valores de DMI observados e preditos (r), a raiz do erro quadrático médio (RMSE) e a razão de desempenho para desvio (RPD).
PY, MBW, AC e DIM foram 18,99 kg, 35,19 kg, 1.372,7 g, para BRANN, 0,472 a 0,55 para LMANN e 0,473 a 0,546 para
1.101,1 g, 130,63 kg 0,75 , 28,0 meses e 117,4 dias, SCGANN. A adição de FY e PY (conjunto 2) melhorou o
respectivamente. desempenho da predição (P < 0,0001).
A precisão preditiva variou de 0,488 a 0,581 para BRANN,
Efeitos Ambientais Categóricos Comuns 0,489 a 0,567 para LMANN e 0,484 a 0,58 para SCGANN.
entre conjuntos
Quando o MBW foi incluído no modelo de previsão (conjunto
Em todos os conjuntos analisados (conjuntos 1-7), país, 3), as estatísticas de ajuste melhoraram (P < 0,0001).
estação de parto e número de lactação sempre foram incluídos A precisão preditiva variou de 0,51 a 0,593 para BRANN,
como efeitos ambientais fixos categóricos. Suas contribuições 0,512 a 0,591 para LMANN e 0,511 a 0,591 para SCGANN.
para a precisão da previsão foram pequenas. Por exemplo,
ao usar BRANN e Validação A, sua contribuição conjunta Quando as características de produção de leite foram
variou de 0,014 a 0,075. As mesmas características para a substituídas por espectros de leite (505 WL) no conjunto 4, a
validação B foram de ÿ0,012 a 0,014. precisão preditiva aumentou consideravelmente (P < 0,0001)
e variou de 0,634 a 0,656 para BRANN, 0,603 a 0,645 para
LMANN e 0,635 a 0,652 para SCGANN.
Comparação entre conjuntos de preditores, modelos e
algoritmos de treinamento usando validação B A substituição de FY e PY pelo PC de WL (conjunto 5)
resultou em uma melhoria maior nas estatísticas de ajuste (P
As estatísticas de ajuste de BRANN, LMANN e CS GANN < 0,0001). A precisão preditiva variou de 0,652 a 0,714 para
para vacas leiteiras da raça Holandesa Canadense usando a BRANN, 0,653 a 0,703 para LMANN e 0,652 a 0,709 para
validação B são apresentadas nas Tabelas 3 a 5, SCGANN. Por outro lado, combinar FY e PY com MY, SMBY
respectivamente. A previsão da média semanal de CMS e o PC de WL (conjunto 6) não teve um efeito importante na
usando MY como a única característica de produção (conjunto previsão de DMI em comparação com o conjunto 5 (P =
1) resultou nas piores estatísticas de ajuste em comparação 0,57 ) . A precisão preditiva variou de 0,658 a 0,725 para
com os outros conjuntos preditores (P < 0,0001, Tabela BRANN, 0,659 a 0,713 para LMANN e 0,658 a 0,707 para
Suplementar S2). A precisão preditiva para o conjunto 1 variou deSCGANN.
0,471 a 0,546
Set2 capacidade preditiva eu NN1 NN2 NN3 NN4 NN5 NN6 NN7 NN8 NN9 NN10
1 r 0,472 0,525 0,531 0,542 0,550 0,529 0,529 0,532 0,527 0,540 0,517
RMSE 3,333 3,230 3,208 3,176 3,157 3,209 3,217 3,212 3,225 3,203 3.265
RPD 1.114 1,149 1,157 1,168 1,175 1.157 1,154 1,155 1,151 1,160 1.138
2 r 0,489 0,532 0,556 0,558 0,552 0,558 0,567 0,555 0,553 0,553 0,560
RMSE 3,305 3,217 3,141 3,131 3,157 3,125 3,107 3,144 3,159 3,162 3.137
RPD 1,123 1,155 1.183 1,185 1,176 1,189 1,195 1,181 1,174 1,172 1.184
3 r 0,512 0,542 0,575 0,577 0,567 0,578 0,591 0,581 0,574 0,565 0,558
RMSE 3,262 3,195 3,103 3,097 3,115 3,098 3,058 3,116 3,115 3,157 3.159
RPD 1,137 1,162 1,196 1,198 1,192 1,197 1,214 1,191 1,191 1,175 1.175
4 r 0,643 0,645 0,633 0,635 0,631 0,625 0,617 0,625 0,634 0,603 0,619
RMSE 2,897 2,889 2,934 2,95 2,978 2,989 3,044 3,038 3,02 3,14 3.097
RPD 1,281 1,284 1,265 1,258 1,246 1,243 1,223 1,221 1,227 1,183 1.199
5 r 0,653 0,656 0,665 0,672 0,697 0,700 0,703 0,695 0,696 0,694 0,694
RMSE 2,864 2,854 2,827 2,798 2,714 2,714 2,694 2,729 2,709 2,724 2.765
RPD 1,295 1,300 1,313 1,326 1,367 1,366 1,377 1,361 1,370 1,362 1.341
6 r 0,659 0,663 0,675 0,686 0,698 0,713 0,704 0,702 0,699 0,703 0,703
RMSE 2,843 2,831 2,793 2,748 2,706 2,661 2,697 2,695 2,724 2,696 2.716
RPD 1,305 1,311 1,328 1,350 1,372 1,395 1,377 1,379 1,361 1,377 1.368
7 r 0,695 0,703 0,690 0,702 0,703 0,699 0,679 0,680 0,679 0,691 0,682
RMSE 2,719 2,685 2,754 2,709 2,706 2,753 2,827 2,848 2,824 2,806 2.832
RPD 1,365 1 .382 1,349 1. 370 1,369 1,350 1,312 1 .308 1. 315 1,324 1.313
1
L = rede neural linear; NN = número de neurônios na camada oculta de redes neurais não lineares. Os resultados mostrados nesta tabela são idades médias com base em uma
validação cruzada de 10 vezes.
2
Os conjuntos de variáveis explicativas usadas são definidos da seguinte forma: (1) MY, AC e DIM; (2) MY, FY, PY, AC e DIM; (3) MY, FY, PY, MBW, AC e DIM; (4) AC, DIM e 505
WL; (5) MY, MBW, AC, DIM e 36 componentes principais de WL; (6) MY, FY, PY, MBW, AC, DIM e 36 componentes principais de WL; e (7) MY, FY, PY, MBW, AC, DIM e 505 WL;
onde MY = produção de leite, AC = idade ao parto, FY = produção de gordura, PY = produção de proteína, MBW = PV metabólico e WL = comprimento de onda. Todos os conjuntos
também incluíram país, estação de parto e número de lactação como efeitos fixos categóricos. A capacidade preditiva do LMANN foi avaliada usando o coeficiente de correlação de
Pearson calculado entre os valores de DMI observados e preditos (r), a raiz do erro quadrático médio (RMSE) e a razão de desempenho para desvio (RPD).
Tabela 5. Estatísticas de ajuste das redes neurais artificiais (ANN) usando o algoritmo de treinamento de gradiente conjugado (SCGANN) para prever a média semanal de CMS em
gado leiteiro holandês canadense usando a validação B (baseada em vacas individuais) nos conjuntos de teste1
Set2 capacidade preditiva eu NN1 NN2 NN3 NN4 NN5 NN6 NN7 NN8 NN9 NN10
1 r 0,473 0,525 0,527 0,546 0,545 0,532 0,536 0,539 0,530 0,526 0,539
RMSE 3,331 3,230 3,216 3,165 3,176 3,200 3,201 3,193 3,219 3,246 3.197
RPD 1,114 1,149 1,155 1,172 1,169 1,159 1,160 1,162 1,154 1,143 1.160
2 r 0,484 0,532 0,557 0,554 0,563 0,565 0,580 0,566 0,580 0,561 0,562
RMSE 3,315 3,217 3,141 3,140 3,125 3,117 3,090 3,126 3,088 3,142 3.145
RPD 1,120 1,155 1.183 1,182 1,188 1,191 1,201 1,188 1,202 1,181 1.181
3 r 0,511 0,543 0,575 0,577 0,577 0,584 0,591 0,578 0,574 0,584 0,584
RMSE 3,261 3,193 3,102 3,091 3,083 3,072 3,050 3,097 3,097 3,092 3.084
RPD 1,137 1,163 1.197 1,200 1,204 1,208 1,218 1,198 1,198 1.200 1.204
4 r 0,640 0,635 0,642 0,645 0,652 0,652 0,641 0,65 0,646 0,643 0,635
RMSE 2,906 2,917 2,903 2,914 2,891 2,898 2,945 2,922 2,94 2,98 3.005
RPD 1,277 1,272 1.277 1,272 1.284 1,279 1,258 1,269 1,261 1,246 1.235
5 r 0,652 0,655 0,661 0,686 0,695 0,701 0,694 0,709 0,693 0,690 0,700
RMSE 2,865 2,856 2,844 2,751 2,715 2,692 2,735 2,682 2,731 2,757 2.703
RPD 1,294 1,298 1,305 1,348 1,367 1,381 1,357 1,384 1,360 1,346 1.374
6 r 0,658 0,661 0,675 0,689 0,697 0,701 0,702 0,706 0,692 0,707 0,703
RMSE 2,847 2.834 2,782 2,743 2,723 2,712 2,705 2,682 2,743 2,693 2.695
RPD 1,303 1.309 1,332 1,352 1,363 1,369 1,374 1,383 1,352 1,379 1.377
7 r 0,692 0,692 0,695 0,700 0,711 0,717 0,717 0,705 0,726 0,720 0,710
RMSE 2,730 2,727 2,726 2,703 2,673 2,655 2,650 2,697 2,626 2,655 2.692
RPD 1,359 1,361 1,361 1 .374 1,387 1 0,395 1,399 1,375 1. 415 1,395 1.380
1
L = rede neural linear; NN = número de neurônios na camada oculta de redes neurais não lineares. Os resultados mostrados nesta tabela são idades médias com base em uma
validação cruzada de 10 vezes.
2
Os conjuntos de variáveis explicativas usadas são definidos da seguinte forma: (1) MY, AC e DIM; (2) MY, FY, PY, AC e DIM; (3) MY, FY, PY, MBW, AC e DIM; (4) AC, DIM e 505
WL; (5) MY, MBW, AC, DIM e 36 componentes principais de WL; (6) MY, FY, PY, MBW, AC, DIM e 36 componentes principais de WL; e (7) MY, FY, PY, MBW, AC, DIM e 505 WL;
onde MY = produção de leite, AC = idade ao parto, FY = produção de gordura, PY = produção de proteína, MBW = PV metabólico e WL = comprimento de onda. Todos os conjuntos
também incluíram país, estação de parto e número de lactação como efeitos fixos categóricos. A capacidade preditiva do SCGANN foi avaliada usando o coeficiente de correlação
de Pearson calculado entre os valores de DMI observados e previstos (r), a raiz do erro quadrático médio (RMSE) e a razão de desempenho para desvio (RPD).
O uso de todos os WL combinados com MY, FY, PY e MBW (ou 1), conjuntamente os conjuntos de dados dos 3 países abrangidos
seja, conjunto 7) resultou nas melhores estatísticas de ajuste em mais de toda a lactação.
comparação com os outros conjuntos (P < 0,0001). A precisão A capacidade de predição do CMS de vacas canadenses usando
preditiva variou de 0,689 a 0,729 para BRANN, 0,679 a 0,703 para dados do Canadá, Dinamarca e Estados Unidos ou apenas dados
LMANN e 0,692 a 0,726 para SCGANN. do Canadá foi muito semelhante, mas foi, em média, um pouco
Para todos os conjuntos preditores, a ANN não linear forneceu melhor quando todos os 3 países foram usados.
melhor capacidade de previsão em comparação com a ANN linear. Como ilustração, a Tabela 7 mostra as estatísticas médias de
A regressão PLS produziu resultados muito semelhantes em encaixe em todas as 11 ANN testadas usando BRANN para prever
comparação com ANN linear (P = 0,99, Tabela 6 e Tabela a média semanal de CMS de vacas canadenses usando o conjunto
Suplementar S2). Para todos os conjuntos, as habilidades preditivas preditor 7, validação B e dados apenas do Canadá ou Canadá,
dos 3 algoritmos de treinamento de rede neural foram semelhantes, Dinamarca e Estados Unidos combinados nos conjuntos de teste
mas o BRANN e o SCGANN tiveram um desempenho ligeiramente para toda a lactação ou diferentes períodos de lactação. Os
melhor do que o LMANN (P < 0,0001). resultados mostram um ajuste geral ligeiramente melhor dos modelos
Neste estudo, dados do Canadá, Dinamarca e Estados Unidos ao usar os conjuntos de dados combinados e um ajuste ligeiramente
foram combinados para aumentar o tamanho e a variabilidade dos melhor no início e no final da lactação quando comparados com o
dados de treinamento e melhorar a generalização dos modelos de uso apenas de dados canadenses. Esses resultados apoiaram o
predição ao longo da lactação. Como o registro do CMS foi focado uso de dados combinados do Canadá, Estados Unidos e Dinamarca
em diferentes estágios da lactação nos Estados Unidos, Canadá e para desenvolver previsões de DMI de canadenses.
Dinamarca (DIM médio de 85 d, 122 d e 145 d, respectivamente,
com desvios padrão variando de 71 a 81 d; Tabela vacas.
DISCUSSÃO
RPD 1.293
6 r 0,658 Estatística2 DIM CA Todos
RMSE 2.845
RPD 1.304 r 5–305 0,708 0,712
7 r 0,665 5–90 0,702 0,712
RMSE 2.821 91–180 0,604 0,593
RPD 1.315 181–305 0,503 0,506
1 RMSE 5–305 2,702 2.667
Os conjuntos de variáveis explicativas usadas são definidos da seguinte forma: (1) 5–90 2,727 2.665
MY, AC e DIM; (2) MY, FY, PY, AC e DIM; (3) MY, FY, PY, MBW, AC e DIM; (4) AC, 91–180 2,607 2.626
DIM e 505 WL; (5) MY, MBW, AC, DIM e 36 componentes principais de WL; (6) MY, 181–305 2,758 2.696
FY, PY, MBW, AC, DIM e 36 componentes principais de WL; e (7) MY, FY, PY, MBW, RDP 5–305 1,376 1.392
AC, DIM e 505 WL; onde MY = produção de leite, AC = idade ao parto, FY = produção 5–90 1,356 1.389
de gordura, PY = produção de proteína, MBW = PV metabólico e WL = comprimento 91–180 1,228 1.217
de onda. Todos os conjuntos também incluíram país, estação de parto e número de 181–305 1,089 1.110
lactação como efeitos fixos categóricos.
1
Os conjuntos de teste incluíram dados apenas do Canadá (CA) ou Canadá, Dinamarca
2
A capacidade preditiva da regressão PLS foi avaliada usando o coeficiente de e Estados Unidos juntos (Todos).
2
correlação de Pearson calculado entre os valores de DMI observados e previstos (r), A capacidade preditiva do BRANN foi avaliada usando o coeficiente de correlação de
a raiz do erro quadrático médio (RMSE) e a razão de desempenho para desvio (RPD). Pearson calculado entre os valores de DMI observados e preditos (r), a raiz do erro
Os resultados mostrados nesta tabela são médias baseadas em uma validação quadrático médio (RMSE) e a razão de desempenho para desvio (RPD).
cruzada de 10 vezes.
A média semanal de CMS de vacas individuais pode auxiliar no ing uma predição, o que quase garante que a predição final não
gerenciamento de custos de alimentação e permitir a melhoria venha de dependências entre calibração e conjuntos de teste
genética para o desempenho alimentar, fornecendo dados em (ou seja, todos os recursos não podem ter grandes dependências
larga escala para a previsão de valores genéticos. Conforme entre calibração e conjuntos de teste ao mesmo tempo).
afirmado por Wallén et al. (2018), pelo menos 4.000 novilhas
genotipadas e fenotipadas precisam ser adicionadas anualmente
à população de referência para melhorar geneticamente a Conjuntos de Preditores
eficiência alimentar usando seleção genômica. Fornecer a um
número tão grande de animais medidas de consumo de ração O desempenho preditivo de 7 combinações diferentes de
a baixo custo é um desafio. Uma solução possível para superar conjuntos de preditores foi investigado neste estudo.
esse dilema é a medição indireta do consumo de ração a partir Wallen et al. (2018) avaliaram a predição de CMS em vacas
de outros dados disponíveis, como o MIRS. Portanto, é de leiteiras Norwegian Red em lactação usando dados PLS e MIRS
particular interesse avaliar a capacidade preditiva das diferentes e relataram menor precisão de predição em comparação com o
combinações de conjuntos de preditores atualmente disponíveis, presente estudo ao usar dados MIRS para prever a média
bem como a utilidade dos modelos ANN e PLS. semanal de CMS. A adição de componentes do leite (ou seja,
FY e PY) ao MY melhorou as previsões médias semanais de
Validação cruzada para avaliar a robustez do modelo CMS, que concordaram com os resultados de Shetty et al.
(2017) e Wallén et al. (2017). Nossos resultados suportam a
A validação cruzada foi usada para identificar o conjunto ideal hipótese de que o MBW contribui para explicar a variação do
de preditores e arquitetura de RNA, e para avaliar a robustez CMS em bovinos leiteiros, porque a capacidade de predição
dos modelos de predição. Os modelos de predição para média melhorou quando o MBW foi adicionado ao modelo.
semanal de IMS foram avaliados usando 2 tipos de validação Esses achados estão de acordo com os resultados de estudos
cruzada de 10 vezes: validação em registros individuais (A) e anteriores em bovinos leiteiros (por exemplo, Shetty et al., 2017;
animais (B). Na validação A, os registros da mesma vaca foram Dórea et al., 2018; Wallén et al., 2018). A melhoria nas
apresentados nos conjuntos de calibração e teste, o que estatísticas de ajuste quando as informações do MIRS foram
provavelmente levou a uma inflação nas previsões do modelo. combinadas com os outros preditores (ou seja, conjuntos 4-7)
Neste contexto, uma situação mais realista foi considerada na indica que o MIRS fornece algumas informações adicionais para
validação B, onde 10% das vacas foram retiradas dos dados de prever a média semanal de CMS. Nesse contexto, deve-se
calibração em cada um dos 10-folds. Portanto, a validação B destacar que a inclusão de todos os MIRS WL (ou seja, conjunto
avaliou como o modelo se comportaria ao prever a média 7) resultou em melhor predição da média semanal de CMS em
semanal de CMS para novas vacas. As dependências de dados comparação com os conjuntos de preditores que incluíram o PC
entre os conjuntos de calibração e teste, que foram relatadas de WL (ou seja, conjuntos 5 e 6). No entanto, quando apenas
quando animais dos mesmos rebanhos são incluídos nos MIRS WL foram incluídos no modelo (conjunto 4), a melhor
conjuntos de dados de calibração e teste, podem inflar o precisão de previsão foi ligeiramente maior do que quando todos
desempenho da previsão (por exemplo, Wang e Bovenhuis, os caracteres de produção foram incluídos no modelo (conjunto
2019; Coelho Ribeiro et al., 2021). No entanto, nem sempre é 2), mostrando que algumas das informações do MIRS podem
assim, como no estudo de Lahart et al. (2019), onde a precisão ser capturadas por meio de sua associação com características de produção
média da previsão de CMS em conjuntos de teste usando Como mencionado anteriormente, a inclusão de FY, PY e
apenas MIRS e MIRS combinados com MY, F%, P%, BW, MBW no conjunto preditor incluindo MY levou a uma melhoria
estágio de lactação e paridade, usando validações cruzadas substancial na previsão média semanal de DMI (conjunto 1 vs.
dentro e entre rebanhos, foi de 0,69, 0,87, 0,55 e 0,80, conjunto 3). Além disso, houve uma melhoria adicional nas
respectivamente. estatísticas de ajuste quando o PC de WL foi incluído no modelo
Existem alguns aspectos no estudo atual que podem sugerir (conjunto 6). No entanto, a remoção de FY e PY quando PC de
que os resultados não foram visivelmente afetados por WL foram incluídos (conjunto 5) não teve um efeito importante
dependências de dados entre a calibração e os conjuntos de teste. nas estatísticas de ajuste.
Nenhum dos 7 conjuntos de variáveis preditivas incluiu o efeito Esses achados podem estar relacionados ao fato de que WL
de manada. A previsão de DMI usando apenas o efeito de pode descrever com precisão os perfis de ácidos graxos e
rebanho resultou em um desempenho de previsão muito ruim proteínas do leite, pois contém informações mais detalhadas
(resultados não mostrados). Isso sugere que o efeito manada sobre ácidos graxos (Soyeurt et al., 2011) e proteínas
não tem uma grande contribuição para a previsão de CMS. (McDermott et al., 2016) em comparação com teores de gordura
Além disso, o BRANN adaptado usou a regularização para lidar e proteína usados no conjunto 3. Achados semelhantes na
com o overfitting. A regularização penaliza pesos grandes e previsão de CMS usando dados MIRS foram relatados por
proporciona um ajuste mais suave. Consequentemente, nos Lahart et al. (2019) para vacas leiteiras em pastejo. Melhoria
significativa na previsão de CMS de vacas alimentadas com TMR também fo
modelos regularizados, todas as características contribuem para fazer
relatado por Dórea et al. (2018) quando foram usados dados de diferença de progênie para pontuação de marmoreio em gado
ANN e MIRS de leite. No entanto, Shetty et al. (2017) não relataram Angus usando ANN e 2 conjuntos de painéis SNP.
nenhuma capacidade preditiva superior de CMS para modelos que
incluíam MIRS em vez de FY e PY, em vacas sob dieta TMR. Além Utilidade em Aplicações Práticas
disso, Wallén et al. (2018) relataram que incluir apenas MY e BW
no modelo de previsão resultou em precisão semelhante à inclusão Preditores para previsão semanal média de CMS, que incluem
de dados MIRS. MY, componentes do leite (ou seja, FY e PY) e, em menor medida,
MBW, estão disponíveis para muitas vacas.
As precisões de previsão da média semanal de CMS usando Portanto, a questão de interesse é se as informações do MIRS
dados do MIRS neste estudo foram menores do que as de Shetty podem adicionar informações adicionais que não estão disponíveis
et al. (2017), Dórea et al. (2018) e Lahart et al. (2019), mas atualmente. Os resultados do estudo atual mostraram que o melhor
superiores aos relatados por Wallén et al. (2018). As diferenças conjunto preditor para a predição média semanal de DMI consistia
nas precisões entre os estudos podem ser devidas às diferenças em dados MY, FY, PY, MBW e MIRS completo (conjunto preditor
nos tamanhos de amostra usados para desenvolver os modelos de 7). Assim, as informações do MIRS aumentaram a precisão da
previsão, frequência de registro, raças, dietas e métodos de previsão para a média semanal de CMS. Para a ANN linear, a
previsão, bem como ao uso de diferentes conjuntos de dados de precisão da predição do conjunto preditor 7 foi em média 0,19
WL, treinamento e validação. O uso de dados MIRS médios diários pontos maior do que o conjunto 3 em todos os métodos de predição
ou semanais como preditores também pode afetar a precisão da e conjuntos de dados de validação, enquanto o mesmo recurso
previsão (Shetty et al., 2017). para a melhor ANN não linear foi de 0,12. Isso significa que, se os
dados do MIRS forem armazenados, é possível obter uma previsão
mais precisa da média semanal de DMI. No entanto, vale lembrar
Comparação entre linear e não linear que as melhores acurácias de predição foram obtidas usando
ANN e PLS RNA não linear, independentemente do fato de o MIRS ter
contribuído menos para a acurácia geral desses modelos.
As RNA são ferramentas poderosas e flexíveis para modelar
relacionamentos potencialmente não lineares entre variáveis de Uma consideração adicional é a aplicação prática do conjunto
entrada e saída. Neste estudo e em outros (por exemplo, Pe rai et preditor, porque os métodos semanais de previsão de média de
al., 2010; Lin et al., 2012; Dórea et al., 2018), a RNA forneceu CMS devem ser facilmente aplicáveis a fazendas leiteiras
melhores previsões do que os modelos lineares. comerciais. A maioria das variáveis nos conjuntos de preditores
ANN não linear produziu predição superior do que ANN linear e usados neste estudo estão prontamente disponíveis, com a possível
PLS. Além disso, a superioridade da RNA não linear foi mais exceção de BW. Embora o PC não seja acessível em muitas
evidente em conjuntos de preditores que não incluíam informações fazendas leiteiras comerciais, ele pode ser estimado usando, por
de MIRS (ou seja, conjuntos 1–3). Isso concorda com Dórea et al. exemplo, a largura do peito (Veerkamp e Broth erstone, 1997). Os
(2018), que aplicaram ANN e PLS para a previsão de DMI usando dados MIRS do leite são ideais para prever o CMS sem custo
dados MIRS. Esses resultados sugerem que existem algumas adicional, porque tem sido usado atualmente para medir os
interações não lineares entre a média semanal de CMS e os componentes do leite de animais registrados (McParland et al.,
preditores usados. 2014; Shetty et al., 2017).
Comparação entre BRANN, LMANN e SCGANN Conforme observado anteriormente, quando apenas MIR WL
foram incluídos no modelo (conjunto 4), a melhor precisão de
No presente estudo, 3 tipos de algoritmos de treinamento, previsão foi ligeiramente maior do que quando todas as
incluindo BR, LM e SCG, foram aplicados para treinar a RNA. Além características de produção foram incluídas no modelo (conjunto
disso, para atenuar o overfitting e obter modelos que generalizam 2). Vale ressaltar que parte da variação do CMS explicada pelo
bem, foram utilizadas 2 estratégias: regularização (para BRANN) e MIR pode ser captada por meio de sua associação com
CVES (para LMANN e SCGANN). Em geral, BRANN e SCGANN características de produção. Isso pode limitar a aplicação do MIR
produziram melhores previsões médias semanais de DMI em para estimar medidas de eficiência alimentar que levem em
comparação com LMANN. A regularização bayesiana mostrou consideração o nível de produção, como o consumo residual de ração.
previsões não significativas, ligeiramente melhores do que O desenvolvimento da tecnologia de sensores pode oferecer a
SCGANN, mas previsões significativamente melhores na validação oportunidade de incluir preditores mais informativos nos modelos
A (dados não mostrados) em comparação com a validação B. de previsão, como dados climáticos, temperatura corporal da vaca,
Okut et al. (2013) também relataram que o BRANN superou o comportamento alimentar (Dolecheck et al., 2016; Borchers et al.,
SCGANN ao prever o esperado 2017), massa de forragem e oferta em vacas leiteiras pastando
(van Knegsel et al., 2010; Muñoz et