Você está na página 1de 27

Machine Translated by Google

assistência médica

Análise

Aplicação de Inteligência Artificial em Ortodontia: Atual


Perspectivas de Estado e Futuras
1 2
Junqi Liu , ChengfeiZhang e Zhiyi Shan 1,*

1
Divisão de Odontopediatria e Ortodontia, Faculdade de Odontologia, Universidade de Hong Kong, RAE de
Hong Kong, China; u3009390@connect.hku.hk Divisão
2
de Ciências Dentárias Restauradoras, Faculdade de Odontologia, Universidade de Hong Kong,
RAE de Hong Kong, China; zhangcf@hku.hk
* Correspondência: shanzhiy@hku.hk

Resumo: Nos últimos anos, tem havido a notável emergência da inteligência artificial (IA) como uma força transformadora
em múltiplos domínios, incluindo a ortodontia. Esta revisão tem como objetivo fornecer uma visão abrangente do estado
atual das aplicações de IA em ortodontia, que pode ser categorizada nos seguintes domínios: (1) diagnóstico, incluindo
análise cefalométrica, análise dentária, análise facial, determinação do estágio de maturação esquelética e avaliação
superior. -avaliação de obstrução de vias aéreas; (2) planejamento do tratamento, incluindo tomada de decisão para
extrações e cirurgia ortognática, e previsão do resultado do tratamento; e (3) prática clínica, incluindo orientação prática,
atendimento remoto e documentação clínica. Temos assistido a uma ampliação da aplicação da IA na ortodontia,
acompanhada de avanços no seu desempenho. Além disso, esta revisão descreve as limitações existentes no campo e
oferece perspectivas futuras.

Palavras-chave: inteligência artificial; ortodontia; aprendizado de máquina; aprendizagem profunda

1. Introdução

IA é um subcampo da ciência da computação que se refere à capacidade de uma máquina imitar


funções cognitivas da inteligência humana [1]. Na última década, o campo da IA mostrou muito
Citação: Liu, J.; Zhang, C.; Shan, Z. potencial, pois pode ser empregado para resolver uma variedade de tarefas. O sistema especialista e o
Aplicação de Inteligência Artificial aprendizado de máquina são dois ramos importantes da IA. Ao contrário do sistema especialista
em Ortodontia: Estado Atual e baseado em conhecimento , que é estabelecido com base em regras e conhecimentos predeterminados,
Perspectivas futuras. Saúde 2023, 11, o aprendizado de máquina concentra-se em “aprender” a partir de dados de treinamento para melhorar
2760. https://doi.org/ sua capacidade [2,3]. Além de sua forte capacidade de adaptabilidade e generalização, o aprendizado
10.3390/saúde11202760 de máquina é capaz de processar dados em grande escala e possui mais algoritmos de código aberto,
Editor Acadêmico: Daisuke Ekuni
o que o torna uma das tecnologias mais promissoras em IA.
As redes neurais artificiais (RNAs), um subdomínio do aprendizado de máquina, inspiram-se no
Recebido: 24 de agosto de 2023 sistema neural biológico do cérebro humano [4]. As RNAs têm sido empregadas notavelmente para
Revisado: 11 de outubro de 2023
analisar conexões intrincadas entre dados massivos [5]. Uma RNA normalmente possui no mínimo três
Aceito: 16 de outubro de 2023 camadas, ou seja, uma camada de entrada, uma camada de saída e pelo menos uma camada oculta
Publicado: 18 de outubro de 2023
[6]. Os neurônios dentro de cada camada são interconectados para estabelecer uma rede de
processadores. RNAs que abrangem múltiplas camadas ocultas são comumente chamadas de
aprendizado profundo, que demonstrou desempenho excepcional em tarefas de visão computacional,
Direitos autorais: © 2023 dos autores.
como classificação e segmentação [7]. O aprendizado profundo está se tornando cada vez mais popular
Licenciado MDPI, Basileia, Suíça. devido à sua alta viabilidade e ao crescente desempenho da computação, bem como aos algoritmos
Este artigo é um artigo de acesso aberto avançados de treinamento de modelos [8]. Além disso, uma vantagem notável do aprendizado profundo
distribuído nos termos e sobre o aprendizado de máquina tradicional é que ele permite a extração automatizada de recursos
condições do Creative Commons sem intervenção manual, permitindo um melhor aproveitamento das informações contidas nos dados
Licença de atribuição (CC BY) ( https:// [9]. As redes neurais convolucionais (CNNs), um dos algoritmos de aprendizagem profunda mais
creativecommons.org/licenses/by/ amplamente utilizados, exibem um desempenho particularmente notável no tratamento de imagens de alta resolu
4,0/). Na CNN, as camadas ocultas são substituídas por três camadas funcionais distintas, a saber,

Saúde 2023, 11, 2760. https://doi.org/10.3390/healthcare11202760 https://www.mdpi.com/journal/healthcare


Machine Translated by Google

Saúde 2023, 11, 2760 2 de 27

camadas convolucionais, camadas de pooling e camadas totalmente conectadas. As camadas


convolucionais empregam kernels convolucionais como filtros para gerar mapas de recursos. O processo
de convolução reduz efetivamente a complexidade da imagem, tornando as CNNs altamente adequadas
para tarefas como reconhecimento de objetos, formas e padrões. As camadas de pooling são comumente
empregadas após as camadas convolucionais para diminuir a dimensão dos mapas de recursos, ao
mesmo tempo que retém informações essenciais. Após várias iterações de camadas convolucionais e de
pooling, as saídas são integradas nas camadas totalmente conectadas para posterior tomada de decisões.
Consequentemente, graças às três camadas mencionadas acima, as CNNs superam algoritmos como as
RNAs em tarefas relacionadas a imagens [6,11].
A má oclusão é caracterizada por uma anomalia no alinhamento dos dentes, oclusão e/ou relações
craniofaciais [13]. É um desvio da norma e a manifestação da variabilidade biológica normal [14].
Numerosos estudos indicaram que a presença de má oclusão não afeta apenas a saúde bucal e a estética
dentária, mas também tem um impacto negativo no bem-estar psicológico e nas interações sociais [15–
17]. A má oclusão é considerada a terceira doença bucal mais prevalente no mundo, e quase 30% da
população apresenta grande necessidade de tratamento ortodôntico [18,19]. A prática clínica ortodôntica
muitas vezes requer uma quantidade significativa de tempo para conduzir diversas análises que necessitam
da extensa experiência clínica dos ortodontistas. Essas cargas de trabalho afetaram a eficiência da prática
clínica ortodôntica e também tornaram o tratamento ortodôntico menos acessível para não especialistas
devido à exigência de experiência clínica.

Uma série de estudos mostrou que a IA pode aumentar significativamente a eficiência da prática
clínica ortodôntica [20,21]. Vários programas de software orientados por IA disponíveis comercialmente
(3Shape Dental System 2.22.0.0, Uceph 4.2.1, Mastro 3D V6.0 etc.) encontraram aplicações generalizadas
no tratamento ortodôntico. Com o avanço contínuo dos algoritmos de IA, das capacidades computacionais
e da crescente disponibilidade de conjuntos de dados, o escopo das aplicações de IA em ortodontia está
se expandindo, acompanhado pela melhoria contínua do desempenho. Manter- se atualizado sobre os
mais recentes desenvolvimentos de aplicações de IA em ortodontia por meio de resumos oportunos ajuda
os pesquisadores a obter uma compreensão rápida e precisa deste campo. Além disso, apesar da
obtenção de resultados encorajadores, ainda há espaço significativo para progresso na aplicação da IA
em ortodontia. Portanto, esta revisão fornece um resumo abrangente do estado atual das aplicações de
IA em ortodontia, abrangendo diagnóstico, planejamento de tratamento e prática clínica. Além disso, a
revisão discute as limitações atuais da IA e oferece perspectivas futuras, com o objetivo de oferecer
insights valiosos para a integração da IA na prática ortodôntica.

2. Aplicação da IA em Ortodontia 2.1.


Diagnóstico
Um diagnóstico ortodôntico satisfatório depende de uma série de análises, como análise
cefalométrica, análise dentária, análise facial, determinação da maturação esquelética e avaliação
da obstrução das vias aéreas superiores, para avaliar de forma abrangente o perfil geral dos
pacientes, incluindo seu perfil facial, relação dentária e esquelética. , estágios de maturação
esquelética e patência das vias aéreas superiores [22].

2.1.1. Análise Cefalométrica


A análise cefalométrica, especialmente a marcação em cefalogramas laterais, serve como base para
o diagnóstico ortodôntico, planejamento do tratamento e avaliação dos resultados do tratamento . A
marcação manual convencional é demorada, depende da experiência e pode ser inconsistente dentro e
entre ortodontistas, afetando significativamente a eficiência e a precisão da prática clínica [23–26]. A
detecção automatizada de pontos de referência foi relatada já em meados da década de 1980, mas a
margem de erro era muito alta para ser implementada na prática clínica [27]. Nos últimos anos, com o
avanço da IA, numerosos estudos foram realizados utilizando análise cefalométrica, cuja reprodutibilidade,
eficiência e precisão estão sendo continuamente aprimoradas [24,28–65]. Notavelmente, a análise
cefalométrica emergiu como o domínio mais extensivamente explorado das aplicações de IA em ortodontia.
Dado
Machine Translated by Google

Saúde 2023, 11, 2760 3 de 27

a vasta quantidade de literatura relevante disponível, é impraticável listar todos os


literatura sobre análise cefalométrica automatizada. Consequentemente, esta revisão apenas
resume a literatura pertinente publicada nos últimos cinco anos, conforme ilustrado na Tabela 1, em
a fim de oferecer os últimos avanços neste campo [24,28–65].

Tabela 1. Aplicação da IA na análise cefalométrica nos últimos 5 anos.

Tamanho do conjunto de dados Nº de Marcos/


Tipo de dados do autor (ano) Algoritmo Desempenho
(Treinamento/Teste) Medidas

Raios de erro: 26,67% (2 mm), 21,24%


Pagador et al. Lateral
150/250 19/0 CNN (2,5 mm), 16,76% (3 mm) e 10,25%
(2019) [28] cefalogramas
(4mm).
Nishimoto et al. Lateral Erros médios de previsão: 17,02 pixels.
153/66 12/10 CNN
(2019) [29] cefalogramas Erros de previsão medianos: 16,22 pixels.

Teste 1:
ERM: 1,12 ± 0,88 mm.
SDR dentro de 2, 2,5, 3 e 4 mm:
150/100 86,91%, 91,82%, 94,88% e 97,90%,
Zhong et al. Lateral (adicional respectivamente.
19/0 Rede U
(2019) [30] cefalogramas 150 imagens do que Teste 2:
conjunto de validação). ERM: 1,42 ± 0,84 mm.
SDR dentro de 2, 2,5, 3 e 4 mm:
76,00%, 82,90%, 88,74% e 94,32%,
respectivamente.

YOLOv3 demonstrado em geral


superioridade sobre SSD em termos de
Park et al. Lateral precisão e computacional
1028/283 80/0 YOLOv3, SSD desempenho.
(2019) [31] cefalogramas Para YOLOv3, SDR dentro de 2, 2,5, 3 e
4 mm: 80,40%, 87,4%, 92,00% e
96,2%, respectivamente.

Treinamento: 50, 100, A precisão da IA é positivamente


Lua et al. Lateral 200, 400, 800, 1200, correlacionado com o número de treinamentos
19, 40, 80 CNN (YOLOv3)
(2020) [32] cefalogramas 1600, 2000. conjuntos de dados e negativamente correlacionados
Teste: 200. com o número de alvos de detecção.

Hwang et al. Lateral


1028/283 Um total de 80 CNN (YOLOv3) Erro médio de detecção: 1,46 ± 2,97 mm.
(2020) [33] cefalogramas

150/100 MRE: 14,55 ± 8,22 pixels.


Ah e outros. (2020) Lateral (adicional SDR dentro de 2, 2,5, 3 e 4 mm: 75,9%,
19/8 CNN (DACFL)
[34] cefalogramas 150 imagens do que 83,4%, 89,3% e 94,7%, respectivamente.
conjunto de validação). Precisão de classificação: 83,94%.

Kim et al. Lateral Ampulheta empilhada


Erro ponto a ponto: 1,37 ± 1,79 mm.
1675/400 23/8 aprendizagem profunda
(2020) [35] cefalogramas SCR: 88,43%.
modelo.

Os modelos da CNN não mostraram quase nenhum


Kunz et al. Lateral
1792/50 18/12 CNN diferenças estatisticamente significativas
(2020) [36] cefalogramas
com o padrão-ouro dos humanos.

Comercialmente
disponível
baseado na web Os resultados obtidos do CephX e
Alqahtani et al. Lateral
-/30 16/16 plataforma (CephX, a marcação manual não exibiu
(2020) [37] cefalogramas
https://www.orca- diferenças clinicamente significativas.
ai.com/ , acessado
em 23 de agosto de 2023)
Erro médio de referência: 1,53 ± 1,74 mm.
Lee et al. (2020) Lateral SDR dentro de 2, 3 e 4 mm: 82,11%,
150/250 19/8 CNN Bayesiana
[38] cefalogramas 92,28% e 95,95%, respectivamente.
Precisão de classificação: 72,69 ~ 84,74.
Quatro esqueléticos Sensibilidade, especificidade e precisão
Yu et al. (2020) Lateral
Um total de 5.890 classificação CNN multimodal para esqueleto vertical e sagital
[39] cefalogramas indicadores. classificação: >90%.
Machine Translated by Google

Saúde 2023, 11, 2760 4 de 27

Tabela 1. Cont.

Tamanho do conjunto de dados Nº de marcos/medidas


Autor (Ano) Tipo de dados Algoritmo Desempenho
(Treinamento/Teste)

150/100 ERM: 1,43 mm.


Lee et al. (2020) (150 imagens SDR dentro de 2, 2,5, 3 e 4 mm:
19/0 GCN
[40] Cefalogramas laterais adicionais do 76,57%, 83,68%, 88,21% e 94,31%,
conjunto de validação). respectivamente.
Taxa média de sucesso: 85~91%.
Tanikawa et al. 1755/30 para cada
26/0 CNN Erro médio de identificação: 1,32
(2021) [41] Cefalogramas laterais subgrupo ~ 1,50 mm.

ERM: 1,64 ± 0,91 mm.


150/100
SDR dentro de 2, 2,5, 3 e 4 mm:
Zeng et al. (150 imagens CNN
19/8 70,58%, 79,53%, 86,05% e 93,32%,
(2021) [42] Cefalogramas laterais adicionais do
respectivamente.
conjunto de validação). SCR: 79,27%.

2610/100
Kim et al. (440 imagens Erro geral de detecção: 1,36
20/0 Cascata CNN
(2021) [24] Cefalogramas laterais adicionais do ± 0,98 mm.
conjunto de validação)

SDR dentro de 2, 2,5, 3 e 4 mm:


Hwang et al. Lateral 75,45%, 83,66%, 88,92% e 94,24%,
1983/200 19/8 CNN (YOLOv3)
(2021) [43] cefalogramas respectivamente.
SCR: 81,53%.

Um total de 12 dos 16 pontos não mostrou


Bulatova et al. CNN (YOLOv3) diferença estatística nas diferenças
-/110 16/0
(2021) [44] Cefalogramas laterais (software Cepro) absolutas entre IA e marcação manual.

Nenhuma das medidas apresentou


diferença estatística, exceto o ângulo de
Jeon et al.
-/35 16/26 CNN sela, medidas lineares do incisivo superior à
(2021) [45] Cefalogramas laterais
linha NA e do incisivo inferior à linha
NB.

Hong et al. O erro médio total foi de 1,17 mm.


3004/184 20/ Cascata CNN
(2022) [46] Cefalogramas laterais Porcentagem de precisão: 74,2%.
ERM de 1,87 ± 2,04 mm.
SDR dentro de 2, 2,5, 3 e 4 mm:
Le et al. (2022)
1193/100 41/8 CNN (DACFL) 73,32%, 80,39%, 85,61% e 91,68%,
[47] Cefalogramas laterais
respectivamente.
SCR médio: 83,75%.

Plataforma
baseada
na web Coeficiente de correlação intraclasse:
Mahto et al. disponível 7 parâmetros >0,9 (excelente
-/30 18/12
(2022) [48] Cefalogramas laterais comercialmente concordância), 5 parâmetros: 0,75~0,9
(WebCeph, https: // (boa concordância).
webceph.com,
acessado em 23 de agosto de 2023)

1360/180
ERM: 3,4 ± 1,57 mm.
Uÿgurlu et al. (140 imagens
21/0 CNN (FARNet) SDR dentro de 2, 2,5, 3, 4 mm: 76,2%,
(2022) [49] Cefalogramas laterais adicionais além do
83,5%, 88,2%, 93,4%, respectivamente.
conjunto de validação)

312/100 ERM: 1,038 ± 0,893 mm.


Yao et al. (2022) (100 imagens SDR dentro de 1, 1,5, 2, 2,5, 3, 3,5, 4 mm:
37/0 CNN
[50] Cefalogramas laterais adicionais além do 54,05%, 91,89%, 97,30%, 100%, 100%,
conjunto de validação) 100%, respectivamente.
ERM: 1,19 mm.
Lu et al. (2022) SDR dentro de 2, 2,5, 3 e 4 mm:
150/250 19/0 GCN
[51] Cefalogramas laterais 83,20%, 88,93%, 92,88% e 97,07%,
respectivamente.
Machine Translated by Google

Saúde 2023, 11, 2760 5 de 27

Tabela 1. Cont.

Tamanho do conjunto de dados Nº de Marcos/


Autor (Ano) Tipo de dados Algoritmo Desempenho
(Treinamento/Teste) Medidas

CNN Diferenças entre o software de IA


Tsolakis et al. Lateral (comercialmente (CS Imaging V8) e manual
-/100 16/18
(2022) [52] cefalogramas softwares disponíveis: marcos não foram clinicamente
Imagem CS V8). significativo.

Comercialmente
disponível baseado na web

plataforma (OrthoDx, Consistência entre software de IA e


https://orto marcação manual:
Duran et al. Lateral dx.phime Um bom nível estatisticamente significativo:
-/50 32/18
(2023) [53] cefalogramas ntum. com; medidas angulares; um nível fraco:
WebCeph, https: medição linear e tecidos moles
//webceph. com, parâmetros.
acessado em 23
agosto de 2023)
EMR:
MyOrthoX: 0,97 ± 0,51 mm.
Alinhamento angelical: 0,80 ± 0,26 mm.
Comercialmente Digidente: 1,11 ± 0,48 mm.
software disponível SDR (%) (dentro de 1/1,5/2 mm):
Ye et al. (2023) Lateral
-/43 32/0 (Meu OrthoX, MyOrthoX: 67,02 ± 10,23/
[54] cefalogramas
Angelalign e 82,80 ± 7,36/89,99 ± 5,17.
Digidente) Alinhamento Angelical: 78,08 ± 14,23/
89,29 ± 14,02/93,09 ± 13,64.
Digidente: 59,13 ± 10,36/
78,72 ± 5,97/87,53 ± 4,84.

Ueda et al. Lateral


Um total de 220 0/8 RF Precisão geral: 0,823 ± 0,060.
(2023) [55] dados cefalométricos
Para pontos de referência:

ERM: 2,07 ± 1,35 mm


SDR dentro de 1, 2, 2,5, 3 e 4 mm:
Reconstruído Comercialmente
18,82%, 58,58%, 71,70%, 82,04% e
Bao e outros (2023) lateral software disponível
-/85 19/23 91,39%, respectivamente.
[56] cefalogramas (Planmeca Romexis Para medições:
da TCFC 6.2)
As taxas de consistência dentro do
Limites de 95% de acordo:
91,76~98,82%.

Reconstruído
Kim et al. Posteroanterior ERM: 2,23 ± 2,02 mm
345/85 23/0 CNN em vários estágios
(2021) [57] cefalogramas SDR dentro de 2 mm: 60,88%.
da TCFC

A CNN apresentou maior coeficiente de


determinação do que RF e menos média
erro absoluto para a distância de
Takeda et al. Posteroanterior
320/80 01/04 CNN, RF a linha de referência vertical para Menton.
(2021) [58] cefalogramas
CNN com gradiente estocástico
otimizador de descida teve o melhor
desempenho.

Lee et al. (2019) TCFC 7


20/7 Aprendizado profundo Erro médio ponto a ponto: 1,5 mm.
[59]

Torosdagli et al. TCFC Um total de 50 Geodésica profunda Erros no espaço de pixels: <3 pixels para
9/0
(2019) [60] aprendizado todos os marcos.

Yun et al.
TCFC 230/25 93/0 CNN Erro médio ponto a ponto: 3,63 mm.
(2020) [61]

Erro médio de detecção: 1,96 ± 0,78.


Kang et al. SDR dentro de 2, 2,5, 3 e 4 mm:
TC 20/8 16/0 DRL multiestágio
(2021) [62] 58,99%, 75,39%, 86,52% e 95,70%,
respectivamente.

Comercialmente Erro absoluto médio: 1,57 mm.


Ghowsi et al. software disponível Distância média de erro: 3,19 ± 2,6 mm.
TCFC -/100 53/0
(2022) [63] (Estratovan SDR dentro de 2, 2,5, 3 e 4 mm: 35%,
Corporação) 48%, 59% e 75%, respectivamente.
Machine Translated by Google

Saúde 2023, 11, 2760 6 de 27

Tabela 1. Cont.

Tamanho do conjunto de dados Nº de marcos/medidas


Autor (Ano) Tipo de dados Algoritmo Desempenho
(Treinamento/Teste)

Para pontos de
referência: MRE: 1,0 ± 1,3 mm.
128/38
SDR dentro de 2, 2,5 e 3 mm: 90,4%, 93,6%
Ponto et al. (2022) (32 imagens
TC 33/15 SCN e 95,4%, respectivamente.
[64] adicionais como Para medições:
conjunto de validação).
Erros médios: ÿ0,3 ± 1,3ÿ (angular), ÿ0,1 ±
0,7 mm (linear).

Blum et al.
TCFC 931/114 35/0 CNN Erro médio: 2,73 mm.
(2023) [65]

ERM, erro radial médio; SDR, taxa de detecção de sucesso; YOLOv3, você só olha uma vez versão 3; SSD, detector multicaixa de disparo
único ; SCR, taxas de classificação de sucesso; DACFL, aprendizado profundo de recursos de contexto anatômico; TCFC, tomografia
computadorizada de feixe cônico; GCN, redes convolucionais de grafos, FARNet, rede de agregação e refinamento de recursos ; DRL,
aprendizagem por reforço profundo; TC, tomografia computadorizada; SCN, SpatialConfiguration-Net.

Em geral, as medidas lineares e angulares aceitáveis são inferiores a 2 mm e 2ÿ , ,


respectivamente [23,36,38,43,44,47,54,66–70]. Seguindo este critério, embora alguns softwares
disponíveis comercialmente possam alcançar alta precisão geral na marcação automatizada em
cefalogramas laterais, a supervisão manual ainda é recomendada [47,48,53,54,56].
Comparado ao aprendizado de máquina clássico, o aprendizado profundo, especialmente
as CNNs, demonstra desempenho superior e tem sido mais investigado (Tabela 1). Vários
estudos mostraram que You-Only-Look-Once versão 3 (YOLOv3), um algoritmo popular da CNN,
produziu resultados notáveis em marcos automatizados [32,33,43,44]. Park et al. compararam
a precisão e a eficiência computacional de dois algoritmos CNN, YOLOv3 e o Single-Shot
Multibox Detector (SSD), na identificação de 80 pontos de referência em imagens radiográficas
cefalométricas laterais. Os resultados indicaram que o YOLOv3 exibiu precisão e desempenho
computacional superiores em comparação ao SSD [31]. Para mitigar o risco de overfitting e
aumentar a generalização dos dados, Kim et al. coletou 3.150 cefalogramas laterais obtidos por
nove máquinas cefalográficas diferentes de vários centros em todo o país. Os pesquisadores
utilizaram o algoritmo CNN em cascata e alcançaram um erro geral de detecção automatizada
de 1,36 ± 0,98 mm [24]. A mesma equipe desenvolveu um algoritmo CNN que atingiu 1,17 mm
de erro médio total na identificação de marcos cefalográficos laterais, apesar da presença de
genioplastia, remodelação óssea e aparelho ortodôntico e ortognático, abrindo caminho para
seu uso posterior em pacientes cirúrgicos ortognáticos [46]. Yao et al. utilizou um modelo
baseado em CNN para identificar 37 pontos de referência em cefalogramas laterais, atingindo
1,038 ± 0,893 mm de MRE e 97,30% de SDR dentro de 2 mm [50]. Até onde sabemos, este
modelo obteve o melhor desempenho em marcação automatizada. Os modelos CNN existentes
têm algumas desvantagens, como erros de quantização de redução da amostragem e exigem
pré-processamento ou pós-processamento para melhorar a precisão, o que pode aumentar o
custo e o tempo computacional. Para resolver essas questões, Lu et al. propuseram redes
convolucionais de grafos de três camadas (GCNs), obtendo 1,19 mm de MRE e 83,20% de SDR dentro d
Ao mesmo tempo, pesquisas relataram o uso de CNNs para marcação automatizada em
cefalogramas póstero-anteriores para avaliar o desvio mandibular, o que pode auxiliar na
avaliação da simetria facial [57,58]. Graças ao avanço do poder computacional, a IA também
fez progressos na detecção de marcos cefalométricos tridimensionais (3D), e o aprendizado
profundo e as CNNs são os métodos mais eficientes [59,60,71–73]. Blum et al. utilizou um
modelo baseado em CNN para realizar análises cefalométricas 3D, que produziu um erro médio
de 2,73 mm e exibiu uma redução de 95% no tempo de processamento em comparação com a
anotação manual [65]. Ponto et al. propuseram uma CNN completa, SpatialConfiguration-Net,
para a detecção automatizada em 3D de 33 pontos de referência e 15 medições, alcançando resultados
Especificamente, o MRE para pontos de referência foi de apenas 1,0 ± 1,3 mm e o SDR dentro de
2 mm atingiu 90,4%. Em relação às suas medidas, os erros médios foram de -0,3 ± 1,3ÿ e -0,1 ±
0,7 mm para suas variáveis angulares e lineares [64]. Aprendizado por reforço profundo (DRL), o
algoritmo que mescla as vantagens do aprendizado profundo (capacidade de percepção) e do reforço
Machine Translated by Google

Saúde 2023, 11, 2760 7 de 27

aprendizagem (capacidade de tomada de decisão), também atraiu atenção por seu desempenho na
localização 3D [74–76]. Kang et al. utilizou DRL de múltiplos estágios para detecção automatizada de
pontos de referência em 3D. O algoritmo DRL alcançou um erro médio de detecção de 1,96 ± 0,78 mm
para pontos de referência, com 58,99% e 95,70% da taxa de detecção caindo na faixa de 2 mm e 4 mm
[62]. No entanto, o progresso atual na análise cefalométrica 3D automatizada concentra-se
predominantemente na detecção de pontos de referência, com ênfase limitada em medições lineares e
angulares. Prevê-se que os avanços futuros abordarão esta
limitação.

2.1.2. Análise Dentária Na


prática clínica ortodôntica, a utilização de fotografias intraorais e modelos de estudo ortodônticos é
imprescindível para a análise odontológica. Esses exames fornecem aos médicos informações abrangentes
sobre vários aspectos, incluindo relações molares, apinhamento dentário, largura da arcada dentária,
sobressaliência e sobremordida e estado de saúde bucal. No entanto, a análise manual desses exames é
demorada e trabalhosa.
Consequentemente, existe potencial para a IA substituir o envolvimento humano nesta análise. Talaat et al.
utilizaram o algoritmo YOLO para detectar má oclusão (especificamente apinhamento ou espaçamento
dentário, sobressaliência ou sobremordida anormal e mordida cruzada) a partir de fotografias intraorais. Os
resultados mostraram uma taxa de precisão excepcional de 99,99% [77]. Da mesma forma, usando imagens
intraorais como dados de treinamento, Ryu et al. utilizou quatro algoritmos CNN para avaliar o apinhamento
dentário; os resultados mostraram que o VGG19 apresentou os erros médios mínimos na maxila (0,84 mm)
e na mandíbula (1,06 mm) [78].
O desenvolvimento da tecnologia digital facilitou significativamente a adoção de imagens de scanner
intraoral 3D e modelos dentários digitais na prática clínica. Algumas empresas, como a Invisalign (Align
Technology, Santa Clara, CA, EUA), utilizaram efetivamente dados de digitalização oral 3D e modelos digitais
para medição e análise automatizadas. Além disso, Im et al. propuseram uma rede neural convolucional de
gráfico dinâmico (DGCNN) para automatizar a segmentação dentária em modelos digitais, alcançando
precisão superior e tempo computacional reduzido em comparação com os outros dois softwares disponíveis
comercialmente: OrthoAnalyzer (ver.1.7.1.3) e Autolign (ver. 1.6.2.1) [79]. Além disso, a segmentação precisa
dos dentes e o reconhecimento de pontos de referência nos dentes são cruciais para a análise dentária
automatizada, e avanços significativos foram alcançados consistentemente neste domínio, abrindo caminho
para futuras aplicações clínicas [80–84].

2.1.3. Análise Facial As


fotografias faciais desempenham um papel fundamental na avaliação da assimetria e proporções faciais.
Até onde sabemos, até o momento, existem apenas três artigos que relataram análise facial automatizada,
e todos eles usaram fotos frontais 2D como dados de treinamento.
Rao et al. utilizou um algoritmo de modelo de forma ativo para marcação e medição automatizada em
imagens faciais, mas apenas pouco mais de 50% das medidas de marcação tiveram um erro de 3 mm [85].
Yurdakurban et al. comparou um software baseado em aprendizado de máquina com pesquisadores na
detecção da linha média facial e na avaliação da assimetria, e as diferenças na maioria das medidas entre
os dois métodos não foram estatisticamente significativas [86].
Rousseau et al. empregou uma CNN para analisar a dimensão vertical dos pacientes. Os resultados
mostraram maior precisão e eficiência do que medições manuais, com o limite do intervalo de confiança
de 95% de concordância entre os métodos manuais e automatizados inferior a 10% [87]. No geral, a
análise facial automatizada ainda está em seus estágios iniciais e requer mais pesquisas para melhorar
sua precisão e aplicações.

2.1.4. Determinação da maturação esquelética

A determinação do estirão de crescimento dos pacientes é fundamental para o tratamento


ortodôntico, principalmente para aqueles que necessitam de tratamento funcional e ortopédico. As
radiografias de mão e punho têm sido consideradas a forma mais convencional e precisa de determinar a
idade esquelética. Nos últimos anos, vários estudos relataram a combinação de IA com radiografias de mão e punho
Machine Translated by Google

Saúde 2023, 11, 2760 8 de 27

prever a idade esquelética [88–90]. Vários estudos de pesquisa revelaram que o método de
maturação vertebral cervical (CVM) também é eficaz para estimativa de crescimento e se
correlaciona altamente com o método de radiografia de mão-punho [91–96]. Portanto, para
minimizar a exposição desnecessária à radiação, a radiografia mão-punho não é usada
rotineiramente na prática clínica ortodôntica [97,98]. Em vez disso, o método CVM, que avalia o
tamanho e a forma das vértebras cervicais através de cefalogramas laterais, tornou-se cada vez
mais popular na previsão da maturação esquelética [91–96]. A aplicação da IA na avaliação da
maturação esquelética utilizando cefalogramas laterais foi resumida na Tabela 2 [91,98–107].

Tabela 2. Aplicação da IA na avaliação da maturação esquelética por meio de cefalogramas laterais.

Tamanho do conjunto de dados


Autor (Ano) Tipo de dados Algoritmo Desempenho
(Treinamento/Teste)

Lateral Classificação média de


Kok et al. (2019) [99] k-NN, NB, DT, RNA,
240/60 precisão: k-NN: 4,67, NB: 4,50, DT: 3,67, ANN:
cefalogramas SVM, RF, LR
2,17, SVM: 2,50, RF: 4,33, LR: 5,83.

Treinamento:
Makaremi et al. O desempenho variou dependendo dos
360/600/900/1870
CNN números das imagens e do método de pré-
(2019) [100] Cefalogramas laterais Avaliação: 300
processamento.
Teste: 300

Precisão:
Amasya et al. LR, SVM, RF, RNA,
498/149 LR: 78,69%, SVM: 81,08%, RF: 82,38%, RNA:
(2020) [101] Cefalogramas laterais DT
86,93%, DT: 85,89%.

Amasya et al. ANN Média de 58,3% de concordância com quatro


-/72
(2020) [102] Cefalogramas laterais observadores humanos.

Kok et al. (2021) [91] Total de 24 diferentes


Um total de 419 A maior precisão foi 0,9427.
Cefalogramas laterais Modelos de RNA

Pontuação de exatidão/precisão/recuperação/
F1: ResNet-18: 0,927 ± 0,025/ 0,808 ±
0,094/0,808 ± 0,065/0,807 ± 0,074.
MobileNet-v2: 0,912 ± 0,022/0,775 ± 0,111/0,773
ResNet-18, ± 0,040/0,772 ± 0,070.
MobileNet-v2, ResNet-50: 0,927 ± 0,025/0,807 ± 0,096 /
Seo et al. Lateral ResNet-50, 0,808 ± 0,068/0,806 ± 0,075.
Um total de 600
(2021) [103] cefalogramas ResNet-101, ResNet-101: 0,934 ± 0,020/0,823 ±
início-v3, 0,113/0,837 ± 0,096/0,822 ± 0,054.
Inception-ResNet-v2 Início-v3: 0,933 ± 0,027/0,822 ± 0,119 /0,833
± 0,100/0,821 ± 0,082.
Inception-ResNet-v2: 0,941 ±
0,018/0,840 ± 0,064 /0,843 ±
0,061/0,840 ± 0,051.

Zhou et al. Erro médio de rotulagem: 0,36 ± 0,09 mm.


980/100 CNN
(2021) [104] Cefalogramas laterais Precisão: 71%.
Kim et al. Lateral O modelo de três etapas obteve a maior precisão
480/120 CNN
(2021) [105] cefalogramas com 62,5%.

ResNet-18, ResNet-50,
ResNet-101,
ResNet-152, VGG19,
692/99 ResNeXt-101 mostrou o melhor teste
Rahimi et al. DenseNet,
(99 imagens adicionais ao precisão:
(2022) [106] Cefalogramas laterais ResNeXt-50,
conjunto de validação). Seis classes: 61,62%, três classes: 82,83%.
ResNeXt-101,
MobileNetV2,
InceptionV3.
Machine Translated by Google

Saúde 2023, 11, 2760 9 de 27

Tabela 2. Cont.

Tamanho do conjunto de dados


Autor (Ano) Tipo de dados Algoritmo Desempenho
(Treinamento/Teste)

Rede de segmentação:
Precisão global: 0,99.
Pontuação média dos dados: 0,93.
Rede de classificação:
Precisão: 0,802.
1201/150
Radwan et al. Sensibilidade
(150 imagens
U-Net, Alex-Net (pré-púbere/púbere/pós-púbere): 0,78/0,45/0,98.
(2023) [107] cefalogramas laterais adicionais ao
Especificidade (pré-púbere/
conjunto de validação).
púbere/pós-púbere): 0,94/0,94/0,75.

Pontuação F1

(pré-púbere/púbere/pós-púbere): 0,76/0,57/0,90.

Precisão de classificação: 58,66%.


Precisão (estágio 1/2/3/4/5/6):
352/141 0,82/0,47/0,64/0,52/0,55/0,52.
Akay et al. CNN
(94 imagens adicionais Rechamada (estágio 1/2/3/4/5/6):
(2023) [98] cefalogramas laterais
ao conjunto de validação). 0,70/0,74/0,58/0,54/0,37/0,60.
Pontuação F1 (estágio 1/2/3/4/5/6):
0,76/0,57/0,61/0,53/0,44/0,56.
k-NN, k-vizinhos mais próximos; Nota: Naive Bayes; LR, regressão logística; CNN, rede neural convolucional; SVM, máquina
de vetores de suporte; RF, floresta aleatória; RNA, rede neural artificial; DT, árvore de decisão.

Kok et al. utilizou sete algoritmos diferentes de aprendizado de máquina para determinar os estágios do
CVM [99]. Os resultados mostraram que esses algoritmos exibiram níveis variados de precisão na previsão de
diferentes estágios do CVM, mas a RNA foi considerada o algoritmo mais estável, com uma classificação média
de 2,17 na determinação de todos os estágios do CVM [99]. Da mesma forma, Amasya et al. desenvolveu e
comparou o desempenho de cinco algoritmos de ML na análise CVM, e o modelo RNA provou ser melhor na
classificação do que os outros quatro algoritmos (árvore de decisão, floresta aleatória, regressão logística e
máquina de vetores de suporte) [101]. A mesma equipe comparou ainda este modelo de RNA com quatro
observadores humanos independentes para automatizar os estágios de maturação vertebral cervical, mas
alcançou apenas uma média de 58,3% de concordância com os observadores [102]. Vários estudos empregaram
modelos CNN para previsão de CVM, e diferentes graus de precisão foram obtidos [98,105,106]. Makaremi et
al. apontou que uma distribuição igual de imagens em todos os estágios do CVM é benéfica para melhorar a
precisão da CNN [100]. Zhou et al. aumentou o tamanho da amostra para aumentar a confiabilidade dos
resultados [104]. Seo et al. comparou de forma pioneira seis modelos CNN não supervisionados e utilizou um
mapa de ativação de classe ponderada por gradiente (Grad-CAM) para visualizar os modelos [103]. Os
resultados indicaram que todos os algoritmos alcançaram uma taxa de precisão superior a 90%, com Inception-
ResNet-v2 apresentando o melhor desempenho com precisão de 0,941 ± 0,018% . Além disso, os Grad-CAMs
mostraram que o Inception-ResNet-v2 focava em várias vértebras cervicais, ao contrário da maioria dos outros
algoritmos que focavam principalmente na terceira vértebra cervical. Radwan et al. também usou o modelo CNN
e o método de aprendizagem não supervisionado para prever os estágios do CVM, com um tamanho de amostra
maior e um conjunto de dados de validação para ajustar o algoritmo. No entanto, a rede de classificação obteve
apenas uma precisão de 0,802 [107].

Em resumo, as RNAs receberam muita atenção e reconhecimento nos primeiros anos, mas nos últimos anos,
as CNNs tornaram-se gradualmente mais proeminentes em tarefas relacionadas a imagens. Com melhorias
contínuas nos algoritmos, espera-se alcançar resultados mais encorajadores no futuro.

2.1.5. Avaliação de obstrução das vias aéreas superiores


A deformidade esquelética e a obstrução das vias aéreas influenciam-se mutuamente. A obstrução
das vias aéreas superiores pode alterar a respiração, o que pode afetar o desenvolvimento normal da
Machine Translated by Google

Saúde 2023, 11, 2760 10 de 27

estruturas craniofaciais e potencialmente levam à má oclusão e outras anormalidades craniofaciais .


[108]. Rastrear a presença de obstrução das vias aéreas superiores, especialmente hipertrofia de
adenoide, é fundamental para o diagnóstico ortodôntico e planejamento do tratamento. A aplicação
da IA na avaliação da obstrução das vias aéreas superiores está resumida na Tabela 3 [109–117].

Tabela 3. Aplicação da IA na avaliação da obstrução de vias aéreas superiores.

Tamanho do conjunto de dados

Tipo de dados do autor (ano) Algoritmo Propósito Desempenho


(Treinamento/Teste)

488/116
Adenóide Precisão de classificação: 95,6%.
Shen et al. (64 imagens
CNN detecção de Erro médio da relação AN: 0,026.
(2020) [109] Cefalogramas laterais adicionais além do hipertrofia Pontuação Macro F1: 0,957.
conjunto de validação)

Detecção Precisão: 0,919.


Zhao et al. Lateral Sensibilidade: 0,906.
581/160 CNN de hipertrofia
(2021) [110] cefalogramas Especificidade: 0,938.
adenoideana
ROC: 0,987.

Sensibilidade: 0,898.
Detecção Especificidade: 0,882.
Liu et al. (2021) [111]
923/100 VGG-Lite de hipertrofia Valor preditivo positivo: 0,880.
Cefalogramas laterais adenoideana Valor preditivo negativo: 0,900.
Pontuação F1: 0,889.

214/46
Segmentação Proporção de dados: 0,919
Sin et al. (2021) [112] (46 imagens
TCFC CNN das vias
adicionais além do IoU ponderado: 0,993.
aéreas faríngeas
conjunto de validação)

Cavidade sinonasal e
Leonardo et al. Porcentagem média de
TCFC CNN segmentação das
20/20 correspondência (tolerância 0,5 mm/
(2021) [113] vias
1,0 mm): 85,35 ± 2,59/93,44 ± 2,54
aéreas faríngeas

48/25 ( 30 imagens Segmentação Precisão: 100%.


Shujaat et al. TCFC U-Net Modelo 3D Pontuação dos dados: 0,97 ± 0,02.
adicionais além do das vias
(2021) [114]
conjunto de validação) aéreas faríngeas UI: 0,93 ± 0,03.

Sensibilidade: 0,86.
Avaliação da Especificidade: 0,89.
Jeong et al. CNN obstrução das
1099/120 Valor preditivo positivo: 0,90.
(2023) [115] Cefalogramas laterais vias aéreas superiores Valor preditivo negativo: 0,85, pontuação
F1: 0,88.

Segmentação: Valor do dado: 0,96.


Segmentação das Diagnóstico: precisão: 0,912.

HMSAU-Net e 3D- vias aéreas Sensibilidade: 0,976.


Dong et al. TCFC Um total de 87 superiores e
ResNet Especificidade: 0,867.
(2023) [116]
detecção de Valor preditivo positivo: 0,837.
hipertrofia adenóide Valor preditivo negativo: 0,981.
Pontuação F1: 0,901.

Precisão: 85,88 ~ 94,25%.


nasal e
Lembre-se: 93,74 ~ 98,44%.
Jin et al. (2023) Transformador segmentação
TCFC Um total de 50 Coeficiente de similaridade de
[117] e U-Net das vias dados: 90,95 ~ 96,29%.
aéreas faríngeas IoU: 83,68~92,85%.

ROC, característica operacional do receptor; TCFC, tomografia computadorizada de feixe cônico; CNN, Rede Neural
Convolucional ; AN, adenoide-nasofaringe; IoU, Intersecção sobre União; HMSAU-Net, máscaras hierárquicas de autoatenção
U-net; 3D, tridimensional.

A detecção da hipertrofia adenoideana com base em cefalogramas laterais provou


ser altamente precisa e confiável [118,119]. A relação adenóide-nasofaríngea (AN)
proposta por Fujioka é o método mais notável (120). Tanto Shen et al. e Zhao et al. empregado
Machine Translated by Google

Saúde 2023, 11, 2760 11 de 27

um modelo CNN para localizar quatro pontos-chave no método de Fujioka em cefalogramas


laterais e, posteriormente, calculou a relação AN [109,110]. O modelo proposto por Shen et al.
obteve uma classificação de 95,6% e um erro médio da relação AN de 0,026 [68]. O modelo de
Zhao et al. também apresentou desempenho favorável, com alta precisão (0,919), sensibilidade
(0,906) e especificidade (0,938) [98]. Liu et al. utilizou o VGG-Lite para detectar diretamente a
hipertrofia adenoideana em cefalogramas laterais sem marcação automatizada, e o modelo
alcançou um valor preditivo positivo de 0,880 e um valor preditivo negativo de 0,900 (111).
Dong et al. propuseram dois algoritmos de aprendizagem profunda, as máscaras hierárquicas de autoatenção
U- net (HMSAU-Net) e 3D-ResNet, para segmentar automaticamente as vias aéreas superiores e diagnosticar
hipertrofia de adenoide, respectivamente, a partir de TCFC. É digno de nota que uma alta precisão de 0,912
foi alcançada pelo modelo de diagnóstico de hipertrofia adenoideana [116].
Além da hipertrofia adenoideana, a morfologia e o volume das vias aéreas superiores
também são indicadores importantes para avaliar a obstrução das vias aéreas superiores. Usando
um modelo CNN, Jeong et al. obtiveram resultados promissores na avaliação automatizada da
obstrução das vias aéreas superiores com base em cefalogramas laterais, com valor preditivo
positivo de 0,90 e valor preditivo negativo de 0,85 [115]. A segmentação das vias aéreas pela
TCFC pode fornecer uma visualização 3D, permitindo a detecção mais precisa da obstrução das
vias aéreas. Estudos recentes têm mostrado progresso contínuo na segmentação das vias aéreas,
sendo o aprendizado profundo, especialmente algoritmos CNN, o mais comumente utilizado. Sin
et al. gerou um algoritmo CNN para segmentar e calcular automaticamente o volume de uma via
aérea faríngea a partir de imagens de TCFC, alcançando uma proporção de dados de 0,919 e
uma interseção ponderada sobre união (IoU) de 0,993 [112]. Shujaat et al. empregou o 3D U-Net
e obteve uma precisão de 100% na segmentação de uma via aérea faríngea [114]. Jin et al.
utilizou um transformador e modelo baseado em U-Net e segmentou toda a via aérea superior,
incluindo a cavidade nasal e hipofaringe [117].

2.2. Planejamento do
Tratamento O tratamento ortodôntico requer processos de tomada de decisão cautelosos que são a
pedra angular de um resultado satisfatório do tratamento, como o plano de extração dentária e a possibilidade
de intervenções cirúrgicas. Espera-se que a IA ajude os ortodontistas, especialmente aqueles inexperientes,
na tomada de decisões corretas. A aplicação da IA no planeamento do tratamento está resumida na Tabela 4
[78,121–141].

Tabela 4. Aplicação da IA no planejamento do tratamento.

Tamanho do conjunto de dados

Tipo de dados do autor (ano) Algoritmos Propósito Desempenho


(Treinamento/Teste)

Xie et al. Variáveis Para prever o


cefalométricas, 180/20 ANN diagnóstico Precisão: 80%.
(2010) [121]
medida do elenco. de extração dentária.

Variáveis
cefalométricas, 64/60 Para prever a Taxa de sucesso:

Jung et al. variáveis dentárias, (32 amostras extração dentária Diagnóstico de extração dentária:
ANN
(2016) [122] variáveis de perfil e queixa adicionais ao conjunto diagnóstico e 93%.

principal de de validação) padrões de extração. Padrões de extração: 84%.


protrusão.

Para prever o Precisão:


Dados demográficos, diagnóstico Para diagnóstico de extração: 94%.
Lee et al. (2019) dados cefalométricos, Um total de de extração Para padrões de extração:
MLP (ANN)
[123] dados dentários e 302 amostras dentária, padrões de 84,2%.
dados de tecidos moles. extração e padrões Para padrões de ancoragem:
de ancoragem. 92,8%.
Machine Translated by Google

Saúde 2023, 11, 2760 12 de 27

Tabela 4. Cont.

Tamanho do conjunto de dados

Tipo de dados do autor (ano) Algoritmos Propósito Desempenho


(Treinamento/Teste)

Diagnóstico, identificação Para prever a Para diagnóstico de extração: LR


Suhail et al. de recursos de Um total de extração dentária superou a RNA.
ANN, LR, RF
(2020) [124] fotos, modelos e 287 amostras diagnóstico e Para padrões de extração: RF
radiografias. padrões de extração. superou ANN.

Precisão de RF com 22/117/


Dados demográficos, todas as entradas:
Etemad et al. Um total de Para prever a
dados cefalométricos, 0,75/0,76/0,75.
RF, MLP (RNA) extração dentária
(2021) [125] dados dentários e 838 amostras Precisão do MLP com 22/117/
dados de tecidos moles. diagnóstico.
todas as entradas:
0,79/0,75/0,79.

Precisão para decisão de


extração:
RNA: 93%, LR:86%,
Registros médicos, Para prever a
SVM:83%, DT: 76%, RF: 83%,
fotos extra e intraorais , LR, SVM, DT, extração dentária
Gaussian NB: 72%, Classificador
Shojaei et al. registros de Um total de RF, Gaussiano diagnóstico, KNN: 72%.
(2022) [126] modelos odontológicos e 126 amostras Obs., KNN padrões de extração e
Precisão do padrão de extração:
imagens Classificador, RNA padrões de
RNA: 89%, RF:40%.
radiográficas. ancoragem.
Precisão para extração e padrão de
ancoragem: RNA: 81%, RF:23%.

Precisão:
Sexo, variáveis
Software disponível 93,9%: modelo de entrada e
do modelo, Para prever a
Real et al. dados cefalométricos.
variáveis -/214 extração dentária
(2022) [127] comercialmente 87,4%: inserir apenas dados do modelo.
cefalométricas, variáveis diagnóstico.
(Auto-WEKA) 72,7%: inserir apenas
de desfecho.
dados cefalométricos.

Variáveis
cefalométricas, Precisão geral: FR:
Leavitt et al. Para prever padrões
variáveis 256/110 RF, LR, SVM 54,55%, SVM: 52,73%, LR: 49,09%.
(2023) [128] de extração dentária.
dentárias,
características demográficas.

ResNet Precisão:
Maxila: VGG19 (0,922) >
(ResNet50,
Fotografias Para prever a ResNet101 (0,915) > VGG16 (0,910)
Ryu et al. ResNet101),
intraorais, decisão 2736/400 extração dentária > ResNet50 (0,909).
(2023) [78] VggNet
de extração. diagnóstico. Mandíbula: VGG19 (0,898) = VGG16
(VGG16, e
(0,898) > ResNet50 (0,895) >
VGG19)
ResNet101 (0,890).

Para prever a base da


mandíbula
esquelética, Diferentes algoritmos mostraram
Dados clínicos, RF, XGB, LR,
diagnóstico de extração diferentes precisões em
Prasad et al. dados Um total de DT,
para base da mandíbula Classe 1 e diferentes camadas.
(2022) [129] cefalométricos, 700 amostras K-vizinhos,
RF funcional/desempenho melhor em 3 das 4 camadas
dados de gesso e fotográficos. SVM linear, NB
camufladas/cirúrgicas . estratégias para
base de mandíbula
Classe 2/3.
Machine Translated by Google

Saúde 2023, 11, 2760 13 de 27

Tabela 4. Cont.

Tamanho do conjunto de dados

Tipo de dados do autor (ano) Algoritmos Propósito Desempenho


(Treinamento/Teste)

Para decisão cirúrgica/não


cirúrgica:

SVM para Precisão: 95,4%. Sensibilidade:


Para prever
classificação 95,5%. Especificidade: 95,2%.
a decisão
Knoops e outros Um total de 4.261 Para simulação de resultados
Escaneamentos faciais em 3D LR, RR, LARS e cirúrgica/não cirúrgica
(2019) [130] cirúrgicos:
LASSO para e os resultados
cirúrgicos. Erro médio: LARS e RR (1,1 ± 0,3
regressão
mm). LAÇO (1,3 ± 0,3 mm).
LR (3,0 ± 1,2 mm).

Precisão para todo o conjunto


de dados:

Lateral Diagnóstico de cirurgia/não cirurgia: 96%.


Para prever Diagnóstico de
variáveis
136/112 a decisão de extração/não extração para cirurgia
cefalométricas,
Choi et al. (68 amostras cirurgia/não cirurgia, Classe II: 97%.
variável dentária, ANN
(2019) [131] adicionais ao extração/não Diagnóstico de
variáveis de perfil,
conjunto de validação) extração para extração/não extração para cirurgia
queixa principal
tratamento cirúrgico. Classe III: 88%.
de protrusão.
Diagnóstico de
extração/não extração para cirurgia:
91%.

Precisão média para todo o


220/40 CNN (modificado-
Lee et al. Para prever a necessidade conjunto
(73 amostras Alexnet,
de ortognática de dados: Alexnet modificado: 96,4%.
(2020) [132] Cefalogramas laterais. adicionais ao MobileNet e
cirurgia. MobileNet: 95,4%.
conjunto de validação) Resnet50)
Resnet50: 95,6%.

Um total de
822 amostras. Precisão: 0,893.
Para prever a necessidade Precisão: 0,912.
Jeong et al. Fotos faciais Grupo 1: CNN de ortognática Lembre-se: 0,867.
(2020) [133] (frente e direita). 207/204.
cirurgia. Pontuações de F1: 0,889.
Grupo 2:
205/206

Um total de
840 amostras.
Grupo 1:
273/304
Prever o
(30 amostras Precisão: 0,954.
Shin et al. Cefalogramas laterais e diagnóstico da
adicionais ao conjunto CNN Sensibilidade: 0,844.
(2021) [134] cefalogramas cirurgia
de validação). Especificidade: 0,993.
póstero-anteriores. ortognática.
Grupo 2: 98/109 (11
amostras
adicionais ao
conjunto de validação)

CNN Prever o
Kim et al. Precisão para conjunto de dados
diagnóstico da
810/150 (ResNet-18, 34, de teste: ResNet-18/34/50/101:
(2021) [135] Cefalogramas laterais. cirurgia
50, 101) 93,80%/93,60%/91,13%/91,33%.
ortognática.

Medidas
cefalométricas, Precisão (RF/LR): 90%/78%.
Prever o
Lee et al. características Sensibilidade (RF/LR):
diagnóstico da
demográficas, 136/60 RF, LR 84%/89%.
(2022) [136] cirurgia
análise dentária e Especificidade (FR/LR):
queixa ortognática.
93%/73%.
principal.
Machine Translated by Google

Saúde 2023, 11, 2760 14 de 27

Tabela 4. Cont.

Tamanho do conjunto de dados

Tipo de dados do autor (ano) Algoritmos Propósito Desempenho


(Treinamento/Teste)

Três
comercialmente
disponível Erro médio de três softwares:
Programas Para avaliar o
Woo et al. pacotes precisão da Movimento linear:
Dados de digitalização intraoral -/30
(2023) [137] (Autolign, precisão da configuração 0,39~1,40mm.
Resultado digital automatizada. Movimento angular: 3,25
Simulador Pró ~ 7,80ÿ .
Orto
Simulação)

Prever as
alterações
Park et al. Um total de cefalométricas de Erro médio total: 1,79
CNN (U-Net)
(2021) [138] Cefalogramas laterais 284 casos pacientes com Classe II ± 1,77 mm.
após utilização de placas
C-palatinas modificadas.

Erros médios do sistema:


Grupo Cirurgia:
Prever alterações na 0,94 ± 0,43 mm; grupo ortodôntico:
Um total de
72 casos em morfologia facial 0,69 ± 0,28 mm.
Tanikawa et al. após tratamento Taxas de sucesso (<1 mm):
Imagens faciais em 3D grupo de cirurgia Aprendizado profundo
cirúrgico ortodôntico
(2021) [139] Grupo cirurgia: 54%; grupo
e 65 casos no
ou ortognático. ortodôntico: 98%.
grupo de extração
Taxas de sucesso (<2 mm):
Grupo cirurgia: 100%; grupo
ortodôntico: 100%.

Erro médio de previsão: 1,2


Park et al. Prever ± 1,01 mm.
TCFC 268/44 cGAN alterações faciais pós-
(2022) [140] Precisão dentro de 2 mm:
ortodônticas. 80,8%.

Para prever a Taxa de sucesso preditivo:


Xu et al. (2022) Total de 17 clínicas Um total de experiência do paciente de
ANN Dor: 87,7%. Ansiedade: 93,4%.
[141] características 196 casos Invisalign
tratamento. Qualidade de vida: 92,4%.

RNA, rede neural artificial; DT, árvore de decisão; RF, floresta aleatória; LR, regressão logística; SVM, máquina de vetores de
suporte; NB, bayes ingênuos; KNN, k-vizinhos mais próximos; MLP, perceptron multicamadas; XGB, reforço de gradiente
extremo; RR, regressão da crista; LARS, regressão de mínimo ângulo; LASSO, retração mínima absoluta e regressão do
operador de seleção; CNN, rede neural convolucional; TCFC, tomografia computadorizada de feixe cônico; cGAN, redes
adversárias geradoras condicionais.

2.2.1. Tomada de decisão para extrações


Atualmente, não existe uma fórmula padronizada absoluta para diagnóstico e padrões de
extração, e a decisão depende, até certo ponto, da experiência dos ortodontistas [142].
Uma decisão errada sobre a extração pode causar uma série de problemas irreversíveis como perfil
desfavorável, oclusão inadequada e dificuldades de fechamento do espaço de extração. A IA pode
contribuir para reduzir a probabilidade de protocolos incorretos de extração dentária.
RNAs são o método mais utilizado para prever diagnósticos e padrões de extração [121–126].
Jung et al. construiu um sistema especialista de IA com aprendizado de máquina de rede neural
baseado em 12 variáveis cefalométricas e 6 índices adicionais, alcançando uma taxa de sucesso de
93% e 84% na decisão de extração/não extração e padrões de extração detalhados, respectivamente.
Neste estudo, um terço do conjunto de dados de aprendizagem foi escolhido como conjunto de
validação para evitar ajuste excessivo [122]. Li et al. adotaram uma RNA perceptron multicamadas e
obtiveram resultados semelhantes, com acurácia de 94% e 84,2% na determinação de diagnósticos e padrões de
Machine Translated by Google

Saúde 2023, 11, 2760 15 de 27

Além disso, o algoritmo proposto alcançou uma precisão de 92% na previsão de padrões de
ancoragem [123].
Diferentes algoritmos de aprendizado de máquina têm seus próprios pontos fortes e fracos.
Por exemplo, floresta aleatória (RF) e máquina de vetores de suporte (SVM) são frequentemente
usadas para tarefas de classificação e regressão, e a regressão logística (LR) é mais adequada para
tarefas de classificação binária [143–145]. Vários estudos utilizaram diferentes algoritmos de
aprendizagem automática para determinar planos de extração dentária [124–126,128]. Os resultados
da pesquisa de Shojaei et al. indicou que, em comparação com alguns algoritmos tradicionais de
aprendizado de máquina, as RNAs demonstraram vantagens significativas na tomada de decisões
para padrões de extração e ancoragem [ 126]. Leavitt et al. comparou três algoritmos de aprendizado
de máquina (RF, LR e SVM) para prever padrões de extração, mas suas precisões gerais não foram
muito satisfatórias, com o SVM alcançando a maior precisão de 54,55% [128]. Embora a RF possa
atuar como um método de conjunto para prevenir o sobreajuste e tenha tido um bom desempenho
em alguns estudos, ainda são necessárias mais pesquisas para substanciar ainda mais a sua
eficácia [124,125]. Os modelos mencionados acima usaram valores de medição manual em vez de
imagens como dados de entrada. Recentemente, Ryu et al. empregou fotografias intraorais e
decisões de extração como dados de entrada e utilizou quatro algoritmos CNN para construir um
modelo de previsão de extração dentária. Os resultados indicaram que o VGG19 teve a maior
precisão de previsão tanto na maxila (0,922) quanto na mandíbula (0,898) [78]. Em resumo, vários
estudos utilizaram IA para tomada de decisão durante extrações. A maioria desses estudos utilizou
as medidas extraídas dos pacientes como dados de entrada. No entanto, o número variável de
medidas utilizadas em diferentes estudos pode resultar em comparabilidade relativamente baixa
entre os resultados. No geral, as RNAs demonstraram o melhor desempenho na tomada de decisão
para extrações. Porém, com mudanças no tipo de dados de entrada, como imagens radiográficas,
outros algoritmos como CNNs podem apresentar melhores desempenhos.

2.2.2. Tomada de decisão para cirurgia ortognática


Para pacientes adultos com deformidades dentofaciais graves, geralmente é necessário
tratamento ortodôntico e cirúrgico ortognático combinado para reposicionar os maxilares.
Atualmente, não existe um critério absoluto para determinar os casos cirúrgicos, especialmente
em situações limítrofes, onde o dilema entre o tratamento ortodôntico de camuflagem e o
tratamento cirúrgico muitas vezes confunde ortodontistas inexperientes [146–148].
A cefalografia lateral é o método mais utilizado na prática clínica para avaliar deformidades
esqueléticas sagitais. Vários estudos usaram cefalogramas laterais como dados de entrada, seja
usando uma RNA ou CNN, e todos alcançaram taxas de precisão superiores a 90% [131.132.135].
Shin et al. adotaram cefalogramas laterais e cefalogramas póstero-anteriores como dados de
treinamento para levar em consideração a relação sagital e lateral das mandíbulas [134]. O modelo
CNN proposto atingiu acurácia de 95,4% na predição do diagnóstico de cirurgia ortognática.

A aparência facial também é um fator crucial na tomada de decisão cirúrgica/não cirúrgica .


Knoops et al. utilizou SVM para prever uma decisão cirúrgica/não cirúrgica com base em imagens
faciais 3D e alcançou uma precisão de 95,4% [130]. Treinado por fotos faciais frontais e direitas,
o modelo CNN proposto por Jeong et al. mostrou apenas uma precisão de 89,3% [133].
Choi utilizou uma variedade de fatores como dados de treinamento, incluindo variáveis cefalométricas
laterais, variáveis dentárias, variáveis de perfil e a queixa principal de protrusão [131].
O modelo de RNA proposto não apenas previu a decisão cirúrgica/não cirúrgica, mas também
antecipou o plano de extração dentária para os casos cirúrgicos, obtendo uma acurácia variando
de 88% a 97%. No entanto, vale a pena notar que este estudo não abrangeu casos cirúrgicos de
Classe I, o que pode ter influenciado a generalização do modelo [131]. Usando tipos semelhantes
de dados de entrada, Lee et al. investigaram as capacidades de FR e LR para prever a decisão
cirúrgica de pacientes de Classe III, mas obtiveram apenas uma precisão de 90% (FR) e 78%
(LR) [136]. No geral, a IA fez algum progresso na tomada de decisões para cirurgia ortognática.
No entanto, ainda há necessidade de melhorias adicionais na incorporação de uma abordagem mais
Machine Translated by Google

Saúde 2023, 11, 2760 16 de 27

tipo abrangente de casos, especialmente casos mais limítrofes, que prometem melhorar
as capacidades de diagnóstico da IA.
2.2.3. Previsão do resultado do tratamento

Para alguns casos, os ortodontistas podem desenvolver mais de um plano de tratamento,


especialmente para casos limítrofes. No entanto, decidir sobre o plano de tratamento mais adequado
pode ser um desafio para ortodontistas inexperientes. Além disso, o resultado do tratamento para casos
que envolvem extração e redução do esmalte interproximal é muitas vezes irreversível e planos abaixo
do ideal podem resultar na insatisfação do paciente. Prever os resultados do tratamento pode ajudar os
ortodontistas a analisar e tratar as más oclusões de forma mais científica, reduzindo riscos e complicações
potenciais durante e após o tratamento clínico. Atualmente, a IA pode ajudar na previsão de alterações
dentárias, esqueléticas e faciais, bem como na experiência dos pacientes com alinhadores transparentes,
orientando assim o planejamento do tratamento [137–141].
A configuração dentária ortodôntica, inicialmente proposta por Kesling, permite a visualização
do progresso do tratamento e da oclusão final, mas tarefas manuais como segmentação e reposição
dentária são trabalhosas. Com os avanços contínuos da ortodontia digital e da inteligência artificial,
configurações virtuais automatizadas têm sido amplamente aplicadas, especialmente no campo dos
alinhadores transparentes [137]. Woo et al. comparou a precisão de três peças de software de
configuração digital automatizada com a de uma configuração manual em relação a seis direções de
movimento dentário (137). Os resultados indicaram que os softwares de configuração virtual
automatizados foram eficazes em geral, mas ainda podem ser necessários ajustes manuais
adicionais na prática clínica. Além disso, é importante notar que o estudo incluiu apenas casos em
que não foram realizadas extrações.
Além das alterações dentárias, existem vários estudos utilizando IA para prever alterações
esqueléticas e faciais após o tratamento ortodôntico. Park et al. aplicaram um modelo CNN para
prever as alterações cefalométricas de pacientes com Classe II após o uso de placas C-palatinas
modificadas e obtiveram uma precisão geral de 1,79 ± 1,77 mm [138]. Tanikawa et al. métodos
morfométricos geométricos combinados e aprendizagem profunda para prever mudanças na
morfologia facial em 3D após tratamento ortodôntico (com quatro pré-molares extraídos) ou tratamento cirúrgico
O sistema proposto apresentou erro médio de 0,94 ± 0,43 mm e 0,69 ± 0,28 mm no grupo cirúrgico e
ortodôntico, respectivamente. Em outro estudo, uma rede adversária generativa condicional (cGAN), um
tipo de algoritmo de aprendizagem profunda, foi usada para prever alterações faciais 3D após tratamento
ortodôntico com base no sexo, idade e movimento dos incisivos dos pacientes [ 140]. Graças às
condições aplicadas ao gerador e discriminador, supõe-se que o cGAN gere amostras de imagens de
alta qualidade e se destaca na execução de tarefas de tradução imagem a imagem [149,150]. Como
resultado, foram geradas imagens faciais 3D e mapas de distância coloridos, e as distâncias de seis
pontos de referência periorais entre o modelo real e o modelo previsto foram calculadas, com o cGAN
atingindo um erro médio de predição de 1,2 ± 1,01 mm e uma precisão (dentro de 2 mm) de 80,8% [140].

A seleção do aparelho de tratamento é um aspecto crucial do planejamento do tratamento


ortodôntico. Especialmente para pacientes que usam alinhadores transparentes, uma experiência de
uso inadequada pode afetar a adesão dos pacientes e, consequentemente, afetar os resultados do
tratamento. Xu et al. utilizou 17 características clínicas como dados de treinamento e empregou um
modelo de RNA para prever as experiências dos pacientes com o tratamento Invisalign (141). O
modelo proposto alcançou altas precisões de predição de 87,7% para dor, 93,4% para ansiedade e
92,4% para qualidade de vida. Até onde sabemos, este foi o primeiro e atualmente o único estudo
que utilizou IA para prever a experiência do paciente no tratamento ortodôntico, estabelecendo as
bases para futuras pesquisas nesta área. No entanto, uma limitação deste estudo é que incluiu
apenas as características clínicas dos pacientes como dados de entrada e não incorporou outros
potenciais fatores de influência, como sexo e nível de escolaridade, o que poderia potencialmente
afetar a capacidade preditiva do modelo [151].
Machine Translated by Google

Saúde 2023, 11, 2760 17 de 27

2.3. Prática clínica

Durante o tratamento ortodôntico, os ortodontistas frequentemente enfrentam vários


desafios, incluindo experiência clínica em ortodontia e comunicação e gerenciamento do paciente.
A aplicação da IA pode ajudar a facilitar o tratamento ortodôntico eficiente e eficaz no que diz respeito à
orientação prática, atendimento remoto e documentação clínica [152–160].

2.3.1. Orientação prática

A sobremordida profunda é uma das más oclusões mais comuns e difíceis de corrigir no tratamento
ortodôntico [161]. El-Dawlatly et al. propuseram um sistema de apoio à decisão baseado em computador
para orientação de tratamento de sobremordida profunda, treinado pelas mudanças reais de tratamento
(152). Em vez de responder questões binárias, o modelo pode fornecer um protocolo de tratamento
detalhado para correção de sobremordida profunda a partir de sete aspectos, como intrusão ou proclinação
de incisivos, nivelando a curva de Spee. Com uma alta taxa de sucesso de 94,40%, espera-se que este
modelo auxilie a ortodontia na correção de sobremordidas profundas no futuro.
O 3D U-Net, um algoritmo de aprendizado profundo, é amplamente utilizado na segmentação de imagens 3D.
Como uma versão modificada do 3D U-Net, o 3D U-Net com módulos de compressão e excitação (3D-
UnetSE) alcançou melhor desempenho na captura de recursos de alto nível [153,162]. A estabilidade dos
mini-implantes palatinos está associada aos tecidos duros e moles [163,164]. Tao et al. utilizou com
sucesso o 3D-UnetSE para realizar a segmentação automatizada e medição da espessura do osso do
palato e tecidos moles por meio de TCFC. Além disso, os locais ideais para mini-implantes palatinos foram
previstos com base na espessura do osso e dos tecidos moles [153].
Monitorar a posição da raiz do dente durante todo o tratamento ortodôntico é essencial para
melhor prevenir resultados adversos e avaliar a eficácia do tratamento. Contudo, os métodos
convencionais , sejam TCFC ou filmes panorâmicos, aumentam a exposição à radiação. Hu et al. e
Lee et al. usou aprendizado profundo para segmentar com precisão os dentes em tomografias
computadorizadas e fundiu os dentes segmentados com coroas dentárias escaneadas intraorais para
construir modelos dentários integrados [154,155]. Desta forma, os ortodontistas podem determinar a
posição das raízes dos dentes apenas com base em exames intraorais. Esses dois estudos mostraram
o desempenho promissor na predição da posição dentária; com a melhoria contínua na precisão da
segmentação dentária, espera-se que os modelos integrados sejam amplamente aplicados na prática clínica.

2.3.2. Atendimento Remoto

O monitoramento remoto permite que os ortodontistas acompanhem remotamente o progresso do


tratamento e forneçam feedback oportuno com base em fotos ou exames orais da dentição, evitando
visitas desnecessárias e trazendo flexibilidade e conveniência aos pacientes [156–158].
A IA aprimorou as aplicações e a eficácia do software de monitoramento remoto [156].
O monitoramento odontológico (DM, Paris, França), destacando-se como um dos softwares líderes
em monitoramento remoto baseado em IA, ganhou ampla popularidade e atenção em pesquisas
[157.165]. O DM é fácil de usar, permitindo que os pacientes escaneiem suas dentições usando um
smartphone. Estudos indicaram que o DM pode não só reduzir o tempo de atendimento, mas também
melhorar a adesão dos pacientes [156,157]. O DM pode ser aplicado tanto a aparelhos fixos
convencionais quanto a alinhadores transparentes, detectando automaticamente inúmeras métricas,
como alinhadores transparentes mal ajustados, perdas de acessórios, passividade do fio, quebras de
braquetes e ocorrência de recidiva [158,166,167]. Além disso, as detecções do DM demonstram um alto nível de
Homsi et al. afirmaram que os modelos digitais reconstruídos remotamente gerados pelo DM eram tão
precisos quanto os exames intraorais [168] Moylan et al. alcançaram pontos de vista semelhantes medindo
modelos de largura intercaninos e intermolares gerados por DM e modelos de gesso [ 169]. No entanto,
um estudo prospectivo recente descobriu que ainda existem problemas com a consistência das instruções
do DM, especialmente para a determinação de dentes com problemas de rastreamento. Ao mesmo tempo,
a justificativa para as instruções do DM para a substituição do alinhador transparente é difícil de explicar
[170]. Portanto, os ortodontistas podem adotar uma abordagem cautelosa em relação ao uso generalizado
de ferramentas de monitoramento remoto baseadas em IA.
Machine Translated by Google

Saúde 2023, 11, 2760 18 de 27

2.3.3. Documentação Clínica

Fotos clínicas e radiografias são rotineiramente tiradas para diagnóstico e monitoramento do tratamento.
A IA pode auxiliar na classificação e categorização dessas imagens, aumentando assim a eficiência da prática
clínica. Ryu et al. aplicaram CNNs para classificar automaticamente fotografias faciais e intraorais, incluindo
quatro fotos faciais e cinco fotos intraorais. O modelo CNN obteve uma taxa geral de previsão válida de 98%
[159]. Li et al. empregou um modelo de aprendizagem profunda baseado em Deep Hidden IDentity (DeepID) e
expandiu as categorias de imagens ortodônticas para um total de 14, compreendendo 6 imagens faciais, 6
imagens intraorais, 1 filme panorâmico e 1 cefalograma lateral. O modelo proposto utilizou redes convolucionais
profundas para extração de características e bayesianas conjuntas para o processo de verificação. Como
resultado, o modelo DeepID não apenas atingiu uma alta precisão de 99,4%, mas também melhorou
significativamente a velocidade computacional [160].

3. Limitações e Perspectivas Futuras

A evolução contínua da IA trouxe avanços significativos na sua aplicação em


ortodontia. Nesta revisão, apresentamos de forma abrangente os recentes avanços na
aplicação da IA em ortodontia, incluindo diagnóstico, planejamento de tratamento e
prática clínica. Estes estudos sugerem que a aplicação da IA na ortodontia fez
progressos promissores e tem grande potencial para aplicações clínicas mais amplas num futuro
No entanto, ainda existem algumas limitações que podem impedir a aplicação prevista da IA na ortodontia.

Em primeiro lugar, a escassez e a baixa generalização dos dados de formação tornam a investigação
actual menos fiável. Tomando como exemplo os estudos incorporados nesta revisão, alguns modelos de IA
usados para auxiliar a tomada de decisões não incluíam uma gama diversificada de tipos de casos
representativos nos dados de treinamento; embora obtenham precisão promissora, sua previsão para esses
tipos raros de deformidades é questionável. A obtenção de uma quantidade significativa de dados de alta
qualidade continua a ser um desafio, especialmente dados que requerem anotação manual por especialistas experientes.
Espera-se que uma série de medidas aliviem a gravidade da insuficiência de dados, tais como aprendizagem
por transferência, aumento de dados, aprendizagem semissupervisionada e aprendizagem de poucas tentativas.
No entanto, a eficácia destes métodos permanece limitada [171,172]. A aprendizagem por transferência refere-
se à aplicação de modelos pré-treinados em um domínio diferente, mas relacionado, reduzindo assim a
dependência de extensos dados de treinamento. No entanto, esta abordagem pode apresentar baixas
capacidades de generalização quando aplicada a um novo domínio [173]. O aumento de dados pode aumentar
o tamanho da amostra alterando as características dos dados existentes ou gerando imagens sintéticas, mas
não pode melhorar a diversidade na variabilidade biológica [171,174]. A aprendizagem semissupervisionada
é adequada quando os dados anotados são limitados, mas ainda são necessários dados anotados de alta
qualidade e dados não anotados suficientes [171]. Para a aprendizagem de poucas tentativas, a falta de
dados especializados e de estruturas de avaliação padrão pode dificultar a sua aplicação futura [172].
Hoje em dia, devido a preocupações éticas e questões de proteção de dados, a partilha de dados ainda é um
desafio . Os modelos de IA treinados com dados de baixa generalização seriam tendenciosos. A aprendizagem
federada é uma abordagem de aprendizagem de máquina distribuída e descentralizada que permite a
colaboração entre sites sem compartilhar dados diretamente [175,176]. Blockchain, como um banco de dados
compartilhado distribuído transparente, seguro e imutável, fornece uma plataforma segura para
compartilhamento e armazenamento de dados [177,178]. Espera-se que a combinação da tecnologia
blockchain e aprendizagem federada facilite o compartilhamento de dados através da colaboração multisite
sem comprometer a privacidade dos dados, fornecendo assim conjuntos de dados grandes e mais diversificados [179,18
Em segundo lugar, embora uma quantidade considerável de literatura tenha explorado a aplicação da IA
em ortodontia, continua a ser um desafio comparar diretamente diferentes estudos devido a variações nos
desenhos dos estudos, tamanhos dos conjuntos de dados e métricas de avaliação. Para resolver esta questão,
Norgeot et al. propôs modelagem de informações mínimas sobre inteligência artificial clínica (MI-CLAIM), a fim
de introduzir graus comparáveis de transparência e eficácia na modelagem de IA clínica [181]. A lista de
verificação MI-CLAIM não só facilita a avaliação do impacto clínico do estudo de IA, mas também permite aos
investigadores replicar rapidamente o processo de concepção técnica.
Machine Translated by Google

Saúde 2023, 11, 2760 19 de 27

Além disso, apesar do desempenho impressionante dos algoritmos de IA, especialmente da


aprendizagem profunda, a sua falta de interpretabilidade suscitou preocupações. A natureza inerente
da caixa preta da IA torna um desafio para os especialistas humanos interpretar a previsão da IA e
determinar se a IA tomou a decisão correta com base em raciocínio errôneo [182]. As técnicas de IA
explicável (XAI) visam desmistificar a lógica subjacente e tornar os algoritmos de IA mais transparentes,
explicáveis e confiáveis [182,183]. Muitas abordagens XAI, como mapeamento de ativação de classe
ponderada por gradiente (Grad-CAM) e DeConvNet, foram propostas.
Esses métodos podem revelar as características que contribuem para o processo de tomada de decisão.
Por exemplo, Grad-CAM e DeConvNet podem gerar mapas de calor para destacar as regiões contribuintes
das imagens de entrada [184–186]. Esperançosamente, esses métodos podem ser aplicados mais
extensivamente a modelos de IA relacionados à ortodontia no futuro [182].
Por último, mas não menos importante, o overfitting é um problema comum em todo o campo da IA.
Isso significa que o modelo tem um desempenho excessivamente bom nos conjuntos de dados de
treinamento, mas mostra desempenho insatisfatório no conjunto de dados de teste [187]. Fatores como
insuficiência de dados, baixa heterogeneidade de dados e variáveis excessivas podem levar ao overfitting
[188]. Métodos como melhoria de amostras de dados, aumento de dados, regularização, validação
cruzada e algoritmos específicos foram relatados para evitar overfitting [171,189–191]. No entanto, nem
todos os estudos relatados nesta revisão realizaram medições para evitar overfitting.
Embora a IA tenha sido extensivamente explorada no tratamento ortodôntico, ainda existem
várias outras áreas onde ela poderia ser mais investigada, por exemplo, a detecção automatizada de
necessidades de tratamento ortodôntico, como o índice de necessidade de tratamento ortodôntico
(IOTN) e o índice de necessidade de tratamento funcional ortognático . (IOFTN) [192.193]. Atualmente,
a IA se destaca principalmente no diagnóstico ortodôntico, mas tem orientação limitada sobre o
processo de tratamento. Os ortodontistas podem encontrar vários desafios ao longo de todo o
tratamento ortodôntico, incluindo corrigir sobremordidas profundas e evitar deiscências ou fenestrações
ósseas . A utilização da IA para ajudar a prevenir ou resolver estes problemas também pode ser uma
área potencial para desenvolvimento futuro. À medida que os dados clínicos continuam a crescer e o
poder de computação da IA melhora, não há dúvida de que a IA irá avançar significativamente no campo da orto

4. Conclusões

A IA tem mostrado múltiplas aplicações em ortodontia, contribuindo para o diagnóstico, planejamento


de tratamento e prática clínica. Actualmente, a IA ainda não pode substituir totalmente os especialistas
humanos, mas pode servir como um componente de garantia de qualidade na rotina clínica. Com a melhoria
na disponibilidade de dados, poder computacional e métodos analíticos, acredita-se que a IA pode auxiliar
melhor o atendimento clínico ortodôntico.

Contribuições dos Autores: Conceituação, JL e ZS; redação – preparação do rascunho original, JL; redação – revisão e edição,
ZS e CZ; supervisão, ZS Todos os autores leram e concordaram com a versão publicada do manuscrito.

Financiamento: Esta pesquisa não recebeu financiamento externo.

Declaração do Conselho de Revisão Institucional: Não aplicável.

Termo de Consentimento Livre e Esclarecido: Não aplicável.

Conflitos de interesse: Os autores declaram não haver conflito de interesses.

Referências

1. Kulikowski, CA Um capítulo de abertura da primeira geração de inteligência artificial em medicina: o primeiro workshop Rutgers AIM, junho de 1975. Anob. Med. Informar.
2015, 10, 227–233. (Em inglês) [CrossRef] [Pub Med]
2. Moravÿcík, M.; Schmid, M.; Burch, N.; Lisý, V.; Morril, D.; Bardo, N.; Davis, T.; Waugh, K.; Johanson, M.; Bowling, M. DeepStack: Inteligência artificial de nível especializado
em pôquer heads-up sem limite. Ciência 2017, 356, 508–513. (Em inglês) [CrossRef]
3. Wang, X.-L.; Liu, J.; Li, Z.-Q.; Luan, Z.-L. Aplicação de dados de exames físicos em análises de saúde e diagnósticos inteligentes.
BioMed Res. Internacional 2021, 2021, 8828677. [RefCruz]
4. Sharif, MS; Abbod, M.; Amira, A.; Zaidi, H. Sistema baseado em rede neural artificial para segmentação de volume PET. Internacional J.
Biomédica. Imaging 2010, 2010, 105610. (Em inglês) [CrossRef] [Pub Med]
Machine Translated by Google

Saúde 2023, 11, 2760 20 de 27

5.Wang , D.; Yang, JS Análise do modelo de estimativa de lesões esportivas baseado em rede neural fuzzy de mutação. Computação. Intel.
Neurosci. 2021, 2021, 3056428. (Em inglês) [CrossRef] [Pub Med]
6. Ding, H.; Wu, J.; Zhao, W.; Matinlinna, JP; Toca, MF; Tsoi, JK Inteligência artificial em odontologia – uma revisão. Frente. Dente. Med.
2023, 4, 1085251. [RefCruz]
7. Chiu, YC; Chen, HH; Gorthi, A.; Mostavi, M.; Zheng, S.; Huang, Y.; Chen, Y. Aprendizado profundo de recursos farmacogenômicos:
Caminhando em direção à oncologia de precisão. Apresentação. Bioinformar. 2020, 21, 2066–2083. (Em inglês) [CrossRef]
8. Taye, MM Compreensão de aprendizado de máquina com aprendizado profundo: arquiteturas, fluxo de trabalho, aplicativos e futuro
Instruções. Computadores 2023, 12, 91. [CrossRef]
9. Mohammad-Rahimi, H.; Nadimi, M.; Rohban, MH; Shamsoddin, E.; Lee, VY; Motamedian, SR Aprendizado de máquina e ortodontia, tendências atuais e oportunidades
futuras: uma revisão do escopo. Sou. J. Orthod. Dentofac. Ortop. 2021, 160, 170–192.e174. (Em inglês) [CrossRef]

10. Krizhevsky, A.; Sutskever, I.; Hinton, GE Classificação ImageNet com redes neurais convolucionais profundas. Comum. ACM 2017,
60, 84–90. [RefCruz]
11. Li, Z.; Liu, F.; Yang, W.; Peng, S.; Zhou, J. Uma Pesquisa de Redes Neurais Convolucionais: Análise, Aplicações e Perspectivas.
IEEE Trans. Rede Neural. Aprender. Sist. 2022, 33, 6999–7019. (Em inglês) [CrossRef]
12. Thomas, D.; Monti, F.; Baroffio, L.; Bondi, L.; Tagliasacchi, M.; Tubaro, S. Redes neurais convolucionais profundas para pedestres
detecção. Processo de sinal. Imagem Comum. 2016, 47, 482–489. [RefCruz]
13. Zou, J.; Meng, M.; Direito, CS; Rao, Y.; Zhou, X. Doenças dentárias comuns em crianças e má oclusão. Internacional J. Ciência Oral. 2018, 10, 7.
(Em inglês) [CrossRef] [Pub Med]
14. Borzabadi-Farahani, A.; Borzabadi-Farahani, A.; Eslamipour, F. Má oclusão e características oclusais em uma população urbana iraniana.
Um estudo epidemiológico de crianças de 11 a 14 anos. EUR. J. Orthod. 2009, 31, 477–484. (Em inglês) [CrossRef]
15. Pedro, E.; Monisha, J.; Edward Benson, P.; Ani George, S. O tratamento ortodôntico melhora a qualidade de vida relacionada à saúde bucal quando avaliado usando
o Questionário de Impacto da Maloclusão - um estudo de coorte longitudinal prospectivo de 3 anos. EUR. J. Orthod.
2023. (Em inglês) [CrossRef] [Pub Med]
16. Ribeiro, LG; Antunes, LS; Kuchler, EC; Baratto-Filho, F.; Kirschneck, C.; Guimarães, LS; Antunes, LAA Impacto dos tratamentos de má oclusão na Qualidade de
Vida Relacionada à Saúde Oral: Uma visão geral das revisões sistemáticas. Clin. Investigação Oral. 2023, 27, 907–932. (Em inglês) [CrossRef]

17. Silva, TPD; Lemos, YR; Filho, MV; Carneiro, DPA; Vedovello, SAS Impacto psicossocial da má oclusão no desempenho escolar. Uma análise hierárquica. Dente
comunitário. Saúde 2022, 39, 211–216. (Em inglês)
18. Cenzato, N.; Nobili, A.; Maspero, C. Prevalência de más oclusões dentárias em diferentes áreas geográficas: revisão de escopo. Dente.
J. 2021, 9, 117. (Em inglês) [CrossRef]
19. Borzabadi-Farahani, A.; Borzabadi-Farahani, A.; Eslamipour, F. A relação entre o índice ICON e o índice odontológico e
componentes estéticos do índice IOTN. Mundo J. Orthod. 2010, 11, 43–48. (Em inglês)
20. Monill-González, A.; Rovira-Calatayud, L.; d’Oliveira, NG; Ustrell-Torrent, JM Inteligência artificial em ortodontia: onde estamos agora? Uma revisão de escopo.
Ortodoxo. Res. Craniofacial 2021, 24, 6–15. [RefCruz]
21. Albalawi, F.; Alamoud, KA Tendências e aplicação da tecnologia de inteligência artificial no diagnóstico ortodôntico e planejamento de tratamento – uma revisão. Apl.
Ciência. 2022, 12, 11864. [CrossRef]
22. Lucro, WR; Campos, HW; Larson, B.; Sarver, DM Ortodontia Contemporânea-e-Book; Elsevier Health Sciences: Amsterdã, The
Holanda, 2018.
23. Yue, W.; Yin, D.; Li, C.; Wang, G.; Xu, T. Análise cefalométrica 2-D automatizada em imagens de raios X por uma abordagem baseada em modelo.
IEEE Trans. Biomédica. Eng. 2006, 53, 1615–1623.
24. Kim, J.; Kim, eu.; Kim, YJ; Kim, M.; Cho, JH; Hong, M.; Kang, KH; Lim, SH; Kim, SJ; Kim, YH Precisão da identificação automatizada de marcos cefalométricos
laterais usando redes neurais convolucionais em cascata em cefalogramas laterais de multicentros nacionais. Ortodoxa. Res. Craniofacial. 2021, 24, 59–67.
[RefCruz] [Pub Med]
25. Baumrind, S.; Frantz, RC A confiabilidade das medições do filme da cabeça: 1. Identificação de pontos de referência. Sou. J. Orthod. 1971, 60, 111–127.
[RefCruz]
26. Durão, APR; Morosolli, A.; Pittayapat, P.; Bolstad, N.; Ferreira, AP; Jacobs, R. Variabilidade dos marcos cefalométricos entre ortodontistas e radiologistas
dentomaxilofaciais: Um estudo comparativo. Ciência da imagem. Dente. 2015, 45, 213–220. [RefCruz]
27. Cohen, AM; IP, HH; Linney, AD Um estudo preliminar de reconhecimento computacional e identificação de marcos esqueléticos como um novo método de análise
cefalométrica. Ir. J. Orthod. 1984, 11, 143–154. (Em inglês) [CrossRef] [Pub Med]
28. Pagador, C.; Štern, D.; Bischof, H.; Urschler, M. Integrando configuração espacial em CNNs baseadas em regressão de mapa de calor para localização de pontos de
referência. Med. Imagem Anal. 2019, 54, 207–219. (Em inglês) [CrossRef] [Pub Med]
29. Nishimoto, S.; Sotsuka, Y.; Kawai, K.; Ishise, H.; Kakibuchi, M. Detecção de marcos cefalométricos baseada em computador pessoal com aprendizado profundo,
usando cefalogramas na Internet. J. Cirurgia Craniofacial. 2019, 30, 91–95. (Em inglês) [CrossRef] [Pub Med]
30.Zhong , Z.; Li, J.; Zhang, Z.; Jiao, Z.; Gao, X. Um modelo de regressão profunda guiado pela atenção para detecção de pontos de referência em cefalogramas.
Em Proceedings of the Medical Image Computing and Computer Assisted Intervention – MICCAI 2019: 22nd International Conference, Shenzhen, China, 13–17
de outubro de 2019. Proceedings, Parte VI 22.
Machine Translated by Google

Saúde 2023, 11, 2760 21 de 27

31. Parque, JH; Hwang, HW; Lua, JH; Yu, Y.; Kim, H.; Ela, SB; Srinivasan, G.; Aljanabi, MNA; Donatelli, RE; Lee, SJ
Identificação automatizada de pontos cefalométricos: Parte 1-Comparações entre os mais recentes métodos de aprendizagem profunda YOLOV3 e SSD.
Ortodoxa Angular. 2019, 89, 903–909. (Em inglês) [CrossRef] [Pub Med]
32. Lua, JH; Hwang, HW; Yu, Y.; Kim, MG; Donatelli, RE; Lee, SJ Quanto aprendizado profundo é suficiente para automação
identificação é confiável? Ortodoxa Angular. 2020, 90, 823–830. (Em inglês) [CrossRef]
33. Hwang, HW; Parque, JH; Lua, JH; Yu, Y.; Kim, H.; Ela, SB; Srinivasan, G.; Aljanabi, MNA; Donatelli, RE; Lee, SJ
Identificação automatizada de marcos cefalométricos: Parte 2 – Será melhor que o humano? Ortodoxa Angular. 2020, 90, 69–76. (Em inglês) [CrossRef]

34. Ah, K.; Ah, É; Le, VNT; Lee, DW Aprendizagem profunda de recursos de contexto anatômico para detecção de marcos cefalométricos. IEEE J.
Biomédica. Informação de Saúde. 2021, 25, 806–817. (Em inglês) [CrossRef]
35. Kim, H.; Shim, E.; Parque, J.; Kim, YJ; Lee, EUA; Kim, Y. Análise cefalométrica totalmente automatizada baseada na Web por aprendizado profundo. Computação.
Métodos Programas Biomédicos. 2020, 194, 105513. (Em inglês) [CrossRef] [Pub Med]
36. Kunz, F.; Stellzig-Eisenhauer, A.; Zeman, F.; Boldt, J. Inteligência artificial em ortodontia: Avaliação de uma análise cefalométrica totalmente automatizada usando
uma rede neural convolucional customizada. J. Orofac. Ortop. 2020, 81, 52–68. (Em inglês)
[RefCruz]
37. Alqahtani, H. Avaliação de uma plataforma online baseada em site para análise cefalométrica. J. Estomatol. Maxilofacial Oral. Surg. 2020,
121, 53–57. (Em inglês) [CrossRef] [Pub Med]
38. Lee, JH; Yu, HJ; Kim, MJ; Kim, JW; Choi, J. Detecção automatizada de pontos cefalométricos com regiões de confiança usando redes neurais convolucionais
bayesianas. BMC Oral Health 2020, 20, 270. (Em inglês) [CrossRef]
39. Yu, HJ; Cho, SR; Kim, MJ; Kim, WH; Kim, JW; Choi, J. Classificação Esquelética Automatizada com Cefalometria Lateral Baseada em Inteligência Artificial. J.
Dente. Res. 2020, 99, 249–256. (Em inglês) [CrossRef]
40. Li, W.; Lu, Y.; Zhen, K.; Lião, H.; Lin, C.; Luo, J.; Cheng, C.-T.; Xiao, J.; Lu, L.; Kuo, C.-F. Detecção estruturada de pontos de referência por meio de aprendizado
profundo de gráficos com adaptação à topologia. Em Proceedings of the Computer Vision –ECCV 2020: 16th European Conference, Glasgow, Reino Unido, 23–
28 de agosto de 2020. Proceedings, Parte IX 16.
41. Tanikawa, C.; Lee, C.; Lim, J.; OK, A.; Yamashiro, T. Aplicabilidade clínica da identificação automatizada de marcos cefalométricos: Parte I-Erros de identificação
relacionados ao paciente. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 43–52. (Em inglês) [CrossRef] [Pub Med]
42. Zeng, M.; Yan, Z.; Liu, S.; Zhou, Y.; Qiu, L. Redes convolucionais em cascata para detecção automática de pontos cefalométricos.
Med. Imagem Anal. 2021, 68, 101904. (Em inglês) [CrossRef]
43. Hwang, HW; Lua, JH; Kim, MG; Donatelli, RE; Lee, SJ Avaliação da análise cefalométrica automatizada com base nos mais recentes
método de aprendizagem profunda. Ortodoxa Angular. 2021, 91, 329–335. (Em inglês) [CrossRef]
44. Bulatova, G.; Kusnoto, B.; Graça, V.; Tsay, TP; Avenetti, DM; Sanchez, FJC Avaliação da identificação automática de marcos cefalométricos usando inteligência
artificial. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 37–42. (Em inglês) [CrossRef] [Pub Med]
45. Jeon, S.; Lee, KC Comparação de medidas cefalométricas entre análise cefalométrica convencional e automática
usando rede neural convolucional. Programa. Ortodoxa. 2021, 22, 14. (Em inglês) [CrossRef]
46.Hong , M.; Kim, eu.; Cho, JH; Kang, KH; Kim, M.; Kim, SJ; Kim, YJ; Cantado, SJ; Kim, YH; Lim, SH; e outros. Precisão da identificação de pontos de referência
assistida por inteligência artificial em cefalogramas laterais seriados de pacientes Classe III submetidos a tratamento ortodôntico e cirurgia ortognática de dois
maxilares. Coreano J. Orthod. 2022, 52, 287–297. (Em inglês) [CrossRef] [Pub Med]
47. Le, VNT; Kang, J.; Ah, É; Kim, JG; Yang, YM; Lee, DW Eficácia da Colaboração Humano-Inteligência Artificial em
Detecção de marco cefalométrico. J. Pers. Med. 2022, 12, 387. (Em inglês) [CrossRef] [Pub Med]
48. Mahto, RK; Kafle, D.; Giri, A.; Luintel, S.; Karki, A. Avaliação de medidas cefalométricas totalmente automatizadas obtidas de
plataforma baseada em inteligência artificial baseada na web. BMC Oral Health 2022, 22, 132. (Em inglês) [CrossRef]
49. Uÿgurlu, M. Desempenho de um algoritmo de inteligência artificial baseado em rede neural convolucional para cefalometria automática
Detecção de marcos. Turco. J. Orthod. 2022, 35, 94–100. (Em inglês) [CrossRef]
50. Yao, J.; Zeng, W.; Ele, T.; Zhou, S.; Zhang, Y.; Guo, J.; Tang, W. Localização automática de marcos cefalométricos com base em rede neural convolucional. Sou.
J. Orthod. Dentofac. Ortop. 2022, 161, e250–e259. (Em inglês) [CrossRef]
51. Lu, G.; Zhang, Y.; Kong, Y.; Zhang, C.; Coatrieux, JL; Shu, H. Localização de referência para análise cefalométrica usando redes convolucionais de gráficos
baseados em patches de imagem multiescala. IEEE J. Biomédica. Informação de Saúde. 2022, 26, 3015–3024. (Em inglês)
[RefCruz]
52. Tsolakis, IA; Tsolakis, AI; Elshebiny, T.; Matthaios, S.; Palomo, JM Comparando um método de traçado cefalométrico totalmente automatizado com um método de
traçado manual para diagnóstico ortodôntico. J. Clin. Med. 2022, 11, 6854. (Em inglês) [CrossRef]
53. Duran, GS; Gökmen, ¸S.; Topsakal, KG; Görgülü, S. Avaliação da precisão de software de análise cefalométrica totalmente automático com algoritmo de inteligência
artificial. Ortodoxa. Res. Craniofacial. 2023, 26, 481–490. (Em inglês) [CrossRef]
54. Sim, H.; Cheng, Z.; Ungvijanpunya, N.; Chen, W.; Cao, L.; Gou, Y. O software cefalométrico automático que usa inteligência artificial é melhor do que os
especialistas em ortodontia na identificação de pontos de referência? BMC Oral Health 2023, 23, 467. (Em inglês) [CrossRef] [Pub Med]
55. Ueda, A.; Tussie, C.; Kim, S.; Kuwajima, Y.; Matsumoto, S.; Kim, G.; Satoh, K.; Nagai, S. Classificação da Morfologia Maxilofacial por Inteligência Artificial Usando
Medidas de Análise Cefalométrica. Diagnóstico 2023, 13, 2134. (Em inglês) [CrossRef]
[Pub Med]
56. Bao, H.; Zhang, K.; Yu, C.; Li, H.; Cão, D.; Shu, H.; Liu, L.; Yan, B. Avaliando a precisão da análise cefalométrica automatizada
baseado em inteligência artificial. BMC Oral Health 2023, 23, 191. (Em inglês) [CrossRef] [Pub Med]
Machine Translated by Google

Saúde 2023, 11, 2760 22 de 27

57. Kim, MJ; Liu, Y.; Ah, SH; Ahn, HW; Kim, SH; Nelson, G. Avaliação de um sistema de identificação de pontos de referência totalmente automatizado
baseado em rede neural convolucional de vários estágios usando imagens cefalométricas póstero-anteriores sintetizadas por tomografia computadorizada
de feixe cônico . Coreano J. Orthod. 2021, 51, 77–85. (Em inglês) [CrossRef]
58. Takeda, S.; Meu, Y.; Yoshimi, Y.; Ito, S.; Tanimoto, K.; Murayama, T. Anotação de referência e análise de desvio lateral mandibular de cefalogramas
posteroanteriores usando uma rede neural convolucional. J. Dente. Ciência. 2021, 16, 957–963. (Em inglês)
[RefCruz]
59. Lee, SM; Kim, HP; Jeon, K.; Lee, SH; Seo, JK Sistema automático de anotação cefalométrica 3D usando imagem 2D sombreada baseada
aprendizado de máquina. Física. Med. Biol. 2019, 64, 055002. (Em inglês) [CrossRef]
60. Torosdagli, N.; Libertão, DK; Verma, P.; Sincan, M.; Lee, JS; Bagci, U. Aprendizado Geodésico Profundo para Segmentação e Marcação Anatômica. IEEE
Trans. Med. Imagens 2019, 38, 919–931. (Em inglês) [CrossRef]
61. Yun, HS; Jang, TJ; Lee, SM; Lee, SH; Seo, JK Anotação de marco local para global baseada em aprendizagem para 3D automático
cefalometria. Física. Med. Biol. 2020, 65, 085018. (Em inglês) [CrossRef]
62. Kang, SH; Jeon, K.; Kang, SH; Lee, SH Detecção de marco cefalométrico 3D por aprendizado de reforço profundo em múltiplos estágios.
Ciência. Rep. 2021, 11, 17509. (Em inglês) [CrossRef]
63. Ghowsi, A.; Hatcher, D.; Suh, H.; Wile, D.; Castro, W.; Krueger, J.; Parque, J.; Oh, H. Identificação automatizada de pontos de referência em tomografia
computadorizada de feixe cônico: Precisão e confiabilidade. Ortodoxa Angular. 2022, 92, 642–654. (Em inglês) [CrossRef]
64. Ponto, G.; Schouman, T.; Chang, S.; Rafflenbeul, F.; Kerbrat, A.; Rouch, P.; Gajny, L. Cefalometria Tridimensional Automática
Marco via Deep Learning. J. Dente. Res. 2022, 101, 1380–1387. (Em inglês) [CrossRef]
65. Blum, FMS; Möhlhenrich, SC; Raith, S.; Pankert, T.; Peters, F.; Lobo, M.; Holzle, F.; Modabber, A. Avaliação de um algoritmo baseado em inteligência
artificial para localização automatizada de pontos de referência craniofaciais. Clin. Investigação Oral. 2023, 27, 2255–2265. (Em inglês) [CrossRef]

66. Yang, J.; Ling, X.; Lu, Y.; Wei, M.; Ding, G. Análise e medição de imagens cefalométricas para cirurgia ortognática. Med. Biol.
Eng. Computação. 2001, 39, 279–284. (Em inglês) [CrossRef]
67. Schwendicke, F.; Chaurasia, A.; Arsiwala, L.; Lee, JH; Elhennawy, K.; Jost-Brinkmann, PG; Demarco, F.; Krois, J. Aprendizado profundo para detecção de
marcos cefalométricos: revisão sistemática e meta-análise. Clin. Investigação Oral. 2021, 25, 4299–4309. (Em inglês)
[RefCruz]
68. Arik, S.; Ibragimov, B.; Xing, L. Cefalometria quantitativa totalmente automatizada usando redes neurais convolucionais. J. Med. Imaging 2017, 4, 014501.
(Em inglês) [CrossRef]
69. Cao, L.; Ele, H.; Hua, F. Algoritmos de aprendizado profundo têm alta precisão para detecção automatizada de pontos de referência em 2D lateral
Cefalogramas. J. Evid. Dente Baseado. Pratique. 2022, 22, 101798. (Em inglês) [CrossRef] [Pub Med]
70. Meriç, P.; Naoumova, J. Análise cefalométrica totalmente automatizada baseada na Web: comparações entre aplicativos auxiliados, computadorizados,
e traçados manuais. Turco. J. Orthod. 2020, 33, 142–149. (Em inglês) [CrossRef]
71. Montúfar, J.; Romero, M.; Scougall-Vilchis, RJ Marcação cefalométrica tridimensional automática baseada em modelos de forma ativa em projeções
relacionadas. Sou. J. Orthod. Dentofac. Ortop. 2018, 153, 449–458. (Em inglês) [CrossRef] [Pub Med]
72.Zhang , J.; Liu, M.; Wang, L.; Chen, S.; Yuan, P.; Li, J.; Shen, SG; Tang, Z.; Chen, KC; Xia, JJ; e outros. Redes totalmente convolucionais guiadas pelo
contexto para segmentação óssea craniomaxilofacial articular e digitalização de pontos de referência. Med. Imagem Anal. 2020, 60, 101621. (Em inglês)
[CrossRef] [Pub Med]
73. Ponto, G.; Rafflenbeul, F.; Arbotto, M.; Gajny, L.; Rouch, P.; Schouman, T. Precisão e confiabilidade de tridimensional automático
marcação cefalométrica. Internacional J. Oral Maxilofac. Surg. 2020, 49, 1367–1378. (Em inglês) [CrossRef]
74. Ghesu, FC; Georgescu, B.; Mansi, T.; Neumann, D.; Hornegger, J.; Comaniciu, D. Um agente artificial para detecção de marcos anatômicos em imagens
médicas. Em Proceedings of the Medical Image Computing and Computer-Assisted Intervention-MICCAI 2016: 19th International Conference, Atenas,
Grécia, 17–21 de outubro de 2016. Proceedings, Parte III 19.
75. Ghesu, FC; Georgescu, B.; Grbic, S.; Maier, A.; Hornegger, J.; Comaniciu, D. Rumo à detecção robusta e inteligente de estruturas anatômicas em dados
volumétricos incompletos. Med. Imagem Anal. 2018, 48, 203–213. (Em inglês) [CrossRef] [Pub Med]
76. Chen, S.; Wu, S. Deep Q-networks com dados de pesquisa baseados na web para simular previsão e avaliação de intervenção em câncer de pulmão
em idosos: um estudo quantitativo. BMC Med. Informar. Decis. Mak. 2022, 22, 1. (Em inglês) [CrossRef]
77. Talaat, S.; Kaboudan, A.; Talaat, W.; Kusnoto, B.; Sánchez, F.; Elnagar, MH; Bourauel, C.; Ghoneima, A. A validade de uma aplicação de inteligência
artificial para avaliação da necessidade de tratamento ortodôntico a partir de imagens clínicas. Semin. Ortodoxa. 2021, 27, 164–171. [RefCruz]

78. Ryu, J.; Kim, YH; Kim, TW; Jung, SK Avaliação de modelo de inteligência artificial para categorização e extração de aglomeração
diagnóstico por meio de fotografias intraorais. Ciência. Rep. 2023, 13, 5177. (Em inglês) [CrossRef]
79. Im, J.; Kim, JY; Yu, HS; Lee, KJ; Choi, SH; Kim, JH; Ahn, HK; Cha, JY Precisão e eficiência da segmentação automática de dentes em modelos
odontológicos digitais utilizando aprendizagem profunda. Ciência. Rep. 2022, 12, 9429. (Em inglês) [CrossRef] [Pub Med]
80. Woodsend, B.; Koufoudaki, E.; Lin, P.; McIntyre, G.; El-Angbawi, A.; Aziz, A.; Shaw, W.; Semb, G.; Reesu, GV; Mossey, Pensilvânia
Desenvolvimento de reconhecimento automatizado de pontos de referência (ALR) intra-oral para medições de resultados dentários e oclusais. EUR. J. Orthod.
2022, 44, 43–50. (Em inglês) [CrossRef] [Pub Med]
81. Woodsend, B.; Koufoudaki, E.; Mossey, PA; Lin, P. Reconhecimento automático de pontos de referência em modelos dentários digitais. Computação. Biol.
Med. 2021, 137, 104819. (Em inglês) [CrossRef]
Machine Translated by Google

Saúde 2023, 11, 2760 23 de 27

82. Zhao, Y.; Zhang, L.; Liu, Y.; Meng, D.; Cui, Z.; Gao, C.; Gao, X.; Lian, C.; Shen, D. Rede Convolucional de Gráfico de Dois Fluxos para
Segmentação de imagens de scanner intra-oral. IEEE Trans. Med. Imagens 2022, 41, 826–835. (Em inglês) [CrossRef] [Pub Med]
83. Wu, TH; Lian, C.; Lee, S.; Pastewait, M.; Piers, C.; Liu, J.; Wang, F.; Wang, L.; Chiu, CY; Wang, W.; e outros. Aprendizado profundo de malha de dois estágios
para segmentação dentária automatizada e localização de pontos de referência em digitalizações intraorais 3D. IEEE Trans. Med. Imagens 2022, 41, 3158–
3166. (Em inglês) [CrossRef] [Pub Med]
84. Liu, Z.; Ele, X.; Wang, H.; Xiong, H.; Zhang, Y.; Wang, G.; Hao, J.; Feng, Y.; Zhu, F.; Hu, H. Aprendizagem hierárquica auto-supervisionada para segmentação
dentária 3D em varreduras de malha intra-orais. IEEE Trans. Med. Imagens 2023, 42, 467–480. (Em inglês) [CrossRef]
85. Rao, GKL; Srinivasa, AC; Iskandar, YHP; Mokhtar, N. Identificação e análise de pontos fotométricos em imagens faciais 2D:
Uma abordagem de aprendizado de máquina em ortodontia. Tecnologia em Saúde. 2019, 9, 715–724. [RefCruz]
86. Yurdakurban, E.; Duran, GS; Görgülü, S. Avaliação de uma abordagem automatizada para detecção da linha média facial e avaliação de assimetria: Um estudo
preliminar. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 84–91. (Em inglês) [CrossRef] [Pub Med]
87. Rousseau, M.; Retrouvey, JM Aprendizado de máquina em ortodontia: análise facial automatizada da dimensão vertical para aumento
precisão e eficiência. Sou. J. Orthod. Dentofac. Ortop. 2022, 161, 445–450. (Em inglês) [CrossRef]
88. Kim, H.; Kim, CS; Lee, JM; Lee, JJ; Lee, J.; Kim, JS; Choi, SH Previsão dos indicadores de maturidade esquelética de Fishman usando
inteligência artificial. Ciência. Rep. 2023, 13, 5870. (Em inglês) [CrossRef]
89. Lee, H.; Tajmir, S.; Lee, J.; Zissen, M.; Yeshiwas, BA; Alkasab, TK; Choy, G.; Do, S. Sistema de aprendizado profundo totalmente automatizado para
Avaliação da Idade Óssea. J. Dígito. Imagens 2017, 30, 427–441. (Em inglês) [CrossRef] [Pub Med]
90. Kim, Jr.; Calço, WH; Yoon, HM; Hong, SH; Lee, JS; Cho, YA; Kim, S. Estimativa computadorizada da idade óssea usando programa baseado em aprendizagem
profunda : avaliação da precisão e eficiência. AJR Am. J. Roentgenol. 2017, 209, 1374–1380. (Em inglês)
[RefCruz]
91. Kök, H.; Izgi, MS; Acilar, AM Determinação de períodos de crescimento e desenvolvimento em ortodontia com rede neural artificial.
Ortodoxa. Res. Craniofacial. 2021, 24 (Suplemento S2), 76–83. (Em inglês) [CrossRef]
92. Franchi, L.; Baccetti, T.; McNamara, JA, Jr. Crescimento mandibular relacionado à maturação vertebral cervical e altura corporal. Sou.
J. Orthod. Dentofac. Ortop. 2000, 118, 335–340. (Em inglês) [CrossRef]
93. Flores-Mir, C.; Burgess, Califórnia; Champney, M.; Jensen, RJ; Arremessador, MR; Major, Correlação PW dos estágios de maturação esquelética
determinado pelas vértebras cervicais e avaliações mão-punho. Ortodoxa Angular. 2006, 76, 1–5. (Em inglês)
94. Kucukkeles, N.; Acar, A.; Biren, S.; Arun, T. Comparações entre vértebras cervicais e maturação mão-punho para avaliação da maturidade esquelética. J. Clin.
Pediatr. Dente. 1999, 24, 47–52. (Em inglês)
95. McNamara, JA, Jr.; Franchi, L. O método de maturação vertebral cervical: um guia do usuário. Ortodoxa Angular. 2018, 88, 133–143. (Em
Inglês) [CrossRef] [Pub Med]
96. Kim, DW; Kim, J.; Kim, T.; Kim, T.; Kim, YJ; Canção, É; Ahn, B.; Choo, J.; Lee, DY Previsão dos estágios de maturação mão-punho com base em imagens de
vértebras cervicais usando inteligência artificial. Ortodoxa. Res. Craniofacial. 2021, 24 (Suplemento S2), 68–75. (Em inglês)
[RefCruz] [Pub Med]
97. Gandini, P.; Mancini, M.; Andreani, F. Uma comparação entre análises do osso do pulso e da vértebra cervical na medição da maturação esquelética. Ortodoxa
Angular. 2006, 76, 984–989. [RefCruz]
98. Ok, G.; Akcayol, MA; Özdem, K.; Güngör, K. Rede neural convolucional profunda - A avaliação da maturação das vértebras cervicais. Radiol Oral. 2023, 39, 629–
638. [RefCruz]
99. Kök, H.; Acilar, AM; ÿIzgi, MS Uso e comparação de algoritmos de inteligência artificial para determinação de crescimento e desenvolvimento por estágios de
vértebras cervicais em ortodontia. Programa. Ortodoxa. 2019, 20, 41. (Em inglês) [CrossRef]
100. Makaremi, M.; Lacaule, C.; Mohammad-Djafari, A. Aprendizado Profundo e Inteligência Artificial para a Determinação do Cervical
Grau de maturação das vértebras pela radiografia lateral. Entropia 2019, 21, 1222. (Em inglês) [CrossRef]
101. Amasya, H.; Yildirim, D.; Aydogan, T.; Kemaloglu, N.; Orhan, K. Avaliação da maturação vertebral cervical em radiografias cefalométricas laterais usando
inteligência artificial: comparação de modelos classificadores de aprendizado de máquina. Dentomaxilofac. Radiol. 2020, 49, 20190441. (Em inglês) [CrossRef]

102. Amasya, H.; Cesur, E.; Yÿldÿrÿm, D.; Orhan, K. Validação dos estágios de maturação vertebral cervical: Inteligência artificial vs análise visual do observador
humano. Sou. J. Orthod. Dentofac. Ortop. 2020, 158, e173–e179. (Em inglês) [CrossRef] [Pub Med]
103. Seo, H.; Hwang, J.; Jeong, T.; Shin, J. Comparação de modelos de aprendizagem profunda para classificação do estágio de maturação vertebral cervical
em Radiografias Cefalométricas Laterais. J. Clin. Med. 2021, 10, 3591. (Em inglês) [CrossRef] [Pub Med]
104. Zhou, J.; Zhou, H.; Pu, L.; Gao, Y.; Tang, Z.; Yang, Y.; Você, M.; Yang, Z.; Lai, W.; Long, H. Desenvolvimento de um Sistema de
Inteligência Artificial para Avaliação Automática do Estado de Maturação Vertebral Cervical. Diagnóstico 2021, 11, 2200. (Em inglês) [CrossRef]
105. Kim, EG; Ah, É; Então, JE; Kang, J.; Le, VNT; Tak, MK; Lee, DW Estimando a Maturação Vertebral Cervical com uma Lateral
Cefalograma usando rede neural convolucional. J. Clin. Med. 2021, 10, 5400. (Em inglês) [CrossRef] [Pub Med]
106. Mohammad-Rahimi, H.; Motamadian, SR; Nadimi, M.; Hassanzadeh-Samani, S.; Minabi, MAS; Mahmoudinia, E.; Lee, VY; Rohban, MH Aprendizado profundo
para a classificação do grau de maturação cervical e surtos de crescimento puberal: um estudo piloto. Coreano J. Orthod. 2022, 52, 112–122. (Em inglês)
[CrossRef] [Pub Med]
107. Radwan, MT; Pecado, Ç.; Akkaya, N.; Vahdettin, L. Algoritmo baseado em inteligência artificial para estágio de maturação das vértebras cervicais
avaliação. Ortodoxa. Res. Craniofacial. 2023, 26, 349–355. (Em inglês) [CrossRef]
108. Rojas, E.; Corvalán, R.; Messen, E.; Sandoval, P. Avaliação das vias aéreas superiores em Ortodontia: Uma revisão. Odontoestomatologia 2017, 19,
40–51. [RefCruz]
Machine Translated by Google

Saúde 2023, 11, 2760 24 de 27

109.Shen , Y.; Li, X.; Liang, X.; Xu, H.; Li, C.; Yu, Y.; Qiu, B. Uma abordagem baseada em aprendizagem profunda para diagnóstico de hipertrofia de adenoide. Med.
Física. 2020, 47, 2171–2181. (Em inglês) [CrossRef]
110. Zhao, T.; Zhou, J.; Yan, J.; Cao, L.; Cao, Y.; Hua, F.; Ele, H. Avaliação Automatizada de Hipertrofia Adenóide com Cefalometria Lateral em Crianças Baseada
em Inteligência Artificial. Diagnóstico 2021, 11, 1386. (Em inglês) [CrossRef]
111. Liu, JL; Li, SH; Cai, YM; Lan, DP; Lu, YF; Lião, W.; Ying, SC; Zhao, ZH Avaliação Radiográfica Automatizada da Adenóide
Hipertrofia baseada em VGG-Lite. J. Dente. Res. 2021, 100, 1337–1343. (Em inglês) [CrossRef]
112. Pecado, Ç.; Akkaya, N.; Aksoy, S.; Orhan, K.; Öz, U. Uma proposta de algoritmo de aprendizagem profunda para detecção e segmentação automática de vias
aéreas faríngeas em imagens de TCFC. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 117–123. (Em inglês) [CrossRef]
113. Leonardi, R.; Lo Giudice, A.; Farronato, M.; Ronsivalle, V.; Allegrini, S.; Musumeci, G.; Spampinato, C. Segmentação totalmente automática da cavidade
nasossinusal e das vias aéreas faríngeas com base em redes neurais convolucionais. Sou. J. Orthod. Dentofac. Ortop. 2021, 159, 824–835.e821. (Em inglês)
[CrossRef]
114. Shujaat, S.; Jazil, O.; Willems, H.; Van Gerven, A.; Shaheen, E.; Política, C.; Jacobs, R. Segmentação automática do espaço aéreo faríngeo com rede neural
convolucional. J. Dente. 2021, 111, 103705. (Em inglês) [CrossRef] [Pub Med]
115. Jeong, Y.; Nang, Y.; Zhao, Z. Avaliação automatizada de obstrução das vias aéreas superiores com base em aprendizado profundo. BioMed Res. Internacional
2023, 2023, 8231425. (Em inglês) [CrossRef]
116.Dong , W.; Chen, Y.; Li, A.; Mei, X.; Yang, Y. Detecção automática de hipertrofia adenóide na tomografia computadorizada de feixe cônico
baseado em aprendizado profundo. Sou. J. Orthod. Dentofac. Ortop. 2023, 163, 553–560.e553. (Em inglês) [CrossRef]
117.Jin , S.; Han, H.; Huang, Z.; Xiang, Y.; Du, M.; Hua, F.; Guan, X.; Liu, J.; Chen, F.; He, H. Nasal e tridimensional automático
identificação de sub-regiões das vias aéreas faríngeas via Vision Transformer. J. Dente. 2023, 136, 104595. (Em inglês) [CrossRef]
118. Soldatova, L.; Otero, HJ; Saulo, DA; Barreira, CA; Elden, L. Radiografia lateral do pescoço na avaliação pré-operatória da adenóide
Hipertrofia. Ana. Otol. Rinol. Laringol. 2020, 129, 482–488. (Em inglês) [CrossRef]
119. Duan, H.; Xia, L.; Ele, W.; Lin, Y.; Lu, Z.; Lan, Q. Precisão do cefalograma lateral para diagnóstico de hipertrofia adenóide e obstrução posterior das vias aéreas
superiores: uma meta-análise. Internacional J. Pediatr. Otorrinolaringol. 2019, 119, 1–9. (Em inglês) [CrossRef]
[Pub Med]
120. Fujioka, M.; Jovem, LW; Girdany, BR Avaliação radiográfica do tamanho da adenoide em crianças: relação adenóide-nasofaríngea.
AJR Am. J. Roentgenol. 1979, 133, 401–404. (Em inglês) [CrossRef] [Pub Med]
121. Xie, X.; Wang, L.; Wang, A. Modelagem de rede neural artificial para decidir se extrações são necessárias antes da ortodontia
tratamento. Ortodoxa Angular. 2010, 80, 262–266. (Em inglês) [CrossRef]
122. Jung, SK; Kim, TW Nova abordagem para diagnóstico de extrações com aprendizado de máquina de rede neural. Sou. J. Orthod.
Dentofac. Ortop. 2016, 149, 127–133. (Em inglês) [CrossRef] [Pub Med]
123. Li, P.; Kong, D.; Tang, T.; Su, D.; Yang, P.; Wang, H.; Zhao, Z.; Liu, Y. Planejamento de tratamento ortodôntico baseado em neural artificial
redes. Ciência. Rep. 2019, 9, 2037. [CrossRef]
124. Suhail, Y.; Upadhyay, M.; Chhibber, A.; Kshitiz. Aprendizado de máquina para diagnóstico de extrações ortodônticas: uma abordagem computacional
análise usando aprendizagem em conjunto. Bioengenharia 2020, 7, 55. [CrossRef]
125. Etemad, L.; Wu, TH; Heiner, P.; Liu, J.; Lee, S.; Chao, WL; Zaytoun, ML; Guéz, C.; Lin, FC; Jackson, CB; e outros. Aprendizado de máquina a partir de
conjuntos de dados clínicos de uma decisão contemporânea para extração dentária ortodôntica. Ortodoxa. Res. Craniofacial. 2021, 24 (Suplemento S2), 193–
200. (Em inglês) [CrossRef]
126. Shojaei, H.; Augusto, V. Construindo modelos de Machine Learning para Planejamento de Tratamento Ortodôntico: Uma comparação de diferentes métodos.
Em Anais da Conferência Internacional IEEE de 2022 sobre Big Data (Big Data), Osaka, Japão, 17–20 de dezembro de 2022.
127. Real, AD; Real, OD; Sardenha, S.; Oyonarte, R. Uso de inteligência artificial automatizada para prever a necessidade de extrações ortodônticas. Coreano J.
Orthod. 2022, 52, 102–111. (Em inglês) [CrossRef] [Pub Med]
128. Leavitt, L.; Volovic, J.; Steinhauer, L.; Pedreiro, T.; Eckert, G.; Dean, JA; Dundar, M.M.; Turkkahraman, H. Podemos prever padrões de extração ortodôntica
usando aprendizado de máquina? Ortodoxa. Res. Craniofacial. 2023, 26, 552–559. (Em inglês) [CrossRef]
[Pub Med]
129. Prasad, J.; Mallikarjunaiah, DR; Shetty, A.; Gandedkar, N.; Chikkamuniswamy, AB; Shivashankar, Modelo Preditivo de Aprendizado de Máquina PC como
Sistema de Apoio à Decisão Clínica no Planejamento de Tratamento Ortodôntico. Dente. J. 2022, 11, 1. (Em inglês)
[RefCruz]
130. Knoops, PGM; Papaioannou, A.; Borghi, A.; Breakey, RWF; Wilson, AT; Jeelani, O.; Zafeiriou, S.; Steinbacher, D.; Padwa, BL; Dunaway, DJ; e outros. Uma
estrutura de aprendizado de máquina para diagnóstico automatizado e planejamento assistido por computador em cirurgia plástica e reconstrutiva. Ciência.
Rep. 2019, 9, 13597. (Em inglês) [CrossRef] [Pub Med]
131. Choi, H.-I.; Jung, S.-K.; Baek, S.-H.; Lim, WH; Ahn, S.-J.; Yang, I.-H.; Kim, T.-W. Modelo de inteligência artificial com aprendizado de máquina de redes neurais
para diagnóstico de cirurgia ortognática. J. Cirurgia Craniofacial. 2019, 30, 1986–1989. [RefCruz] [Pub Med]
132. Lee, K.-S.; Ryu, J.-J.; Jang, HS; Lee, D.-Y.; Jung, S.-K. Análise baseada em redes neurais convolucionais profundas de radiografias cefalométricas para
diagnóstico diferencial de indicações de cirurgia ortognática. Apl. Ciência. 2020, 10, 2124. [CrossRef]
133. Jeong, SH; Yun, JP; Sim, HG; Lim, HJ; Lee, J.; Kim, BC Discriminação baseada em aprendizagem profunda de perfis de tecidos moles que requerem cirurgia
ortognática por meio de fotografias faciais. Ciência. Rep. 2020, 10, 16235. (Em inglês) [CrossRef]
134. Shin, W.; Sim, HG; Lee, GH; Yun, JP; Jeong, SH; Lee, JH; Kim, Hong Kong; Kim, BC Predição baseada em aprendizagem profunda da necessidade de cirurgia
ortognática de má oclusão esquelética usando cefalograma em indivíduos coreanos. BMC Oral Health 2021, 21, 130. (Em inglês) [CrossRef]
Machine Translated by Google

Saúde 2023, 11, 2760 25 de 27

135. Kim, YH; Parque, JB; Chang, MS; Ryu, JJ; Lim, WH; Jung, SK Influência da Profundidade das Redes Neurais Convolucionais em um Modelo de Inteligência
Artificial para Diagnóstico de Cirurgia Ortognática. J. Pers. Med. 2021, 11, 356. (Em inglês) [CrossRef]
136. Lee, H.; Ahmad, S.; Frazier, M.; Dundar, M.M.; Turkkahraman, H. Um novo modelo de aprendizado de máquina para decisão de cirurgia de classe III.
J. Orofac. Ortop. 2022. (Em inglês) [CrossRef]
137. Uau, H.; Jha, N.; Kim, Y.-J.; Cantado, S.-J. Avaliando a precisão de modelos de configuração digital ortodôntica automatizada. Semin. Ortodoxa.
2023, 29, 60–67.
138. Parque, JH; Kim, Y.-J.; Kim, J.; Kim, J.; Kim, I.-H.; Kim, N.; Vaid, NR; Kook, Y.-A. Uso de inteligência artificial para prever resultados
do tratamento sem extrações das más oclusões de Classe II. Semin. Ortodoxa. 2021, 27, 87–95.
139. Tanikawa, C.; Yamashiro, T. Desenvolvimento de novos sistemas de inteligência artificial para prever a morfologia facial após cirurgia ortognática e tratamento
ortodôntico em pacientes japoneses. Ciência. Rep. 2021, 11, 15853. (Em inglês)
140. Parque, YS; Choi, JH; Kim, Y.; Choi, SH; Lee, JH; Kim, KH; Chung, CJ Previsão baseada em aprendizagem profunda da posição 3D
Alterações faciais ortodônticas. J. Dente. Res. 2022, 101, 1372–1379. (Em inglês)
141. Xu, L.; Mei, L.; Lu, R.; Li, Y.; Li, H.; Li, Y. Prevendo a experiência do paciente com o tratamento Invisalign: uma análise usando neural artificial
rede. Coreano J. Orthod. 2022, 52, 268–277. (Em inglês) [PubMed]
142. Ribarevski, R.; Vig, P.; Vig, KD; Weyant, R.; O'Brien, K. Consistência das decisões de extração ortodôntica. EUR. J. Orthod. 1996, 18,
77–80.
143. Drucker, H.; Wu, D.; Vapnik, VN Suporta máquinas de vetores para categorização de spam. IEEE Trans. Rede Neural. 1999, 10, 1048–1054.
(Em inglês)
144. Khozeimeh, F.; Sharifrazi, D.; Izadi, NH; Joloudari, JH; Shoeibi, A.; Alizadehsani, R.; Tartibi, M.; Hussain, S.; Sani, ZA; Khodatars, M.; e outros. RF-CNN-F: Floresta
aleatória com recursos de rede neural convolucional para diagnóstico de doença arterial coronariana com base em ressonância magnética cardíaca. Ciência.
Rep. 2022, 12, 11178. (Em inglês)
145. Ahsan, MM; Lua, SA; Siddique, Z. Diagnóstico de doenças baseado em aprendizado de máquina: uma revisão abrangente. Saúde 2022,
10, 541. (Em inglês) [PubMed]
146. Raiva, AB; Wong, RW; Min, Tratamento GU na Maloclusão de Classe III Borderline: Camuflagem Ortodôntica (Extração) Versus
Cirurgia Ortognática. Abra Dente. J. 2008, 2, 38–48. (Em inglês)
147. Alhammadi, MS; Almashraqi, AA; Khadhi, AH; Arishi, KA; Alamir, AA; Beléges, EM; Halboub, E. Camuflagem ortodôntica versus tratamento cirúrgico ortodôntico-
ortognático na má oclusão de classe III limítrofe: uma revisão sistemática. Clin. Investigação Oral.
2022, 26, 6443–6455. (Em inglês) [PubMed]
148. Eslami, S.; Faber, J.; Fatah, A.; Sheikholaemmeh, F.; Grassia, V.; Jamilian, A. Decisão de tratamento em pacientes adultos com má oclusão classe III: Cirurgia
versus ortodontia. Programa. Ortodoxa. 2018, 19, 28. (Em inglês)
149. Mirza, M.; Osindero, S. Redes adversárias geradoras condicionais. arXiv 2014, arXiv:1411.1784.
150. Isola, P.; Zhu, J.-Y.; Zhou, T.; Efros, AA Tradução imagem-imagem com redes adversárias condicionais. Em Anais do
Conferência IEEE sobre Visão Computacional e Reconhecimento de Padrões, Honolulu, HI, EUA, 21 a 26 de julho de 2017.
151. Vu, H.; Vo, PT; Kim, HD Associação modificada por gênero de indicadores de saúde bucal com qualidade de vida relacionada à saúde bucal entre idosos
coreanos. BMC Oral Health 2022, 22, 168. (Em inglês)
152. El-Dawlatly, MM; Abdelmaksoud, AR; Amer, OM; El-Dakroury, AE; Mostafa, YA Avaliação da eficiência de algoritmos computadorizados para formular um sistema
de apoio à decisão para planejamento de tratamento de mordida profunda. Sou. J. Orthod. Dentofac. Ortop. 2021, 159, 512–521. (Em inglês)

153. Tao, T.; Zou, K.; Jiang, R.; Ele, K.; Ele, X.; Zhang, M.; Wu, Z.; Shen, X.; Yuan, X.; Lai, W.; e outros. Determinação assistida por inteligência artificial de locais
disponíveis para mini-implantes ortodônticos palatinos com base na espessura palatina por meio de TCFC. Ortodoxa. Res. Craniofacial . 2023, 26, 491–499.
(Em inglês)
154. Hu, X.; Zhao, Y.; Yang, C. Avaliação da posição radicular durante o tratamento ortodôntico por meio de múltiplos exames intraorais com automação
tecnologia de registro. Sou. J. Orthod. Dentofac. Ortop. 2023, 164, 285–292. (Em inglês)
155. Lee, SC; Hwang, HS; Lee, KC Precisão de modelos dentários integrados baseados em aprendizagem profunda, mesclando varreduras intraorais e tomografias
computadorizadas para avaliação 3D da posição radicular durante o tratamento ortodôntico. Programa. Ortodoxa. 2022, 23, 15. (Em inglês)
156. Hansa, I.; Semaan, SJ; Vaid, NR Resultados clínicos e perspectivas dos pacientes do Dental Monitoring®GoLive®com Invisalign®-a
estudo de coorte retrospectivo. Programa. Ortodoxa. 2020, 21, 16. (Em inglês) [PubMed]
157. Strunga, M.; Urbano, R.; Surovková, J.; Thurzo, A. Sistemas de Inteligência Artificial Auxiliando na Avaliação do Curso e
Retenção do Tratamento Ortodôntico. Healthcare 2023, 11, 683. (Em inglês) [CrossRef]
158. Hansa, I.; Katyal, V.; Semaan, SJ; Coyne, R.; Vaid, NR Monitoramento remoto baseado em inteligência artificial de pacientes ortodônticos: aplicabilidade clínica e
justificativa. Semin. Ortodoxa. 2021, 27, 138–156. [RefCruz]
159. Ryu, J.; Lee, YS; Mô, SP; Lim, K.; Jung, SK; Kim, TW Aplicação da técnica de inteligência artificial de aprendizagem profunda à classificação de fotos clínicas
ortodônticas. BMC Oral Health 2022, 22, 454. (Em inglês) [CrossRef] [Pub Med]
160. Li, S.; Guo, Z.; Lin, J.; Ying, S. Inteligência Artificial para Classificação e Arquivamento de Imagens Ortodônticas. BioMed Res. Internacional 2022, 2022, 1473977.
(Em inglês) [CrossRef]
161. Keim, RG Aprimorando nosso tratamento de mordidas profundas. J. Clin. Ortodoxa. 2008, 42, 687–688. (Em inglês) [PubMed] 162. Çiçek,
Ö.; Abdulkadir, A.; Lienkamp, SS; Brox, T.; Ronneberger, O. 3D U-Net: Aprendendo segmentação volumétrica densa a partir de anotações esparsas. Em Proceedings
of the Medical Image Computing and Computer-Assisted Intervention –MICCAI 2016: 19th International Conference, Atenas, Grécia, 17–21 de outubro de 2016.
Proceedings, Part II 19.
Machine Translated by Google

Saúde 2023, 11, 2760 26 de 27

163. Möhlhenrich, SC; Heussen, N.; Modabber, A.; Bock, A.; Holzle, F.; Wilmes, B.; Danesh, G.; Szalma, J. Influência da densidade óssea, tamanho do parafuso e
procedimento cirúrgico na colocação de mini-implantes ortodônticos - parte B: Estabilidade do implante. Internacional J. Oral Maxilofac. Surg.
2021, 50, 565–572. (Em inglês) [CrossRef]
164. Poon, YC; Chang, HP; Tseng, YC; Chou, ST; Cheng, JH; Liu, PH; Pan, CY Espessura do osso palatino e fatores associados na colocação de miniparafusos em
adultos: Um estudo de tomografia computadorizada de feixe cônico. Kaohsiung J. Med. Ciência. 2015, 31, 265–270. (Em inglês)
[RefCruz]
165. Dalessandri, D.; Sangalli, L.; Tonni, I.; Laffranchi, L.; Bonetti, S.; Visconti, L.; Signoroni, A.; Paganelli, C. Atitude em relação ao Telemonitoramento em
Ortodontistas e Pacientes Ortodônticos. dente J. 2021, 9, 47. (Em inglês) [CrossRef] [Pub Med]
166. Sangalli, L.; Savoldi, F.; Dalessandri, D.; Visconti, L.; Massetti, F.; Bonetti, S. Monitoramento digital remoto durante a fase de contenção do tratamento ortodôntico:
Um estudo prospectivo de viabilidade. Coreano J. Orthod. 2022, 52, 123–130. (Em inglês) [CrossRef]
167. Sangalli, L.; Alessandri-Bonetti, A.; Dalessandri, D. Eficácia do sistema de monitoramento odontológico em ortodontia: uma sistemática
análise. J. Orthod. 2023. online antes da impressão (em inglês) [CrossRef]
168. Homsi, K.; Snider, V.; Kusnoto, B.; Atsawasuwan, P.; Viana, G.; Allareddy, V.; Gajendrareddy, P.; Elnagar, MH Avaliação in vivo da tecnologia de monitoramento
remoto acionado por inteligência artificial para rastreamento do movimento dentário e reconstrução de modelos digitais tridimensionais durante o tratamento
ortodôntico. Sou. J. Orthod. Dentofac. Ortop. 2023. online antes da impressão (em inglês) [CrossRef]
[Pub Med]
169. Moylan, HB; Carriço, CK; Lindauer, SJ; Tüfekçi, E. Precisão de um aplicativo de monitoramento de tratamento ortodôntico baseado em smartphone : um estudo
piloto. Ortodoxa Angular. 2019, 89, 727–733. (Em inglês) [CrossRef] [Pub Med]
170. Ferlito, T.; Hsiou, D.; Hargett, K.; Herzog, C.; Bachour, P.; Katebi, N.; Tokede, O.; Larson, B.; Masoud, MI Avaliação do monitoramento remoto baseado em
inteligência artificial da terapia com alinhadores transparentes: Um estudo prospectivo. Sou. J. Orthod. Dentofac. Ortop. 2023, 164, 194–200. (Em inglês)
[CrossRef] [Pub Med]
171. Candemir, S.; Nguyen, XV; Fólio, LR; Prevedello, LM Estratégias de treinamento para modelos de aprendizagem profunda em radiologia em cenários com dados
limitados. Radiol. Artefato. Intel. 2021, 3, e210014. (Em inglês) [CrossRef] [Pub Med]
172. Ge, Y.; Guo, Y.; Das, S.; Al-Garadi, MA; Sarker, A. Aprendizagem rápida para textos médicos: uma revisão de avanços, tendências e
oportunidades. J. Biomédica. Informar. 2023, 144, 104458. (Em inglês) [CrossRef]
173. Langnickel, L.; Fluck, J. Ainda não estamos prontos: Limitações da aprendizagem por transferência para reconhecimento de entidades nomeadas por doenças.
bioRxiv 2021. (Em inglês) [CrossRef]
174. Frid-Adar, M.; Diamante, I.; Klang, E.; Amitai, M.; Goldberger, J.; Greenspan, H. Aumento de imagem médica sintética baseada em GAN para aumento do
desempenho da CNN na classificação de lesões hepáticas. Neurocomputação 2018, 321, 321–331. [RefCruz]
175.Zhang , K.; Canção, X.; Zhang, C.; Yu, S. Desafios e direções futuras da aprendizagem federada segura: uma pesquisa. Frente. Computação. Ciência.
2022, 16, 165817. [CrossRef]
176. Wolff, J.; Matschinske, J.; Baumgart, D.; Pytlik, A.; Keck, A.; Natarajan, A.; von Schacky, CE; Pauling, JK; Baumbach, J. Aprendizado de máquina federado para
uma implementação facilitada de Inteligência Artificial na área de saúde - Um estudo de prova de conceito para a previsão de pontuações de calcificação da
artéria coronária. J. Integr. Bioinformar. 2022, 19, 20220032. [CrossRef]
177. Attaran, M. Tecnologia Blockchain em saúde: Desafios e oportunidades. Internacional J. Saúde. Gerenciar. 2022, 15, 70–83. [RefCruz]
178. Tagde, P.; Tagde, S.; Bhattacharya, T.; Tagde, P.; Chopra, H.; Akter, R.; Kaushik, D.; Rahman, MH Blockchain e tecnologia de inteligência artificial em e-Health.
Meio Ambiente. Ciência. Poluição. Res. 2021, 28, 52810–52831. [RefCruz] [Pub Med]
179. Rieke, N.; Hancox, J.; Lee, W.; Milletari, F.; Roth, RH; Albarqouni, S.; Bakas, S.; Galtier, Minnesota; Landman, BA; Maier-Hein, K.; e outros.
O futuro da saúde digital com aprendizagem federada. Dígito NPJ. Med. 2020, 3, 119. [CrossRef]
180. Allareddy, V.; Rampa, S.; Venugopalan, SR; Elnagar, MH; Lee, MK; Oubaidin, M.; Yadav, S. Tecnologia Blockchain e aprendizado de máquina federado para
iniciativas colaborativas em ortodontia e saúde craniofacial. Ortodoxa. Res. Craniofacial. 2023. (Em inglês) [CrossRef] [Pub Med]

181. Norgeot, B.; Quer, G.; Beaulieu-Jones, BK; Torkamani, A.; Dias, R.; Gianfrancesco, M.; Arnaout, R.; Kohane, IS; Saria, S.; Topol, E.; e outros. Informações
mínimas sobre modelagem clínica de inteligência artificial: A lista de verificação MI-CLAIM. Nat. Med. 2020, 26, 1320–1324. (Em inglês) [CrossRef]

182. Singh, A.; Sengupta, S.; Lakshminarayanan, V. Modelos explicáveis de aprendizagem profunda em análise de imagens médicas. J. Imagem 2020, 6, 52.
[RefCruz]
183. Naz, Z.; Khan, CANECA; Sabá, T.; Rehman, A.; Nobanee, H.; Bahaj, SA Uma estrutura explicável habilitada para IA para interpretação
Doenças Pulmonares em Radiografias de Tórax. Cânceres 2023, 15, 314. (Em inglês) [CrossRef]
184. Selvaraju, RR; Das, A.; Vedantam, R.; Cogswell, M.; Parikh, D.; Batra, D. Grad-CAM: Por que você disse isso? arXiv 2016,
arXiv:1611.07450.
185. Selvaraju, RR; Cogswell, M.; Das, A.; Vedantam, R.; Parikh, D.; Batra, D. Grad-cam: Explicações visuais de redes profundas por meio de localização baseada
em gradiente. Em Anais da Conferência Internacional IEEE sobre Visão Computacional, Veneza, Itália, 22–29 de outubro de 2017.

186. Zeiler, MD; Fergus, R. Visualizando e compreendendo redes convolucionais. Em Procedimentos de Visão Computacional - ECCV
2014: 13ª Conferência Europeia, Zurique, Suíça, 6–12 de setembro de 2014. Anais, Parte I 13.
187. Bao, C.; Pu, Y.; Zhang, Y. Rede Neural de Retropropagação Profunda de Ordem Fracionária. Computação. Intel. Neurosci. 2018, 2018, 7361628.
(Em inglês) [CrossRef] [Pub Med]
Machine Translated by Google

Saúde 2023, 11, 2760 27 de 27

188. Wang, K.; Yang, B.; Li, Q.; Liu, S. Avaliação Sistemática de Algoritmos de Predição Genômica para Predição Genômica e Melhoramento
de Animais Aquáticos. Genes 2022, 13, 2247. (Em inglês) [CrossRef] [Pub Med]
189. Xi, J.; Wang, M.; Li, A. Descobrindo genes condutores mutados por meio de uma estrutura de fatoração de matriz co-regularizada robusta e esparsa
com informações prévias de padrões de expressão de mRNA e rede de interação. BMC Bioinform. 2018, 19, 214. (Em inglês) [CrossRef]

190. Leite, AF; Gerven, AV; Willems, H.; Beznik, T.; Lahoud, P.; Gaêta-Araújo, H.; Vranckx, M.; Jacobs, R. Nova ferramenta baseada em
inteligência artificial para detecção e segmentação de dentes em radiografias panorâmicas. Clin. Investigação Oral. 2021, 25, 2257–2267. (Em inglês)
[RefCruz]
191. Kittichai, V.; Kaewthamasorn, M.; Thanee, S.; Jomtarak, R.; Klanboot, K.; Naing, KM; Tongloy, T.; Chuwongin, S.; Boonsang, S.
Classificação dos estágios sanguíneos do parasita da malária aviária Plasmodium gallinaceum usando redes neurais convolucionais profundas. Ciência.
Rep. 2021, 11, 16919. (Em inglês) [CrossRef] [Pub Med]
192. Borzabadi-Farahani, A. Uma visão sobre quatro índices de necessidade de tratamento ortodôntico. Programa. Ortodoxa. 2011, 12, 132–142. (Em inglês)
[RefCruz] [Pub Med]
193. Borzabadi-Farahani, A.; Elamipur, F.; Shahmoradi, M. Necessidades funcionais de sujeitos com deformidades dentofaciais: Um estudo utilizando o
índice de necessidade de tratamento funcional ortognático (IOFTN). J. Plast. Reconstrução Esteta. Surg. 2016, 69, 796–801. (Em inglês)
[RefCruz] [Pub Med]

Isenção de responsabilidade/Nota do editor: As declarações, opiniões e dados contidos em todas as publicações são exclusivamente de responsabilidade
do (s) autor(es) e colaborador(es) individual(is) e não do MDPI e/ou do(s) editor(es). O MDPI e/ou o(s) editor(es) se isentam de responsabilidade por qualquer
dano a pessoas ou propriedades resultante de quaisquer ideias, métodos, instruções ou produtos mencionados no conteúdo.

Você também pode gostar