Escolar Documentos
Profissional Documentos
Cultura Documentos
assistência médica
Análise
1
Divisão de Odontopediatria e Ortodontia, Faculdade de Odontologia, Universidade de Hong Kong, RAE de
Hong Kong, China; u3009390@connect.hku.hk Divisão
2
de Ciências Dentárias Restauradoras, Faculdade de Odontologia, Universidade de Hong Kong,
RAE de Hong Kong, China; zhangcf@hku.hk
* Correspondência: shanzhiy@hku.hk
Resumo: Nos últimos anos, tem havido a notável emergência da inteligência artificial (IA) como uma força transformadora
em múltiplos domínios, incluindo a ortodontia. Esta revisão tem como objetivo fornecer uma visão abrangente do estado
atual das aplicações de IA em ortodontia, que pode ser categorizada nos seguintes domínios: (1) diagnóstico, incluindo
análise cefalométrica, análise dentária, análise facial, determinação do estágio de maturação esquelética e avaliação
superior. -avaliação de obstrução de vias aéreas; (2) planejamento do tratamento, incluindo tomada de decisão para
extrações e cirurgia ortognática, e previsão do resultado do tratamento; e (3) prática clínica, incluindo orientação prática,
atendimento remoto e documentação clínica. Temos assistido a uma ampliação da aplicação da IA na ortodontia,
acompanhada de avanços no seu desempenho. Além disso, esta revisão descreve as limitações existentes no campo e
oferece perspectivas futuras.
1. Introdução
Uma série de estudos mostrou que a IA pode aumentar significativamente a eficiência da prática
clínica ortodôntica [20,21]. Vários programas de software orientados por IA disponíveis comercialmente
(3Shape Dental System 2.22.0.0, Uceph 4.2.1, Mastro 3D V6.0 etc.) encontraram aplicações generalizadas
no tratamento ortodôntico. Com o avanço contínuo dos algoritmos de IA, das capacidades computacionais
e da crescente disponibilidade de conjuntos de dados, o escopo das aplicações de IA em ortodontia está
se expandindo, acompanhado pela melhoria contínua do desempenho. Manter- se atualizado sobre os
mais recentes desenvolvimentos de aplicações de IA em ortodontia por meio de resumos oportunos ajuda
os pesquisadores a obter uma compreensão rápida e precisa deste campo. Além disso, apesar da
obtenção de resultados encorajadores, ainda há espaço significativo para progresso na aplicação da IA
em ortodontia. Portanto, esta revisão fornece um resumo abrangente do estado atual das aplicações de
IA em ortodontia, abrangendo diagnóstico, planejamento de tratamento e prática clínica. Além disso, a
revisão discute as limitações atuais da IA e oferece perspectivas futuras, com o objetivo de oferecer
insights valiosos para a integração da IA na prática ortodôntica.
Teste 1:
ERM: 1,12 ± 0,88 mm.
SDR dentro de 2, 2,5, 3 e 4 mm:
150/100 86,91%, 91,82%, 94,88% e 97,90%,
Zhong et al. Lateral (adicional respectivamente.
19/0 Rede U
(2019) [30] cefalogramas 150 imagens do que Teste 2:
conjunto de validação). ERM: 1,42 ± 0,84 mm.
SDR dentro de 2, 2,5, 3 e 4 mm:
76,00%, 82,90%, 88,74% e 94,32%,
respectivamente.
Comercialmente
disponível
baseado na web Os resultados obtidos do CephX e
Alqahtani et al. Lateral
-/30 16/16 plataforma (CephX, a marcação manual não exibiu
(2020) [37] cefalogramas
https://www.orca- diferenças clinicamente significativas.
ai.com/ , acessado
em 23 de agosto de 2023)
Erro médio de referência: 1,53 ± 1,74 mm.
Lee et al. (2020) Lateral SDR dentro de 2, 3 e 4 mm: 82,11%,
150/250 19/8 CNN Bayesiana
[38] cefalogramas 92,28% e 95,95%, respectivamente.
Precisão de classificação: 72,69 ~ 84,74.
Quatro esqueléticos Sensibilidade, especificidade e precisão
Yu et al. (2020) Lateral
Um total de 5.890 classificação CNN multimodal para esqueleto vertical e sagital
[39] cefalogramas indicadores. classificação: >90%.
Machine Translated by Google
Tabela 1. Cont.
2610/100
Kim et al. (440 imagens Erro geral de detecção: 1,36
20/0 Cascata CNN
(2021) [24] Cefalogramas laterais adicionais do ± 0,98 mm.
conjunto de validação)
Plataforma
baseada
na web Coeficiente de correlação intraclasse:
Mahto et al. disponível 7 parâmetros >0,9 (excelente
-/30 18/12
(2022) [48] Cefalogramas laterais comercialmente concordância), 5 parâmetros: 0,75~0,9
(WebCeph, https: // (boa concordância).
webceph.com,
acessado em 23 de agosto de 2023)
1360/180
ERM: 3,4 ± 1,57 mm.
Uÿgurlu et al. (140 imagens
21/0 CNN (FARNet) SDR dentro de 2, 2,5, 3, 4 mm: 76,2%,
(2022) [49] Cefalogramas laterais adicionais além do
83,5%, 88,2%, 93,4%, respectivamente.
conjunto de validação)
Tabela 1. Cont.
Comercialmente
disponível baseado na web
Reconstruído
Kim et al. Posteroanterior ERM: 2,23 ± 2,02 mm
345/85 23/0 CNN em vários estágios
(2021) [57] cefalogramas SDR dentro de 2 mm: 60,88%.
da TCFC
Torosdagli et al. TCFC Um total de 50 Geodésica profunda Erros no espaço de pixels: <3 pixels para
9/0
(2019) [60] aprendizado todos os marcos.
Yun et al.
TCFC 230/25 93/0 CNN Erro médio ponto a ponto: 3,63 mm.
(2020) [61]
Tabela 1. Cont.
Para pontos de
referência: MRE: 1,0 ± 1,3 mm.
128/38
SDR dentro de 2, 2,5 e 3 mm: 90,4%, 93,6%
Ponto et al. (2022) (32 imagens
TC 33/15 SCN e 95,4%, respectivamente.
[64] adicionais como Para medições:
conjunto de validação).
Erros médios: ÿ0,3 ± 1,3ÿ (angular), ÿ0,1 ±
0,7 mm (linear).
Blum et al.
TCFC 931/114 35/0 CNN Erro médio: 2,73 mm.
(2023) [65]
ERM, erro radial médio; SDR, taxa de detecção de sucesso; YOLOv3, você só olha uma vez versão 3; SSD, detector multicaixa de disparo
único ; SCR, taxas de classificação de sucesso; DACFL, aprendizado profundo de recursos de contexto anatômico; TCFC, tomografia
computadorizada de feixe cônico; GCN, redes convolucionais de grafos, FARNet, rede de agregação e refinamento de recursos ; DRL,
aprendizagem por reforço profundo; TC, tomografia computadorizada; SCN, SpatialConfiguration-Net.
aprendizagem (capacidade de tomada de decisão), também atraiu atenção por seu desempenho na
localização 3D [74–76]. Kang et al. utilizou DRL de múltiplos estágios para detecção automatizada de
pontos de referência em 3D. O algoritmo DRL alcançou um erro médio de detecção de 1,96 ± 0,78 mm
para pontos de referência, com 58,99% e 95,70% da taxa de detecção caindo na faixa de 2 mm e 4 mm
[62]. No entanto, o progresso atual na análise cefalométrica 3D automatizada concentra-se
predominantemente na detecção de pontos de referência, com ênfase limitada em medições lineares e
angulares. Prevê-se que os avanços futuros abordarão esta
limitação.
prever a idade esquelética [88–90]. Vários estudos de pesquisa revelaram que o método de
maturação vertebral cervical (CVM) também é eficaz para estimativa de crescimento e se
correlaciona altamente com o método de radiografia de mão-punho [91–96]. Portanto, para
minimizar a exposição desnecessária à radiação, a radiografia mão-punho não é usada
rotineiramente na prática clínica ortodôntica [97,98]. Em vez disso, o método CVM, que avalia o
tamanho e a forma das vértebras cervicais através de cefalogramas laterais, tornou-se cada vez
mais popular na previsão da maturação esquelética [91–96]. A aplicação da IA na avaliação da
maturação esquelética utilizando cefalogramas laterais foi resumida na Tabela 2 [91,98–107].
Treinamento:
Makaremi et al. O desempenho variou dependendo dos
360/600/900/1870
CNN números das imagens e do método de pré-
(2019) [100] Cefalogramas laterais Avaliação: 300
processamento.
Teste: 300
Precisão:
Amasya et al. LR, SVM, RF, RNA,
498/149 LR: 78,69%, SVM: 81,08%, RF: 82,38%, RNA:
(2020) [101] Cefalogramas laterais DT
86,93%, DT: 85,89%.
Pontuação de exatidão/precisão/recuperação/
F1: ResNet-18: 0,927 ± 0,025/ 0,808 ±
0,094/0,808 ± 0,065/0,807 ± 0,074.
MobileNet-v2: 0,912 ± 0,022/0,775 ± 0,111/0,773
ResNet-18, ± 0,040/0,772 ± 0,070.
MobileNet-v2, ResNet-50: 0,927 ± 0,025/0,807 ± 0,096 /
Seo et al. Lateral ResNet-50, 0,808 ± 0,068/0,806 ± 0,075.
Um total de 600
(2021) [103] cefalogramas ResNet-101, ResNet-101: 0,934 ± 0,020/0,823 ±
início-v3, 0,113/0,837 ± 0,096/0,822 ± 0,054.
Inception-ResNet-v2 Início-v3: 0,933 ± 0,027/0,822 ± 0,119 /0,833
± 0,100/0,821 ± 0,082.
Inception-ResNet-v2: 0,941 ±
0,018/0,840 ± 0,064 /0,843 ±
0,061/0,840 ± 0,051.
ResNet-18, ResNet-50,
ResNet-101,
ResNet-152, VGG19,
692/99 ResNeXt-101 mostrou o melhor teste
Rahimi et al. DenseNet,
(99 imagens adicionais ao precisão:
(2022) [106] Cefalogramas laterais ResNeXt-50,
conjunto de validação). Seis classes: 61,62%, três classes: 82,83%.
ResNeXt-101,
MobileNetV2,
InceptionV3.
Machine Translated by Google
Tabela 2. Cont.
Rede de segmentação:
Precisão global: 0,99.
Pontuação média dos dados: 0,93.
Rede de classificação:
Precisão: 0,802.
1201/150
Radwan et al. Sensibilidade
(150 imagens
U-Net, Alex-Net (pré-púbere/púbere/pós-púbere): 0,78/0,45/0,98.
(2023) [107] cefalogramas laterais adicionais ao
Especificidade (pré-púbere/
conjunto de validação).
púbere/pós-púbere): 0,94/0,94/0,75.
Pontuação F1
(pré-púbere/púbere/pós-púbere): 0,76/0,57/0,90.
Kok et al. utilizou sete algoritmos diferentes de aprendizado de máquina para determinar os estágios do
CVM [99]. Os resultados mostraram que esses algoritmos exibiram níveis variados de precisão na previsão de
diferentes estágios do CVM, mas a RNA foi considerada o algoritmo mais estável, com uma classificação média
de 2,17 na determinação de todos os estágios do CVM [99]. Da mesma forma, Amasya et al. desenvolveu e
comparou o desempenho de cinco algoritmos de ML na análise CVM, e o modelo RNA provou ser melhor na
classificação do que os outros quatro algoritmos (árvore de decisão, floresta aleatória, regressão logística e
máquina de vetores de suporte) [101]. A mesma equipe comparou ainda este modelo de RNA com quatro
observadores humanos independentes para automatizar os estágios de maturação vertebral cervical, mas
alcançou apenas uma média de 58,3% de concordância com os observadores [102]. Vários estudos empregaram
modelos CNN para previsão de CVM, e diferentes graus de precisão foram obtidos [98,105,106]. Makaremi et
al. apontou que uma distribuição igual de imagens em todos os estágios do CVM é benéfica para melhorar a
precisão da CNN [100]. Zhou et al. aumentou o tamanho da amostra para aumentar a confiabilidade dos
resultados [104]. Seo et al. comparou de forma pioneira seis modelos CNN não supervisionados e utilizou um
mapa de ativação de classe ponderada por gradiente (Grad-CAM) para visualizar os modelos [103]. Os
resultados indicaram que todos os algoritmos alcançaram uma taxa de precisão superior a 90%, com Inception-
ResNet-v2 apresentando o melhor desempenho com precisão de 0,941 ± 0,018% . Além disso, os Grad-CAMs
mostraram que o Inception-ResNet-v2 focava em várias vértebras cervicais, ao contrário da maioria dos outros
algoritmos que focavam principalmente na terceira vértebra cervical. Radwan et al. também usou o modelo CNN
e o método de aprendizagem não supervisionado para prever os estágios do CVM, com um tamanho de amostra
maior e um conjunto de dados de validação para ajustar o algoritmo. No entanto, a rede de classificação obteve
apenas uma precisão de 0,802 [107].
Em resumo, as RNAs receberam muita atenção e reconhecimento nos primeiros anos, mas nos últimos anos,
as CNNs tornaram-se gradualmente mais proeminentes em tarefas relacionadas a imagens. Com melhorias
contínuas nos algoritmos, espera-se alcançar resultados mais encorajadores no futuro.
488/116
Adenóide Precisão de classificação: 95,6%.
Shen et al. (64 imagens
CNN detecção de Erro médio da relação AN: 0,026.
(2020) [109] Cefalogramas laterais adicionais além do hipertrofia Pontuação Macro F1: 0,957.
conjunto de validação)
Sensibilidade: 0,898.
Detecção Especificidade: 0,882.
Liu et al. (2021) [111]
923/100 VGG-Lite de hipertrofia Valor preditivo positivo: 0,880.
Cefalogramas laterais adenoideana Valor preditivo negativo: 0,900.
Pontuação F1: 0,889.
214/46
Segmentação Proporção de dados: 0,919
Sin et al. (2021) [112] (46 imagens
TCFC CNN das vias
adicionais além do IoU ponderado: 0,993.
aéreas faríngeas
conjunto de validação)
Cavidade sinonasal e
Leonardo et al. Porcentagem média de
TCFC CNN segmentação das
20/20 correspondência (tolerância 0,5 mm/
(2021) [113] vias
1,0 mm): 85,35 ± 2,59/93,44 ± 2,54
aéreas faríngeas
Sensibilidade: 0,86.
Avaliação da Especificidade: 0,89.
Jeong et al. CNN obstrução das
1099/120 Valor preditivo positivo: 0,90.
(2023) [115] Cefalogramas laterais vias aéreas superiores Valor preditivo negativo: 0,85, pontuação
F1: 0,88.
ROC, característica operacional do receptor; TCFC, tomografia computadorizada de feixe cônico; CNN, Rede Neural
Convolucional ; AN, adenoide-nasofaringe; IoU, Intersecção sobre União; HMSAU-Net, máscaras hierárquicas de autoatenção
U-net; 3D, tridimensional.
2.2. Planejamento do
Tratamento O tratamento ortodôntico requer processos de tomada de decisão cautelosos que são a
pedra angular de um resultado satisfatório do tratamento, como o plano de extração dentária e a possibilidade
de intervenções cirúrgicas. Espera-se que a IA ajude os ortodontistas, especialmente aqueles inexperientes,
na tomada de decisões corretas. A aplicação da IA no planeamento do tratamento está resumida na Tabela 4
[78,121–141].
Variáveis
cefalométricas, 64/60 Para prever a Taxa de sucesso:
Jung et al. variáveis dentárias, (32 amostras extração dentária Diagnóstico de extração dentária:
ANN
(2016) [122] variáveis de perfil e queixa adicionais ao conjunto diagnóstico e 93%.
Tabela 4. Cont.
Precisão:
Sexo, variáveis
Software disponível 93,9%: modelo de entrada e
do modelo, Para prever a
Real et al. dados cefalométricos.
variáveis -/214 extração dentária
(2022) [127] comercialmente 87,4%: inserir apenas dados do modelo.
cefalométricas, variáveis diagnóstico.
(Auto-WEKA) 72,7%: inserir apenas
de desfecho.
dados cefalométricos.
Variáveis
cefalométricas, Precisão geral: FR:
Leavitt et al. Para prever padrões
variáveis 256/110 RF, LR, SVM 54,55%, SVM: 52,73%, LR: 49,09%.
(2023) [128] de extração dentária.
dentárias,
características demográficas.
ResNet Precisão:
Maxila: VGG19 (0,922) >
(ResNet50,
Fotografias Para prever a ResNet101 (0,915) > VGG16 (0,910)
Ryu et al. ResNet101),
intraorais, decisão 2736/400 extração dentária > ResNet50 (0,909).
(2023) [78] VggNet
de extração. diagnóstico. Mandíbula: VGG19 (0,898) = VGG16
(VGG16, e
(0,898) > ResNet50 (0,895) >
VGG19)
ResNet101 (0,890).
Tabela 4. Cont.
Um total de
822 amostras. Precisão: 0,893.
Para prever a necessidade Precisão: 0,912.
Jeong et al. Fotos faciais Grupo 1: CNN de ortognática Lembre-se: 0,867.
(2020) [133] (frente e direita). 207/204.
cirurgia. Pontuações de F1: 0,889.
Grupo 2:
205/206
Um total de
840 amostras.
Grupo 1:
273/304
Prever o
(30 amostras Precisão: 0,954.
Shin et al. Cefalogramas laterais e diagnóstico da
adicionais ao conjunto CNN Sensibilidade: 0,844.
(2021) [134] cefalogramas cirurgia
de validação). Especificidade: 0,993.
póstero-anteriores. ortognática.
Grupo 2: 98/109 (11
amostras
adicionais ao
conjunto de validação)
CNN Prever o
Kim et al. Precisão para conjunto de dados
diagnóstico da
810/150 (ResNet-18, 34, de teste: ResNet-18/34/50/101:
(2021) [135] Cefalogramas laterais. cirurgia
50, 101) 93,80%/93,60%/91,13%/91,33%.
ortognática.
Medidas
cefalométricas, Precisão (RF/LR): 90%/78%.
Prever o
Lee et al. características Sensibilidade (RF/LR):
diagnóstico da
demográficas, 136/60 RF, LR 84%/89%.
(2022) [136] cirurgia
análise dentária e Especificidade (FR/LR):
queixa ortognática.
93%/73%.
principal.
Machine Translated by Google
Tabela 4. Cont.
Três
comercialmente
disponível Erro médio de três softwares:
Programas Para avaliar o
Woo et al. pacotes precisão da Movimento linear:
Dados de digitalização intraoral -/30
(2023) [137] (Autolign, precisão da configuração 0,39~1,40mm.
Resultado digital automatizada. Movimento angular: 3,25
Simulador Pró ~ 7,80ÿ .
Orto
Simulação)
Prever as
alterações
Park et al. Um total de cefalométricas de Erro médio total: 1,79
CNN (U-Net)
(2021) [138] Cefalogramas laterais 284 casos pacientes com Classe II ± 1,77 mm.
após utilização de placas
C-palatinas modificadas.
RNA, rede neural artificial; DT, árvore de decisão; RF, floresta aleatória; LR, regressão logística; SVM, máquina de vetores de
suporte; NB, bayes ingênuos; KNN, k-vizinhos mais próximos; MLP, perceptron multicamadas; XGB, reforço de gradiente
extremo; RR, regressão da crista; LARS, regressão de mínimo ângulo; LASSO, retração mínima absoluta e regressão do
operador de seleção; CNN, rede neural convolucional; TCFC, tomografia computadorizada de feixe cônico; cGAN, redes
adversárias geradoras condicionais.
Além disso, o algoritmo proposto alcançou uma precisão de 92% na previsão de padrões de
ancoragem [123].
Diferentes algoritmos de aprendizado de máquina têm seus próprios pontos fortes e fracos.
Por exemplo, floresta aleatória (RF) e máquina de vetores de suporte (SVM) são frequentemente
usadas para tarefas de classificação e regressão, e a regressão logística (LR) é mais adequada para
tarefas de classificação binária [143–145]. Vários estudos utilizaram diferentes algoritmos de
aprendizagem automática para determinar planos de extração dentária [124–126,128]. Os resultados
da pesquisa de Shojaei et al. indicou que, em comparação com alguns algoritmos tradicionais de
aprendizado de máquina, as RNAs demonstraram vantagens significativas na tomada de decisões
para padrões de extração e ancoragem [ 126]. Leavitt et al. comparou três algoritmos de aprendizado
de máquina (RF, LR e SVM) para prever padrões de extração, mas suas precisões gerais não foram
muito satisfatórias, com o SVM alcançando a maior precisão de 54,55% [128]. Embora a RF possa
atuar como um método de conjunto para prevenir o sobreajuste e tenha tido um bom desempenho
em alguns estudos, ainda são necessárias mais pesquisas para substanciar ainda mais a sua
eficácia [124,125]. Os modelos mencionados acima usaram valores de medição manual em vez de
imagens como dados de entrada. Recentemente, Ryu et al. empregou fotografias intraorais e
decisões de extração como dados de entrada e utilizou quatro algoritmos CNN para construir um
modelo de previsão de extração dentária. Os resultados indicaram que o VGG19 teve a maior
precisão de previsão tanto na maxila (0,922) quanto na mandíbula (0,898) [78]. Em resumo, vários
estudos utilizaram IA para tomada de decisão durante extrações. A maioria desses estudos utilizou
as medidas extraídas dos pacientes como dados de entrada. No entanto, o número variável de
medidas utilizadas em diferentes estudos pode resultar em comparabilidade relativamente baixa
entre os resultados. No geral, as RNAs demonstraram o melhor desempenho na tomada de decisão
para extrações. Porém, com mudanças no tipo de dados de entrada, como imagens radiográficas,
outros algoritmos como CNNs podem apresentar melhores desempenhos.
tipo abrangente de casos, especialmente casos mais limítrofes, que prometem melhorar
as capacidades de diagnóstico da IA.
2.2.3. Previsão do resultado do tratamento
A sobremordida profunda é uma das más oclusões mais comuns e difíceis de corrigir no tratamento
ortodôntico [161]. El-Dawlatly et al. propuseram um sistema de apoio à decisão baseado em computador
para orientação de tratamento de sobremordida profunda, treinado pelas mudanças reais de tratamento
(152). Em vez de responder questões binárias, o modelo pode fornecer um protocolo de tratamento
detalhado para correção de sobremordida profunda a partir de sete aspectos, como intrusão ou proclinação
de incisivos, nivelando a curva de Spee. Com uma alta taxa de sucesso de 94,40%, espera-se que este
modelo auxilie a ortodontia na correção de sobremordidas profundas no futuro.
O 3D U-Net, um algoritmo de aprendizado profundo, é amplamente utilizado na segmentação de imagens 3D.
Como uma versão modificada do 3D U-Net, o 3D U-Net com módulos de compressão e excitação (3D-
UnetSE) alcançou melhor desempenho na captura de recursos de alto nível [153,162]. A estabilidade dos
mini-implantes palatinos está associada aos tecidos duros e moles [163,164]. Tao et al. utilizou com
sucesso o 3D-UnetSE para realizar a segmentação automatizada e medição da espessura do osso do
palato e tecidos moles por meio de TCFC. Além disso, os locais ideais para mini-implantes palatinos foram
previstos com base na espessura do osso e dos tecidos moles [153].
Monitorar a posição da raiz do dente durante todo o tratamento ortodôntico é essencial para
melhor prevenir resultados adversos e avaliar a eficácia do tratamento. Contudo, os métodos
convencionais , sejam TCFC ou filmes panorâmicos, aumentam a exposição à radiação. Hu et al. e
Lee et al. usou aprendizado profundo para segmentar com precisão os dentes em tomografias
computadorizadas e fundiu os dentes segmentados com coroas dentárias escaneadas intraorais para
construir modelos dentários integrados [154,155]. Desta forma, os ortodontistas podem determinar a
posição das raízes dos dentes apenas com base em exames intraorais. Esses dois estudos mostraram
o desempenho promissor na predição da posição dentária; com a melhoria contínua na precisão da
segmentação dentária, espera-se que os modelos integrados sejam amplamente aplicados na prática clínica.
Fotos clínicas e radiografias são rotineiramente tiradas para diagnóstico e monitoramento do tratamento.
A IA pode auxiliar na classificação e categorização dessas imagens, aumentando assim a eficiência da prática
clínica. Ryu et al. aplicaram CNNs para classificar automaticamente fotografias faciais e intraorais, incluindo
quatro fotos faciais e cinco fotos intraorais. O modelo CNN obteve uma taxa geral de previsão válida de 98%
[159]. Li et al. empregou um modelo de aprendizagem profunda baseado em Deep Hidden IDentity (DeepID) e
expandiu as categorias de imagens ortodônticas para um total de 14, compreendendo 6 imagens faciais, 6
imagens intraorais, 1 filme panorâmico e 1 cefalograma lateral. O modelo proposto utilizou redes convolucionais
profundas para extração de características e bayesianas conjuntas para o processo de verificação. Como
resultado, o modelo DeepID não apenas atingiu uma alta precisão de 99,4%, mas também melhorou
significativamente a velocidade computacional [160].
Em primeiro lugar, a escassez e a baixa generalização dos dados de formação tornam a investigação
actual menos fiável. Tomando como exemplo os estudos incorporados nesta revisão, alguns modelos de IA
usados para auxiliar a tomada de decisões não incluíam uma gama diversificada de tipos de casos
representativos nos dados de treinamento; embora obtenham precisão promissora, sua previsão para esses
tipos raros de deformidades é questionável. A obtenção de uma quantidade significativa de dados de alta
qualidade continua a ser um desafio, especialmente dados que requerem anotação manual por especialistas experientes.
Espera-se que uma série de medidas aliviem a gravidade da insuficiência de dados, tais como aprendizagem
por transferência, aumento de dados, aprendizagem semissupervisionada e aprendizagem de poucas tentativas.
No entanto, a eficácia destes métodos permanece limitada [171,172]. A aprendizagem por transferência refere-
se à aplicação de modelos pré-treinados em um domínio diferente, mas relacionado, reduzindo assim a
dependência de extensos dados de treinamento. No entanto, esta abordagem pode apresentar baixas
capacidades de generalização quando aplicada a um novo domínio [173]. O aumento de dados pode aumentar
o tamanho da amostra alterando as características dos dados existentes ou gerando imagens sintéticas, mas
não pode melhorar a diversidade na variabilidade biológica [171,174]. A aprendizagem semissupervisionada
é adequada quando os dados anotados são limitados, mas ainda são necessários dados anotados de alta
qualidade e dados não anotados suficientes [171]. Para a aprendizagem de poucas tentativas, a falta de
dados especializados e de estruturas de avaliação padrão pode dificultar a sua aplicação futura [172].
Hoje em dia, devido a preocupações éticas e questões de proteção de dados, a partilha de dados ainda é um
desafio . Os modelos de IA treinados com dados de baixa generalização seriam tendenciosos. A aprendizagem
federada é uma abordagem de aprendizagem de máquina distribuída e descentralizada que permite a
colaboração entre sites sem compartilhar dados diretamente [175,176]. Blockchain, como um banco de dados
compartilhado distribuído transparente, seguro e imutável, fornece uma plataforma segura para
compartilhamento e armazenamento de dados [177,178]. Espera-se que a combinação da tecnologia
blockchain e aprendizagem federada facilite o compartilhamento de dados através da colaboração multisite
sem comprometer a privacidade dos dados, fornecendo assim conjuntos de dados grandes e mais diversificados [179,18
Em segundo lugar, embora uma quantidade considerável de literatura tenha explorado a aplicação da IA
em ortodontia, continua a ser um desafio comparar diretamente diferentes estudos devido a variações nos
desenhos dos estudos, tamanhos dos conjuntos de dados e métricas de avaliação. Para resolver esta questão,
Norgeot et al. propôs modelagem de informações mínimas sobre inteligência artificial clínica (MI-CLAIM), a fim
de introduzir graus comparáveis de transparência e eficácia na modelagem de IA clínica [181]. A lista de
verificação MI-CLAIM não só facilita a avaliação do impacto clínico do estudo de IA, mas também permite aos
investigadores replicar rapidamente o processo de concepção técnica.
Machine Translated by Google
4. Conclusões
Contribuições dos Autores: Conceituação, JL e ZS; redação – preparação do rascunho original, JL; redação – revisão e edição,
ZS e CZ; supervisão, ZS Todos os autores leram e concordaram com a versão publicada do manuscrito.
Referências
1. Kulikowski, CA Um capítulo de abertura da primeira geração de inteligência artificial em medicina: o primeiro workshop Rutgers AIM, junho de 1975. Anob. Med. Informar.
2015, 10, 227–233. (Em inglês) [CrossRef] [Pub Med]
2. Moravÿcík, M.; Schmid, M.; Burch, N.; Lisý, V.; Morril, D.; Bardo, N.; Davis, T.; Waugh, K.; Johanson, M.; Bowling, M. DeepStack: Inteligência artificial de nível especializado
em pôquer heads-up sem limite. Ciência 2017, 356, 508–513. (Em inglês) [CrossRef]
3. Wang, X.-L.; Liu, J.; Li, Z.-Q.; Luan, Z.-L. Aplicação de dados de exames físicos em análises de saúde e diagnósticos inteligentes.
BioMed Res. Internacional 2021, 2021, 8828677. [RefCruz]
4. Sharif, MS; Abbod, M.; Amira, A.; Zaidi, H. Sistema baseado em rede neural artificial para segmentação de volume PET. Internacional J.
Biomédica. Imaging 2010, 2010, 105610. (Em inglês) [CrossRef] [Pub Med]
Machine Translated by Google
5.Wang , D.; Yang, JS Análise do modelo de estimativa de lesões esportivas baseado em rede neural fuzzy de mutação. Computação. Intel.
Neurosci. 2021, 2021, 3056428. (Em inglês) [CrossRef] [Pub Med]
6. Ding, H.; Wu, J.; Zhao, W.; Matinlinna, JP; Toca, MF; Tsoi, JK Inteligência artificial em odontologia – uma revisão. Frente. Dente. Med.
2023, 4, 1085251. [RefCruz]
7. Chiu, YC; Chen, HH; Gorthi, A.; Mostavi, M.; Zheng, S.; Huang, Y.; Chen, Y. Aprendizado profundo de recursos farmacogenômicos:
Caminhando em direção à oncologia de precisão. Apresentação. Bioinformar. 2020, 21, 2066–2083. (Em inglês) [CrossRef]
8. Taye, MM Compreensão de aprendizado de máquina com aprendizado profundo: arquiteturas, fluxo de trabalho, aplicativos e futuro
Instruções. Computadores 2023, 12, 91. [CrossRef]
9. Mohammad-Rahimi, H.; Nadimi, M.; Rohban, MH; Shamsoddin, E.; Lee, VY; Motamedian, SR Aprendizado de máquina e ortodontia, tendências atuais e oportunidades
futuras: uma revisão do escopo. Sou. J. Orthod. Dentofac. Ortop. 2021, 160, 170–192.e174. (Em inglês) [CrossRef]
10. Krizhevsky, A.; Sutskever, I.; Hinton, GE Classificação ImageNet com redes neurais convolucionais profundas. Comum. ACM 2017,
60, 84–90. [RefCruz]
11. Li, Z.; Liu, F.; Yang, W.; Peng, S.; Zhou, J. Uma Pesquisa de Redes Neurais Convolucionais: Análise, Aplicações e Perspectivas.
IEEE Trans. Rede Neural. Aprender. Sist. 2022, 33, 6999–7019. (Em inglês) [CrossRef]
12. Thomas, D.; Monti, F.; Baroffio, L.; Bondi, L.; Tagliasacchi, M.; Tubaro, S. Redes neurais convolucionais profundas para pedestres
detecção. Processo de sinal. Imagem Comum. 2016, 47, 482–489. [RefCruz]
13. Zou, J.; Meng, M.; Direito, CS; Rao, Y.; Zhou, X. Doenças dentárias comuns em crianças e má oclusão. Internacional J. Ciência Oral. 2018, 10, 7.
(Em inglês) [CrossRef] [Pub Med]
14. Borzabadi-Farahani, A.; Borzabadi-Farahani, A.; Eslamipour, F. Má oclusão e características oclusais em uma população urbana iraniana.
Um estudo epidemiológico de crianças de 11 a 14 anos. EUR. J. Orthod. 2009, 31, 477–484. (Em inglês) [CrossRef]
15. Pedro, E.; Monisha, J.; Edward Benson, P.; Ani George, S. O tratamento ortodôntico melhora a qualidade de vida relacionada à saúde bucal quando avaliado usando
o Questionário de Impacto da Maloclusão - um estudo de coorte longitudinal prospectivo de 3 anos. EUR. J. Orthod.
2023. (Em inglês) [CrossRef] [Pub Med]
16. Ribeiro, LG; Antunes, LS; Kuchler, EC; Baratto-Filho, F.; Kirschneck, C.; Guimarães, LS; Antunes, LAA Impacto dos tratamentos de má oclusão na Qualidade de
Vida Relacionada à Saúde Oral: Uma visão geral das revisões sistemáticas. Clin. Investigação Oral. 2023, 27, 907–932. (Em inglês) [CrossRef]
17. Silva, TPD; Lemos, YR; Filho, MV; Carneiro, DPA; Vedovello, SAS Impacto psicossocial da má oclusão no desempenho escolar. Uma análise hierárquica. Dente
comunitário. Saúde 2022, 39, 211–216. (Em inglês)
18. Cenzato, N.; Nobili, A.; Maspero, C. Prevalência de más oclusões dentárias em diferentes áreas geográficas: revisão de escopo. Dente.
J. 2021, 9, 117. (Em inglês) [CrossRef]
19. Borzabadi-Farahani, A.; Borzabadi-Farahani, A.; Eslamipour, F. A relação entre o índice ICON e o índice odontológico e
componentes estéticos do índice IOTN. Mundo J. Orthod. 2010, 11, 43–48. (Em inglês)
20. Monill-González, A.; Rovira-Calatayud, L.; d’Oliveira, NG; Ustrell-Torrent, JM Inteligência artificial em ortodontia: onde estamos agora? Uma revisão de escopo.
Ortodoxo. Res. Craniofacial 2021, 24, 6–15. [RefCruz]
21. Albalawi, F.; Alamoud, KA Tendências e aplicação da tecnologia de inteligência artificial no diagnóstico ortodôntico e planejamento de tratamento – uma revisão. Apl.
Ciência. 2022, 12, 11864. [CrossRef]
22. Lucro, WR; Campos, HW; Larson, B.; Sarver, DM Ortodontia Contemporânea-e-Book; Elsevier Health Sciences: Amsterdã, The
Holanda, 2018.
23. Yue, W.; Yin, D.; Li, C.; Wang, G.; Xu, T. Análise cefalométrica 2-D automatizada em imagens de raios X por uma abordagem baseada em modelo.
IEEE Trans. Biomédica. Eng. 2006, 53, 1615–1623.
24. Kim, J.; Kim, eu.; Kim, YJ; Kim, M.; Cho, JH; Hong, M.; Kang, KH; Lim, SH; Kim, SJ; Kim, YH Precisão da identificação automatizada de marcos cefalométricos
laterais usando redes neurais convolucionais em cascata em cefalogramas laterais de multicentros nacionais. Ortodoxa. Res. Craniofacial. 2021, 24, 59–67.
[RefCruz] [Pub Med]
25. Baumrind, S.; Frantz, RC A confiabilidade das medições do filme da cabeça: 1. Identificação de pontos de referência. Sou. J. Orthod. 1971, 60, 111–127.
[RefCruz]
26. Durão, APR; Morosolli, A.; Pittayapat, P.; Bolstad, N.; Ferreira, AP; Jacobs, R. Variabilidade dos marcos cefalométricos entre ortodontistas e radiologistas
dentomaxilofaciais: Um estudo comparativo. Ciência da imagem. Dente. 2015, 45, 213–220. [RefCruz]
27. Cohen, AM; IP, HH; Linney, AD Um estudo preliminar de reconhecimento computacional e identificação de marcos esqueléticos como um novo método de análise
cefalométrica. Ir. J. Orthod. 1984, 11, 143–154. (Em inglês) [CrossRef] [Pub Med]
28. Pagador, C.; Štern, D.; Bischof, H.; Urschler, M. Integrando configuração espacial em CNNs baseadas em regressão de mapa de calor para localização de pontos de
referência. Med. Imagem Anal. 2019, 54, 207–219. (Em inglês) [CrossRef] [Pub Med]
29. Nishimoto, S.; Sotsuka, Y.; Kawai, K.; Ishise, H.; Kakibuchi, M. Detecção de marcos cefalométricos baseada em computador pessoal com aprendizado profundo,
usando cefalogramas na Internet. J. Cirurgia Craniofacial. 2019, 30, 91–95. (Em inglês) [CrossRef] [Pub Med]
30.Zhong , Z.; Li, J.; Zhang, Z.; Jiao, Z.; Gao, X. Um modelo de regressão profunda guiado pela atenção para detecção de pontos de referência em cefalogramas.
Em Proceedings of the Medical Image Computing and Computer Assisted Intervention – MICCAI 2019: 22nd International Conference, Shenzhen, China, 13–17
de outubro de 2019. Proceedings, Parte VI 22.
Machine Translated by Google
31. Parque, JH; Hwang, HW; Lua, JH; Yu, Y.; Kim, H.; Ela, SB; Srinivasan, G.; Aljanabi, MNA; Donatelli, RE; Lee, SJ
Identificação automatizada de pontos cefalométricos: Parte 1-Comparações entre os mais recentes métodos de aprendizagem profunda YOLOV3 e SSD.
Ortodoxa Angular. 2019, 89, 903–909. (Em inglês) [CrossRef] [Pub Med]
32. Lua, JH; Hwang, HW; Yu, Y.; Kim, MG; Donatelli, RE; Lee, SJ Quanto aprendizado profundo é suficiente para automação
identificação é confiável? Ortodoxa Angular. 2020, 90, 823–830. (Em inglês) [CrossRef]
33. Hwang, HW; Parque, JH; Lua, JH; Yu, Y.; Kim, H.; Ela, SB; Srinivasan, G.; Aljanabi, MNA; Donatelli, RE; Lee, SJ
Identificação automatizada de marcos cefalométricos: Parte 2 – Será melhor que o humano? Ortodoxa Angular. 2020, 90, 69–76. (Em inglês) [CrossRef]
34. Ah, K.; Ah, É; Le, VNT; Lee, DW Aprendizagem profunda de recursos de contexto anatômico para detecção de marcos cefalométricos. IEEE J.
Biomédica. Informação de Saúde. 2021, 25, 806–817. (Em inglês) [CrossRef]
35. Kim, H.; Shim, E.; Parque, J.; Kim, YJ; Lee, EUA; Kim, Y. Análise cefalométrica totalmente automatizada baseada na Web por aprendizado profundo. Computação.
Métodos Programas Biomédicos. 2020, 194, 105513. (Em inglês) [CrossRef] [Pub Med]
36. Kunz, F.; Stellzig-Eisenhauer, A.; Zeman, F.; Boldt, J. Inteligência artificial em ortodontia: Avaliação de uma análise cefalométrica totalmente automatizada usando
uma rede neural convolucional customizada. J. Orofac. Ortop. 2020, 81, 52–68. (Em inglês)
[RefCruz]
37. Alqahtani, H. Avaliação de uma plataforma online baseada em site para análise cefalométrica. J. Estomatol. Maxilofacial Oral. Surg. 2020,
121, 53–57. (Em inglês) [CrossRef] [Pub Med]
38. Lee, JH; Yu, HJ; Kim, MJ; Kim, JW; Choi, J. Detecção automatizada de pontos cefalométricos com regiões de confiança usando redes neurais convolucionais
bayesianas. BMC Oral Health 2020, 20, 270. (Em inglês) [CrossRef]
39. Yu, HJ; Cho, SR; Kim, MJ; Kim, WH; Kim, JW; Choi, J. Classificação Esquelética Automatizada com Cefalometria Lateral Baseada em Inteligência Artificial. J.
Dente. Res. 2020, 99, 249–256. (Em inglês) [CrossRef]
40. Li, W.; Lu, Y.; Zhen, K.; Lião, H.; Lin, C.; Luo, J.; Cheng, C.-T.; Xiao, J.; Lu, L.; Kuo, C.-F. Detecção estruturada de pontos de referência por meio de aprendizado
profundo de gráficos com adaptação à topologia. Em Proceedings of the Computer Vision –ECCV 2020: 16th European Conference, Glasgow, Reino Unido, 23–
28 de agosto de 2020. Proceedings, Parte IX 16.
41. Tanikawa, C.; Lee, C.; Lim, J.; OK, A.; Yamashiro, T. Aplicabilidade clínica da identificação automatizada de marcos cefalométricos: Parte I-Erros de identificação
relacionados ao paciente. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 43–52. (Em inglês) [CrossRef] [Pub Med]
42. Zeng, M.; Yan, Z.; Liu, S.; Zhou, Y.; Qiu, L. Redes convolucionais em cascata para detecção automática de pontos cefalométricos.
Med. Imagem Anal. 2021, 68, 101904. (Em inglês) [CrossRef]
43. Hwang, HW; Lua, JH; Kim, MG; Donatelli, RE; Lee, SJ Avaliação da análise cefalométrica automatizada com base nos mais recentes
método de aprendizagem profunda. Ortodoxa Angular. 2021, 91, 329–335. (Em inglês) [CrossRef]
44. Bulatova, G.; Kusnoto, B.; Graça, V.; Tsay, TP; Avenetti, DM; Sanchez, FJC Avaliação da identificação automática de marcos cefalométricos usando inteligência
artificial. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 37–42. (Em inglês) [CrossRef] [Pub Med]
45. Jeon, S.; Lee, KC Comparação de medidas cefalométricas entre análise cefalométrica convencional e automática
usando rede neural convolucional. Programa. Ortodoxa. 2021, 22, 14. (Em inglês) [CrossRef]
46.Hong , M.; Kim, eu.; Cho, JH; Kang, KH; Kim, M.; Kim, SJ; Kim, YJ; Cantado, SJ; Kim, YH; Lim, SH; e outros. Precisão da identificação de pontos de referência
assistida por inteligência artificial em cefalogramas laterais seriados de pacientes Classe III submetidos a tratamento ortodôntico e cirurgia ortognática de dois
maxilares. Coreano J. Orthod. 2022, 52, 287–297. (Em inglês) [CrossRef] [Pub Med]
47. Le, VNT; Kang, J.; Ah, É; Kim, JG; Yang, YM; Lee, DW Eficácia da Colaboração Humano-Inteligência Artificial em
Detecção de marco cefalométrico. J. Pers. Med. 2022, 12, 387. (Em inglês) [CrossRef] [Pub Med]
48. Mahto, RK; Kafle, D.; Giri, A.; Luintel, S.; Karki, A. Avaliação de medidas cefalométricas totalmente automatizadas obtidas de
plataforma baseada em inteligência artificial baseada na web. BMC Oral Health 2022, 22, 132. (Em inglês) [CrossRef]
49. Uÿgurlu, M. Desempenho de um algoritmo de inteligência artificial baseado em rede neural convolucional para cefalometria automática
Detecção de marcos. Turco. J. Orthod. 2022, 35, 94–100. (Em inglês) [CrossRef]
50. Yao, J.; Zeng, W.; Ele, T.; Zhou, S.; Zhang, Y.; Guo, J.; Tang, W. Localização automática de marcos cefalométricos com base em rede neural convolucional. Sou.
J. Orthod. Dentofac. Ortop. 2022, 161, e250–e259. (Em inglês) [CrossRef]
51. Lu, G.; Zhang, Y.; Kong, Y.; Zhang, C.; Coatrieux, JL; Shu, H. Localização de referência para análise cefalométrica usando redes convolucionais de gráficos
baseados em patches de imagem multiescala. IEEE J. Biomédica. Informação de Saúde. 2022, 26, 3015–3024. (Em inglês)
[RefCruz]
52. Tsolakis, IA; Tsolakis, AI; Elshebiny, T.; Matthaios, S.; Palomo, JM Comparando um método de traçado cefalométrico totalmente automatizado com um método de
traçado manual para diagnóstico ortodôntico. J. Clin. Med. 2022, 11, 6854. (Em inglês) [CrossRef]
53. Duran, GS; Gökmen, ¸S.; Topsakal, KG; Görgülü, S. Avaliação da precisão de software de análise cefalométrica totalmente automático com algoritmo de inteligência
artificial. Ortodoxa. Res. Craniofacial. 2023, 26, 481–490. (Em inglês) [CrossRef]
54. Sim, H.; Cheng, Z.; Ungvijanpunya, N.; Chen, W.; Cao, L.; Gou, Y. O software cefalométrico automático que usa inteligência artificial é melhor do que os
especialistas em ortodontia na identificação de pontos de referência? BMC Oral Health 2023, 23, 467. (Em inglês) [CrossRef] [Pub Med]
55. Ueda, A.; Tussie, C.; Kim, S.; Kuwajima, Y.; Matsumoto, S.; Kim, G.; Satoh, K.; Nagai, S. Classificação da Morfologia Maxilofacial por Inteligência Artificial Usando
Medidas de Análise Cefalométrica. Diagnóstico 2023, 13, 2134. (Em inglês) [CrossRef]
[Pub Med]
56. Bao, H.; Zhang, K.; Yu, C.; Li, H.; Cão, D.; Shu, H.; Liu, L.; Yan, B. Avaliando a precisão da análise cefalométrica automatizada
baseado em inteligência artificial. BMC Oral Health 2023, 23, 191. (Em inglês) [CrossRef] [Pub Med]
Machine Translated by Google
57. Kim, MJ; Liu, Y.; Ah, SH; Ahn, HW; Kim, SH; Nelson, G. Avaliação de um sistema de identificação de pontos de referência totalmente automatizado
baseado em rede neural convolucional de vários estágios usando imagens cefalométricas póstero-anteriores sintetizadas por tomografia computadorizada
de feixe cônico . Coreano J. Orthod. 2021, 51, 77–85. (Em inglês) [CrossRef]
58. Takeda, S.; Meu, Y.; Yoshimi, Y.; Ito, S.; Tanimoto, K.; Murayama, T. Anotação de referência e análise de desvio lateral mandibular de cefalogramas
posteroanteriores usando uma rede neural convolucional. J. Dente. Ciência. 2021, 16, 957–963. (Em inglês)
[RefCruz]
59. Lee, SM; Kim, HP; Jeon, K.; Lee, SH; Seo, JK Sistema automático de anotação cefalométrica 3D usando imagem 2D sombreada baseada
aprendizado de máquina. Física. Med. Biol. 2019, 64, 055002. (Em inglês) [CrossRef]
60. Torosdagli, N.; Libertão, DK; Verma, P.; Sincan, M.; Lee, JS; Bagci, U. Aprendizado Geodésico Profundo para Segmentação e Marcação Anatômica. IEEE
Trans. Med. Imagens 2019, 38, 919–931. (Em inglês) [CrossRef]
61. Yun, HS; Jang, TJ; Lee, SM; Lee, SH; Seo, JK Anotação de marco local para global baseada em aprendizagem para 3D automático
cefalometria. Física. Med. Biol. 2020, 65, 085018. (Em inglês) [CrossRef]
62. Kang, SH; Jeon, K.; Kang, SH; Lee, SH Detecção de marco cefalométrico 3D por aprendizado de reforço profundo em múltiplos estágios.
Ciência. Rep. 2021, 11, 17509. (Em inglês) [CrossRef]
63. Ghowsi, A.; Hatcher, D.; Suh, H.; Wile, D.; Castro, W.; Krueger, J.; Parque, J.; Oh, H. Identificação automatizada de pontos de referência em tomografia
computadorizada de feixe cônico: Precisão e confiabilidade. Ortodoxa Angular. 2022, 92, 642–654. (Em inglês) [CrossRef]
64. Ponto, G.; Schouman, T.; Chang, S.; Rafflenbeul, F.; Kerbrat, A.; Rouch, P.; Gajny, L. Cefalometria Tridimensional Automática
Marco via Deep Learning. J. Dente. Res. 2022, 101, 1380–1387. (Em inglês) [CrossRef]
65. Blum, FMS; Möhlhenrich, SC; Raith, S.; Pankert, T.; Peters, F.; Lobo, M.; Holzle, F.; Modabber, A. Avaliação de um algoritmo baseado em inteligência
artificial para localização automatizada de pontos de referência craniofaciais. Clin. Investigação Oral. 2023, 27, 2255–2265. (Em inglês) [CrossRef]
66. Yang, J.; Ling, X.; Lu, Y.; Wei, M.; Ding, G. Análise e medição de imagens cefalométricas para cirurgia ortognática. Med. Biol.
Eng. Computação. 2001, 39, 279–284. (Em inglês) [CrossRef]
67. Schwendicke, F.; Chaurasia, A.; Arsiwala, L.; Lee, JH; Elhennawy, K.; Jost-Brinkmann, PG; Demarco, F.; Krois, J. Aprendizado profundo para detecção de
marcos cefalométricos: revisão sistemática e meta-análise. Clin. Investigação Oral. 2021, 25, 4299–4309. (Em inglês)
[RefCruz]
68. Arik, S.; Ibragimov, B.; Xing, L. Cefalometria quantitativa totalmente automatizada usando redes neurais convolucionais. J. Med. Imaging 2017, 4, 014501.
(Em inglês) [CrossRef]
69. Cao, L.; Ele, H.; Hua, F. Algoritmos de aprendizado profundo têm alta precisão para detecção automatizada de pontos de referência em 2D lateral
Cefalogramas. J. Evid. Dente Baseado. Pratique. 2022, 22, 101798. (Em inglês) [CrossRef] [Pub Med]
70. Meriç, P.; Naoumova, J. Análise cefalométrica totalmente automatizada baseada na Web: comparações entre aplicativos auxiliados, computadorizados,
e traçados manuais. Turco. J. Orthod. 2020, 33, 142–149. (Em inglês) [CrossRef]
71. Montúfar, J.; Romero, M.; Scougall-Vilchis, RJ Marcação cefalométrica tridimensional automática baseada em modelos de forma ativa em projeções
relacionadas. Sou. J. Orthod. Dentofac. Ortop. 2018, 153, 449–458. (Em inglês) [CrossRef] [Pub Med]
72.Zhang , J.; Liu, M.; Wang, L.; Chen, S.; Yuan, P.; Li, J.; Shen, SG; Tang, Z.; Chen, KC; Xia, JJ; e outros. Redes totalmente convolucionais guiadas pelo
contexto para segmentação óssea craniomaxilofacial articular e digitalização de pontos de referência. Med. Imagem Anal. 2020, 60, 101621. (Em inglês)
[CrossRef] [Pub Med]
73. Ponto, G.; Rafflenbeul, F.; Arbotto, M.; Gajny, L.; Rouch, P.; Schouman, T. Precisão e confiabilidade de tridimensional automático
marcação cefalométrica. Internacional J. Oral Maxilofac. Surg. 2020, 49, 1367–1378. (Em inglês) [CrossRef]
74. Ghesu, FC; Georgescu, B.; Mansi, T.; Neumann, D.; Hornegger, J.; Comaniciu, D. Um agente artificial para detecção de marcos anatômicos em imagens
médicas. Em Proceedings of the Medical Image Computing and Computer-Assisted Intervention-MICCAI 2016: 19th International Conference, Atenas,
Grécia, 17–21 de outubro de 2016. Proceedings, Parte III 19.
75. Ghesu, FC; Georgescu, B.; Grbic, S.; Maier, A.; Hornegger, J.; Comaniciu, D. Rumo à detecção robusta e inteligente de estruturas anatômicas em dados
volumétricos incompletos. Med. Imagem Anal. 2018, 48, 203–213. (Em inglês) [CrossRef] [Pub Med]
76. Chen, S.; Wu, S. Deep Q-networks com dados de pesquisa baseados na web para simular previsão e avaliação de intervenção em câncer de pulmão
em idosos: um estudo quantitativo. BMC Med. Informar. Decis. Mak. 2022, 22, 1. (Em inglês) [CrossRef]
77. Talaat, S.; Kaboudan, A.; Talaat, W.; Kusnoto, B.; Sánchez, F.; Elnagar, MH; Bourauel, C.; Ghoneima, A. A validade de uma aplicação de inteligência
artificial para avaliação da necessidade de tratamento ortodôntico a partir de imagens clínicas. Semin. Ortodoxa. 2021, 27, 164–171. [RefCruz]
78. Ryu, J.; Kim, YH; Kim, TW; Jung, SK Avaliação de modelo de inteligência artificial para categorização e extração de aglomeração
diagnóstico por meio de fotografias intraorais. Ciência. Rep. 2023, 13, 5177. (Em inglês) [CrossRef]
79. Im, J.; Kim, JY; Yu, HS; Lee, KJ; Choi, SH; Kim, JH; Ahn, HK; Cha, JY Precisão e eficiência da segmentação automática de dentes em modelos
odontológicos digitais utilizando aprendizagem profunda. Ciência. Rep. 2022, 12, 9429. (Em inglês) [CrossRef] [Pub Med]
80. Woodsend, B.; Koufoudaki, E.; Lin, P.; McIntyre, G.; El-Angbawi, A.; Aziz, A.; Shaw, W.; Semb, G.; Reesu, GV; Mossey, Pensilvânia
Desenvolvimento de reconhecimento automatizado de pontos de referência (ALR) intra-oral para medições de resultados dentários e oclusais. EUR. J. Orthod.
2022, 44, 43–50. (Em inglês) [CrossRef] [Pub Med]
81. Woodsend, B.; Koufoudaki, E.; Mossey, PA; Lin, P. Reconhecimento automático de pontos de referência em modelos dentários digitais. Computação. Biol.
Med. 2021, 137, 104819. (Em inglês) [CrossRef]
Machine Translated by Google
82. Zhao, Y.; Zhang, L.; Liu, Y.; Meng, D.; Cui, Z.; Gao, C.; Gao, X.; Lian, C.; Shen, D. Rede Convolucional de Gráfico de Dois Fluxos para
Segmentação de imagens de scanner intra-oral. IEEE Trans. Med. Imagens 2022, 41, 826–835. (Em inglês) [CrossRef] [Pub Med]
83. Wu, TH; Lian, C.; Lee, S.; Pastewait, M.; Piers, C.; Liu, J.; Wang, F.; Wang, L.; Chiu, CY; Wang, W.; e outros. Aprendizado profundo de malha de dois estágios
para segmentação dentária automatizada e localização de pontos de referência em digitalizações intraorais 3D. IEEE Trans. Med. Imagens 2022, 41, 3158–
3166. (Em inglês) [CrossRef] [Pub Med]
84. Liu, Z.; Ele, X.; Wang, H.; Xiong, H.; Zhang, Y.; Wang, G.; Hao, J.; Feng, Y.; Zhu, F.; Hu, H. Aprendizagem hierárquica auto-supervisionada para segmentação
dentária 3D em varreduras de malha intra-orais. IEEE Trans. Med. Imagens 2023, 42, 467–480. (Em inglês) [CrossRef]
85. Rao, GKL; Srinivasa, AC; Iskandar, YHP; Mokhtar, N. Identificação e análise de pontos fotométricos em imagens faciais 2D:
Uma abordagem de aprendizado de máquina em ortodontia. Tecnologia em Saúde. 2019, 9, 715–724. [RefCruz]
86. Yurdakurban, E.; Duran, GS; Görgülü, S. Avaliação de uma abordagem automatizada para detecção da linha média facial e avaliação de assimetria: Um estudo
preliminar. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 84–91. (Em inglês) [CrossRef] [Pub Med]
87. Rousseau, M.; Retrouvey, JM Aprendizado de máquina em ortodontia: análise facial automatizada da dimensão vertical para aumento
precisão e eficiência. Sou. J. Orthod. Dentofac. Ortop. 2022, 161, 445–450. (Em inglês) [CrossRef]
88. Kim, H.; Kim, CS; Lee, JM; Lee, JJ; Lee, J.; Kim, JS; Choi, SH Previsão dos indicadores de maturidade esquelética de Fishman usando
inteligência artificial. Ciência. Rep. 2023, 13, 5870. (Em inglês) [CrossRef]
89. Lee, H.; Tajmir, S.; Lee, J.; Zissen, M.; Yeshiwas, BA; Alkasab, TK; Choy, G.; Do, S. Sistema de aprendizado profundo totalmente automatizado para
Avaliação da Idade Óssea. J. Dígito. Imagens 2017, 30, 427–441. (Em inglês) [CrossRef] [Pub Med]
90. Kim, Jr.; Calço, WH; Yoon, HM; Hong, SH; Lee, JS; Cho, YA; Kim, S. Estimativa computadorizada da idade óssea usando programa baseado em aprendizagem
profunda : avaliação da precisão e eficiência. AJR Am. J. Roentgenol. 2017, 209, 1374–1380. (Em inglês)
[RefCruz]
91. Kök, H.; Izgi, MS; Acilar, AM Determinação de períodos de crescimento e desenvolvimento em ortodontia com rede neural artificial.
Ortodoxa. Res. Craniofacial. 2021, 24 (Suplemento S2), 76–83. (Em inglês) [CrossRef]
92. Franchi, L.; Baccetti, T.; McNamara, JA, Jr. Crescimento mandibular relacionado à maturação vertebral cervical e altura corporal. Sou.
J. Orthod. Dentofac. Ortop. 2000, 118, 335–340. (Em inglês) [CrossRef]
93. Flores-Mir, C.; Burgess, Califórnia; Champney, M.; Jensen, RJ; Arremessador, MR; Major, Correlação PW dos estágios de maturação esquelética
determinado pelas vértebras cervicais e avaliações mão-punho. Ortodoxa Angular. 2006, 76, 1–5. (Em inglês)
94. Kucukkeles, N.; Acar, A.; Biren, S.; Arun, T. Comparações entre vértebras cervicais e maturação mão-punho para avaliação da maturidade esquelética. J. Clin.
Pediatr. Dente. 1999, 24, 47–52. (Em inglês)
95. McNamara, JA, Jr.; Franchi, L. O método de maturação vertebral cervical: um guia do usuário. Ortodoxa Angular. 2018, 88, 133–143. (Em
Inglês) [CrossRef] [Pub Med]
96. Kim, DW; Kim, J.; Kim, T.; Kim, T.; Kim, YJ; Canção, É; Ahn, B.; Choo, J.; Lee, DY Previsão dos estágios de maturação mão-punho com base em imagens de
vértebras cervicais usando inteligência artificial. Ortodoxa. Res. Craniofacial. 2021, 24 (Suplemento S2), 68–75. (Em inglês)
[RefCruz] [Pub Med]
97. Gandini, P.; Mancini, M.; Andreani, F. Uma comparação entre análises do osso do pulso e da vértebra cervical na medição da maturação esquelética. Ortodoxa
Angular. 2006, 76, 984–989. [RefCruz]
98. Ok, G.; Akcayol, MA; Özdem, K.; Güngör, K. Rede neural convolucional profunda - A avaliação da maturação das vértebras cervicais. Radiol Oral. 2023, 39, 629–
638. [RefCruz]
99. Kök, H.; Acilar, AM; ÿIzgi, MS Uso e comparação de algoritmos de inteligência artificial para determinação de crescimento e desenvolvimento por estágios de
vértebras cervicais em ortodontia. Programa. Ortodoxa. 2019, 20, 41. (Em inglês) [CrossRef]
100. Makaremi, M.; Lacaule, C.; Mohammad-Djafari, A. Aprendizado Profundo e Inteligência Artificial para a Determinação do Cervical
Grau de maturação das vértebras pela radiografia lateral. Entropia 2019, 21, 1222. (Em inglês) [CrossRef]
101. Amasya, H.; Yildirim, D.; Aydogan, T.; Kemaloglu, N.; Orhan, K. Avaliação da maturação vertebral cervical em radiografias cefalométricas laterais usando
inteligência artificial: comparação de modelos classificadores de aprendizado de máquina. Dentomaxilofac. Radiol. 2020, 49, 20190441. (Em inglês) [CrossRef]
102. Amasya, H.; Cesur, E.; Yÿldÿrÿm, D.; Orhan, K. Validação dos estágios de maturação vertebral cervical: Inteligência artificial vs análise visual do observador
humano. Sou. J. Orthod. Dentofac. Ortop. 2020, 158, e173–e179. (Em inglês) [CrossRef] [Pub Med]
103. Seo, H.; Hwang, J.; Jeong, T.; Shin, J. Comparação de modelos de aprendizagem profunda para classificação do estágio de maturação vertebral cervical
em Radiografias Cefalométricas Laterais. J. Clin. Med. 2021, 10, 3591. (Em inglês) [CrossRef] [Pub Med]
104. Zhou, J.; Zhou, H.; Pu, L.; Gao, Y.; Tang, Z.; Yang, Y.; Você, M.; Yang, Z.; Lai, W.; Long, H. Desenvolvimento de um Sistema de
Inteligência Artificial para Avaliação Automática do Estado de Maturação Vertebral Cervical. Diagnóstico 2021, 11, 2200. (Em inglês) [CrossRef]
105. Kim, EG; Ah, É; Então, JE; Kang, J.; Le, VNT; Tak, MK; Lee, DW Estimando a Maturação Vertebral Cervical com uma Lateral
Cefalograma usando rede neural convolucional. J. Clin. Med. 2021, 10, 5400. (Em inglês) [CrossRef] [Pub Med]
106. Mohammad-Rahimi, H.; Motamadian, SR; Nadimi, M.; Hassanzadeh-Samani, S.; Minabi, MAS; Mahmoudinia, E.; Lee, VY; Rohban, MH Aprendizado profundo
para a classificação do grau de maturação cervical e surtos de crescimento puberal: um estudo piloto. Coreano J. Orthod. 2022, 52, 112–122. (Em inglês)
[CrossRef] [Pub Med]
107. Radwan, MT; Pecado, Ç.; Akkaya, N.; Vahdettin, L. Algoritmo baseado em inteligência artificial para estágio de maturação das vértebras cervicais
avaliação. Ortodoxa. Res. Craniofacial. 2023, 26, 349–355. (Em inglês) [CrossRef]
108. Rojas, E.; Corvalán, R.; Messen, E.; Sandoval, P. Avaliação das vias aéreas superiores em Ortodontia: Uma revisão. Odontoestomatologia 2017, 19,
40–51. [RefCruz]
Machine Translated by Google
109.Shen , Y.; Li, X.; Liang, X.; Xu, H.; Li, C.; Yu, Y.; Qiu, B. Uma abordagem baseada em aprendizagem profunda para diagnóstico de hipertrofia de adenoide. Med.
Física. 2020, 47, 2171–2181. (Em inglês) [CrossRef]
110. Zhao, T.; Zhou, J.; Yan, J.; Cao, L.; Cao, Y.; Hua, F.; Ele, H. Avaliação Automatizada de Hipertrofia Adenóide com Cefalometria Lateral em Crianças Baseada
em Inteligência Artificial. Diagnóstico 2021, 11, 1386. (Em inglês) [CrossRef]
111. Liu, JL; Li, SH; Cai, YM; Lan, DP; Lu, YF; Lião, W.; Ying, SC; Zhao, ZH Avaliação Radiográfica Automatizada da Adenóide
Hipertrofia baseada em VGG-Lite. J. Dente. Res. 2021, 100, 1337–1343. (Em inglês) [CrossRef]
112. Pecado, Ç.; Akkaya, N.; Aksoy, S.; Orhan, K.; Öz, U. Uma proposta de algoritmo de aprendizagem profunda para detecção e segmentação automática de vias
aéreas faríngeas em imagens de TCFC. Ortodoxa. Res. Craniofacial. 2021, 24 (Supl. S2), 117–123. (Em inglês) [CrossRef]
113. Leonardi, R.; Lo Giudice, A.; Farronato, M.; Ronsivalle, V.; Allegrini, S.; Musumeci, G.; Spampinato, C. Segmentação totalmente automática da cavidade
nasossinusal e das vias aéreas faríngeas com base em redes neurais convolucionais. Sou. J. Orthod. Dentofac. Ortop. 2021, 159, 824–835.e821. (Em inglês)
[CrossRef]
114. Shujaat, S.; Jazil, O.; Willems, H.; Van Gerven, A.; Shaheen, E.; Política, C.; Jacobs, R. Segmentação automática do espaço aéreo faríngeo com rede neural
convolucional. J. Dente. 2021, 111, 103705. (Em inglês) [CrossRef] [Pub Med]
115. Jeong, Y.; Nang, Y.; Zhao, Z. Avaliação automatizada de obstrução das vias aéreas superiores com base em aprendizado profundo. BioMed Res. Internacional
2023, 2023, 8231425. (Em inglês) [CrossRef]
116.Dong , W.; Chen, Y.; Li, A.; Mei, X.; Yang, Y. Detecção automática de hipertrofia adenóide na tomografia computadorizada de feixe cônico
baseado em aprendizado profundo. Sou. J. Orthod. Dentofac. Ortop. 2023, 163, 553–560.e553. (Em inglês) [CrossRef]
117.Jin , S.; Han, H.; Huang, Z.; Xiang, Y.; Du, M.; Hua, F.; Guan, X.; Liu, J.; Chen, F.; He, H. Nasal e tridimensional automático
identificação de sub-regiões das vias aéreas faríngeas via Vision Transformer. J. Dente. 2023, 136, 104595. (Em inglês) [CrossRef]
118. Soldatova, L.; Otero, HJ; Saulo, DA; Barreira, CA; Elden, L. Radiografia lateral do pescoço na avaliação pré-operatória da adenóide
Hipertrofia. Ana. Otol. Rinol. Laringol. 2020, 129, 482–488. (Em inglês) [CrossRef]
119. Duan, H.; Xia, L.; Ele, W.; Lin, Y.; Lu, Z.; Lan, Q. Precisão do cefalograma lateral para diagnóstico de hipertrofia adenóide e obstrução posterior das vias aéreas
superiores: uma meta-análise. Internacional J. Pediatr. Otorrinolaringol. 2019, 119, 1–9. (Em inglês) [CrossRef]
[Pub Med]
120. Fujioka, M.; Jovem, LW; Girdany, BR Avaliação radiográfica do tamanho da adenoide em crianças: relação adenóide-nasofaríngea.
AJR Am. J. Roentgenol. 1979, 133, 401–404. (Em inglês) [CrossRef] [Pub Med]
121. Xie, X.; Wang, L.; Wang, A. Modelagem de rede neural artificial para decidir se extrações são necessárias antes da ortodontia
tratamento. Ortodoxa Angular. 2010, 80, 262–266. (Em inglês) [CrossRef]
122. Jung, SK; Kim, TW Nova abordagem para diagnóstico de extrações com aprendizado de máquina de rede neural. Sou. J. Orthod.
Dentofac. Ortop. 2016, 149, 127–133. (Em inglês) [CrossRef] [Pub Med]
123. Li, P.; Kong, D.; Tang, T.; Su, D.; Yang, P.; Wang, H.; Zhao, Z.; Liu, Y. Planejamento de tratamento ortodôntico baseado em neural artificial
redes. Ciência. Rep. 2019, 9, 2037. [CrossRef]
124. Suhail, Y.; Upadhyay, M.; Chhibber, A.; Kshitiz. Aprendizado de máquina para diagnóstico de extrações ortodônticas: uma abordagem computacional
análise usando aprendizagem em conjunto. Bioengenharia 2020, 7, 55. [CrossRef]
125. Etemad, L.; Wu, TH; Heiner, P.; Liu, J.; Lee, S.; Chao, WL; Zaytoun, ML; Guéz, C.; Lin, FC; Jackson, CB; e outros. Aprendizado de máquina a partir de
conjuntos de dados clínicos de uma decisão contemporânea para extração dentária ortodôntica. Ortodoxa. Res. Craniofacial. 2021, 24 (Suplemento S2), 193–
200. (Em inglês) [CrossRef]
126. Shojaei, H.; Augusto, V. Construindo modelos de Machine Learning para Planejamento de Tratamento Ortodôntico: Uma comparação de diferentes métodos.
Em Anais da Conferência Internacional IEEE de 2022 sobre Big Data (Big Data), Osaka, Japão, 17–20 de dezembro de 2022.
127. Real, AD; Real, OD; Sardenha, S.; Oyonarte, R. Uso de inteligência artificial automatizada para prever a necessidade de extrações ortodônticas. Coreano J.
Orthod. 2022, 52, 102–111. (Em inglês) [CrossRef] [Pub Med]
128. Leavitt, L.; Volovic, J.; Steinhauer, L.; Pedreiro, T.; Eckert, G.; Dean, JA; Dundar, M.M.; Turkkahraman, H. Podemos prever padrões de extração ortodôntica
usando aprendizado de máquina? Ortodoxa. Res. Craniofacial. 2023, 26, 552–559. (Em inglês) [CrossRef]
[Pub Med]
129. Prasad, J.; Mallikarjunaiah, DR; Shetty, A.; Gandedkar, N.; Chikkamuniswamy, AB; Shivashankar, Modelo Preditivo de Aprendizado de Máquina PC como
Sistema de Apoio à Decisão Clínica no Planejamento de Tratamento Ortodôntico. Dente. J. 2022, 11, 1. (Em inglês)
[RefCruz]
130. Knoops, PGM; Papaioannou, A.; Borghi, A.; Breakey, RWF; Wilson, AT; Jeelani, O.; Zafeiriou, S.; Steinbacher, D.; Padwa, BL; Dunaway, DJ; e outros. Uma
estrutura de aprendizado de máquina para diagnóstico automatizado e planejamento assistido por computador em cirurgia plástica e reconstrutiva. Ciência.
Rep. 2019, 9, 13597. (Em inglês) [CrossRef] [Pub Med]
131. Choi, H.-I.; Jung, S.-K.; Baek, S.-H.; Lim, WH; Ahn, S.-J.; Yang, I.-H.; Kim, T.-W. Modelo de inteligência artificial com aprendizado de máquina de redes neurais
para diagnóstico de cirurgia ortognática. J. Cirurgia Craniofacial. 2019, 30, 1986–1989. [RefCruz] [Pub Med]
132. Lee, K.-S.; Ryu, J.-J.; Jang, HS; Lee, D.-Y.; Jung, S.-K. Análise baseada em redes neurais convolucionais profundas de radiografias cefalométricas para
diagnóstico diferencial de indicações de cirurgia ortognática. Apl. Ciência. 2020, 10, 2124. [CrossRef]
133. Jeong, SH; Yun, JP; Sim, HG; Lim, HJ; Lee, J.; Kim, BC Discriminação baseada em aprendizagem profunda de perfis de tecidos moles que requerem cirurgia
ortognática por meio de fotografias faciais. Ciência. Rep. 2020, 10, 16235. (Em inglês) [CrossRef]
134. Shin, W.; Sim, HG; Lee, GH; Yun, JP; Jeong, SH; Lee, JH; Kim, Hong Kong; Kim, BC Predição baseada em aprendizagem profunda da necessidade de cirurgia
ortognática de má oclusão esquelética usando cefalograma em indivíduos coreanos. BMC Oral Health 2021, 21, 130. (Em inglês) [CrossRef]
Machine Translated by Google
135. Kim, YH; Parque, JB; Chang, MS; Ryu, JJ; Lim, WH; Jung, SK Influência da Profundidade das Redes Neurais Convolucionais em um Modelo de Inteligência
Artificial para Diagnóstico de Cirurgia Ortognática. J. Pers. Med. 2021, 11, 356. (Em inglês) [CrossRef]
136. Lee, H.; Ahmad, S.; Frazier, M.; Dundar, M.M.; Turkkahraman, H. Um novo modelo de aprendizado de máquina para decisão de cirurgia de classe III.
J. Orofac. Ortop. 2022. (Em inglês) [CrossRef]
137. Uau, H.; Jha, N.; Kim, Y.-J.; Cantado, S.-J. Avaliando a precisão de modelos de configuração digital ortodôntica automatizada. Semin. Ortodoxa.
2023, 29, 60–67.
138. Parque, JH; Kim, Y.-J.; Kim, J.; Kim, J.; Kim, I.-H.; Kim, N.; Vaid, NR; Kook, Y.-A. Uso de inteligência artificial para prever resultados
do tratamento sem extrações das más oclusões de Classe II. Semin. Ortodoxa. 2021, 27, 87–95.
139. Tanikawa, C.; Yamashiro, T. Desenvolvimento de novos sistemas de inteligência artificial para prever a morfologia facial após cirurgia ortognática e tratamento
ortodôntico em pacientes japoneses. Ciência. Rep. 2021, 11, 15853. (Em inglês)
140. Parque, YS; Choi, JH; Kim, Y.; Choi, SH; Lee, JH; Kim, KH; Chung, CJ Previsão baseada em aprendizagem profunda da posição 3D
Alterações faciais ortodônticas. J. Dente. Res. 2022, 101, 1372–1379. (Em inglês)
141. Xu, L.; Mei, L.; Lu, R.; Li, Y.; Li, H.; Li, Y. Prevendo a experiência do paciente com o tratamento Invisalign: uma análise usando neural artificial
rede. Coreano J. Orthod. 2022, 52, 268–277. (Em inglês) [PubMed]
142. Ribarevski, R.; Vig, P.; Vig, KD; Weyant, R.; O'Brien, K. Consistência das decisões de extração ortodôntica. EUR. J. Orthod. 1996, 18,
77–80.
143. Drucker, H.; Wu, D.; Vapnik, VN Suporta máquinas de vetores para categorização de spam. IEEE Trans. Rede Neural. 1999, 10, 1048–1054.
(Em inglês)
144. Khozeimeh, F.; Sharifrazi, D.; Izadi, NH; Joloudari, JH; Shoeibi, A.; Alizadehsani, R.; Tartibi, M.; Hussain, S.; Sani, ZA; Khodatars, M.; e outros. RF-CNN-F: Floresta
aleatória com recursos de rede neural convolucional para diagnóstico de doença arterial coronariana com base em ressonância magnética cardíaca. Ciência.
Rep. 2022, 12, 11178. (Em inglês)
145. Ahsan, MM; Lua, SA; Siddique, Z. Diagnóstico de doenças baseado em aprendizado de máquina: uma revisão abrangente. Saúde 2022,
10, 541. (Em inglês) [PubMed]
146. Raiva, AB; Wong, RW; Min, Tratamento GU na Maloclusão de Classe III Borderline: Camuflagem Ortodôntica (Extração) Versus
Cirurgia Ortognática. Abra Dente. J. 2008, 2, 38–48. (Em inglês)
147. Alhammadi, MS; Almashraqi, AA; Khadhi, AH; Arishi, KA; Alamir, AA; Beléges, EM; Halboub, E. Camuflagem ortodôntica versus tratamento cirúrgico ortodôntico-
ortognático na má oclusão de classe III limítrofe: uma revisão sistemática. Clin. Investigação Oral.
2022, 26, 6443–6455. (Em inglês) [PubMed]
148. Eslami, S.; Faber, J.; Fatah, A.; Sheikholaemmeh, F.; Grassia, V.; Jamilian, A. Decisão de tratamento em pacientes adultos com má oclusão classe III: Cirurgia
versus ortodontia. Programa. Ortodoxa. 2018, 19, 28. (Em inglês)
149. Mirza, M.; Osindero, S. Redes adversárias geradoras condicionais. arXiv 2014, arXiv:1411.1784.
150. Isola, P.; Zhu, J.-Y.; Zhou, T.; Efros, AA Tradução imagem-imagem com redes adversárias condicionais. Em Anais do
Conferência IEEE sobre Visão Computacional e Reconhecimento de Padrões, Honolulu, HI, EUA, 21 a 26 de julho de 2017.
151. Vu, H.; Vo, PT; Kim, HD Associação modificada por gênero de indicadores de saúde bucal com qualidade de vida relacionada à saúde bucal entre idosos
coreanos. BMC Oral Health 2022, 22, 168. (Em inglês)
152. El-Dawlatly, MM; Abdelmaksoud, AR; Amer, OM; El-Dakroury, AE; Mostafa, YA Avaliação da eficiência de algoritmos computadorizados para formular um sistema
de apoio à decisão para planejamento de tratamento de mordida profunda. Sou. J. Orthod. Dentofac. Ortop. 2021, 159, 512–521. (Em inglês)
153. Tao, T.; Zou, K.; Jiang, R.; Ele, K.; Ele, X.; Zhang, M.; Wu, Z.; Shen, X.; Yuan, X.; Lai, W.; e outros. Determinação assistida por inteligência artificial de locais
disponíveis para mini-implantes ortodônticos palatinos com base na espessura palatina por meio de TCFC. Ortodoxa. Res. Craniofacial . 2023, 26, 491–499.
(Em inglês)
154. Hu, X.; Zhao, Y.; Yang, C. Avaliação da posição radicular durante o tratamento ortodôntico por meio de múltiplos exames intraorais com automação
tecnologia de registro. Sou. J. Orthod. Dentofac. Ortop. 2023, 164, 285–292. (Em inglês)
155. Lee, SC; Hwang, HS; Lee, KC Precisão de modelos dentários integrados baseados em aprendizagem profunda, mesclando varreduras intraorais e tomografias
computadorizadas para avaliação 3D da posição radicular durante o tratamento ortodôntico. Programa. Ortodoxa. 2022, 23, 15. (Em inglês)
156. Hansa, I.; Semaan, SJ; Vaid, NR Resultados clínicos e perspectivas dos pacientes do Dental Monitoring®GoLive®com Invisalign®-a
estudo de coorte retrospectivo. Programa. Ortodoxa. 2020, 21, 16. (Em inglês) [PubMed]
157. Strunga, M.; Urbano, R.; Surovková, J.; Thurzo, A. Sistemas de Inteligência Artificial Auxiliando na Avaliação do Curso e
Retenção do Tratamento Ortodôntico. Healthcare 2023, 11, 683. (Em inglês) [CrossRef]
158. Hansa, I.; Katyal, V.; Semaan, SJ; Coyne, R.; Vaid, NR Monitoramento remoto baseado em inteligência artificial de pacientes ortodônticos: aplicabilidade clínica e
justificativa. Semin. Ortodoxa. 2021, 27, 138–156. [RefCruz]
159. Ryu, J.; Lee, YS; Mô, SP; Lim, K.; Jung, SK; Kim, TW Aplicação da técnica de inteligência artificial de aprendizagem profunda à classificação de fotos clínicas
ortodônticas. BMC Oral Health 2022, 22, 454. (Em inglês) [CrossRef] [Pub Med]
160. Li, S.; Guo, Z.; Lin, J.; Ying, S. Inteligência Artificial para Classificação e Arquivamento de Imagens Ortodônticas. BioMed Res. Internacional 2022, 2022, 1473977.
(Em inglês) [CrossRef]
161. Keim, RG Aprimorando nosso tratamento de mordidas profundas. J. Clin. Ortodoxa. 2008, 42, 687–688. (Em inglês) [PubMed] 162. Çiçek,
Ö.; Abdulkadir, A.; Lienkamp, SS; Brox, T.; Ronneberger, O. 3D U-Net: Aprendendo segmentação volumétrica densa a partir de anotações esparsas. Em Proceedings
of the Medical Image Computing and Computer-Assisted Intervention –MICCAI 2016: 19th International Conference, Atenas, Grécia, 17–21 de outubro de 2016.
Proceedings, Part II 19.
Machine Translated by Google
163. Möhlhenrich, SC; Heussen, N.; Modabber, A.; Bock, A.; Holzle, F.; Wilmes, B.; Danesh, G.; Szalma, J. Influência da densidade óssea, tamanho do parafuso e
procedimento cirúrgico na colocação de mini-implantes ortodônticos - parte B: Estabilidade do implante. Internacional J. Oral Maxilofac. Surg.
2021, 50, 565–572. (Em inglês) [CrossRef]
164. Poon, YC; Chang, HP; Tseng, YC; Chou, ST; Cheng, JH; Liu, PH; Pan, CY Espessura do osso palatino e fatores associados na colocação de miniparafusos em
adultos: Um estudo de tomografia computadorizada de feixe cônico. Kaohsiung J. Med. Ciência. 2015, 31, 265–270. (Em inglês)
[RefCruz]
165. Dalessandri, D.; Sangalli, L.; Tonni, I.; Laffranchi, L.; Bonetti, S.; Visconti, L.; Signoroni, A.; Paganelli, C. Atitude em relação ao Telemonitoramento em
Ortodontistas e Pacientes Ortodônticos. dente J. 2021, 9, 47. (Em inglês) [CrossRef] [Pub Med]
166. Sangalli, L.; Savoldi, F.; Dalessandri, D.; Visconti, L.; Massetti, F.; Bonetti, S. Monitoramento digital remoto durante a fase de contenção do tratamento ortodôntico:
Um estudo prospectivo de viabilidade. Coreano J. Orthod. 2022, 52, 123–130. (Em inglês) [CrossRef]
167. Sangalli, L.; Alessandri-Bonetti, A.; Dalessandri, D. Eficácia do sistema de monitoramento odontológico em ortodontia: uma sistemática
análise. J. Orthod. 2023. online antes da impressão (em inglês) [CrossRef]
168. Homsi, K.; Snider, V.; Kusnoto, B.; Atsawasuwan, P.; Viana, G.; Allareddy, V.; Gajendrareddy, P.; Elnagar, MH Avaliação in vivo da tecnologia de monitoramento
remoto acionado por inteligência artificial para rastreamento do movimento dentário e reconstrução de modelos digitais tridimensionais durante o tratamento
ortodôntico. Sou. J. Orthod. Dentofac. Ortop. 2023. online antes da impressão (em inglês) [CrossRef]
[Pub Med]
169. Moylan, HB; Carriço, CK; Lindauer, SJ; Tüfekçi, E. Precisão de um aplicativo de monitoramento de tratamento ortodôntico baseado em smartphone : um estudo
piloto. Ortodoxa Angular. 2019, 89, 727–733. (Em inglês) [CrossRef] [Pub Med]
170. Ferlito, T.; Hsiou, D.; Hargett, K.; Herzog, C.; Bachour, P.; Katebi, N.; Tokede, O.; Larson, B.; Masoud, MI Avaliação do monitoramento remoto baseado em
inteligência artificial da terapia com alinhadores transparentes: Um estudo prospectivo. Sou. J. Orthod. Dentofac. Ortop. 2023, 164, 194–200. (Em inglês)
[CrossRef] [Pub Med]
171. Candemir, S.; Nguyen, XV; Fólio, LR; Prevedello, LM Estratégias de treinamento para modelos de aprendizagem profunda em radiologia em cenários com dados
limitados. Radiol. Artefato. Intel. 2021, 3, e210014. (Em inglês) [CrossRef] [Pub Med]
172. Ge, Y.; Guo, Y.; Das, S.; Al-Garadi, MA; Sarker, A. Aprendizagem rápida para textos médicos: uma revisão de avanços, tendências e
oportunidades. J. Biomédica. Informar. 2023, 144, 104458. (Em inglês) [CrossRef]
173. Langnickel, L.; Fluck, J. Ainda não estamos prontos: Limitações da aprendizagem por transferência para reconhecimento de entidades nomeadas por doenças.
bioRxiv 2021. (Em inglês) [CrossRef]
174. Frid-Adar, M.; Diamante, I.; Klang, E.; Amitai, M.; Goldberger, J.; Greenspan, H. Aumento de imagem médica sintética baseada em GAN para aumento do
desempenho da CNN na classificação de lesões hepáticas. Neurocomputação 2018, 321, 321–331. [RefCruz]
175.Zhang , K.; Canção, X.; Zhang, C.; Yu, S. Desafios e direções futuras da aprendizagem federada segura: uma pesquisa. Frente. Computação. Ciência.
2022, 16, 165817. [CrossRef]
176. Wolff, J.; Matschinske, J.; Baumgart, D.; Pytlik, A.; Keck, A.; Natarajan, A.; von Schacky, CE; Pauling, JK; Baumbach, J. Aprendizado de máquina federado para
uma implementação facilitada de Inteligência Artificial na área de saúde - Um estudo de prova de conceito para a previsão de pontuações de calcificação da
artéria coronária. J. Integr. Bioinformar. 2022, 19, 20220032. [CrossRef]
177. Attaran, M. Tecnologia Blockchain em saúde: Desafios e oportunidades. Internacional J. Saúde. Gerenciar. 2022, 15, 70–83. [RefCruz]
178. Tagde, P.; Tagde, S.; Bhattacharya, T.; Tagde, P.; Chopra, H.; Akter, R.; Kaushik, D.; Rahman, MH Blockchain e tecnologia de inteligência artificial em e-Health.
Meio Ambiente. Ciência. Poluição. Res. 2021, 28, 52810–52831. [RefCruz] [Pub Med]
179. Rieke, N.; Hancox, J.; Lee, W.; Milletari, F.; Roth, RH; Albarqouni, S.; Bakas, S.; Galtier, Minnesota; Landman, BA; Maier-Hein, K.; e outros.
O futuro da saúde digital com aprendizagem federada. Dígito NPJ. Med. 2020, 3, 119. [CrossRef]
180. Allareddy, V.; Rampa, S.; Venugopalan, SR; Elnagar, MH; Lee, MK; Oubaidin, M.; Yadav, S. Tecnologia Blockchain e aprendizado de máquina federado para
iniciativas colaborativas em ortodontia e saúde craniofacial. Ortodoxa. Res. Craniofacial. 2023. (Em inglês) [CrossRef] [Pub Med]
181. Norgeot, B.; Quer, G.; Beaulieu-Jones, BK; Torkamani, A.; Dias, R.; Gianfrancesco, M.; Arnaout, R.; Kohane, IS; Saria, S.; Topol, E.; e outros. Informações
mínimas sobre modelagem clínica de inteligência artificial: A lista de verificação MI-CLAIM. Nat. Med. 2020, 26, 1320–1324. (Em inglês) [CrossRef]
182. Singh, A.; Sengupta, S.; Lakshminarayanan, V. Modelos explicáveis de aprendizagem profunda em análise de imagens médicas. J. Imagem 2020, 6, 52.
[RefCruz]
183. Naz, Z.; Khan, CANECA; Sabá, T.; Rehman, A.; Nobanee, H.; Bahaj, SA Uma estrutura explicável habilitada para IA para interpretação
Doenças Pulmonares em Radiografias de Tórax. Cânceres 2023, 15, 314. (Em inglês) [CrossRef]
184. Selvaraju, RR; Das, A.; Vedantam, R.; Cogswell, M.; Parikh, D.; Batra, D. Grad-CAM: Por que você disse isso? arXiv 2016,
arXiv:1611.07450.
185. Selvaraju, RR; Cogswell, M.; Das, A.; Vedantam, R.; Parikh, D.; Batra, D. Grad-cam: Explicações visuais de redes profundas por meio de localização baseada
em gradiente. Em Anais da Conferência Internacional IEEE sobre Visão Computacional, Veneza, Itália, 22–29 de outubro de 2017.
186. Zeiler, MD; Fergus, R. Visualizando e compreendendo redes convolucionais. Em Procedimentos de Visão Computacional - ECCV
2014: 13ª Conferência Europeia, Zurique, Suíça, 6–12 de setembro de 2014. Anais, Parte I 13.
187. Bao, C.; Pu, Y.; Zhang, Y. Rede Neural de Retropropagação Profunda de Ordem Fracionária. Computação. Intel. Neurosci. 2018, 2018, 7361628.
(Em inglês) [CrossRef] [Pub Med]
Machine Translated by Google
188. Wang, K.; Yang, B.; Li, Q.; Liu, S. Avaliação Sistemática de Algoritmos de Predição Genômica para Predição Genômica e Melhoramento
de Animais Aquáticos. Genes 2022, 13, 2247. (Em inglês) [CrossRef] [Pub Med]
189. Xi, J.; Wang, M.; Li, A. Descobrindo genes condutores mutados por meio de uma estrutura de fatoração de matriz co-regularizada robusta e esparsa
com informações prévias de padrões de expressão de mRNA e rede de interação. BMC Bioinform. 2018, 19, 214. (Em inglês) [CrossRef]
190. Leite, AF; Gerven, AV; Willems, H.; Beznik, T.; Lahoud, P.; Gaêta-Araújo, H.; Vranckx, M.; Jacobs, R. Nova ferramenta baseada em
inteligência artificial para detecção e segmentação de dentes em radiografias panorâmicas. Clin. Investigação Oral. 2021, 25, 2257–2267. (Em inglês)
[RefCruz]
191. Kittichai, V.; Kaewthamasorn, M.; Thanee, S.; Jomtarak, R.; Klanboot, K.; Naing, KM; Tongloy, T.; Chuwongin, S.; Boonsang, S.
Classificação dos estágios sanguíneos do parasita da malária aviária Plasmodium gallinaceum usando redes neurais convolucionais profundas. Ciência.
Rep. 2021, 11, 16919. (Em inglês) [CrossRef] [Pub Med]
192. Borzabadi-Farahani, A. Uma visão sobre quatro índices de necessidade de tratamento ortodôntico. Programa. Ortodoxa. 2011, 12, 132–142. (Em inglês)
[RefCruz] [Pub Med]
193. Borzabadi-Farahani, A.; Elamipur, F.; Shahmoradi, M. Necessidades funcionais de sujeitos com deformidades dentofaciais: Um estudo utilizando o
índice de necessidade de tratamento funcional ortognático (IOFTN). J. Plast. Reconstrução Esteta. Surg. 2016, 69, 796–801. (Em inglês)
[RefCruz] [Pub Med]
Isenção de responsabilidade/Nota do editor: As declarações, opiniões e dados contidos em todas as publicações são exclusivamente de responsabilidade
do (s) autor(es) e colaborador(es) individual(is) e não do MDPI e/ou do(s) editor(es). O MDPI e/ou o(s) editor(es) se isentam de responsabilidade por qualquer
dano a pessoas ou propriedades resultante de quaisquer ideias, métodos, instruções ou produtos mencionados no conteúdo.