Você está na página 1de 8

T

h
d
3
2
Machine Translated by Google

Os desafios éticos da patologia digital impulsionada pela


inteligência artificial
Francis McKay1* , Bethany J Williams2,3, Graham Prestwich4
Darren Treanor2,3,5,6,7†

7
Daljeet Bansal2

O Centro Ethox e o Centro Wellcome de Ética e Humanidades, Nuffield Departamento de Saúde da População, Universidade de Oxford,
Oxford, Reino Unido
2
Departamento de Histopatologia, Leeds Teaching Hospitals NHS Trust, Leeds, Reino Unido
Departamento de Patologia, Universidade de Leeds, Leeds, Reino Unido
Líder de engajamento público e de pacientes, Yorkshire e Humber Academic Health Science Network, Wakefield, Reino Unido
Departamento de Patologia Clínica, Linköping University, Linköping, Suécia
Departamento de Medicina Clínica e Experimental, Linköping University, Linköping, Suécia
Centro de Ciência e Visualização de Imagens Médicas (CMIV), Universidade de Linköping, Linköping, Suécia
,

*Correspondência para: Francis McKay, The Ethox Center e Wellcome Center for Ethics and Humanities, Nuffield Department of Population Health,
University of Oxford, Oxford, Reino Unido. E-mail: francis.mckay@ethox.ox.ac.uk

† Autores seniores conjuntos.

Abstrato
Nina Hallowell1† e
REVEJA

A patologia digital – a digitalização dos serviços de histopatologia clínica através da digitalização e armazenamento de lâminas de patologia – abriu novas
possibilidades para os cuidados de saúde nos últimos anos, particularmente nas oportunidades que traz para a investigação orientada por inteligência artificial
(IA). Reconhecendo, no entanto, que há pouco debate acadêmico sobre a ética da patologia digital quando usada para pesquisa de IA, este artigo resume o
que vê como quatro questões éticas principais a serem consideradas ao implantar infraestruturas de IA em patologia, a saber, privacidade, escolha, equidade,
e confiança. Os temas são inspirados na experiência dos autores em lidar com o desafio de implantar uma infraestrutura ética de patologia digital para apoiar
a pesquisa de IA como parte da National Pathology Imaging Cooperative (NPIC), uma colaboração de universidades, hospitais e parceiros da indústria
localizados em grande parte norte da Inglaterra. Apesar de focar no caso do Reino Unido, internacionalmente, poucos departamentos de patologia se tornaram
totalmente digitais e, portanto, os temas aqui desenvolvidos oferecem uma heurística para reflexão ética para outros departamentos que atualmente fazem
uma transição semelhante ou planejam fazê-lo no futuro.

Concluímos promovendo a necessidade de mecanismos robustos de governança pública na patologia digital orientada por IA.

Palavras-chave: inteligência artificial; patologia digital; ética; privacidade; autonomia; escolha; equidade; tendência; comercialização; Confiar em

Recebido em 6 de dezembro de 2021; Revisado em 13 de janeiro de 2022; Aceito em 27 de janeiro de 2022

Declaração de conflito de interesses: DT é diretor de um programa de pesquisa que inclui financiamento em espécie de parceiros da indústria, incluindo Leica Biosystems, Roche e Sectra. A DT não tem
outros conflitos a declarar. Todos os outros autores não têm conflitos de interesse a declarar.

Introdução Center for Value-Based Healthcare, National Consortium


of Intelligent Medical Imaging (NCIMI), National
Em 2018, o governo do Reino Unido investiu £ 50 milhões (anteriormente Northern) Pathology Imaging Collaborative
para estabelecer cinco Centros de Excelência em (NPIC) e Pathology Image Data Lake for Analytics,
inteligência artificial (IA) em patologia digital e imagens Knowledge and Education (PathLAKE). Este artigo
médicas, como parte da vertente 'dados para diagnóstico examina os desafios éticos que surgem na entrega de um
precoce e medicina de precisão' de seu Fundo de Desafio lado desse investimento, ou seja, a patologia digital.
de Estratégia Industrial. Os cinco centros são o Centro Industrial de IA
Pesquisa em Diagnóstico Digital (I-CAIRD), o Patologia digital – a digitalização dos serviços de sua
Londres Medical Imaging e Inteligência Artificial topologia clínica através da digitalização e

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society of Great Britain and Ireland & John Wiley & Sons, Ltd.

Este é um artigo de acesso aberto sob os termos da Creative Commons Attribution License, que permite o uso, distribuição e reprodução em qualquer meio, desde que o trabalho original seja devidamente
citado.
Machine Translated by Google

T
h
d
3
2 210

armazenamento eletrônico de lâminas de patologia - abriu


novas possibilidades para os cuidados de saúde nos últimos
anos, incluindo maior eficiência e segurança, trabalho remoto
e custos reduzidos [1,2]. O mais notável, no entanto, são as
oportunidades que ele traz para a pesquisa orientada por IA.
No entanto, embora haja uma literatura crescente sobre a ética
da IA médica e imagiologia [3-5], há, como Coulter et al
observaram, uma falta de compreensão entre os
histopatologistas em relação à ética da patologia digital
impulsionada pela IA [6]. O objetivo deste artigo é, portanto,
fornecer uma intervenção oportuna na ética de pesquisa em
patologia digital, revisando as principais questões a serem
consideradas ao implantar infraestruturas de IA.
Aqui, nos concentramos em quatro temas: privacidade,
escolha, equidade e confiança. Os temas não pretendem ser
exaustivos, mas, em vez disso, são obras gerais introdutórias
destinadas a estimular o debate e a reflexão. Como observam
Morley et al, as questões éticas são relativas a 'diferentes
estágios do ciclo de vida do desenvolvimento algorítmico' [5].
As questões levantadas aqui, então, provavelmente evoluirão
à medida que a patologia digital se desenvolve. Como, no
entanto, atualmente não há ferramentas de IA sendo aplicadas
no trabalho de diagnóstico de rotina no Reino Unido, em vez
de especular sobre os potenciais efeitos bioéticos de futuras
ferramentas de IA desconhecidas, o artigo analisa o estado
atual da prática de patologia digital no Reino Unido, e os
desafios éticos decorrentes da tentativa de fornecer uma
infraestrutura para pesquisa de IA em patologia digital.
Os temas são inspirados em nossa experiência de lidar com
o desafio de implantar uma infraestrutura ética de patologia
digital para apoiar a pesquisa de IA como parte da National
Pathology Imaging Cooperative
(NPIC), uma colaboração de universidades, fundos hospitalares
e parceiros da indústria localizados em grande parte no norte
da Inglaterra. Apesar de focar no caso do Reino Unido,

responsabilidade sobre o compartilhamento de dados de


F McKay e outros

internacionalmente, poucos departamentos de patologia se


tornaram totalmente digitais e, portanto, os temas aqui
desenvolvidos oferecem uma heurística para reflexão ética
para outros departamentos que estão fazendo uma transição
semelhante ou planejando fazê-lo no futuro. O documento
começa com uma descrição das práticas de compartilhamento
de dados e proteções de privacidade já existentes no NPIC.
Ele usa isso como um trampolim para discutir questões éticas
que encontramos ao pensar sobre o compartilhamento de
dados além do contexto do cuidado clínico, ou seja, aqueles
de escolha, equidade e confiança. Seguindo o esboço dessas
questões, concluímos defendendo a necessidade de estruturas
robustas de governança pública para fortalecer a

patologia digital ao desenvolver ferramentas médicas de IA.

Privacidade

Tradicionalmente, os histopatologistas diagnosticam a doença


examinando seções de tecido em lâminas de vidro com um
microscópio de luz. Com a introdução de scanners de imagem
de lâmina inteira (WSI), no entanto, as lâminas de vidro podem
ser capturadas como imagens digitais de alta resolução,
armazenadas e transmitidas eletronicamente e visualizadas
em estações de trabalho, permitindo que os patologistas façam
seus diagnósticos usando uma imagem digital ampliada na tela
do computador. . Os bancos de dados das imagens capturadas
também podem ser usados para treinar algoritmos de
aprendizado de máquina. A Figura 1 fornece um modelo
simplificado de trabalho de patologia digital e fluxos de dados.

Figura 1. Um modelo simplificado de trabalho de patologia digital e fluxos de dados. O processo começa com a recuperação da amostra (1) e
preparação (2) por meio de fixação, corte, inclusão, microtomia, coloração e secagem. Varreduras digitais de alta resolução (40) são feitas e unidas em
um 'WSI' (3). A imagem é então carregada em um servidor (4) para ser visualizada pelo patologista em sua estação de trabalho (5) e eles inserem um
relatório digital (6). Os dados do relatório de patologia (por exemplo, diagnóstico resumido, texto livre e o conjunto mínimo de dados de patologia exigido
pelo COSD [Cancer Outcomes and Services Dataset]) são armazenados no servidor junto com os dados de imagem histopatológica do paciente como
informações identificáveis. Ele é então desidentificado na exportação para fins de pesquisa (7) e disponibilizado juntamente com outros dados vinculados (8).

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society J Pathol Clin Res 2022; 8: 209–216
of Great Britain and Ireland & John Wiley & Sons, Ltd.
Machine Translated by Google

T
h
d
3
2 A ética da patologia digital orientada por IA

O processo começa com a recuperação e preparação do espécime


através da fixação, corte/recorte/grossing, inclusão, microtomia,
coloração e secagem. Varreduras digitais de alta resolução (40) da
lâmina de vidro são então feitas e 'unidas' em um 'WSI'. Em seguida,
as imagens digitais são carregadas em um servidor e visualizadas pelo
patologista em sua estação de trabalho para que ele possa determinar
seu diagnóstico e inserir um relatório digital.

O patologista também pode, neste ponto, adicionar anotações e


rótulos às imagens como parte de seu relatório.
Essas informações são salvas com a imagem e o relatório e
armazenadas na nuvem, onde podem ser acessadas, juntamente com
outros dados vinculados, por terceiros para fins de pesquisa.

Embora existam várias questões éticas que possam surgir ao longo


do fluxo de trabalho, os desafios éticos relacionados à IA estão
principalmente associados ao agrupamento e compartilhamento de
dados para pesquisa (a pesquisa aqui pode envolver vários usos de
dados do paciente, seja conduzido por IA ou não, mas é espera-se
que a IA seja a contribuição mais comum devido à sua facilidade em
analisar grandes conjuntos de dados). Aqui, o assunto que tem
recebido mais atenção é a privacidade de dados e sua proteção por
meio de práticas de desidentificação.

O dever de confidencialidade da lei comum estabelece que um


médico tem a obrigação de manter as informações identificáveis do
paciente - ou seja, informações que possam revelar a identidade de
um paciente além da equipe de atendimento direto - privadas, a menos
que haja consentimento explícito para compartilhá-las, ou compartilhá-
las se enquadre em uma das as exceções ao dever da common law:
anonimato, obrigação legal, interesse público, impraticabilidade, etc.
[7]. A histopatologia tem tradicionalmente mantido a privacidade por
meio de limitações físicas de compartilhamento de lâminas de vidro
(que estão vinculadas a um local a qualquer momento) e por meio da
remoção ou ocultação de identificadores de pacientes (por exemplo,
remoção de rótulos ou apagamento de informações usando marcadores
pretos). Os dados de patologia digital são duplicáveis, mais móveis e,
portanto, requerem técnicas adicionais para garantir a privacidade dos
dados do paciente.

A privacidade dos dados pode ser garantida de várias maneiras,


como números do NHS, datas de nascimento, datas de admissão, etc.
Ao fazer isso, eles usam métodos de 'K-anonimato' nos quais os dados
são desidentificados para serem indistinguíveis de um conjunto
quantidade (k) de outros indivíduos.
Além disso, como estudos mostram que vincular conjuntos de dados
pode teoricamente aumentar a possibilidade de reidentificação [9],
211

randomização ou generalização de identificadores diretos e indiretos,

existem outras salvaguardas para limitar os riscos à privacidade. Isso


inclui mecanismos seguros de transferência e armazenamento,
políticas de destruição de dados, trilhas de auditoria registrando quais
dados foram liberados e para quem, e garantias legais na forma de
contratos que proíbem qualquer tentativa de reidentificar os pacientes.

De muitas maneiras, as medidas de proteção de dados acima se


baseiam em práticas existentes para compartilhamento de dados
médicos em ambientes hospitalares no Reino Unido e, coletivamente,
fornecem um sistema robusto para proteger os dados do paciente ao
compartilhá-los para pesquisa. É uma obrigação primária para qualquer
departamento que deseja implantar sistemas de patologia digital para
pesquisa de IA garantir que esse continue sendo o caso e se
comprometer com o monitoramento contínuo das medidas de proteção
de dados para garantir que elas permaneçam atualizadas.

Escolha

Mesmo com salvaguardas para proteger a privacidade do paciente,


como disse um relatório do Understanding Patient Data e do Ada
Lovelace Institute, 'as pessoas ainda podem se importar como...
[dados] são usados, mesmo que não possam ser facilmente
identificados' [10] . Por exemplo, eles podem se preocupar com a
forma como esses dados são usados devido a preocupações com os
possíveis danos sociais decorrentes de seu uso e, portanto, podem
desejar exercer autonomia sobre quem pode acessar os dados e os
usos a que são destinados. Portanto, surge a pergunta: que escolha o
público deve ter sobre o compartilhamento de seus dados patológicos
não identificados?
Uma maneira de pensar sobre a questão da autonomia sobre o
compartilhamento de dados é por meio da questão do consentimento.
por exemplo, gerenciando o acesso aos dados, por meio de técnicas É um princípio bem estabelecido da lei e da ética médica que os
de identificação (ou seja, removendo dados que possam identificar um pacientes forneçam consentimento informado para seu tratamento
paciente) e obrigando terceiros legalmente a manter práticas seguras [11]. O consentimento de aceitação individual é, conforme observado
de governança da informação. No NPIC, conseguimos isso controlando acima, também necessário ao compartilhar dados pessoais, a menos
o acesso aos dados por meio do comitê de acesso a dados do Leeds que o compartilhamento se enquadre em uma das exceções acima
Teaching Hospital Trust, que revisa as inscrições dos pesquisadores mencionadas ou no consentimento implícito necessário para cuidado direto.
de acordo com, entre outras coisas, o mérito científico do plano de O processamento de lâminas digitais na confiança do hospital se
pesquisa, os benefícios para as comunidades de pacientes e a enquadra nas práticas de dados necessárias para o atendimento
conformidade com os dados lei de proteção [8]. Após a aplicação bem- direto. No entanto, quando se trata de compartilhar dados de patologia
sucedida, a equipe de extração de dados desidentifica os dados para fins de pesquisa, não existe um processo padrão. Por exemplo,
suprimindo, com dados controlados por NPIC, alguns pesquisadores externos que
desejam acesso aos dados podem buscar voluntariamente

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society J Pathol Clin Res 2022; 8: 209–216
of Great Britain and Ireland & John Wiley & Sons, Ltd.
Machine Translated by Google

T
h
d
3
2 212

consentimento opcional dos pacientes como parte de suas


aprovações éticas antes de se inscrever em nosso comitê de acesso
a dados, enquanto certas formas de dados vinculados já podem ter
acordos para consentimento explícito para compartilhamento de
dados para pesquisa (por exemplo, o Projeto 100.000 Genomas,
que é para ser vinculado ao conjunto de dados NPIC, tem
consentimento explícito como requisito) [12]. Por outro lado, no
entanto, o consentimento explícito não é um requisito, seguindo as
recomendações do General Medical Council (GMC) para o
compartilhamento de imagens de patologias não identificadas [13].
Os fundamentos éticos para compartilhar imagens de patologia sem
consentimento são encontrados no anonimato dos dados, que é
uma das exceções ao dever de confidencialidade da lei comum [14].

Embora o anonimato em seu sentido mais forte signifique não ter


como vincular qualquer informação que possa identificar alguém,
aqui o anonimato tem um significado mais prático de identificabilidade
de baixo risco e, portanto, é sinônimo de desidentificação robusta.
Tal interpretação é apoiada pelo Information Commissioners Office
(ICO), que confirma que a exceção de anonimato se aplica mesmo
que haja riscos limitados de reidentificação [9]. Da mesma forma, a
Lei de Proteção de Dados (2018) e a jurisprudência confirmam que
o anonimato não precisa ser "isento de riscos", apenas que os riscos
de identificação sejam mitigados de modo a serem remotos ou
improváveis. Mesmo quando o responsável pelo tratamento detenha
informações que possam permitir a possibilidade de reidentificação,
isso por si só não é motivo suficiente para constituir a divulgação de
informações pessoais [9]. Embora reconheça que o anonimato é
potencialmente problemático em uma era de big data, não há razão
a priori para pensar, então, que compartilhar dados de patologia
digital não identificados junto com dados vinculados falharia em um
teste de anonimato de baixo risco.

A desidentificação dos dados do paciente informa a abordagem


do NPIC para o consentimento, que é compartilhar dados
desidentificados sem o consentimento individual, de modo a
maximizar a utilidade dos dados de saúde para benefício público.
Acreditamos que isso se alinha com a opinião pública, na medida
em que o público em geral está mais disposto a compartilhar dados
F McKay e outros

Embora o consentimento opcional (seja amplo, dinâmico ou


meta) possa oferecer alternativas para aumentar a autonomia dos
titulares de dados, pode ser difícil de administrar em escala ou para
dados retrospectivos e provavelmente também reduziria as taxas
de participação, comprometendo a utilidade do banco de dados
como resultado [17,18]. Os modelos de exclusão são indiscutivelmente
mais fáceis de implementar, embora reconheçamos que também há
riscos com esses modelos. Por exemplo, é questionável se os opt-
outs fornecem uma escolha genuína se os pacientes desconhecem
essa opção e é possível que eles possam introduzir viés no conjunto
de dados se certos grupos de pessoas optarem por não participar
[19].
Um envolvimento público robusto limitaria o risco do primeiro. Em
relação a este último, não se sabe quais são os riscos específicos
para a patologia digital, embora haja motivos para otimismo. Por
exemplo, os números mais recentes para o opt-out de dados
nacionais (para setembro de 2021) mostram uma taxa de opt-out de
5,35% [20]. De acordo com um estudo, isso está dentro das
tolerâncias de um estudo significativamente representativo da saúde
da população, que coloca os requisitos de participação em 90% [21].

Dito isso, vieses continuam sendo uma possibilidade teórica se opt-


outs sistemáticos ocorrerem dentro dessa margem (e especialmente
se a margem crescer).
Apesar desses riscos, argumentamos que seguir o opt-out
nacional é uma alternativa razoável e prática às medidas de opt-in,
proporcionando aos pacientes autonomia em relação ao
compartilhamento de dados não identificados, ao mesmo tempo em
que equilibra isso com a necessidade de maximizar o
compartilhamento de dados e proteger a confidencialidade do
paciente. Tal como acontece com a privacidade, também
aconselhamos que os riscos de exclusão sejam continuamente monitorados e mitigad

Equidade

Dados os baixos riscos para a confidencialidade do paciente, os


benefícios públicos do compartilhamento de dados e a possibilidade
de exclusão, afirmamos que a abordagem acima funciona bem para
proteger os interesses individuais dos titulares de dados quanto à
quando identificados [15]. Também reconhecemos, no entanto, que privacidade e autonomia. No entanto, há desafios sociais mais
os pacientes podem querer exercer algum controle sobre os fluxos amplos da patologia digital impulsionada pela IA em relação à
de dados, mesmo quando não identificados, o que conseguimos equidade que precisam ser mencionados.
verificando os opt-outs nacionais antes da divulgação dos dados. Por exemplo, um dos desafios mais prementes que surge na
A decisão de seguir o opt-out nacional é voluntária, uma vez que literatura de IA médica é o valor dos dados e o envolvimento com
só é obrigatória ao compartilhar informações identificáveis sem fins lucrativos. Como vários estudos confirmam, o público geralmente
consentimento (ou seja, quando o compartilhamento se enquadra apóia o compartilhamento de dados do NHS para fins além dos
na seção 251 do NHS Act 2006, que permite que a confidencialidade cuidados diretos, mas esse apoio é amplamente condicionado à
seja reservada para informações identificáveis sob certas condições) existência de benefícios públicos, e não meramente privados
[16]. Não se aplica, portanto, a dados não identificados, como os [22,23]. Isso não significa que os motivos de fins lucrativos não
utilizados em NPIC. possam desempenhar qualquer papel. As evidências também
sugerem que o público está

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society J Pathol Clin Res 2022; 8: 209–216
of Great Britain and Ireland & John Wiley & Sons, Ltd.
Machine Translated by Google

T
h
d
3
2 A ética da patologia digital orientada por IA

cada vez mais conscientes do valor dos dados do NHS, e


também são da opinião de que seu valor pode ser devolvido em
benefícios diretos (cuidados de saúde) e indiretos (financeiros,
administrativos, etc.) [10,24]. Não obstante esse amplo
entendimento da reciprocidade, as evidências mostram que há
ceticismo comum sobre os acordos de compartilhamento de
dados comerciais, especialmente nos casos em que os parceiros
comerciais negociam acordos de compartilhamento que são
desproporcionalmente favoráveis aos seus interesses privados
sobre o benefício público [10,22,25,26 ].
Dado que grandes empresas de tecnologia e mídia social,
que possuem conhecimentos avançados de engenharia e
recursos técnicos para apoiar a pesquisa de IA em escala,
desempenham um papel importante na pesquisa em saúde
(orientada por IA), a questão é como oferecer um modelo
equilibrado e justo de práticas de compartilhamento de dados

As respostas contemporâneas a essa questão têm sido oferecer


orientação sobre as melhores práticas por meio, por exemplo, de
listas de verificação para aquisição de IA, esquemas de
compensação financeira e promessas de um centro de
especialização do NHS para fornecer orientação sobre o valor
dos dados [27,28]. Tal conselho, no entanto, pode limitar o valor
percebido dos dados ao valor financeiro e, portanto, levanta mais
questões sobre como diversificar o que constitui valor e
reciprocidade justa.
Outro desafio para a equidade em saúde vem da possibilidade
de viés algorítmico. Embora o viés algorítmico tenha sido
observado principalmente fora dos contextos de saúde,
recentemente foi demonstrado que também tem implicações para
as comunidades de pacientes [29-31]. Como observa Hao [32],
existem diferentes maneiras pelas quais o viés pode encontrar
seu caminho na IA, desde conjuntos de dados sub-representados
até uma conceitualização deficiente da pesquisa. Não está claro

patologia digital se baseiam em abordagens existentes para


seleção de coorte em patologia e ensaios clínicos, o que significa
que qualquer viés possível não seria necessariamente um
resultado da patologia digital per se, mas dessas práticas existentes.
Há também uma suposição generalizada de que as células
Confiar

Tanto o envolvimento comercial quanto o viés têm implicações

aos melhores interesses de outro, cuja confiança deve ser


conquistada, não obrigada. Da mesma forma, confiabilidade
significa ser capaz de demonstrar essa boa vontade. Embora
não haja estudos de confiança pública na patologia digital
impulsionada pela IA, vários estudos mostram diferentes graus
de consciência e confiança em torno da IA. Uma recente pesquisa
pública realizada para a British Computer Society destaca que
aproximadamente metade (53%) dos 2.000 adultos pesquisados
afirmaram não ter “fé em nenhuma organização para usar
com pesquisadores, incluindo aqueles que trabalham com fins lucrativos?
algoritmos ao fazer julgamentos sobre eles” [36]. Apenas 17%
dos entrevistados confiaram no uso de decisões automatizadas
no NHS. A pesquisa realizada pela Ipsos Mori é mais otimista. O
suporte geral para tecnologias baseadas em dados, especialmente
aquelas que usam varreduras ou imagens para a automação do
diagnóstico, foi alto, desde que os humanos fossem mantidos
informados [37,38].

Uma área em que a confiança é mais frágil, no entanto, é no


envolvimento de terceiros comerciais, especialmente mídias
sociais, seguradoras e empresas de marketing, e aquelas com
sede nos EUA, que são consistentemente classificadas como
tendo os mais altos graus de desconfiança [39] .
Na medida em que essas empresas possam querer acesso a
dados de patologia digital para pesquisa, mesmo que o público
seja receptivo à análise de dados de IA para diagnóstico, eles
podem não confiar na empresa solicitante para fazer uso de seus
dados e, portanto, desejam garantias de que qualquer
quais caminhos existem para viés na patologia digital orientada por IA.envolvimento comercial é globalmente de interesse público [35].
Por um lado, as estratégias de identificação de coorte de Da mesma forma, há muita desconfiança documentada afetando
a aceitação ou participação em IA ou pesquisa em saúde em
comunidades minoritárias ou marginalizadas, muitas vezes
devido a histórias de preconceito ou exclusão [40-42].
A desconfiança também pode ser exacerbada pela mídia. Por
exemplo, observou-se que existem ansiedades generalizadas
213

adicionais para a confiança do público. Kerasidou define confiança


em termos de três conceitos principais: vulnerabilidade,
voluntariedade e boa vontade [35]. Assim, para que a confiança
exista, um indivíduo ou organização toma decisões que atendem

cancerígenas comuns exibem uma uniformidade morfológica em relação à IA decorrentes dos danos antecipatórios percebidos
entre as coortes, o que implica que os riscos de viés são mínimos. e, às vezes, das imagens apocalípticas referenciadas em obras
Por outro lado, entende-se que alguns tipos de câncer afetam de ficção [43]. Compreender os dados do paciente também
desproporcionalmente (seja devido à prevalência ou agressividade) destacou como a mídia de notícias geralmente se concentra nos
alguns grupos mais do que outros [33,34], ou são simplesmente riscos do compartilhamento de dados de saúde, e não em seus
mais raros, como no caso dos sarcomas, e, portanto, podem benefícios [44]. Indiscutivelmente, essas representações da mídia
introduzir vieses se sub-representados nos dados de treinamento. sobre os riscos da IA provavelmente afetarão as percepções da
Mais pesquisas são necessárias sobre os caminhos nos quais o confiabilidade da futura IA médica e, tomadas com desconfiança
viés algorítmico pode ser possível. Levado em consideração devido à comercialização e ao viés, enfatizam a necessidade de
pelas preocupações do público em relação à comercialização, desenvolver sistemas de IA médica que sejam dignos de
ele estimula uma reflexão contínua sobre como tornar a pesquisa confiança.
médica de IA igualitária e disponível para todos.

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society J Pathol Clin Res 2022; 8: 209–216
of Great Britain and Ireland & John Wiley & Sons, Ltd.
Machine Translated by Google

T
h
d
3
2 214

Demonstrou-se que a confiabilidade é conquistada de várias


maneiras em contextos médicos, por exemplo, por meio de
processos de consentimento, integridade profissional e
envolvimento da comunidade [35]. No contexto da IA, argumenta-
se que a confiabilidade é conquistada pelo desenvolvimento de
algoritmos que são legais, éticos e robustos e que respeitam os
princípios da autonomia humana, prevenção de danos, justiça e
explicabilidade (o último dos quais inclui ideais de transparência
e explicabilidade)
[45,46]. Todas essas normas, sem dúvida, continuarão a ser
importantes para a aceitabilidade pública da IA. Dito isto, há
alguma controvérsia em torno da noção de explicabilidade.
Embora seja uma aspiração comum para o desenvolvimento da
IA ética [47], Ghassemi et al [48] recentemente a chamaram de
'falsa esperança' devido a interpretar as lacunas de capacidade
entre os modelos de IA e os métodos de explicabilidade atuais.
Em vez disso, eles defendem uma rigorosa validação interna e
externa de ferramentas de IA para gerar confiança. A validação
será, sem dúvida, um mecanismo essencial para promover a
confiança pública e, apesar do ponto de Ghassemi et al, como a
IA é comunicada de forma transparente ao público também deve
permanecer uma questão de importância vital para a ética futura
da pesquisa médica de IA [49].

Conclusão

Privacidade, escolha, equidade e confiança não esgotam as


questões éticas emergentes na patologia digital impulsionada
pela IA, mas são fundamentais para o uso de dados para fins de
pesquisa no campo. Tal como está, a ética de compartilhamento
de dados médicos tende a se concentrar em questões de
privacidade, a fim de proteger os interesses individuais dos
sujeitos de pesquisa. Ao pensar sobre os desafios éticos de
compartilhar dados de patologia, no entanto, é necessário um
ponto de vista mais amplo, o que significa que os patologistas

Embora as questões sejam complicadas, exigindo discussão


contínua dentro da comunidade de pesquisa, também é
discussões com pesquisadores e especialistas em ética enquanto
eles pensam no futuro da IA médica.

Reconhecimentos

Os autores agradecem aos membros da National Pathology


Imaging Cooperative, do Ethox Centre da Universidade de Oxford
e da Yorkshire and Humber Academic Health Science Network
pelas discussões contínuas e pelo apoio na ética da patologia
digital.
Os autores deste estudo são membros da National Pathology
Imaging Cooperative, NPIC (Project No. 104687), que é apoiado
por um investimento de £ 50 milhões da vertente Data to Early

Fund do governo, administrado e entregue pela Pesquisa e


Inovação do Reino Unido (UKRI).

O NH é financiado pela Fundação Li Ka Shing. Tanto o NH


quanto o FM também são membros do Ethox Center e do
Wellcome Center for Ethics and Humanities, que é financiado
pelo Wellcome Trust (Concessão No. 203132). Nenhum
financiamento específico foi recebido para este estudo.

Declaração de contribuições do autor

Todos os autores estiveram envolvidos na teorização e redação


do artigo e tiveram a aprovação final das versões submetidas e
publicadas.

Referências

1. Turnquist C, Roberts-Gant S, Hemsworth H, et al. À beira de uma transformação


digitais também precisam fortalecer os compromissos com a escolha, equidade e confiança.
de patologia digital: visões de um grupo focal de laboratório de patologia
celular. J Pathol Informe 2019; 10: 1–7.
2. Williams BJ, Bottoms D, Treanor D. Patologia à prova de futuro: o caso da
F McKay e outros

Diagnosis and Precision Medicine do Industrial Strategy Challenge

importante lembrar o papel que o paciente e o envolvimento e adoção clínica da patologia digital. J Clin Pathol 2017; 70: 1010–1018.

engajamento público (PPIE) têm em tudo isso. Como confirma


3. Geis JR, Brady AP, Wu CC, et al. Ética da inteligência artificial em radiologia:
uma pesquisa recente com histopatologistas no Reino Unido, há
resumo da Declaração Multisociedade Conjunta Europeia e Norte-Americana.
uma “necessidade geral de transparência sobre o uso de dados
Radiologia 2019; 293: 436–440.
e a inclusão de pontos de vista e opiniões do público nas
4. Larson DB, Magnus DC, Lungren MP, et al. Ética do uso e compartilhamento
decisões sobre esses usos” [6]. Uma razão, no entanto, pela
de dados de imagens clínicas para inteligência artificial: uma estrutura
qual as práticas de compartilhamento de dados médicos às
proposta. Radiologia 2020; 295: 675–682.
vezes têm dificuldades decorre de uma falha em incluir 5. Morley J, Machado CCV, Burr C, et al. A ética da IA na área da saúde: uma
adequadamente os pacientes e o público no processo de revisão de mapeamento. Soc Sci Med 2020; 260: 1–14.
governança [50,51]. Para fortalecer os compromissos com a 6. Coulter C, McKay F, Hallowell N, et al. Compreender as considerações éticas
privacidade, escolha, equidade e confiança, seria sensato e legais da Patologia Digital. J Pathol Clin Res 2021; 8: 101–115.
aprender com isso e envolver o público nesses

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society of Great J Pathol Clin Res 2022; 8: 209–216
Britain and Ireland & John Wiley & Sons, Ltd.
Machine Translated by Google

T
h
d
3
2 A ética da patologia digital orientada por IA

7. Conselho Médico Geral. Confidencialidade: Boas Práticas no Manuseio das


Informações do Paciente. Conselho Médico Geral: Manchester, 2017.
[Acesso em 26 de janeiro de 2022]. Disponível em: https://www.gmc-uk.
org/orientação-ética/orientação-ética-para-médicos/confidencialidade
8. Leeds Learning Hospital NHS Trusts. Equipe de Dados de Pesquisa e
Informática. [Acesso em 26 de janeiro de 2022]. Disponível em: https://www.
leedsth.nhs.uk/research/our-research/research-data-informatics-team/

9. Gabinete do Comissário de Informação. Anonimização: Código de práticas de


gerenciamento de risco de proteção de dados. Comissário de Informação

Escritório: Cheshire, 2012. [Acessado em 26 de janeiro de 2022]. Disponível


em: https://ico.org.uk/media/1061/anonymisation-code.pdf 10. Ada Lovelace
Institute, Understanding Patient Data. Foundations of Fairness: Qual o próximo passo
para as parcerias de dados de saúde do NHS?
Londres, 2020. [Acessado em 26 de janeiro de 2022]. Disponível em: https://
understandingpatientdata.org.uk/sites/default/files/2020-03/
Foundations%20of%20Fairness%20-%20Summary%20and%20 Analysis.pdf
11. Faden RR, Beauchamp TL, King NMP . Uma História e Teoria do
Consentimento Informado. Oxford University Press: Nova York, 1986.

12. Genômica Inglaterra. Consentimento no Projeto 100.000 Genomas.


[Acesso em 26 de janeiro de 2022]. Disponível em: https://www.
genomicsengland.co.uk/about-genomics-england/the-100000-genomes
project/information-for-gmc-staff/consent/
13. Conselho Médico Geral Fazendo e Usando Gravações Visuais e de Áudio de
Pacientes. General Medical Council, 2013. [Acessado em 26 de janeiro de
2022]. Disponível em: https://www.gmc-uk.org/-/media/documents/making-and-
using-visual-and-audio-recordings of-patients_pdf-58838365.pdf 14.
Departamento de Saúde. Confidencialidade: Código de Prática do NHS.

Departamento de Saúde: Londres, 2003. [Acessado em 26 de janeiro de 2022].


Disponível em: https://assets.publishing.service.gov.uk/government/ uploads/
system/uploads/attachment_data/file/200146/Confidentiality_-_
NHS_Code_of_Practice.pdf 15. Whiddett R, Hunter I, Engelbrecht J, et al .
Atitudes dos pacientes em relação ao compartilhamento de suas informações de
saúde. Int J Med Informe 2006; 75: 530–541.

16. Heaver Z. Orientação de exclusão de dados nacionais para pesquisadores.


[Acesso em 26 de janeiro de 2022]. Disponível em: https://digital.nhs.uk/
services/data-access-request-service-dars/how-the-national-data-opt out-
affects-data-released-by-nhs-digital/national- orientação de exclusão de
dados para pesquisadores

17. Ballantyne A. Ajustando o foco: uma abordagem ética em saúde pública


à pesquisa de dados. Bioética 2019; 33: 357–366.
18. Sheehan M, Thompson R, Fistein J, et al. Autoridade e o futuro do consentimento
detecção de câncer e registros de câncer'. Gesundheitswesen 2013;
75: 751–753.

22. Pensamento Curvo Compreendendo as Expectativas do Público sobre o Uso de


Dados de Saúde e Cuidados. Curved Thinking, 2019. [Acessado em 26 de

Ipsos. O espelho unidirecional: atitudes públicas em relação ao acesso comercial a


dados de saúde. Wellcome Trust. Jornal Con

tribuição. 2017. https://doi.org/10.6084/m9.figshare.5616448.v1 24. Aitken


M, Cunningham-Burley S, Pagliari C. Passando da confiança para a confiabilidade:
experiências de engajamento público no Programa Escocês de Informática em
Saúde. Sci Public Policy 2016; 43:
713–723.

25. Skovgaard LL, Wadmann S, Hoeyer K. Uma revisão das atitudes em relação à
reutilização de dados de saúde entre as pessoas na União Europeia: a primazia
do propósito e o bem comum. Política de Saúde 2019; 123: 564–571.

26. Harwich E, Lasko-Skinner R. Fazendo os dados do NHS funcionarem para todos.


Reforma: Londres, 2018. [Acesso em 26 de janeiro de 2022]. Disponível em:
https://reform.uk/research/making-nhs-data-work-everyone 27. Ghafur S,
Fontana G, Halligan J, et al. Dados do NHS: maximizando seu impacto na saúde
e na riqueza do Reino Unido. Imperial College London, Institute of Global
Health Innovation: Londres, 2020. [Acessado em 26 de janeiro de 2022].
Disponível em: https://spiral. imperial.ac.uk/bitstream/10044/1/76409/6/
Imperial%20-%20NHS% 20Data%20-
%20Maximizing%20impact%20on%20health%20of% 20UK%202020.pdf

28. Joshi I, Cushnan D, Pollard C. Uma lista de verificação do comprador para IA


em saúde e cuidados. NHSX, 2020. [Acessado em 26 de janeiro de 2022].
Disponível em: https://www.nhsx.nhs.uk/media/documents/NHSX_A_Buyers_
Guide_to_AI_in_Health_and_Care_KVjMIWP.pdf
29. Larrazabal AJ, Nieto N, Peterson V, et al. Desequilíbrio de gênero
conjuntos de dados de imagens médicas produzem classificadores tendenciosos
para diagnóstico auxiliado por computador. Proc Natl Acad Sci EUA 2020; 117:
12592–12594.
215

janeiro de 2022]. Disponível em: https://understandingpatientdata.org.uk/ sites/


default/files/2019-07/Understanding%20public%20expectations
%20of%20the%20use%20of%20health%20and%20care%20data.pdf 23. MORI,

30. Obermeyer Z, Powers B, Vogeli C, et al. Dissecando o viés racial em um algoritmo


usado para gerenciar a saúde das populações. Ciência 2019; 366: 447–453.

31. Panch T, Mattie H, Atun R. Inteligência artificial e viés algorítmico: implicações


para os sistemas de saúde. J Glob Saúde 2019; 9:
020318.

32. Hao K. É assim que o viés de IA realmente acontece — e por que é tão difícil de
corrigir. 2019. [Acessado em 26 de janeiro de 2022]. Disponível em: https://
na pesquisa biomédica em nível populacional. Ética em Saúde Pública 2019; www.technologyreview.com/2019/02/04/137602/this-is how-ai-bias-really-
12: 225–236. happensand-why-its-so-hard-to-fix/ 33. Özdemir BC , Dotto GP. Diferenças
19. Piel FB, Parkes BL, Daby H, et al. O desafio de optar por não participar dos raciais na suscetibilidade e sobrevivência ao câncer: mais do que a cor da pele?
dados do NHS: uma perspectiva de pequena área. J Saúde Pública (Oxf ) 2018; Tendências Câncer
40: e594–e600. 2017; 3: 181–197.
20. NHS Digital. [MI] Desativação de Dados Nacionais, setembro de 2021. 34. Feldman GE. Os judeus Ashkenazi têm um fardo de câncer maior do que o
[Acesso em 26 de janeiro de 2022]. Disponível em : https://digital.nhs.uk/ esperado? Implicações para os esforços de priorização do controle do câncer.
data-and-information/publications/statistical/national-data-opt-out/ Isr Med Assoc J 2001; 3: 341–346.
september-2021 35. Kerasidou A. Confie em mim, sou um pesquisador!: o papel da confiança na bio
21. Greiner F, Nolte S, Waldmann A, et al. Recolha e tratamento de dados pessoais pesquisa médica. Med Health Care Philos 2017; 20: 43–50.
para avaliação de programas de rastreio do cancro – resultados de um inquérito 36. BCS – O Chartered Institute for IT O público não confia

à população alemã à luz do projeto de lei 'precoce Algoritmos de computador para tomar decisões sobre eles, pesquisa

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society of Great J Pathol Clin Res 2022; 8: 209–216
Britain and Ireland & John Wiley & Sons, Ltd.
Machine Translated by Google

T
h
d
3
2 216

Achados. 2020. [Acessado em 26 de janeiro de 2022]. Disponível em: https://


www.bcs.org/more/about-us/press-office/press-releases/the-public dont-trust-
computer-algorithms-to-make-decisions-about-them survey-finds / 37. Castell S,
Robinson L, Ashford H. Tecnologias Futuras Orientadas a Dados e as Implicações
para o Uso de Dados de Pacientes. Ipsos Mori: Londres, 2018. [Acesso em 26 de janeiro

de 2022]. Disponível em: https://acmedsci.ac.uk/file-download/6616969

38. Castell S, Cameron D, Ginnis S, et al. Exibições públicas do aprendizado de


máquina. Ipsos Mori em nome da Royal Society: Londres, 2017. [Acesso em
26 de janeiro de 2022]. Disponível em: https://royalsociety.org//media/policy/
projects/machine-learning/publications/ public -views-of-machine-learning-ipsos-
mori.pdf
39. Horn R, Kerasidou A. Compartilhando enquanto cuida: solidariedade e confiança
pública em um sistema de saúde baseado em dados. BMC Med Ethics 2020; 21: 110.
40. Middleton A, Milne R, Thorogood A, et al. Atitudes de públicos que não estão dispostos
a doar dados de DNA para pesquisa. Eur J Med Genet 2019; 62: 316–323.

41. Instituto Nacional de Pesquisa em Saúde. Percepções do público em relação à


pesquisa de testes de vacinas em minorias étnicas e comunidades vulneráveis.
2020. [Acessado em 26 de janeiro de 2022]. Disponível em: https://arc-em.nihr.ac.uk/
clahrcs-store/public-perceptions-towards vacina-trial-research-within-ethnic-minority-
and 42. Seto B. História da ética médica e perspectivas sobre disparidades no
recrutamento de minorias e envolvimento em pesquisa em saúde. Am J Med Sci 2001;
322: 246–250.

43. Cave S, Dihal K. Esperanças e medos de máquinas inteligentes na ficção e na


realidade. Nat Mach Intell 2019; 1: 74-78.
44. Compreendendo os dados do paciente. Como as histórias sobre dados de saúde são
abordadas na mídia do Reino Unido? 2021. [Acessado em 26 de janeiro de 2022].
https://doi.org/10.2759/
177365
F McKay e outros

Disponível em: http://understandingpatientdata.org.uk/news/how


são-histórias-sobre-dados-saúde-cobertos-reino-media

45. Comissão Europeia, Direcção-Geral das Redes de Comunicações, Conteúdos e


Tecnologia. Diretrizes de ética para IA confiável. Publications Office, 2019.

46. Kerasidou CX, Kerasidou A, Buscher M, et al. Antes e além da confiança:


confiança na IA médica. J Med Ethics 2021. https://doi.org/10. 1136/
medética-2020-107095.

47. Leslie D. Compreendendo a Ética e a Segurança da Inteligência Artificial: Um Guia


para o Projeto e Implementação Responsável de Sistemas de IA no Setor Público.
The Alan Turing Institute: Londres, 2019. [Acesso em 26 de janeiro de 2022].
Disponível em: https://www. turing.ac.uk/research/publications/understanding-
artificial-inteligência ética e segurança 48. Ghassemi M, Oakden-Rayner L, Beam
AL. A falsa esperança das abordagens atuais para a inteligência artificial explicável
na área da saúde.

Lancet Digit Health 2021; 3: e745–e750.


49. Johnson DG, Verdicchio M. Reenquadrando o discurso da IA. Mentes &
Máquinas 2017; 27: 575–590.

50. Machirori M, Patel R. Transformando a Desconfiança no Compartilhamento de Dados


em 'Engajar, Deliberar, Decidir': Cinco Lições do Esquema de Dados GP para
Planejamento e Pesquisa (GPDPR). 2021. [Acessado em 26 de janeiro de 2022].
Disponível em: https://www.adalovelaceinstitute. org/blog/destrust-data-sharing-
engage-deliberate-decide/ 51. Sterckx S, Rakic V, Cockbain J, et al. “Você esperava
que aceitássemos tranquilamente a coleta de nossos dados”: controvérsias em torno do
esquema care.data do Reino Unido e sua relevância mais ampla para a pesquisa
biomédica. Med Health Care Philos 2016;

19: 177–190.

© 2022 Os Autores. The Journal of Pathology: Clinical Research publicado pela The Pathological Society of Great Britain and J Pathol Clin Res 2022; 8: 209–216
Ireland & John Wiley & Sons, Ltd.

Você também pode gostar