Você está na página 1de 74

Machine Translated by Google

Instituto Ann Caracristi


Para Pesquisa de Inteligência

PESQUISAR
COMUNHÃO

MONÓGRAFIA DE PESQUISA

Percepções de Artificial
Inteligência/Aprendizado de
Máquina na Comunidade de Inteligên
Uma revisão sistemática da literatura

Adrian Wolfberg, Ph.D.


Pesquisador, National Intelligence University, 2020-21

As opiniões expressas nesta monografia de pesquisa são de responsabilidade do autor e não refletem a política ou posição oficial da Universidade Nacional de Inteligência, do Escritório do
Diretor de Inteligência Nacional ou de qualquer outra agência do governo dos EUA.
Machine Translated by Google

Percepções de
Inteligência artificial/
Aprendizado de máquina no
Comunidade de Inteligência:
Uma revisão sistemática da literatura

Adrian Wolfberg, Ph.D.


UNIVERSIDADE NACIONAL DE INTELIGÊNCIA

PUBLICADO NO OUTONO DE 2022


Machine Translated by Google

As opiniões expressas nesta monografia de pesquisa são de responsabilidade do autor e não refletem a política ou
posição oficial da Universidade Nacional de Inteligência, do Escritório do Diretor de Inteligência Nacional ou de
qualquer outra agência do governo dos EUA.
Machine Translated by Google

Abstrato
Muitas vozes expressaram as suas preocupações sobre o estado da inteligência artificial (aprendizado de máquina)
na Comunidade de Inteligência dos EUA. Este estudo utiliza uma metodologia de revisão sistemática para coletar,
analisar e sintetizar as razões dessas preocupações, os problemas levantados e as soluções oferecidas. Uma
revisão sistemática visa fornecer uma abordagem de gestão baseada em evidências para identificar o que se sabe
sobre um tópico e fornecer aos profissionais informações para decidir que medidas tomar no futuro. Utilizando uma
metodologia de revisão sistemática, este estudo parece ser o primeiro do género e capta uma compreensão holística
das questões relacionadas com a inteligência artificial na Comunidade de Inteligência. A teoria da atenção
organizacional é utilizada como lente teórica porque os resultados são muito complexos no que diz respeito à
amplitude e profundidade dos problemas levantados e das soluções oferecidas. Afectam directamente em que e
como os decisores da Comunidade de Inteligência concentram a sua atenção e reagem às conclusões. As
preocupações levantadas na literatura abordam questões relacionadas a fatores decisórios e comportamentais que levam ao uso da int
Os problemas identificados são categorizados entre aqueles internos à Comunidade de Inteligência, aqueles externos
à Comunidade de Inteligência e aqueles exclusivos da inteligência artificial. As soluções abordam quais lacunas de
conhecimento precisam ser preenchidas e quais necessidades de implementação devem ser satisfeitas. Um modelo
conceitual é proposto para ajudar a absorver e operacionalizar os resultados deste estudo. Embora a tecnologia
artificial seja uma tecnologia, quase tudo neste estudo trata de psicologia, psicologia social e comportamento
organizacional, ou seja, é uma história sobre pessoas.

Resumo 3
Machine Translated by Google
Machine Translated by Google

Índice

ABSTRATO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Emitir . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Questão de pesquisa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Escopo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Finalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Relevância para a

Comunidade de Inteligência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

METODOLOGIA DE PESQUISA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Estrutura Conceitual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 perguntas-

chave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Projeto de

Pesquisa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Método de Revisão

Sistemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Estratégia de Coleta de

Dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 Detalhes da

pesquisa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Estratégia Analítica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

ACHADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Questões Decisórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Considerações sobre IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Considerações não relacionadas à IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Questões comportamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Preocupações externas da IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Preocupações internas da IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

ÍNDICE 5
Machine Translated by Google

Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Problemas internos para IC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Restrições da Cultura IC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Teoria Desatualizada da Inteligência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Percepções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Restrições em nível de sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Problemas externos aos IC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Ameaças externas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

Restrições políticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

Ambiente Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

Natureza da IA/ ML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

Restrições de conhecimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Limitações da IA/ML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

Preencha lacunas de conhecimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36


Decida o que a IA/ML deve fazer… . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

Pesquisa Acadêmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Visão de Liderança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

Atender às necessidades de implementação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Desenvolvimento de estratégia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Desenvolvimento de Equipe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Foco na comunidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

Resumo das Constatações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


Problemas e soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

CONCLUSÃO E IMPLICAÇÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Natureza multinível dos problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Soluções em cada nível . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Atenção Organizacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

Maneiras de liderar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

Resumo da Estrutura Conceitual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


Recomendações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Limitações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

Comentários finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 6


Machine Translated by Google

NOTAS FINAIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

LISTA DE FIGURAS

Figura 1. Teoria da Atenção Organizacional aplicada ao CI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Figura 2. Três

perguntas de revisão subordinada sobre IA/ML na comunidade de inteligência . . 13

Figura 3. Fluxo de pesquisa de revisão sistemática de IA/ML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

Figura 4. Distribuição dos 41 artigos finais por ano de publicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Figura 5. Tipos de locais de publicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Figura 6. Trabalho do autor no momento da publicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Figura

7. Motivação que explica por que as questões de IA/ML são uma preocupação para o CI . . . . . . . . . . . . . . . . . . . . . . . . 19

Figura 8. Questões de decisão motivacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

Figura 9. Questões Comportamentais Motivacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Figura 10. Problemas de IA/ML para o IC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Figura 11. Problemas de restrições da cultura IC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 Figura 12.

Teoria Desatualizada dos Problemas de Inteligência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

Figura 13. Percepções de problemas de IA/ML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Figura 14. Problemas de restrições em nível de sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Figura 15. Problemas com ameaças externas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

Figura 16. Problemas de restrições políticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 Figura 17.

Problemas do ambiente digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

Figura 18. Problemas associados às restrições de conhecimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Figura 19. Problemas associados às limitações de IA/ML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Figura 20. Soluções para IA/ML para o IC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

Figura 21. Tomada de soluções de decisões de IA/ML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Figura

22. Soluções de pesquisa acadêmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Figura 23. Soluções de visão de liderança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

Figura 24. Soluções de Desenvolvimento de Estratégia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Figura 25. Soluções de Desenvolvimento de Equipe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Figura 26. Soluções com foco na comunidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

ÍNDICE 7
Machine Translated by Google

Figura 27. Respostas às perguntas de revisão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

Figura 28. AI/ML no CI como um conjunto de problemas humanos multiníveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Figura 29. Estrutura conceitual para abordar IA/ML no CI . . . . . . . . . . . . . . . . . . . . . . . . . . 52

LISTA DE MESAS
Tabela 1. Perguntas de revisão e resultados de codificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 8


Machine Translated by Google

Introdução

Emitir
Este estudo faz parte de um projeto mais amplo para criar uma visão para o futuro da missão de inteligência de segurança nacional.1
Este estudo é um precursor dessa visão, pois sugere o que se sabe sobre a questão geral e o estado atual do conhecimento dos
problemas. e soluções dentro da Comunidade de Inteligência (IC) hoje.

Questão de pesquisa
A questão de pesquisa é: qual é o estado do conhecimento sobre problemas e soluções na atual comunidade de inteligência com IA/
ML?

Escopo
Este estudo enfoca inteligência artificial e aprendizado de máquina na comunidade de inteligência. Os termos para essas tecnologias
são frequentemente usados de forma intercambiável na prática, portanto, são combinados como IA/ML.

A inteligência artificial pode ser definida como tecnologias que se alteram, como aprendizado de máquina, técnicas estatísticas que
usam algoritmos e aprendizado profundo, uma forma mais sofisticada de aprendizado de máquina.2
A inteligência artificial também pode ser definida como a tecnologia que resolve problemas que um ser humano normalmente resolve.3
Contudo, não existe uma definição padrão para inteligência artificial.4 A Comissão Nacional de Segurança sobre Inteligência Artificial
definiu recentemente inteligência artificial como “…tecnologias que resolvem tarefas que requerem percepção, cognição, planeamento,
aprendizagem, comunicação ou acção física semelhantes aos humanos; e tecnologias que podem aprender e agir de forma autônoma,
seja na forma de agentes de software ou de robôs incorporados.”5

O aprendizado de máquina beneficia os usuários com base em como a tecnologia foi treinada. Treinamento supervisionado significa
que os dados a priori foram categorizados por humanos relevantes para a finalidade da tecnologia. O treinamento não supervisionado
significa que os dados não precisam ser categorizados a priori, e o aprendizado profundo usa algoritmos chamados redes neurais.6
Na maior parte, o aprendizado de máquina resolve problemas onde existe conhecimento a priori sobre as complexidades dos dados e
como vários dados interagem.7 Muitos artigos usam o termo inteligência artificial sem maiores especificações. Em contrapartida,
outros artigos enfocam o aprendizado de máquina, a tecnologia avançada mais utilizada na Comunidade de Inteligência.

Introdução 9
Machine Translated by Google

Propósito
O objetivo de responder à questão de investigação é fundamentar os decisores na realidade do estado atual do
conhecimento da IA/ML. Este conhecimento pode então levar a discussões e decisões sobre como o CI pode evoluir para
uma fonte de informação mais eficaz, relevante e procurada.

Relevância para a comunidade de inteligência


Este estudo está focado em IA/ML conforme se aplica ao CI. As diferentes perspectivas e conhecimentos sobre este tema
podem fornecer uma base de conhecimento para construir ideias sobre o seu futuro para o CI.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 10


Machine Translated by Google

Metodologia de Pesquisa

Estrutura Conceitual
A visão da teoria da empresa baseada na atenção do behaviorista organizacional William Ocasio fornece a lente teórica
para este estudo a partir de uma perspectiva individual e organizacional.8 A teoria baseada em processos de Ocasio
baseia-se em três premissas no nível individual de análise. Primeiro, os tomadores de decisão tomam decisões com base
naquilo que atendem. Em segundo lugar, a concentração dos decisores depende do contexto da situação. Terceiro, o
contexto da situação em que os tomadores de decisão se encontram depende das regras, dos recursos e das relações
sociais da organização. Aquilo a que prestamos atenção influencia a forma como os problemas e as respostas são tratados.

Ocasio afirma que a forma como uma organização presta atenção aos problemas molda a capacidade da organização de
fazer mudanças, uma teoria baseada na adaptação.9 Existem três maneiras pelas quais a atenção molda a capacidade
de adaptação das organizações. Primeiro, a perspectiva atencional é como a estratégia da organização influencia aquilo a
que o tomador de decisão presta atenção. Em segundo lugar, o envolvimento atencional é o tempo, a energia e o esforço
que os decisores dedicam à resposta a questões, problemas e respostas. Terceiro, a seleção atencional são os padrões
de resultados históricos resultantes da atenção a questões, problemas e soluções.

Este estudo explora os artigos que discutem IA/ML nos quais os escritores direcionam implicitamente suas preocupações
aos tomadores de decisão e às organizações. Os indivíduos, sejam internos ou externos ao CI, identificam áreas de
preocupação que acreditam que o CI precisa de abordar para o tornar mais relevante e valorizado pelos seus clientes.
Esses indivíduos são motivados a levantar questões porque estudam o CI, apoiam o CI ou têm experiência como membros
do CI. Eles apresentam os problemas e oferecem soluções em vários locais: revistas académicas, documentos conceituais
da indústria, documentos de grupos de reflexão, material de conferências, etc. Os decisores da Comunidade de Inteligência
podem então considerar como as questões, problemas e soluções podem ser tratados. Porém, se há uma infinidade de
problemas e soluções, então como o CI os absorve? A quais problemas ou soluções um tomador de decisão deve prestar
atenção? Quais são ignorados porque não conseguiram chamar a atenção de um tomador de decisão?

A teoria da atenção organizacional sugere que a capacidade do CI de se adaptar a um novo ambiente é diretamente
afetada pelo processo e pelos tipos de atenção usados pelos tomadores de decisão do CI. O objetivo e o resultado deste
estudo não responderão à pergunta: “como o CI absorve informações sobre IA/
ML e agir de acordo com isso? Além disso, fornecerá uma maneira razoavelmente precisa de organizar o amplo espectro
de problemas e soluções para que perguntas futuras possam ser feitas. Uma questão futura pode ser: como o CI usará
essas informações para se adaptar à IA/ML?

Metodologia de Pesquisa 11
Machine Translated by Google

A Figura 1 representa como a teoria da atenção organizacional se aplica ao CI. Questões são levantadas para identificar
problemas dentro de um tópico e soluções são oferecidas com base nos problemas definidos. Indivíduos que identificaram
problemas e soluções estão buscando a atenção dos tomadores de decisão do CI para mudar o CI para melhor.
A capacidade de mudança do CI depende, em parte, da capacidade do tomador de decisão de concentrar sua atenção, como
pode ser visto por fatores individuais na metade superior da Figura 1. É afetado pelos comportamentos relacionados à atenção
de sua organização, na metade inferior da Figura 1. 1, fatores organizacionais. Uma vez identificadas as questões, problemas
e soluções, o CI pode então considerar como esta informação pode ser usada para fazer mudanças para melhorar a si mesmo.

Figura 1. Teoria da Atenção Organizacional aplicada ao CI

Foco de atenção

Individual Atenção situacional


Fatores
Estrutural
distribuição de
atenção

Indivíduos aumentam Os problemas são As soluções são A capacidade do IC de se adaptar


Questões de preocupação identificado identificado é influenciado por...

Atenção
perspectiva

Organizacional Atenção

Fatores noivado

Atenção
seleção

Perguntas-chave
O estudo utilizou três questões de revisão subordinadas para organizar a análise da literatura, conforme mostrado na Figura 2.
O termo questão de revisão é utilizado intencionalmente para diferenciá-la de uma “questão de pesquisa”. Uma pergunta de
pesquisa é usada quando um indivíduo coleta dados para responder à sua pergunta (chamada “pesquisa primária”). Em
contraste, uma pergunta de revisão é usada quando um indivíduo compila produtos acabados de outros autores, muitas vezes
chamados de “pesquisa secundária”. Este estudo captura o trabalho de outros e é, portanto, uma pesquisa secundária.

A primeira questão de revisão subordinada (RQ1) pergunta sobre a motivação de alguém para escrever sobre IA/ML no IC:
“Que razões motivam alguém a publicar seu conhecimento e experiência?” Em outras palavras, qual é o seu foco de atenção?
A segunda questão subordinada de revisão (RQ2) centra-se nos problemas declarados na sua publicação sobre IA/ML no CI,
“Que problemas são identificados sobre IA/ML no CI?” O foco de atenção do autor serve como uma lente através da qual os
problemas são identificados. O terceiro subordinado

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 12


Machine Translated by Google

a pergunta de revisão (RQ3) concentra-se nas soluções oferecidas: “Quais soluções são sugeridas que poderiam
melhorar a IA/ML no CI?” As Figuras 7 a 26 mostram como cada pergunta de revisão é respondida com mais detalhes.

Figura 2. Três perguntas de revisão subordinada sobre IA/ML na comunidade de inteligência

Motivação
Que motivos são motivadores
o(s) autor(es) a publicar?

Problemas
Quais são os problemas
autor(es) identificando?

Quais são as soluções


Soluções
autor(es) sugerindo?

Projeto de Pesquisa
Este estudo adota muitos, mas não todos, recursos da metodologia de revisão sistemática, que utiliza uma abordagem
disciplinada para encontrar, analisar e sintetizar afirmações de conhecimento sobre um tópico.10 Uma revisão
sistemática é como uma revisão de literatura com uma diferença significativa. Uma revisão sistemática consiste em um
processo formal com etapas definidas destinadas a capturar todas as evidências relevantes e é o foco do próprio
estudo. Em contraste, uma revisão da literatura é informal e direcionada a conceitos específicos de interesse do
pesquisador e é um meio para atingir um fim, usado como uma introdução à parte fundamental da pesquisa.11

As revisões sistemáticas normalmente levam de seis a 18 meses.12 Um processo típico de revisão sistemática inclui
a formulação do problema, a pesquisa na literatura, a triagem para inclusão de dados relevantes, a avaliação da
qualidade dos dados, a extração dos dados, a análise e síntese dos dados e o relatório. as descobertas.13 Os dados
deste estudo são extraídos de artigos de revistas acadêmicas, capítulos de livros, white papers, artigos de revistas, etc.
Devido às restrições de prazo, esta revisão sistemática teve que modificar a sua abordagem, não incluindo uma
avaliação formal da qualidade dos artigos considerados. No entanto, os artigos foram avaliados informalmente quanto
à qualidade. Por exemplo, os artigos só foram incluídos se fossem de autoria de indivíduos que tivessem credenciais
que cruzassem o IC e o AI/ML.

Método de Revisão Sistemática

Os principais aspectos metodológicos de uma revisão sistemática incluem o tipo de pergunta feita e como os dados
são analisados. As revisões sistemáticas podem fazer diferentes tipos de perguntas de revisão. O tipo descritivo é
utilizado para apoiar este estudo porque permite ao pesquisador caracterizar o estado de conhecimento de um tema,
que é justamente o que precisa ser feito neste estudo.

Metodologia de Pesquisa 13
Machine Translated by Google

Esta revisão sistemática utilizou uma abordagem interpretativa.14 A interpretação envolve um sistema de codificação para
identificar categorias e temas criados pelo pesquisador a partir da literatura. A codificação neste contexto não deve ser
confundida com a ciência da computação, onde a codificação é um conjunto de instruções necessárias que fazem um
computador fazer o que os cientistas da computação esperam.

Numa abordagem interpretativa, um código é uma palavra ou conjunto de termos gerados pelo pesquisador para capturar o
significado essencial da seleção narrativa de outra pessoa, seja ela falada ou escrita.15 É um processo de interpretação.
O processo de codificação envolve várias etapas que começam com a divisão de uma narrativa em partes componentes, a
função de análise. Termina com a construção de uma nova estrutura a partir das peças, a função de síntese.16

O processo de codificação pode ser indutivo e dedutivo. A codificação indutiva é orientada por dados e flexível, enquanto a
codificação dedutiva usa códigos predeterminados para organizar a codificação de dados. A codificação pode utilizar uma
combinação de processos indutivos e dedutivos.17 Neste estudo, é utilizada uma combinação de codificação indutiva e dedutiva.

A codificação dedutiva serve como dispositivo de enquadramento inicial usando três componentes predeterminados, cada um
representando as questões de revisão discutidas acima: motivação, problema e solução. Autores que escrevem sobre problemas
e soluções têm suas razões para escrever.18

Uma vez que a literatura é separada em conceitos gerados dedutivamente de motivação, problema e solução, a codificação
indutiva começa e é orientada por dados. Dentro do componente motivação, a codificação indutiva é orientada pela questão:
Qual a motivação para escrever sobre [tema] no CI? Dentro do componente problema, a codificação indutiva é informada pela
pergunta: Quais problemas são identificados sobre [tópico] no CI? Dentro do componente solução, a codificação indutiva é
liderada pela pergunta: Quais soluções são recomendadas para [tópico] no CI?

Estratégia de coleta de dados


Três fluxos de pesquisa encontraram 2.060 artigos relacionados ao CI e AI/ML. Cada um foi revisado para consideração com a

pergunta: Qual é o estado do conhecimento sobre problemas e soluções dentro de IA/ML no CI atual? A Figura 2 resume o fluxo
de inclusão e exclusão dos três fluxos de busca até o número final de 41 artigos utilizados neste estudo.

No primeiro fluxo, 782 resultados foram recuperados de uma pesquisa no Google Scholar usando os termos de pesquisa
“comunidade de inteligência”, AND reforma, AND “aprendizado de máquina” de 2010-2022, excluindo citações. Dos 782
resultados, 28 eram duplicados, resultando em 754 possíveis artigos que atendiam aos critérios de busca. Após a leitura dos
754 artigos, constatou-se que 28 artigos continham informações relevantes para responder à questão da revisão.

Os artigos excluídos dos 754 não tinham como foco AI/ML ou CI. Por exemplo, uma menção ao CI e à IA/ML só pode ser

encontrada nas secções de introdução, recomendação ou referência, onde uma frase pressupõe que a investigação ou
resultados seriam valiosos para a IA/ML e o CI. Da mesma forma, as frases “aprendizado de máquina” e “comunidade de
inteligência” foram contidas com títulos de referência. Uma segunda leitura mais atenta dos 28 artigos eliminou mais sete porque
não abordaram substancialmente a questão da revisão. Isso deixou 21 artigos a serem incluídos na revisão de AI/ML.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 14


Machine Translated by Google

No segundo fluxo, 1.260 artigos foram recuperados de uma pesquisa no Google Scholar usando os termos
“comunidade de inteligência AND revolução AND inteligência artificial” de 2019-2022. Um intervalo de datas mais curto
foi usado para o segundo fluxo de termos de pesquisa do que para o primeiro porque um grande número de artigos foi
identificado. Mais de 7.000 foram recuperados se 2010 fosse usado como ponto de partida. Quase todos os resultados
da segunda corrente eram duplicatas da primeira corrente, resultando em apenas três artigos adicionais.

Na terceira corrente, 18 artigos foram adquiridos por meio de diversas técnicas não sistemáticas, como a coleta de
peças da primeira ou segunda corrente e o acesso a diversas comunicações eletrônicas não classificadas sobre IA/ML,
ou seja, e-mails, páginas da web, etc., que incluía informações de interesse. Após uma leitura detalhada e mais atenta
dos 18, um foi excluído devido à sua falta de relevância substantiva para a questão da revisão. Como mostra a Figura
3, foram incluídos 41 artigos para abordar o tema IA/ML dentro do CI.

Figura 3. Fluxo de pesquisa de revisão sistemática de IA/ML

2.060 resultados iniciais

782 resultados 1.260 resultados 18 resultados

Método: Google Acadêmico Método: Google Acadêmico Método: Bola de Neve/Colheita de


Termos de pesquisa: “comunidade Termos de pesquisa: “comunidade resultados e de outros
de inteligência” e reforma de inteligência” e revolução e fontes que abordaram
e “aprendizado de máquina” “inteligência artificial” substancialmente o tema
Intervalo de datas: 2010-2022 Intervalo de datas: 2019-2022

754 resultados

Depois de excluir duplicatas

28 resultados

Após a leitura dos 754 3. Resultados


resultados, foram
Depois de revisar os resumos
incluídos apenas aqueles temas
dos 1.260 resultados, muitos eram
substantivamente abordados.
duplicatas encontradas em
os 782 resultados.

21 Resultados 17 resultados

Após leitura aprofundada dos 28 Após leitura aprofundada dos 18


resultados, 7 foram excluídos por resultados, 1 foi excluído por não
não abordarem substancialmente o abordar substancialmente o tema.
tema.

41 Resultados Finais
O total final da literatura incluída
na revisão sistemática da literatura.

Metodologia de Pesquisa 15
Machine Translated by Google

Detalhes da pesquisa

A maioria dos 41 artigos incluídos na revisão final foi publicada nos últimos dois anos (2020-2021).
O intervalo de pesquisa para o primeiro fluxo foi 2010-2022, mas muito poucos artigos foram publicados antes de 2019
relacionados à IA/ML e ao CI. O intervalo de pesquisa do segundo fluxo de 2019-2021 incluiu um de 2020 e dois de 2021.
A abordagem de colheita do terceiro fluxo foi principalmente de 2021. A data de corte para os 41 artigos é fevereiro de
2022. A Figura 4 fornece a distribuição do
resultado final. 41 artigos utilizados para este
Figura 4. Distribuição dos 41 artigos finais por ano de publicação
estudo por ano de publicação.
Número de artigos finais utilizados

20 Os artigos foram selecionados com base em


sua relevância para a questão de revisão
18
geral de AI/ML. Não houve restrição quanto à
16
fonte de evidência, consistente com a
14
abordagem metodológica de uma revisão
12 sistemática.19 Como resultado, uma seleção
10 diversificada de locais de publicação foi
8 considerada relatável para os artigos 41AI/

6
ML. Como uma revisão sistemática requer a
identificação dos artigos considerados, uma
4
seção de referências é incluída no final deste
2
estudo. Contém as citações de todos os 41
0 artigos e identifica os 41 artigos com um
2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022
asterisco na frente do nome do autor. Dos 41
artigos, 14 eram de revistas especializadas,
10 eram de revistas acadêmicas, sete eram
Figura 5. Tipos de locais de publicação
de estudos de grupos de reflexão, quatro
Locais de Publicação por Número de Artigos (n=41) eram de estudos universitários, três eram de
16 materiais de conferências, dois eram de blogs
da Internet e um era de um capítulo de livro.
14
A Figura 5 resume a distribuição dos locais
12
de publicação.

10

8 Os autores dos 41 artigos vieram de diversas

formações profissionais.
6
Trinta e um autores escreveram os 41 artigos.
4 Alguns autores escreveram dois artigos e um
autor escreveu uma série de cinco. Identificar
2
sua atribuição profissional no momento da
0 publicação fornece contexto para a
Praticante Acadêmico Think Tank Universidade Conferência Blogue Livro
Revista Diário Estudar Estudar Relatório Capítulo compreensão de seu conhecimento

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 16


Machine Translated by Google

pontos fortes e possíveis motivações para escrever sobre tópicos. Nem todos os indivíduos permanecem na função
que ocupavam quando o artigo foi publicado. Por exemplo, a actual Directora de Inteligência Nacional, Avril Haines, foi
contratada como investigadora de think tank. Assim, sua função no momento da publicação foi categorizada como
pesquisadora de think tank, e não como atual ou ex-funcionária do governo. Para o tópico AI/ML, onze foram escritos
por acadêmicos. Quatro foram de autoria de pesquisadores de grupos de reflexão e três foram de autoria de ex-
indivíduos e consultores do governo. Alguns artigos foram escritos por uma combinação de profissionais.
A Figura 6 resume o trabalho do autor no momento da publicação do artigo.

Figura 6. Trabalho do autor no momento da publicação

Atribuição do autor no momento da publicação, por número de artigos

Combinado: Acadêmico e Antigo Governo

Combinado: Acadêmico e Consultor

Combinado: Ex-Governo e Consultor

Militares

Combinado: Acadêmico, Ex-Governo e Consultor

Cientista da Indústria

Governo Atual

Consultor

Antigo Governo

Pesquisa do Think Tank

Acadêmico

0 2 4 6 8 10 12

Estratégia Analítica
A síntese da literatura começa com o processo de codificação. Existem quatro níveis cada vez mais abstratos de
codificação indutiva: códigos, categorias, temas e conceitos.20 Os códigos são a interpretação das afirmações
fornecidas pelos autores. As afirmações são normalmente incorporadas em uma frase ou na frase inteira e selecionadas
de acordo com sua relevância para a questão de revisão. Categorias são agrupamentos de códigos que compartilham
significados semelhantes. Por exemplo, uma categoria sobre risco representaria os muitos códigos e as evidências das
frases originais em artigos que discutem atividades relacionadas ao risco. As categorias permanecem fundamentadas
perto do significado dos códigos e podem ser pensadas como um processo reflexivo porque as categorias refletem as
semelhanças dos códigos.

Os temas, por outro lado, reúnem categorias díspares num grupo teoricamente significativo e podem ser pensados
como um processo formativo porque captam as diferenças entre categorias. Por exemplo, além do risco, outras
categorias podem incluir orçamentos, recursos humanos, aquisição, etc.

Metodologia de Pesquisa 17
Machine Translated by Google

diferentes categorias formam um tema de desenvolvimento de estratégia porque as categorias envolvem a necessidade
de criar uma estratégia. Os conceitos representaram a forma mais abstrata de captar o significado dos temas. Por
exemplo, o desenvolvimento de estratégias foi apenas um tema que abordou as necessidades de implementação exigidas
antes e durante a implantação de um sistema de IA/ML no CI.

A Tabela 1 fornece o número de códigos, categorias, temas e conceitos para cada questão de revisão: a motivação dos
autores que escreveram sobre as questões, os problemas que identificaram e as soluções que ofereceram. A seção a
seguir é organizada pelas questões de revisão: motivação, problemas e soluções.

Tabela 1. Perguntas de revisão e resultados de codificação

Pergunta de revisão (RQ) Códigos Categorias Temas Conceitos Total

RQ1: Motivação 51 13 4 2 70

RQ2: Problemas 262 52 11 3 328

RQ3: Soluções 176 34 6 2 218

Total 489 99 21 7 616

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 18


Machine Translated by Google

Descobertas

Motivação

As motivações pelas quais os artigos foram escritos se enquadram em dois tipos de questões: aquelas que se relacionam com fatores

envolvidos na tomada de decisão sobre o uso de IA/ML, chamadas questões decisórias, e aquelas que se relacionam com preocupações sobre IA/AM.

Comportamentos da tecnologia ML, chamados de problemas

comportamentais. Esses dois tipos de motivação referem- Figura 7. Motivação que explica por que os problemas de IA/ML

se ao motivo pelo qual um artigo foi escrito sobre IA/ML no são uma preocupação para o IC

IC. A Figura 7, mostrada a seguir, resume os dois tipos de IA


Considerações
conceitos de motivação e seus respectivos detalhes. Decisório
Problemas
Não-IA
Considerações

Motivação

IA externa
Questões Decisivas Preocupações
Comportamental
Problemas
IA interna
As questões de decisão consistem em dois tipos, conforme Preocupações

mostrado na Figura 7: aquelas que envolvem a IA nas


considerações de decisão, e aquelas que não envolvem
Figura 8. Questões de decisão motivacionais
a IA nas decisões, considerações não relacionadas à IA.

As considerações sobre IA incluem riscos de Implementação de IA


Riscos
implementação de IA/ML, potencial de IA/ML, uso de IA/ML

e concorrentes estratégicos. Considerações não relacionadas à IA Potencial de IA

incluem limites de conhecimento, restrições autoimpostas IA


Considerações
e o papel estratégico dos dados. As questões decisórias Uso de IA

estão resumidas na Figura 8 e discutidas em detalhes


abaixo. Estratégico
Decisório Concorrentes
Problemas

Conhecimento
Limite
Considerações sobre IA

Não-IA Auto-imposto
Considerações Limitação
Os riscos de implementação de IA incluem preocupações

sobre os riscos do uso de IA/ML envolvidos na análise de Papel Estratégico


De dados
inteligência, onde a deliberação é

Resultados 19
Machine Translated by Google

normalmente a base do pensamento crítico.21 A questão é se os analistas confiam que as conclusões de IA/ML são precisas,
porque os analistas interagem diretamente com a liderança de sua organização e com os clientes externos.22
Os desafios e dilemas do uso de IA/ML num contexto de inteligência são causados pela conhecida extensão das incógnitas e
ambiguidades dentro da profissão analítica.23

O potencial da IA significa preocupações sobre o aumento previsto do uso de IA/ML. Estas preocupações incluem a necessidade
de um quadro conceptual para ajudar a pensar sobre IA/ML e a sua relevância para a missão de inteligência. Compreender
um novo fenómeno requer uma base teórica para interpretar o fenómeno.24 Outra preocupação é a necessidade de métricas
para avaliar o impacto da IA/ML no apoio a missões de inteligência, uma vez que as medidas de eficácia são desafiadoras
quando o estado final da IA/ML O uso de ML pode não ser conceituado neste momento.25
Além disso, não foi estabelecida uma avaliação de como a tecnologia ajuda a identificar e prevenir ameaças, atividade de um
analista de inteligência.26

O uso de IA aborda preocupações sobre como a tecnologia de IA/ML pode ser usada. Isso inclui propostas para o uso de IA/
ML para evitar surpresas estratégicas, uma vez que as falhas de alerta do IC resultaram em surpresas significativas que
lançaram dispersão sobre o IC.27 Adotar IA/ML para que os atuais processos de inteligência possam ser melhorados e
compreender como a IA/ML será integrada em sistemas existentes ou substituir sistemas existentes, ainda é um trabalho em andamento.28
A integração da IA/ML nos esforços para dissuadir ameaças, que envolve conhecimento além da recolha e análise, inclui
instrumentos de poder mais amplos, como a diplomacia e a economia, que interagem com a inteligência.29
Prestar mais atenção aos testes e avaliações de IA/ML é essencial para que analistas e consumidores de inteligência tenham
mais confiança em suas conclusões, pois analistas e agências de inteligência vão querer saber até que ponto suas tecnologias
estão totalmente operacionais.30 Finalmente, as agências quererão saber até que ponto as suas análises são comparáveis
com outros produtos da agência. É necessário desenvolver padrões ou melhores práticas para todo o CI.31

As preocupações dos concorrentes estratégicos incluem o uso ou possível uso de IA/ML por grandes potências contra os
Estados Unidos e a natureza assimétrica da IA/ML. Há sinais de como grandes potências como a China e a Rússia podem
utilizar esta tecnologia para actividades nefastas e abaixo do limiar da guerra.32 O ressurgimento de concorrentes quase iguais,
como a China e a Rússia, é preocupante. A necessidade de adoptar um foco na sua ameaça estratégica, o que representa
uma mudança de ênfase em relação ao foco dos EUA e dos aliados no terrorismo internacional ao longo dos últimos vinte
anos33, bem como dos aliados da China e da Rússia, por exemplo, a Coreia do Norte e o Irão.34 Por último, a preocupação
inclui a necessidade de preservar a primazia do poder sobre a China, à luz da persistência da China em impedir a primazia dos EUA.35

Considerações não relacionadas à IA

As questões de limite de conhecimento incluem como o trabalho do analista de inteligência no nível da tarefa pode mudar.
Compreender os limites entre o que a IA/ML pode fornecer e o que o analista humano fará será importante.36 A distinção entre
como grandes quantidades de informação e inteligência são explicadas e compreendidas é complicada porque o limite dos
dados como inteligência termina e a inteligência desde o início dos dados pode ser obscurecido.37 Por último, a preocupação
inclui o grau em que a análise de inteligência adota a ciência de dados em seu processo e pode introduzir benefícios ou
limitações. À medida que o volume de dados se torna omnipresente, ter uma ciência dos dados, a ciência dos dados, torna-se
uma necessidade.38

PERCEPÇÕES DE ARTE INTELIGÊNCIA IFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 20


Machine Translated by Google

As questões de restrição auto-impostas incluem a falta de inovação na cultura do CI. A cultura reforça o status quo em vez de
experimentar algo novo.39 Outra questão é que o processo orçamental do CI é rígido, pelo que leva anos a incorporar um novo
programa.40 Porque o CI é avesso ao risco e a adopção da IA/ O BC é novo, os riscos devem ser assumidos, mas a adoção da
IA/ML apresenta desafios adicionais sem uma estrutura de risco.41 Por último, a cultura do IC tende a investir dinheiro nos
problemas, mas a adoção da IA/ML exigirá mais do que apenas dinheiro.42

O papel estratégico das questões de dados inclui a ideia de que a Internet não tem fronteiras e é de fácil acesso a partir de
qualquer lugar e para quase todas as pessoas. A maior parte do mundo tem agora a democratização dos dados.43 Além disso,
porque os dados são democratizados, os dados devem ser conceptualizados como um activo estratégico; caso contrário, os
adversários e os concorrentes beneficiarão de uma resposta rápida e da versatilidade para alcançar o efeito desejado.44 Será
fundamental adquirir novas formas para o CI aproveitar a recolha, o processamento e a exploração de dados.45

Problemas comportamentais

Problemas comportamentais consistem em dois tipos. As preocupações externas da IA têm origem fora do CI. As preocupações
internas da IA envolvem preocupações de dentro do CI. As preocupações externas da IA incluem os efeitos transformadores no

CI, os efeitos transformadores na sociedade, os


desafios do CI com a IA, os concorrentes estratégicos Figura 9. Questões Comportamentais Motivacionais

e os algoritmos de armamento. As preocupações IA Transformativa


Efeitos no CI
internas da IA incluem os limites dos algoritmos e o
contexto social do usuário da IA. As questões IA Transformativa
Efeito na sociedade
comportamentais estão resumidas na Figura 9 e
discutidas em detalhes abaixo. IA externa Desafios que
Preocupações os rostos do IC

Estratégico
Concorrentes
Preocupações externas de IA
Comportamental
Armando
Problemas
As preocupações sobre os efeitos transformadores Algoritmos

da IA no CI incluem o grau em que a técnica


Limites de
analítica depende do acesso a grandes quantidades Algoritmos
IA interna
de dados, da modelagem da arquitetura correta Preocupações
Redes sociais do usuário

para os dados e da garantia de que a compreensão Contexto

contextual do usuário seja considerada.46 O impacto


dos recursos humanos na análise de inteligência, no fluxo de trabalho e na força de trabalho de CI é considerado um desafio
significativo.47 As questões de integração de sistemas que abordam os efeitos transformadores das aplicações de IA na
integração de sistemas existentes e futuros não são totalmente compreendidas.48

As preocupações mais amplas sobre o efeito transformador da IA na sociedade incluem uma vasta gama de questões que
provavelmente se repercutirão nas preocupações das agências de inteligência. Estas preocupações incluem até que ponto a
inovação em IA/ML irá perturbar as relações políticas, económicas e sociais globais.49 Também têm o grau em que

Resultados 21
Machine Translated by Google

que a atividade económica da IA/ML mudará a forma como as empresas operam nos níveis business-to-business e business-to-consumer.50

A questão de quais os efeitos transformadores que estas tecnologias inovadoras acabarão por ter nos conflitos internacionais permanece

uma questão sem resposta.51 O ritmo da mudança destas tecnologias convergentes de IA/ML e o seu impacto na sociedade é um trabalho

em progresso.52 Ainda não se sabe como o ritmo da mudança mudará as ameaças globais e a capacidade do CI para as detectar.53 Até

que ponto os Estados Unidos está preparado para competir ou frustrar ameaças em uma era de IA/ML ainda não foi totalmente abordado.54

Os desafios que o CI enfrenta com IA/ML incluem o facto de o CI não responder suficientemente rápido para aproveitar os efeitos inovadores

das tecnologias de IA/ML.55 O CI não está a reagir suficientemente rápido para explorar as quantidades cada vez maiores de dados de

código aberto utilizando tecnologias avançadas.56 A falta de detalhes sobre como a IA/ML e a ciência de dados se enquadram no fluxo de

trabalho analítico tem implicações negativas para a integração geral.57

As preocupações com os concorrentes estratégicos e a forma como os adversários estão a transformar algoritmos em IA/ML como armas

incluem a sua utilização para moldar os corações e mentes dos Estados Unidos e dos seus aliados através de campanhas de desinformação.58

O papel que os algoritmos terão em futuros conflitos internacionais é especialmente preocupante quando ligados a redes e redes de

sensores.59 A capacidade dos adversários de atacar os sistemas de IA/ML dos EUA é uma preocupação estratégica porque podem

introduzir deliberadamente preconceitos para aumentar uma vantagem adversária. .60 Se as empresas dos EUA puderem adquirir algoritmos

de IA/ML adversários, então as empresas dos EUA poderão testar a resiliência dos seus próprios algoritmos contra os dos adversários ou

concorrentes, o que beneficiaria o IC que adquire sistemas de IA/ML.61

Preocupações internas de IA

A literatura expressa inúmeras preocupações de IA/ML sobre os limites dos algoritmos dentro do IC. Esses limites incluem a falta geral de

compreensão dos algoritmos de IA/ML62 e a falta de capacidades algorítmicas de IA/ML em tarefas analíticas que exigem um certo grau de

abstração, como planejamento, disseminação e avaliação de inteligência.63 Outra preocupação significativa é a falta de compreensão de

onde e como o preconceito humano entra na construção do algoritmo. O preconceito pode degradar a funcionalidade e a eficácia da

tecnologia de IA/ML.64 Ser incapaz de reaplicar um algoritmo projetado para uma função de inteligência específica com dados específicos

para outro contexto pode ser uma limitação contra-intuitiva, mas é uma limitação real da tecnologia atual .

Mesmo que os conjuntos de dados sejam semelhantes, o conhecimento do domínio para cada contexto é diferente.65 As limitações de design

dos algoritmos, cada um criado para um propósito específico, moldam o processo de design e não são amplamente compreendidas.66

A tecnologia AI/ML existe dentro de um contexto social do usuário, que envolve outros analistas, analistas seniores e liderança. Dentro do

contexto social do analista, vários artigos levantaram diversas preocupações, incluindo o papel vital da interação do analista com a liderança
analítica.67 Estas também incluem as perspectivas dos analistas sobre sua interação com tecnologias de IA/ML68 e como a interação social

entre o analista e o A tecnologia de IA/ML afeta o conhecimento criado para o tomador de decisão.69 Relacionada, a interação inclui como

os analistas gerenciam a dinâmica social entre culturas organizacionais dentro de sua própria agência de inteligência, outras agências de

inteligência dos EUA e parceiros externos, como a academia e a indústria.70 O diploma até que ponto a tecnologia de IA/ML pode antecipar

as capacidades e intenções do analista, especialmente em novas situações, é desconhecido.71

PERCEPÇÕES DE ARTE INTELIGÊNCIA IFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 22


Machine Translated by Google

Problemas
A identificação de problemas com IA/ML no que se refere ao CI constitui a maior parte do conteúdo dos artigos utilizados neste estudo.
Os problemas são divididos em três tipos: problemas sobre os quais o CI tem controle direto, internos ao CI; problemas sobre os quais o
CI não tem controle direto, externos ao CI; e problemas relacionados à tecnologia de IA/ML, natureza da IA/ ML.

Dentro de cada tipo de problema, perspectivas mais Figura 10. Problemas de IA/ML para o IC
detalhadas são discutidas. A Figura 10 resume os três
Cultura CI
tipos de problemas e seus subproblemas, que são Restrições

discutidos abaixo.
Teoria Desatualizada
de Inteligência
Interno ao IC
Percepções de
Problemas internos para IC IA/ML

Nível do sistema
Os problemas internos do IC consistem em quatro tipos. Restrições

Um tipo envolve as normas, costumes, crenças, valores


Externo
e símbolos da cultura CI ou restrições da cultura CI. Um
Ameaças
segundo tipo envolve o que os autores consideraram
uma conceituação ultrapassada de inteligência ou uma Problemas Externo ao IC Política
Restrições
teoria ultrapassada da inteligência. Um terceiro tipo
Digital
envolve as percepções negativas de IA/ML por parte de Ambiente

analistas, liderança e clientes. Um quarto tipo envolve


restrições relacionadas com a tecnologia e os dados Conhecimento
Restrições
dos sistemas existentes nas agências de CI ou restrições Natureza da IA/ML
Limitações de
a nível do sistema.
IA/ML

Cada um dos quatro tipos é dividido em problemas específicos, que são discutidos abaixo com mais detalhes. As restrições da cultura do
CI estão resumidas na Figura 11 e incluem a falta de adoção do CI, a falta de uma visão digital partilhada do CI, a falta de uma cultura
inovadora e a falta de uma cultura de assunção de riscos. A teoria ultrapassada da inteligência, resumida na Figura 12, inclui desafios
com big data, uma abordagem da Guerra Fria, dados assumidos incorretamente como evidência, histórico de falhas do CI, falta de
compreensão das ciências sociais, foco na ameaça de nível macro, operações abaixo do limiar da guerra e tendo a visão simplificada de
que IA/ML é uma solução para tudo. Na Figura 13, as percepções de IA/ML incluem opiniões negativas dos analistas, visões mistas da
liderança e opiniões negativas dos clientes. Finalmente, as restrições ao nível do sistema estão resumidas na Figura 14 e incluem a falta
de padronização de dados, a falta de testes de interação IA/ML, a falta de padrões modernos para testes e a falta de integração do sistema.

Restrições de cultura IC

As preocupações culturais são consideradas um problema fundamental para o CI. A falta de adoção de CI é problemática, uma vez que
a indústria e a academia adotaram as tecnologias de IA/ML e os dados utilizados.72 Há uma

Resultados 23
Machine Translated by Google

Figura 11. Problemas de restrições de cultura IC problema percebido de que a vantagem

Falta de IC competitiva do país poderia ser perdida na


Adoção próxima década devido à adoção insuficiente de

Resistência a IA/ML pelo CI, aumentando ainda mais a


Mudar complexidade das ameaças ao CI.73
Cultura CI Intolerância a
Interno ao IC
Restrições Falha A resistência à mudança impede uma cultura
inovadora de CI e é uma das restrições
Falta de confiança em
Parcerias de IA/ML subjacentes mais importantes para a adoção

Falta de
de IA/ML. O principal obstáculo à inovação do
Assunção de riscos CI é a sua cultura74 e a incapacidade de pensar

criativamente sobre IA/ML nos vários domínios


de inteligência.75 O CI está por trás do Departamento de Defesa (DoD) num aspecto do confronto com a IA/ML porque
tem não desenvolveu o conceito de projetos-piloto para a tecnologia, não recebeu as mesmas ferramentas legislativas,
nem beneficia do apoio da liderança sênior.76 O CI não é proativo e, embora vozes tenham sido ouvidas com
recomendações, raramente são abordadas até que uma ocorre uma catástrofe.77
O CI não foi capaz de se adaptar à realidade da democratização dos dados, onde a vantagem competitiva da informação
classificada era outrora competência exclusiva do CI. Está agora ameaçada pela informação de fonte aberta.78 A
inovação tem sido considerada principalmente uma competência do sector privado.79 As agências de inteligência não
são propensas a promover um espírito empreendedor devido à falta desta competência no CI. 80 Além disso, a falta de
espírito empreendedor não é universalmente bem-vinda no CI e a introdução de novas ideias é muitas vezes
desencorajada.81

Há falta de tolerância ao fracasso no CI, principalmente pelas consequências negativas da surpresa. Sob esta luz, todas
as falhas, sejam elas grandes ou pequenas, são consideradas iguais.82 Isso significa que o governo dos EUA não gosta
de falhas.83 Consequentemente, a natureza evolutiva dos algoritmos de IA/ML significa que eles injetarão erros e
incertezas, o que requer uma tolerância por falha.84

A falta de confiança nas parcerias de IA/ ML deve-se à ausência de uma visão digital partilhada do IC, que é considerada
um problema central, especialmente porque a experiência tecnológica reside nos sectores privado e académico.85,86
Os desafios com a implementação agravam o problema da parceria, pois é um obstáculo significativo para alcançar uma
visão partilhada entre as agências. Ainda assim, é outro obstáculo implementar uma visão através de competências
padrão.

Uma das principais razões para a falta de inovação é que o CI carece de uma cultura de assunção de riscos. 87 Existem
muitas observações sobre este problema. Não existe um mecanismo em todo o CI para discutir e pensar sobre riscos,
assumir riscos ou oferecer perspectivas sobre a mitigação de riscos associados às tecnologias de IA/ML.88 Falta uma
estrutura de incentivos para promover a assunção de riscos, reforçando o valor de um mentalidade normal de negócios
como de costume.89 A cultura existente do IC, como a do DoD, está focada na defesa dos Estados Unidos. Isto implica
que o fracasso não é uma opção, contribuindo ainda mais para a resistência à assunção de riscos.90 A cultura CI gosta
da repetição e da rotina, e a sua mentalidade, repetição e rotina de não falhar proporcionam um grau de bem-estar que
os analistas e gestores estão em o caminho certo para garantir a segurança.91 Embora as avaliações de risco se concentrem

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 24


Machine Translated by Google

sobre os riscos da acção, muitas vezes não incluem as consequências da não acção.92,93 O Governo dos EUA é
geralmente avesso ao risco pela mesma razão que o CI. A falha na proteção da segurança nacional dos EUA não é
valorizada porque o empreendimento de segurança nacional, incluindo o CI, é pago pelos dólares dos contribuintes.94

Teoria Desatualizada da Inteligência

AI/ML é frequentemente a tecnologia que manipula big data, enquanto a academia se concentra nos três desafios do big
data: volume, variedade e velocidade. O CI tem um conjunto adicional de desafios que deve incluir na sua teoria de
inteligência relativa a big data. Isso inclui
veracidade (precisão e autenticidade), Figura 12. Teoria desatualizada dos problemas de inteligência
volatilidade (latência) e valor (o ruído é
Desafios com
reduzido).95 Grandes dados

Devido ao volume de dados, existe uma crença Dados presumidos


como evidência
errada no CI de que os dados são incorretamente
Falta de Ciências Sociais
assumidos como prova. Embora às vezes os
Entendimento
dados sejam provas verdadeiras, encontrar os
Teoria Desatualizada Focado em
sinais no ruído não é tão aparente.96 Esta Interno ao IC
Ameaça em nível macro
de Inteligência
crença errónea de que volumes de dados
Abaixo do limiar
assumem um facto é um erro porque a De guerra

importância dos dados não está presente nos próprios dados.97


IA/ML como solução
para tudo
O IC sofre de falta de compreensão das ciências
sociais. Um dos problemas identificados ao Guerra Fria
Abordagem
buscar soluções por meio de IA/
A tecnologia ML é que a tecnologia ocupa um
lugar de destaque. As ciências sociais são subestimadas, especialmente como uma ciência que possibilita as
tecnologias.98 Uma consequência de tal subvalorização é que os algoritmos de IA/ML identificam correlações, que não
são o mesmo tipo de conhecimento que os modelos causais baseados em hipóteses.99 Sem um valor válido base
teórica, a análise de dados provavelmente levará a tecnologias inferiores e respostas menos precisas.100 O CI não
investiu no uso das ciências sociais, o que significa que os cenários construídos pelos analistas não podem ser
efetivamente modelados ou testados.101

O CI concentra-se na ameaça macro, enquanto o conhecimento do contexto da ameaça local é mais importante, embora
difícil de avaliar. O CI investe em tecnologias que, a nível regional, não fornecem contexto suficiente a escalas locais e
menores necessárias para detectar a emergência de situações novas.102 Algumas das questões que os analistas
enfrentam são tão complexas que as suas respostas residem em subpopulações ou subentidades fora dos limites do
que é normalmente acessível.103

A realidade do século XXI , a partir de agora, é que os adversários operam abaixo do limiar da guerra. A China, a Rússia
e o Irão mostram que são capazes de o fazer utilizando uma variedade de técnicas numa tentativa de obter vantagem
estratégica.104 Estas técnicas incluem a utilização de tecnologias de informação e comunicação para atingir

Resultados 25
Machine Translated by Google

emoções e ações.105 As atividades visam interromper e interferir em todos os aspectos da sociedade, incluindo esforços para
reduzir a coleta de inteligência e análise de padrões.106 Essas atividades incluem suavizar as populações para perturbar ou
alterar as normas sociais, normalmente atividades que a inteligência não tem sido tão hábeis em detectar.107 A natureza dessas
atividades não é tão clara a ponto de identificá-las como ilícitas ou não; conseqüentemente, a inteligência pode não detectá-los.108

À medida que a promessa das tecnologias de IA/ML surge no horizonte para o CI, há uma tendência no CI de ver a IA/ ML como
uma solução para tudo. Esta tendência manifesta-se na procura do Santo Graal, o botão mágico, que, consequentemente, tem
um impacto negativo no ofício.109 Aplica-se o velho ditado, se você tem um martelo, então tudo deve ser um prego para poder
usá-lo. . Big data é visto da mesma maneira. É um botão mágico no lugar do trabalho que os analistas de inteligência realizam no
nível da tarefa.110 Embora a mentalidade mágica possa existir, não se pode presumir que a IA/ML diminuirá a necessidade de
analistas de inteligência humana.111

De acordo com os artigos incluídos neste estudo, o CI permanece em dívida com a abordagem da Guerra Fria à inteligência, de
1945-1990. O legado comercial depende de analistas altamente treinados e experientes que podem identificar os dados errados
e o processo errado. Olhando para o futuro, os analistas já estão sobrecarregados com dados que, na sua maioria, não podem
ser identificados como certos ou errados.112 Como resultado, os analistas têm uma abordagem à inteligência baseada em
puzzles, onde os analistas só precisam de encontrar as peças certas de inteligência para encontre a resposta.
Esta é uma abordagem demasiado estreita para a actual era da informação.113 Além disso, o histórico de fracassos do CI
centrou-se na prevenção de surpresas estratégicas, enfatizando a prevenção em detrimento da antecipação.114 O foco e o
sucesso do CI no lado táctico do contraterrorismo em detrimento do últimos vinte anos provavelmente contribuirão para surpresas
estratégicas de curto prazo.115

Percepções

Geralmente, há uma visão negativa em relação à IA/ ML por parte dos analistas de inteligência por uma série de razões profundas.
Os analistas estão preocupados com a possibilidade de serem responsabilizados pelos erros cometidos pelas tecnologias de IA/
ML que encaminham aos clientes.116 O contexto e o conteúdo que envolve um problema de inteligência podem influenciar os
pensamentos de um analista, o que é bom. Ainda
Figura 13. Percepções de problemas de IA/ML assim, não está claro se as tecnologias de IA/ML
podem levar em conta tais considerações necessárias.117
Negativo
Visão do analista Como a compreensão do analista sobre o seu próprio

Percepções de Misturado contexto social e cognitivo é necessária para dar


Interno ao IC
IA/ML Visão de Liderança
sentido aos dados e conduzir a análise, a
Misturado complexidade é inerentemente parte da equação
Visão do cliente
analítica.118 Os analistas ignoram ou minimizam os
dados não classificados, embora se identifiquem
como todos. analistas de fontes.119 No domínio dos dados não classificados, a inteligência de código aberto tem sido amplamente
interpretada pelos analistas de inteligência, em geral, como reportagens de imprensa,120
o que gera a percepção de que informações de código aberto são menos valiosas do que dados classificados.121

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 26


Machine Translated by Google

Em outras questões relacionadas à percepção dos analistas, os sistemas de IA/ML são adquiridos e entregues para uso dos
analistas de inteligência sem o seu envolvimento. Não porque os proponentes da tecnologia desconsiderem os analistas, mas por
causa das suposições bem-intencionadas de tais proponentes.122 Devido à falta de sua participação, o analista de inteligência
não tem sido capaz de compartilhar os desafios que enfrenta como analistas com os proponentes da tecnologia. .
Conseqüentemente, os analistas podem considerar as soluções de tecnologia de IA/ML como não relevantes ou úteis.123 Essa
falta de envolvimento afeta negativamente o nível de confiança do analista nos dados e algoritmos.124 A tendência à desconfiança
em relação à IA/ML é maior do que qualquer outra tecnologia humana. interação relacionada com equipe técnica, gerenciamento
ou executivos.125

Consequentemente, a desconfiança levou à falta de sinais de demanda por IA/ML por parte dos analistas de inteligência.126
Quando a desconfiança é agravada pela falta de adesão dos usuários à IA/ML, os analistas de inteligência reforçam a relutância
em adotar a IA/ML.127 Isto leva a questões e preocupações que ultrapassam a confiança dos analistas de inteligência, que
incluem os desafios de explicar a lógica da análise, a robustez da análise e a eficácia da IA/ML.128 Estes desafios abrem um
conjunto mais amplo de percepções negativas. com base na falta de compreensão do analista sobre o processo pelo qual AL/ML
gera conclusões.129 Parece senso comum exigir que os analistas conheçam as tecnologias de IA/ML para aplicá-las e integrar
seus resultados no fluxo de trabalho do analista.130 Se não for compreendido, isso a falta de compreensão faz com que os
analistas percebam a IA/ML como uma caixa preta, tornando as decisões de IA/ML difíceis de entender e explicar.131

As percepções em relação à IA/ ML são confusas pela liderança analítica, embora relatadas como mais negativas do que positivas.
Um problema é a dicotomia entre liderança e analistas de inteligência sobre tecnologia. As decisões tomadas pelos líderes não
consideram as habilidades dos analistas ou a experiência com IA/ML, sugerindo que os líderes assumem que sua visão positiva
da tecnologia é tudo o que precisa ser considerado para o sucesso.132 Essa falácia de percepções é um problema porque os
analistas verão o problema diferentemente dos líderes ou clientes. Os líderes querem uma solução para lidar com uma grande
quantidade de dados e querem que os cientistas da computação desenvolvam a tecnologia.
Em contraste, os analistas de inteligência que trabalham no problema trazem as suas preferências e contexto.133 Esta desconexão
resulta num desalinhamento adicional entre aspiração e implementação. A liderança diz o quão importante é a IA/ML, mas os
esforços iniciais pequenos ou piloto usando IA/ML têm dificuldade em escalar até a institucionalização. A expansão é problemática
devido à falta de atenção dos líderes durante a complexa tentativa de expansão e à falta de um sinal de procura por parte dos
analistas de inteligência que não vêem qualquer urgência.134

Outros problemas de liderança com a percepção da IA/ML incluem o dilema da observação pelos líderes de que o CI não tem o
seu próprio talento em IA/ML. Por outro lado, o talento reside em outro lugar.

Por um lado, o governo não é um cliente significativo de IA/ML; como resultado, a maioria dos pesquisadores e cientistas de IA/ML
não trabalham para o governo.135 O setor privado está dominando o mercado de talentos.136 Isso torna difícil para o DoD e o IC
atrair talentos de IA/ML para testar e avaliar esses talentos. tecnologias.137

Consequentemente, as organizações do sector privado produzem informações que rivalizam com o CI. É mais rápido e barato
devido à integração de IA/ML. Isto é provavelmente o que a liderança do CI vê, mas pode não compreender a razão pela qual o CI
não pode duplicar o que o sector privado está a fazer.138 O CI quer IA/ML comercialmente disponíveis, mas depois acrescenta os
seus requisitos específicos que compensam as poupanças de custos e podem limitar a funcionalidade do CI. disponível
comercialmente AI/ML.139

Resultados 27
Machine Translated by Google

Embora a liderança do IC queira IA/ML, a integração da tecnologia no fluxo de trabalho em nível de tarefa do analista exigirá uma
ampla reformulação das competências, habilidades e conhecimentos do analista.140 Mesmo que os analistas desenvolvam tal
repensamento, a rotatividade de analistas com esse novo conhecimento se tornará um efeito de segunda ordem a resolver.141 Tal
efeito é indicado pela falta de compreensão da liderança sobre o funcionamento dos algoritmos de IA/ML.142 Não é apenas a falta
de compreensão da liderança do CI, mas também dos decisores políticos que não têm compreensão.143 Esta falta de compreensão
pode resultar em decisões ou conclusões erradas.144

Há também uma visão mista do cliente. Os clientes são tendenciosos em relação a informações não classificadas e veem
implicitamente os benefícios do processamento assistido pela tecnologia. Isto é especialmente verdadeiro à medida que as agências
de inteligência e as organizações não relacionadas à inteligência aumentam sua dependência de informações de código aberto e
usam de forma barata tecnologias de IA/ML, que podem processar rapidamente grandes quantidades de dados.145 Porque quando
obtêm informações confidenciais, é muito lento para chegar e altamente classificados para serem úteis aos clientes.146 No entanto,
os clientes estão relutantes em confiar que os produtos de IA/ML possam ser personalizados para atender às suas necessidades, o
que é agravado pela falta geral de conhecimento dos analistas de inteligência sobre o necessidades de informação dos clientes de apólices.147
Os decisores políticos normalmente têm questões mais gerais e menos técnicas para os analistas de inteligência. Ainda assim, é
nos detalhes que as questões mais gerais podem ser respondidas. Consequentemente, os clientes de IC estão relutantes em confiar
em IA/ML devido à sua preocupação de que a IA/ML não será capaz de apoiar a síntese do detalhe para o mais geral.148 O IC teme
que os clientes tenham menos sinal de procura para produtos de IC e aumento da procura de informações criadas pelo sector
privado.149

Restrições no nível do sistema

O IC carece de padronização de dados entre as agências. Os dados existem em muitos formatos em sistemas que estão
desconectados uns dos outros ou não acessíveis entre si. Nenhuma ciência padronizada define o formato de organização,

gerenciamento e armazenamento. Não existe uma maneira padronizada de representar, nomear e categorizar propriedades e
relacionamentos.150 Essas desconexões dificultam a condução da fusão de dados e a criação de produtos de inteligência de todas
as fontes.151 Devido à diversidade de dados e sistemas, os analistas precisam gastar tempo imaginando descobrir quais dados
estão relacionados entre si para que possam ser reunidos em conjuntos de dados e sistemas.152 Além disso, os dados são
inerentemente confusos. Isto levanta preocupações sobre como a IA/ML pode ser usada para lidar com a desordem de dados, o que
é um obstáculo significativo ao uso de ferramentas de IA/ML.153

Faltam testes de interação AI/ ML


Figura 14. Problemas de restrições em nível de sistema entre tecnologias de IA/ML e tecnologias existentes

Falta de dados ou não-IA/ML para as quais os dados seriam


estandardização transferidos. Há um desafio fundamental de

Falta de ML integração de IA/ML em tecnologias existentes que


Teste de interação
Nível do sistema envolvem a compreensão dos custos, riscos e
Interno ao IC
Restrições
Falta de Modernidade benefícios do investimento de tempo e energia.154
Padrões para testes
Falhas inesperadas podem ocorrer quando as
Falta de sistema interações de IA/ML não são testadas.155 O problema
Integração

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 28


Machine Translated by Google

é agravado pela dificuldade em descobrir por que um sistema de IA/ML tomou uma decisão em uma situação específica.156

Faltam padrões modernos para testar tecnologias de IA/ML. Os padrões e métodos de teste atuais não são otimizados para IA/
ML.157 Nem as políticas e métricas para testar o desempenho e avaliar riscos.158 Embora as métricas possam estar disponíveis
para consideração durante o desenvolvimento de tecnologias de IA/ML, os padrões para desempenho operacional não foram
estabelecido.159 Há uma falta de abordagens iterativas e contínuas para testes depois que a IA/ML foi adquirida e passa por
avaliação antes do uso.160 Essa falta contribui para a dificuldade de reavaliar sistemas de IA/ML toda vez que um sistema é
atualizado, acima e além do custo e esforço de fazê -lo.161

Existe uma falta de integração do sistema, uma vez que existem barreiras técnicas na integração de dados não classificados no
sistema não classificado e dados classificados no sistema classificado, bem como na integração destes movimentos num fluxo
de trabalho analítico apoiado pela IA/ML.162 Esta situação é ainda agravada por a falta de compatibilidade entre IA/ML e
sistemas existentes, uma vez que as formas de processar dados ou entregar produtos podem ser diferentes.163

Problemas externos aos IC

Os problemas externos ao CI consistem em três tipos: ameaças de atores estrangeiros (ameaças externas, ver Figura 15),
restrições políticas do governo dos EUA fora do CI (restrições políticas, ver Figura 16) e a própria natureza da informação digital
(digital ambiente, consulte a Figura 16). Cada um dos três tipos é ainda dividido em problemas específicos, que são discutidos
abaixo em mais detalhes: ameaças externas incluem o adversário armando IA/ML, a subpriorização do uso de IA/ML pelo
adversário contra os Estados Unidos, acesso fácil do adversário à IA /ML, uso de IA/ML do adversário para engano e uso de IA/
ML do adversário para desinformação.
As restrições políticas incluem a falta de supervisão adequada, a falta de regras de aquisição flexíveis e a falta de regras
orçamentais flexíveis. O ambiente digital inclui sobrecarga de informações de dispositivos digitais, sobrecarga de dados desses
dispositivos e os efeitos da sobrecarga de informações sobre os analistas.

Ameaças Externas

Os artigos incluídos neste estudo abordam preocupações sobre o uso de IA/ML por atores estrangeiros para criar desinformação
e engano. Embora os artigos deste estudo não definam esses dois termos, eles serão descritos aqui. A desinformação e o
engano estão relacionados, mas são fenómenos distintos. Desinformação é informação, e a informação é concebida para levar
intencionalmente outros a promover algum estado final político ou social, alterando um sistema de crenças.164 O engano é o
resultado da desinformação devido a uma mudança de atitude ou comportamento causada pela intenção do actor de enganar.
0,165

Um dos problemas é que o uso de IA/ ML pelo adversário cria engano. Os dados são alterados ou manipulados por um
adversário que representa novas oportunidades para os adversários.166 Os esforços da Rússia produziram deepfakes, vídeos e
áudio através de IA/ML.167 O uso adversário de IA/ML é uma ameaça, especialmente para os algoritmos de IA/ML dos EUA.
.168 Esses deepfakes podem inundar os esforços de coleta de dados do IC para criar resultados indesejáveis.169 Os adversários usarão IA/

Resultados 29
Machine Translated by Google

BC para limitar os dados dos EUA, enganando assim os algoritmos.170 Como resultado, o CI ficará mais vulnerável a fraudes,
exposições de fontes e métodos, operações de informação, operações cibernéticas e operações de contrainteligência.171 Os
adversários também usarão IA/ML defensivamente para complicar, interromper e degradar os esforços de CI para coletar contra
adversários.172 Essas IA/
Figura 15. Problemas com ameaças externas Os esforços de BC colectivamente terão o efeito de
degradar a confiança americana nas suas instituições
Uso adversário de IA/ML
por engano à medida que mais enganos ocorrem e os

Uso adversário de IA/ML


adversários acham fácil fazê- lo.173
por desinformação

O uso adversário de IA/ ML cria desinformação e


Adversário Fácil
Externo ao IC Ameaças Externas
Acesso à IA/ML também é um problema.174 Algoritmos adversários
tendenciosos de IA/ML são usados para criar
Adversário
Armando IA/ML desinformação para promover agendas adversárias,
minando assim a legitimidade dos EUA ou de aliados.175
Subpriorização dos EUA
Adversário AI/ML Os adversários fazem isso aproveitando a natureza
frágil dos algoritmos de IA/ML, ou seja, uma pequena
mudança e tudo desmorona.176 Os adversários estão se concentrando nos esforços de coleta de dados dos EUA que exploram
as mídias sociais. A injeção de desinformação tem o potencial de introduzir informações falsas na análise.177
Isso tornará muito mais difícil para o IC determinar a veracidade e o valor dos dados coletados, especialmente com o volume de
informações coletadas.178 Combater esse uso adversário de IA/ML exigirá a implantação de uma tecnologia robusta de IA/ML
dos EUA.179 O indesejável Os efeitos da desinformação hostil através das redes sociais têm o potencial de influenciar a opinião
pública e causar pânico em questões de segurança nacional.180

O acesso fácil do adversário à IA/ ML é onipresente.181 Devido ao ritmo da mudança, o impacto adversário da IA/ML
O BC tem um efeito negativo significativo no ambiente estratégico.182

O armamento adversário da IA/ ML é a estratégia subjacente que produz desinformação e engano.


Os primeiros indicadores de tal armamento são claros e o CI precisa de os abordar.183 Não são apenas as infra-estruturas
militares dos EUA que estão em risco com tal armamento, mas também as infra-estruturas civis.184
A IA/ML proporciona aos adversários capacidades inteiramente novas, fora das capacidades militares tradicionais.185 Um
fenómeno contra-intuitivo é que os Estados Unidos abordam a questão do armamento adversário no fórum público. Isto permite
que os adversários contornem as capacidades de detecção, captura e derrota dos EUA.186 Uma forma de o fazer é através dos
adversários, ou do sector privado, criando dados tendenciosos que possam servir de isco, na esperança de que os colectores de
dados, como o IC, que usar os dados para fins de algoritmos de treinamento, degradaria a qualidade dos algoritmos de IA/ML dos
EUA.187

Os adversários estão agora buscando agressivamente a tecnologia de IA/ML para usar contra informações de código aberto, não
apenas nas redes sociais, e, até agora, são mais capazes do que o IC.188 Os adversários estão coletando dados sobre indivíduos
americanos e construindo perfis para manipular ou coagir eles.189 Uma grande variedade de adversários está buscando essas
capacidades.190 Uma consequência é uma ameaça de contra-espionagem. Os responsáveis pelo caso terão dificuldade em
manter a cobertura dos riscos para si próprios, para os seus agentes e para as operações.191 Se os adversários obtiverem acesso
à infra-estrutura de informação de controlo, poderão controlar os dados, que poderão então ser comprometidos.192

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 30


Machine Translated by Google

Os artigos observam que os Estados Unidos não priorizaram o uso de IA/ ML pelo adversário. Esta observação cai
principalmente nas mãos de tomadores de decisão que são tendenciosos contra o desenvolvimento de capacidades de IA/ML nos EUA.193
Os adversários usarão IA/ML como parte de suas capacidades militares para melhorar o desempenho de suas armas e
combater os sistemas de armas dos EUA e aliados.194

Restrições políticas

Há uma falta de supervisão adequada em relação ao uso de IA/ML pelo IC. O Congresso é avesso ao risco, o que é um
obstáculo para que o CI adquira e utilize IA/ML.195 Para agravar esta relutância, os comités do CI estão atualmente organizados
aao longo das agências do CI.196 Os comités do Congresso estão focados na certeza, clareza e estabilidade, que são

expectativas que se opõem diretamente à fluidez das tecnologias emergentes de IA/ML.197


A supervisão fornecida pelos comitês do CI,
Comitê Seleto Permanente de Inteligência da Figura 16. Problemas de restrições políticas
Câmara, Comitê Seleto de Inteligência do Falta de Apropriado
Supervisão
Senado, Comitê de Dotações-Defesa da Câmara
e Comitê de Dotações-Defesa do Senado não Falta de flexibilidade
Externo ao IC Restrições políticas
Regras de aquisição
evoluiu com o advento do era da informação.198
Falta de flexibilidade
Regras Orçamentárias

Do lado da aquisição, faltam regras de aquisição flexíveis. As políticas de aquisição frustram uma capacidade de resposta
rápida e, em geral, são demasiado rigorosas, com leis e regulamentos que são tendenciosos para a precisão e os requisitos
das especificações, em vez de alcançarem o resultado desejado.199 Como resultado, o actual processo de aquisição e as
normas culturais concebidas para sistemas físicos não suportam tecnologias de IA/ML.200 Essas práticas desatualizadas
prejudicam a capacidade do IC de adaptar, reestruturar tarefas e modificar algoritmos de IA/ML conforme necessário devido às
constantes mudanças no ambiente operacional.201

Do lado financeiro, faltam regras orçamentais flexíveis. Existe uma dupla preocupação: primeiro, as regras do processo
orçamental são tão rígidas que a capacidade de reagir rapidamente ou de integrar rapidamente a IA/ML é severamente limitada;
e em segundo lugar, o ritmo rápido no desenvolvimento da IA/ML muda mais rapidamente do que o rígido sistema orçamental
permite uma resposta.202 Como resultado, o processo orçamental, que é tão complexo, inibe a inovação, que é necessária
para promover tecnologias de IA/ML .203

Ambiente Digital

Uma sobrecarga de informações dos dispositivos que lidam com dados digitais, especialmente smartphones.204 Em 2020, o
número de dispositivos digitais conectados à Internet foi estimado entre 30 e 50 bilhões.205 Como essas tecnologias são tão
difundidas, elas geram enormes quantidades de informação.206 Esta epidemia digital aumentou o ritmo de vida, produzindo o
maior número de interações entre indivíduos na história da humanidade.207 Estas tecnologias produzem dados estruturados
e não estruturados que sobrecarregam a habilidade analítica e

Resultados 31
Machine Translated by Google

Figura 17. Problemas do ambiente digital capacidades de reconhecimento de padrões.208


Esses dispositivos se tornaram o campo de batalha
Informação
Sobrecarga de dispositivos que molda o envolvimento adversário em ferramentas
como Twitter, Facebook, Instagram, etc.209
Digital Sobrecarga de informação
Externo ao IC
Ambiente de dados de dispositivos
A sobrecarga de informação de dados inclui dados
Efeitos de
Informações sobre sobrecarga
que estão disponíveis comercialmente e
publicamente, que estão abertos a quase qualquer
pessoa no mundo que tenha acesso à Internet.210 A
velocidade e o volume desta democratização de dados sobrecarregam todos os domínios da inteligência, exceto possivelmente a
inteligência humana.211 Os problemas de gestão e diferenciação destes dados irão intensificar-se.212 Como o CI não sabe quais
os dados que são importantes, todos os dados devem ser recolhidos e processados.213 As agências do CI estão sufocadas pela
sobrecarga de dados.214 O volume de dados recolhidos, classificados e de código aberto, supera em muito a capacidade do
analista de lê-lo e sintetizá-lo para obter insights e informações relevantes para os tomadores de decisão.215 Para quantificar essa
sobrecarga, há 40 vezes mais bytes de dados do que estrelas no universo observável.216 Esses dados se estendem muito além
do que está nos feeds de notícias, sejam impressos, na Internet ou transmitidos.217

Os efeitos da sobrecarga de informações sobre os analistas incluem analistas que se tornam menos confiantes nos julgamentos
de IA/ML,218 ou que confiam implicitamente em IA/ML sem pensamento crítico, eles podem se tornar excessivamente confiantes.219
No domínio da recolha, a sobrecarga torna a priorização um desafio devido ao aumento dramático, à diversidade e à mudança de
alvos e ameaças.220

Natureza da IA/ML

A natureza dos problemas de IA/ ML consiste em dois tipos: a falta de conhecimento por parte das agências de IC (restrições de
conhecimento, ver Figura 18) e as limitações tecnológicas das tecnologias de IA/ML (limitações de IA/ ML).
ML, ver Figura 19). Cada tipo é dividido em problemas específicos, que são discutidos abaixo com mais detalhes. As restrições de
conhecimento incluem a falta de limites claros, falta de experiência em IA/ML de IC, falta de explicação dos resultados em IA/ML,
falta de processo para compreender o preconceito humano, falta de compreensão das capacidades humanas por IA/ML, falta de
compreensão as capacidades da máquina por IA/ML e a falta de compreensão humana dos resultados de IA/ML e seu significado.
As limitações da IA/ ML incluem desafios na obtenção de dados de treinamento relevantes, restrições limitadas de design de
algoritmos de IA/ML, preconceitos de importação humana no design de IA/ML, falta de transparência algorítmica e IA/ML não sendo
boa em tarefas deliberativas.

Restrições de conhecimento

Faltam limites claros entre as várias entidades relacionadas com a organização. Há uma ambiguidade entre o pensamento
específico e o pensamento geral sobre o que a IA/ML pode fazer pelo CI. Tanto os decisores políticos como os analistas tendem a
pensar da última forma, quando deveriam pensar da primeira.221 As agências de CI e as tarefas do CI em torno da estrutura dos
domínios de inteligência, ou seja, INTs, quando tal conceptualização não é relevante para IA/ML

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 32


Machine Translated by Google

tecnologias.222 O fato de as tecnologias de IA/ML Figura 18. Problemas associados às restrições de conhecimento
estarem confundindo as fronteiras em torno dos tipos
Falta de clareza
de dados significa que o sigilo é um risco maior do que Limites

a antiga suposição de que o sigilo é altamente valorizado


Falta de IA/ML
porque reduz o risco e a incerteza.223 Não comunicar Perícia

como uma organização usa IA/ O ML para monitorar o Falta de ML

comportamento torna quase impossível determinar Explicação dos Resultados

como a IA/ML é usada para frustrar os adversários.224 Falta de processo para


Entenda o preconceito humano
Conhecimento
Natureza da IA/ML
Restrições
O aumento da conectividade em todo o mundo torna Falta de entendimento
das Capacidades Humanas
muito difícil para as agências determinar quem faz o
quê e onde.225 Em termos de investigação sobre Falta de Humanidade

Compreensão do
fenómenos de IA/ML, o meio académico não tem uma
Significado dos resultados de AI/ML

abordagem interdisciplinar.
Falta de entendimento
Em vez disso, cada disciplina, como psicologia de capacidades da máquina

cognitiva, robótica, neurociência, etc., é independente,


Falta de entendimento
o que torna difícil a resolução de problemas de formação Processo de IA/ML

de equipes entre humanos e IA/ML.226

A falta de conhecimentos especializados em IA/ ML de IC é bem reconhecida.227 As tecnologias de IA/ML exigem um novo conjunto de
conjuntos de competências e conhecimentos provenientes da análise tradicional sem a ajuda de tais tecnologias. Isso inclui medir, julgar
e levar em consideração novos atributos, como a autenticidade dos dados.228

Um dos grandes problemas enfrentados pelos membros do IC é a falta de explicação dos resultados por IA/ ML. Isto é agravado pelo
facto de cada agência ter as suas próprias preferências culturais e institucionais sobre como e o que uma explicação dos resultados
deve incluir.229 Os analistas têm dificuldade em confiar em alguns resultados que não conseguem explicar e defender ao nível do
analista. 230 Os analistas são encarregados de defender as decisões perante clientes e líderes, e o funcionamento limitado da IA/ML a
este respeito não é tolerado.231 Por outro lado, existem preocupações de que os resultados da IA/ML possam ser tão complexos que a
IA/ML o resultado pode não ser explicável.232 No geral, há preocupações dos analistas de que a IA/ML possa ser vista apenas como
uma caixa preta, uma percepção de que o funcionamento interno de um processo não é cognoscível e pode nunca ser explicável aos
analistas.233 É o complexidade do algoritmo que é visto como a caixa preta. Embora o desenvolvedor do algoritmo compreenda o
processo algorítmico, não está claro se o desenvolvedor pode transferir esse conhecimento aos analistas.234 Essas preocupações não
são teóricas, seja do desenvolvedor ou do analista, porque se os resultados de IA/ML não forem explicáveis, erros de julgamento humano
podem custar vidas. 0,235

Falta um processo para ajudar a compreender o preconceito. Conforme observado acima, o preconceito humano entra no domínio da IA/
ML, intencionalmente ou não. No entanto, o impacto do preconceito das tecnologias de IA/ML não é compreendido.236 Atualmente, não
existe nenhum mecanismo para os analistas colaborarem para discutir formas de detetar ou mitigar preconceitos sobre IA/ML.237

Há uma falta de compreensão das capacidades humanas. Existem desafios na compreensão de como o indivíduo alcança um terreno
comum com um parceiro de comunicação, como uma tecnologia de IA/ML.238 Não se sabe como os indivíduos aprendem com um único
evento que não ocorreu anteriormente, pois isso seria

Resultados 33
Machine Translated by Google

importante na compreensão de uma situação nova e emergente. Essa falta de conhecimento pode dificultar a interação das
tecnologias de IA/ML.239 Existem desafios na compreensão de como os indivíduos absorvem o significado de novas situações
e depois são capazes de fazer previsões ou generalizações.240 Os desafios incluem compreender como os indivíduos criam
modelos mentais de situações e objetivos, intenções e habilidades de outras pessoas, o que afetaria o modo como o analista
entenderia os resultados da IA/ML.241 Em termos de compreensão da terminologia de nível de máquina usada para expressar
seus resultados, não se sabe o que é necessário para que os indivíduos ganhem a confiança da máquina.242 Finalmente, não
se sabe como os indivíduos percebem e entendem as habilidades mentais da máquina.243

Há uma falta de compreensão do significado dos resultados de IA/ ML. Os resultados do big data podem ser falsificados e
hackeados porque as probabilidades de correlações podem ser manipuladas.244 O big data é apenas uma ferramenta
analítica.245 O big data gera correlações, mas um analista pode errar no julgamento se o especialista do domínio não estiver
envolvido.246 Derivando um significado errôneo dos resultados pode ocorrer devido à má operacionalização ou à busca de
relacionamentos que não existem.247 Em geral, a opacidade das aplicações de IA/ML leva à incapacidade dos analistas de
compreender como os resultados surgiram.248

Há uma falta de compreensão das capacidades da máquina. Existem desafios na compreensão do que uma máquina precisa
para perceber, comunicar, modelar, resolver problemas e aprender com um ser humano.249 Da mesma forma, não se sabe
quais aspectos e até que ponto as máquinas precisam modelar as mentes dos indivíduos dadas as tarefas em mão.250 Existem
desafios na compreensão de como as máquinas constroem um modelo de indivíduos para fornecer comunicação eficaz.251

Há uma falta de compreensão do processo de IA/ ML. A capacidade da IA/ML de se explicar é problemática, pois os analistas
desejarão conhecer a lógica, as suposições e os preconceitos de dados dos algoritmos usados para criar resultados.252
Os indivíduos não sabem como os algoritmos de IA/ML tomam as decisões que tomam.253 Há uma incompatibilidade entre as
prioridades da IA/ML e as métricas utilizadas, o que torna difícil avaliar o desempenho do sistema.254 A eficácia da IA /ML
depende não apenas das propriedades do sistema, mas também de como o sistema é usado pelos analistas, tornando a
derivação de métricas um desafio para desenvolver.255 Métricas que determinam se a IA/ML pode duplicar o desempenho
humano impedem o valor da IA/ML. 256

Limitações de IA/ ML

Existem desafios na obtenção de dados de treinamento relevantes para treinamento de IA/ML. É difícil obter grandes volumes
de dados comerciais para testar e treinar algoritmos.257 Coletar e rotular dados usados para treinamento é um desafio,
especialmente para dados classificados.258 IA/ML usando treinamento supervisionado, que é o que a maioria dos sistemas usa,
requer grandes e conjuntos de dados representativos, e adquirir informações não é fácil.259 O difícil desafio é que os dados de
treinamento muitas vezes não são dados do mundo real, o que significa que a interpretação do algoritmo de IA/ML a partir de
dados do mundo não real pode não ser útil em realidade.260 As aplicações existentes de IA/ML são muitas vezes chamativas,
mas não são voltadas para o ambiente onde dados classificados são integrados com dados não classificados, estando assim
sujeitos a julgamentos inadequados.261 Os sistemas de IA/ML devem ser treinados para não coletar ou analisar pessoas ou
entidades não autorizadas, como pessoas dos EUA.262

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 34


Machine Translated by Google

É um problema inerente que os humanos importem Figura 19. Problemas associados às limitações de IA/ML
preconceitos para IA/ ML de muitas formas. Desafios para obter
Dados de treinamento relevantes
Um problema é que se o processamento cognitivo
dos analistas for transferido para IA/ML, as decisões Importação de Humanos
analíticas que formam as avaliações se tornarão Viés em IA/ML

cada vez menos críticas.263 O desenvolvedor do Limitações de Falta de algoritmo


Natureza da IA/ML
IA/ML Transparência
algoritmo de IA/ML não consegue ver seus
preconceitos, que podem se manifestar como um IA/ML limitada
Projeto Algorítmico
erro inexplicável por parte do AI/ML.264 Como o
preconceito é tão sistêmico, agências de inteligência AI/ML restrito
Capacidades
e corporações que coletam grandes conjuntos de
dados provavelmente introduzirão preconceitos.265
O preconceito algorítmico é introduzido por quem projeta ou treina o AI/ML.266 O preconceito também pode ser introduzido
durante o processo de aquisição, desde o planejamento até a implantação.267 Os cientistas de dados introduzem preconceitos.268
Um viés interessante é que, embora os humanos sejam avessos à perda, os algoritmos de IA/ML não o são, mas os humanos
projetam algoritmos.269 A perspectiva do algoritmo reflete a organização e a educação do designer. , ou experiência em fazer
escolhas de design.270 Os clientes podem introduzir viés de confirmação por meio de sua solicitação de personalização para
atender às suas necessidades e solicitações de determinados algoritmos.271 Em geral, a difusão do viés é constituída por muitos
fatores, incluindo as características do dados de inteligência, o analista de inteligência, o programador, o desenvolvedor e o cientista de dados.272

Falta transparência algorítmica para analistas e clientes. Os analistas estão preocupados com a forma como a IA/
O ML chega a conclusões.273 A visibilidade algorítmica não é muito visível, especialmente porque as organizações incorporam
mais ferramentas, e os processos internos de IA/ML, a caixa preta, podem não receber a atenção que merecem.274 Uma
questão confusa é a questão de confiança que as organizações atribuem a IA/ML, pois os algoritmos podem dar acesso a dados
aos quais nem todos os analistas têm acesso. Isto levanta a questão de quanta confiança pode ser depositada nas máquinas e
quanta confiança os analistas têm nos algoritmos.275 Os problemas de acesso podem impedir a auditoria de uma organização
em busca de vulnerabilidades que possam ser criadas internamente pela organização ou manifestadas externamente por adversários.276

Existem muitos problemas identificados relacionados ao design limitado do algoritmo AL/ ML. Existe o problema do delineamento
do espaço, onde os projetistas de algoritmos precisam entender o problema de inteligência e transformar o problema em um
espaço de problema. O nível de esforço de transformação varia de acordo com o problema.277 Os projetistas de algoritmos
precisam encontrar maneiras para que o algoritmo identifique os tópicos de inteligência, nos quais a identificação envolve o
processamento de uma palavra ou combinação de palavras às quais são dados pesos.278 Outra questão é a capacidade de
combinar as preferências culturais e institucionais dos algoritmos com os padrões profissionais do analista de nível
profissional.279 A natureza frágil dos algoritmos é um problema sistêmico, pois o algoritmo só funcionará conforme projetado se
os dados de entrada ou o ambiente não mudarem.280 Big data é menos robusto quando é complexo, o que significa que
algoritmos que usam conjuntos de dados comuns terão mais sucesso do que conjuntos de dados complexos.281 No entanto, os
conjuntos de dados mais interessantes são dinâmicos, que mudam ao longo do tempo, o que significa que as correlações do
algoritmo só são precisas para um determinado período.282

Um algoritmo treinado para um problema de inteligência e escopo não será treinado e utilizável para diferentes problemas de
inteligência ou mudanças no escopo.283 Os algoritmos não podem realizar tarefas de pensamento deliberativo, como

Resultados 35
Machine Translated by Google

identificar quais dados coletar, quem ou como divulgar os resultados e avaliar os riscos e recompensas do uso dos resultados.284
O desafio subjacente por trás dessas limitações dos algoritmos é que suas técnicas são projetadas para quantificar a incerteza
ou ambiguidade.285 Os algoritmos não funcionam bem quando lhes falta regularidade de contexto. O ambiente, a regularidade
estatística e as populações são diferentes durante a fase de treinamento de dados e a implantação do algoritmo de treinamento.286
Essas limitações tornam difícil descobrir as reais capacidades e limitações dos algoritmos.287 Essa dificuldade se torna mais
aguda à medida que os algoritmos se tornam mais complexo porque a saída algorítmica será menos transparente e menos
propensa a prever os limites de sua operação.288

A inflexibilidade dos algoritmos é ainda mais atenuada quando confrontados com eventos raros ou novos, uma vez que os
modelos de design algorítmico não conseguem identificar o significado de tais eventos.289 Há um número relativamente limitado
de designs de algoritmos que os designers podem selecionar, o que introduz preconceitos e incorporar suposições não
declaradas no projeto escolhido.290 Essa limitação é aparente quando existe a necessidade de reconhecer objetos em diferentes
ambientes e sob diferentes restrições e, portanto, requer diferentes soluções de projeto. Para dar um exemplo hipotético, embora
um analista possa considerar duas tarefas muito semelhantes, como reconhecer um rosto humano numa fotografia publicada
num site da Internet e reconhecer um lançador de mísseis numa imagem de satélite, o criador do algoritmo vê estas tarefas de
forma completamente diferente.291

Relacionado ao problema de um design de algoritmo AL/ML limitado estão os recursos restritos de AI/ ML. AI/ML fornece valor
quando os dados de entrada podem ser inequivocamente associados à saída, mas é limitado quando o processo não é tão fácil
de mapear a entrada para a saída.292 Como tal, é melhor pensar no valor da AI/ML como contribuição para inteligência
fundamental, informações sobre equipamento militar estrangeiro, por exemplo, em vez de análises concluídas onde são feitas
avaliações sobre previsão, intenção ou motivação.293 As tecnologias relacionadas de IA/ML são melhores na quantificação e
em grandes volumes de dados. Ainda assim, o analista de inteligência é melhor do que IA/ML quando o problema de inteligência
envolve nuances de contexto e compreensão das interações sociais entre os atores.294 Portanto, as tecnologias de IA/ML são
limitadas em sua capacidade de deliberar.295 A tecnologia de IA/ML não fornecerá respostas imediatas para qualquer espaço de
problema com dinâmica, variação e complexidade temporal.296

Soluções

A identificação de soluções com IA/ML é dividida em dois tipos de recomendações. Um tipo é a necessidade de reforma
do CI: aquelas soluções que exigem o preenchimento de incógnitas chamadas lacunas de conhecimento. O outro tipo
é a necessidade de uma ação eficaz, denominada necessidades de implementação. A Figura 20 resume as duas
soluções e as seis soluções mais detalhadas discutidas abaixo.

Preencha lacunas de conhecimento

As soluções para preencher lacunas de conhecimento consistem em três tipos, conforme mostrado na Figura 20: tomar decisões
organizacionais sobre o que a IA/ML deve apoiar (decidir o que a IA/ ML deve fazer ...), identificar lacunas de conhecimento para
as quais é necessária pesquisa acadêmica para preencher as lacunas (pesquisa acadêmica) e identificação de caminhos a seguir
relacionados à liderança (visão de liderança).

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 36


Machine Translated by Google

Cada um dos três tipos é dividido em soluções Figura 20. Soluções de IA/ML para IC
específicas, que são discutidas abaixo com mais
Decida o que é IA/ML
detalhes: Decidir o que a IA/ ML deve fazer... inclui foco Deveria fazer por...

na análise, coleta, dados, uma estrutura conceitual,


Preencha Conhecimento Acadêmico
Lacunas Pesquisar
baixa deliberação tarefas, equipe máquina-humana,
prioridades e processos, resumidos na Figura 21; A Liderança
Visão
pesquisa acadêmica inclui recursos de IA/ML,
Soluções
preenchimento de conhecimento fundamental, equipe
Estratégia
máquina-humana, compreensão do mundo real e teoria Desenvolvimento

de uso, resumidos na Figura 22; e Visão de Liderança


Endereço Equipe
inclui líderes desenvolverem a necessidade de mudar, Necessidades de implementação Desenvolvimento

resolver um problema, não comprar uma solução, usar


Comunidade
princípios científicos, focar na IA/ML do adversário, Foco

imaginar novos papéis para IA/ML e IA/ML aumenta


o Humano, resumido em Figura 23.

Decida o que a IA/ ML deve fazer…

Decidir o que a IA/ML deve fazer para análise inclui ter a capacidade dos algoritmos de IA/ML para permitir que as empresas de mídia
social removam ou interrompam o conteúdo do adversário, uma vez que as ferramentas podem fazer isso mais rápido do que os
analistas.297 Porque o número de dispositivos conectados à Internet é tão grande e a interação humana através da Internet é tão vasta
que os algoritmos de IA/ML devem ser usados para
manter uma vantagem sobre os analistas inundados Figura 21. Tomando soluções de decisões de IA/ML
pela sobrecarga de informações.298 Os algoritmos de
Análise
IA/ML também podem melhorar a coleta de informações
e mudar a forma como os analistas conceituam uma ameaça.299
Coleção

O CI precisa decidir quais organizações devem adotar


Dados
IA/ML para equalizar ou melhorar a competição entre
grandes potências.300
Um conceitual
Essa alocação de prioridades de IA/ML ajudará os Estrutura
Decida o que é IA/ML
Lacunas de conhecimento
tomadores de decisão a usar os pontos fortes e as Deveria fazer por...
Baixo Deliberativo
Tarefas
vantagens assimétricas da IA/ML na busca de um
objetivo.301 Embora a IA/ML seja atualmente usada Máquina-Humano
Equipe
na análise inicial da coleta de dados, a IA/ML
O ML tem o potencial de apoiar tarefas mais
Prioridades
deliberativas para o analista.302 É necessária uma
capacidade de contra-IA para reconhecer esforços
Processo
adversários para alterar ou usar dados manipulados.303

Resultados 37
Machine Translated by Google

Dada a experiência no domínio e um ambiente estável, a IA/ML pode identificar anomalias que fornecem ao analista de inteligência
uma perspectiva mais ampla.304

Decidir o que a IA/ML deve fazer para a coleta inclui a ajuda da IA/ML na detecção e no alerta precoce, identificando mudanças
imperceptíveis e detectando comportamentos anômalos.305 A IA/ML também pode ajudar a validar a veracidade dos dados e das
fontes de coleta.306 A IA/ML pode ajudar com operações de inteligência humana, melhorando o monitoramento de riscos de
segurança e contrainteligência.307 A IA/ML pode ajudar, fornecendo processamento mais rápido de dispositivos de borda em áreas
de alto risco ou negadas quando conectadas a sensores e plataformas de comunicação.308 A IA/ML pode ajudar a melhorar o
velocidade e precisão dos materiais capturados.309

A IA/ML pode ajudar com informações de código aberto e, nesse sentido, o CI deve criar uma abordagem federada para aplicar IA/
ML a informações de código aberto.310 A inteligência de código aberto deve ser definida como a necessidade de abordar uma
inteligência específica requisitos e processos para fornecer insights que de outra forma não estariam disponíveis em fontes
classificadas.311 As agências de CI devem ensinar aos novos analistas que informações de código aberto podem fornecer novos
insights.312 As tecnologias de IA/ML podem ajudar no planejamento, agendamento e definição de tarefas em plataformas de coleta
com base em requisitos e tipo de alvo para as fontes de inteligência técnica.313

Decidir o que a IA/ML deve fazer com os dados inclui as agências de CI criarem dados de treinamento classificados para que os
algoritmos tenham dados de treinamento realistas para problemas de inteligência.314 No entanto, a IA/ML não deve ser usada se
as agências não tiverem os dados necessários.315 AI/ML pode ajudar no processamento e triagem de dados, o que de outra
forma levaria muito tempo se feito manualmente.316 Os produtos de inteligência de CI devem ser legíveis por máquina para serem
disseminados em velocidades de máquina em formatos legíveis por máquina e para apoiar tarefas urgentes.317 Há são tópicos em
que a IA/ML está a ser utilizada contra big data, incluindo segurança marítima, segurança cibernética, branqueamento de capitais,
análise multi-INT e consciência situacional espacial.318 No entanto, as agências de IC precisam de reconhecer que big data não
pode preencher lacunas de conhecimento, uma vez que não é possível prever a causalidade.319 AI/ML é adequado para limpeza de dados.320
As agências, no entanto, devem ampliar as fontes de conhecimento além do big data por meio de aplicações de IA/ML para incluir
grupos de estudo, grupos de reflexão, reportagens da mídia e livros publicados.321

Decidir o que a IA/ML deve fazer para uma estrutura conceitual inclui começar com as métricas corretas, o que exige que a
organização entenda como o sistema será usado de forma detalhada.322 O CI precisa desenvolver uma estrutura que consista em
várias dimensões: as várias Capacidades de tecnologia de IA/ML, a diversidade de aplicações de IA/ML no CI e o investimento que
uma organização deve despender em tempo e espaço.323 As agências de CI devem compreender os modelos, algoritmos e
heurísticas das ferramentas atuais de IA/ML.324
A avaliação da diversidade de aplicações de IA/ML deve ser categorizada através de quatro fatores independentes: o grau de
controle que a agência tem sobre o desenvolvimento de IA/ML e sua implantação; a extensão da relevância dos dados, energia e
largura de banda que se presume estarem disponíveis; o conhecimento da rapidez com que se espera que os algoritmos de IA/ML
processem dados e forneçam um resultado; e o grau de resiliência que uma organização tem na recuperação de falhas de IA/
ML.325 Uma estrutura também deve considerar como a confiança é estabelecida no sistema de IA/ML para determinar os limites
do comportamento da IA/ML, quando pode não ser funcionar e quando funcionará.326

Decidir o que a IA/ML deve fazer para tarefas de baixo valor deliberativo inclui A IA/ML pode economizar tempo em tarefas de baixo
valor para que o analista possa dedicar mais tempo e atenção a atividades de alto valor.327 Há duas maneiras pelas quais a IA/ML

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 38


Machine Translated by Google

agrega valor: ter mais tempo à disposição do analista e adicionar mais tarefas de alto valor para o analista processar.328 Esta vantagem
potencial pressupõe que a agência IC decidirá quais são as tarefas de alto valor para um analista.329
AI/ML oferece valor ao descarregar tarefas de baixo valor, o que significa que os analistas podem realizar tarefas de alto valor, incluindo
análise, planejamento e tarefas que exigem criatividade, comunicação e colaboração.330 AI/ML é uma tecnologia transformadora para
tarefas de baixo nível . Ainda assim, devido ao aumento do número e dos tipos de ameaças, a IA/ML não pode continuar a ser uma
tecnologia transformadora, mesmo para tarefas de baixo nível, uma vez que não será capaz de acompanhar o ritmo.331

Decidir o que a IA/ML deve fazer para equipes de máquinas-humanos inclui organizações de CI com uma filosofia que cria e mantém o
comércio máquina-humano, consistindo em política de design, tecnologia da informação, uma política de aquisição flexível e um ambiente
de segurança ágil.332 O CI deve determine quando a IA/ML é melhor usada para apoiar o analista e quando a IA/ML é melhor usada para
apoiar a equipe máquina-humana. 333

As agências de IC devem identificar casos de uso de alto impacto onde a equipe máquina-humana tenha um impacto importante.334

A decisão sobre o que a IA/ML deve fazer em termos de prioridades inclui as agências de CI esclarecerem as suas prioridades e como a IA/
O BC enquadra-se nessa estratégia.335 Deveria haver discussões mais matizadas sobre o que a IA/ML pode ou não fazer, o que deve
incluir decisores políticos e analistas.336 O CI deve dar prioridade a onde utilizar a IA/ML em cada fase do ciclo de inteligência, para na

medida do possível e em relação aos dados disponíveis.337

Decidir o que a IA/ML deve fazer para o processo inclui ter rótulos de certificação visíveis nas tecnologias de IA/ML com informações sobre
suas características e conjuntos de dados de treinamento necessários.338 Há também a necessidade de processos de rastreamento de
desempenho que avaliem continuamente a IA/ML. tecnologia de ML para avaliar sua precisão.339 Para garantir o controle de qualidade,
deve haver uma equipe vermelha contínua de modelos de IA/ML em cada etapa.340 Supondo que o IC automatizou os processos de IA/ML
para cada disciplina de inteligência, a tecnologia de IA/ML deve fundir cada processo em um feed ininterrupto de todas as fontes.341

Pesquisa acadêmica

Para preencher muitas das lacunas de conhecimento, é necessária investigação académica. Uma área, conforme ilustrado na Figura 22,
são as capacidades de IA/ ML. Mais pesquisas são necessárias para avaliar os métodos de IA/ML, para que os desenvolvedores e usuários
possam compreender as capacidades e limitações das
ferramentas.342 Pesquisas também são necessárias Figura 22. Soluções de pesquisa acadêmica
para ajudar a entender como a IA/ML pode apoiar o
IA/ML
reconhecimento de padrões, incluindo fazer inferências Capacidades

entre padrões detectados. objetos e redes visualizadas Preencher Fundacional

para maior clareza e compreensão.343 É necessária Conhecimento

pesquisa para ter uma ferramenta de IA/ML demonstrável Acadêmico Máquina-Humano


Lacunas de conhecimento
Pesquisar Equipe
que represente uma capacidade realista sem simplificar
a capacidade da ferramenta. Isso ajudaria a fundamentar Mundo real
Entendimento
futuros esforços de aquisição e usuários no que pode
ser realizado.344
Teoria do Uso

Resultados 39
Machine Translated by Google

precisa haver mais pesquisas sobre os desafios técnicos e sociais da adoção de IA/ML no trabalho analítico dentro do IC.345

Mais pesquisas são necessárias sobre como a IA/ML preenche o conhecimento fundamental. O conhecimento fundamental é
informação básica sobre o que existe, por exemplo, no arsenal militar de um adversário. A investigação sobre como a curiosidade
pode ajudar a preencher lacunas de conhecimento relacionadas com o conhecimento fundamental apoiaria a geração de perguntas
que poderiam ser usadas para preencher lacunas.346 Os investimentos em IA/ML incluem investigação básica fundamental, pelo que
se justifica um foco nesta investigação.347

A pesquisa sobre formação de equipes entre máquinas e humanos cobre um amplo espectro de interesses. As seguintes áreas
enquadram-se nas áreas de pesquisa da equipe máquina-humana: compreensão das restrições do analista humano e da natureza de
como o problema analítico é representado; fatores necessários para que a confiança seja construída e mantida pelos analistas da
máquina; reações do analista a diferentes níveis de cognição em máquinas; quando e o que a máquina explica ao analista para que
o analista possa ter um conceito preciso do membro da sua equipe de máquina; a capacidade da máquina de ter perspectiva e
atenção conjunta para conseguir cooperação e coordenação com o analista; compreender o comportamento do analista em diferentes
situações de agrupamento de máquinas para que a máquina tenha um modelo válido de comportamento do analista; e o que a
máquina precisa de saber para poder raciocinar com os analistas.348 A maior parte destes tópicos de investigação precisaria de ser
realizada através de experiências.

A pesquisa sobre a compreensão do mundo real de IA/ML inclui estudos de comunicação em contextos do mundo real focados na
linguagem natural que poderiam então ser ampliados para que a máquina pudesse se comunicar em contextos mais complexos,
novos ou incertos e estudos de comunicação sobre a capacidade da máquina de compreender o contexto para que a comunicação
da máquina com o analista seja baseada no contexto e no ambiente.349

A pesquisa sobre a teoria de uso de IA/ML envolve a compreensão de como a IA/ML pode ser usada. É necessária mais investigação
a nível micro e macro sobre como o CI pensa sobre todo o ciclo de vida da IA/ML, desde o planeamento até à implantação e
integração com outros tipos de tecnologias.350 A nível macro, é necessária investigação sobre como os tomadores de decisão
conceituam como a IA/ML poderia ser usada em suas agências.351 No âmbito acadêmico, a própria condução da pesquisa deve
incluir pesquisas sobre colaboração interdisciplinar.352
É necessária pesquisa no aprendizado de tarefas de IA/ML para reutilização e recombinação de conhecimento em diferentes conjuntos
de problemas analíticos.353 Há uma necessidade de uma teoria de uso de IA/ML no CI que inclua as tarefas nas quais IA/ML
O ML é bem-sucedido e os outros não.354 São necessárias pesquisas sobre a demanda futura por IA/ML para adequar adequadamente
a aplicação aos analistas que se envolvem em tarefas complexas e deliberativas.355

Visão de Liderança

Os artigos sugerem que a liderança executiva deve estar envolvida no desafio geral de incorporar IA/ML no CI. Um passo importante
é que os líderes desenvolvam a necessidade de mudança, onde os líderes devem criar um senso de urgência porque há uma crise
de IA/ML, adotar o pensamento inovador para desenvolver uma cultura de inovação, articular riscos aceitáveis e taxas de fracasso
esperadas e apoiar os inovadores quando os esforços falham.356

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 40


Machine Translated by Google

A criatividade e o comprometimento são necessários para Figura 23. Soluções de Visão de Liderança
a liderança, pois são qualidades decisivas para alcançar o
Líderes se desenvolvem

sucesso na integração e no aproveitamento de novas Precisa mudar

tecnologias.357 Resolver problema,


Não comprar solução

A liderança não deve sucumbir à pressão para comprar a


Usar Científico
saída da crise da IA/ML, pois deve resolver problemas e Princípios
Liderança
Lacunas de conhecimento
não comprar soluções. Visão
Focar em
A liderança deve superar a tendência de aplicar soluções Adversário AI/ML

caras a um problema que pode não corresponder. Ainda


Imagine novas funções
assim, existe um preconceito cultural de que o ato de para IA/ML

comprar é um fim em si mesmo, uma estratégia de falsas


Aumentos de IA/ML
Humano
esperanças.358 Os líderes precisam de reformular a

conceptualização da IA/ML como uma solução de tecnologia

da informação que pode ser comprada. Em vez disso, a tecnologia deve ser conceptualizada como um problema operacional que precisa de ser

resolvido.359 Para apoiar este fim, o CI deve acolher favoravelmente a utilização de IA/ML desenvolvida comercialmente e apenas introduzir

modificações dispendiosas quando necessário.360

A liderança deve garantir que a IA/ML se baseie em princípios científicos utilizando a ciência de dados. A ciência de dados é um campo

interdisciplinar que integra os domínios da estatística, computação, comunicação, gestão e sociologia para estudar dados dentro de um contexto,

como domínios específicos, mas também comportamentos organizacionais e sociais, para transformar dados em conhecimento.361 A ciência de

dados deve ser integrada em estratégias analíticas contra ameaças.362 A liderança deve abraçar a ciência para a tomada de decisões baseada

em evidências usando o método científico.363 A liderança deve modelar o comportamento de que a ciência de dados deve ser integrada na análise

para que a inteligência estratégica possa ser eficaz.364 Em alinhada com uma base científica, deve haver uma abordagem sistemática modelada

pela liderança na tomada de decisões conscientes do risco.365 Uma abordagem de ciência de dados deve enquadrar o ambiente de ameaça como

um sistema adaptativo complexo.366

O IC não deve apenas entender como usar IA/ML, mas também deve se concentrar no uso de IA/ ML do adversário.

A liderança deve garantir que o lado da ameaça seja abordado. Os analistas de IC devem se concentrar na IA/ML adversária, o que poderia ser

feito através do estabelecimento de quadros cujo único propósito seja focar em sistemas e capacidades de IA/ML estrangeiros.367 Uma maneira

de conseguir isso é estabelecendo uma câmara de compensação de IA/ML que teria informações sobre o uso estrangeiro de IA/ML.368 O CI

deveria criar uma equipe vermelha de IA/ML que se concentraria no uso malicioso de IA/ML.369 Por extensão, tal foco exigiria investimento em

capacidades de combate à IA. laços.370 Além disso, o IC deve financiar testes adversários de IA/ML e formar equipes de uso de IA/ML

adversários.371

Um importante papel de liderança é imaginar novas funções para IA/ ML. A IA/ML pode ajudar a fornecer informações aos tomadores de decisão.

Pode expandir o conhecimento dos analistas, trazendo aprendizagem contínua para o local de trabalho, oferecendo IA/

Recomendações baseadas em ML sobre o que ler e validação de ferramentas de IA/ML para que os analistas confiem nos resultados de IA/ML.372

A liderança deve garantir que exista a mentalidade certa para que a IA/ ML aumente os humanos, e não substitua os analistas.

Deve haver acordo de que a inteligência é definida principalmente como uma profissão humana e que a IA/ML

Resultados 41
Machine Translated by Google

as tecnologias aumentam a profissão.373 Embora exista a tentação de exaltar a IA/ML como transformadora para o CI, a liderança deve ter o cuidado de

comunicar a IA/ML como uma capacidade incremental e não como uma tecnologia transformacional.374 Existem muitos factores culturais que os

decisores devem ser considerados ao buscar tecnologias de IA/ML, como flexibilidade e aceitação de mudanças, uma cultura de aprendizagem, tomada

de decisão baseada em dados, comunicação e colaboração abertas, visão digital compartilhada, uma cultura empreendedora, pensamento crítico e

questionamento aberto.375

Atender às necessidades de implementação

As soluções para necessidades de implementação consistem em três tipos, conforme mostrado acima na Figura 24: abordando uma ampla variedade de

perspectivas sobre como abordar as facetas da IA/ML (desenvolvimento de estratégia), abordando os desafios únicos da formação de equipes máquina-

humanas (desenvolvimento de equipe) e identificação de caminhos a seguir relacionados com a liderança (foco na comunidade).

Cada tipo é dividido em soluções específicas, que são discutidas abaixo com mais detalhes. Na Figura 24, o desenvolvimento da estratégia centra-se no

orçamento, aquisição, recursos humanos, supervisão, parceria, entrega de produtos e risco. O desenvolvimento da equipe inclui o envolvimento do

analista, a compreensão do analista, a equipe interdisciplinar, a redução do preconceito humano e a experiência no domínio estão resumidos na Figura

25. O foco na comunidade

inclui recursos de inteligência, inovação, testes e verificação, conforme descrito na Figura 26.

Desenvolvimento de estratégia

O processo orçamental precisa de ser reparado, o que impulsiona a necessidade de uma estratégia orçamental. O processo orçamentário deve ter maior

flexibilidade de CI para apoiar o desenvolvimento de IA/BC.376 O processo orçamentário deve incluir investimentos na infraestrutura técnica para apoiar

IA/BC.
Figura 24. Soluções de Desenvolvimento de Estratégia Tecnologias de BC.377 O financiamento pode ser usado como

um castigo, mas ameaça cortar o financiamento às agências


Orçamento
quando os seus esforços de desenvolvimento de IA/ML ficam

muito atrás do setor privado.378


Aquisição

Da mesma forma, o processo de aquisição precisa de reparos.


Recursos humanos
As aquisições devem usar declarações de
objetivos em vez de uma declaração de trabalho,
Implementação Estratégia
Supervisão já que a primeira não orienta como o resultado
Precisa Desenvolvimento

pode ser alcançado.379 São necessárias novas


Parceria
autoridades de aquisição, como Outras
Autoridades de Transação (OTA) e Aberturas de
Entrega de produto
Soluções Comerciais (CSO).380 Desenvolva uma
estratégia que utilize um orçamento único para
Risco
permitir que o mesmo dinheiro seja usado para vários fins.381 Crie u

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 42


Machine Translated by Google

organização paralela para aquisição de tecnologias de IA/ML.382 Organizações semelhantes são criadas quando a organização
oficial ou primária não é capaz ou projetada para identificar, definir ou resolver um problema estrategicamente importante. No
entanto, a organização paralela não substitui nem substitui a organização oficial.383

O desenvolvimento de uma estratégia de recursos humanos foi uma área-chave de foco nos artigos. Uma recomendação trata da
redução da rotatividade de analistas que pode ocorrer devido a analistas que enfrentam erros de IA/ML ou à introdução de novas
tecnologias.384 Outra ideia geral é incentivar a criatividade e o pensamento profundo nos analistas.385 As agências precisam
educar os analistas de IC sobre como navegar nos vários desenvolvimentos. caminhos que exigem conhecimentos e habilidades
em IA/ML.386 As agências devem incentivar a participação em uma equipe de projeto para garantir que tenham uma boa
compreensão de AI/ML.387 O recrutamento de IA/ML, incluindo seus testes e avaliação, deve ser acelerado , e é necessário que
haja formação adequada uma vez integrado.388 O CI precisa de desenvolver a confiança na IA/ML por parte dos seus líderes
seniores. Portanto, o CI deve desenvolver um curso introdutório à IA para eles e identificar conjuntos de competências da força de
trabalho para tarefas habilitadas pela IA.389 É necessário que haja uma reformulação do conjunto de competências da força de
trabalho para os funcionários, a fim de aumentar as capacidades da força de trabalho analítica.390 O CI deve considerar a rotação dos analistas em a I
Indústria de ML para aprender sobre os recursos de IA/ML e como a indústria os projeta e constrói.391 Os gerentes precisam ser
treinados em sistemas de IA/ML antes de serem implantados no espaço de trabalho.392

É necessária uma estratégia de supervisão . Por um lado, a supervisão do Congresso deve ser adaptativa, onde a supervisão
aceita mudanças e incertezas.393 Deve haver uma visão compartilhada sobre IA/ML e como é um projeto de IA/ML entre o
Congresso e o CI.394 O CI deve considerar a adoção a abordagem de supervisão DevSec-Ops do DoD, uma cultura de
monitoramento contínuo e prática para integrar desenvolvimento de software (Dev), segurança (Sec) e operações (Ops).395 A
supervisão deve reconhecer a importância de permitir a iteração, o que permitiria que a supervisão ser modificado se uma
abordagem inicial não estivesse funcionando como esperado.396
O CI e os comitês do Congresso devem alterar sua interação com base na confiança para gerenciar as expectativas e reduzir
surpresas.397 O DNI deve ter dois compromissos informais com os comitês, um semestral sobre projetos de IA/ML e outro
periodicamente, para criar relacionamentos mútuos. compreender e construir confiança em torno de projetos de IA/ML.398 Para
construir confiança entre o CI e os comitês, os comitês do Congresso não devem abusar da ideia de dois compromissos
informais.399 Os comitês devem se organizar em torno de funções em vez de agências para alcançar um foco mais profundo em
IA/ Tecnologias de ML.400

O desenvolvimento de uma estratégia de parceria AI/ML é amplamente destacado nos artigos. O CI precisa desenvolver um plano
para colmatar a lacuna de inovação em IA/ML entre o setor privado e o IC.401 AI/
Os avanços do BC estão a ser desenvolvidos e experimentados no sector privado.402 Há também a necessidade de cooperação
entre o CI e as autoridades responsáveis pela aplicação da lei em tecnologias de IA/BC.403 Para ter uma estratégia de parceria, a
colaboração entre o sector privado e os profissionais do CI necessita a ser modelado.404 A parceria com o setor privado para
combater ameaças online e aproveitar os avanços de IA/ML é essencial.405
Devido à assimetria entre o setor privado e o CI, o CI não deve tentar desenvolver internamente as suas tecnologias de IA/ML.406
O CI deve desenvolver organizações de segurança de IA/ML que sirvam como defensoras da segurança e sejam as interface com
o setor privado.407

Devido às potenciais complexidades da IA/ML, é necessária uma estratégia para pensar na entrega de produtos de inteligência
aos tomadores de decisão. Uma questão fundamental é a falta de explicação do algoritmo, o que sugere que se o

Resultados 43
Machine Translated by Google

os resultados do algoritmo não podem ser explicados, tais resultados devem ser evitados.408 O CI deve reinstrumentar o processo de
entrega do produto com base na arquitetura de dados, métricas de engajamento e modelagem do cliente para que IA/ML possa ser
aplicada ao feedback do cliente.409 O CI deve desenvolver um curso de treinamento de IA/ML para seus clientes para melhorar a
confiança nos produtos de IC.410 Os produtos de IC devem ser produzidos em formatos legíveis por humanos e máquinas para que os
resultados possam ser incorporados em outros esforços analíticos em todo o IC.411

O CI precisa desenvolver uma estratégia de risco. Uma estrutura de risco estratégico flexível seria aplicada em todo o CI, permitindo que
cada agência adaptasse a estrutura à sua missão.412 Essa estratégia de risco baseada em IA incluiria como lidar com falhas de IA/ML,
dados tendenciosos, ataques adversários de IA/ML, fornecimento problemas de cadeia, erros humanos, custos excessivos, questões
legais e questões de supervisão.413 É necessário haver um equilíbrio entre os riscos de agir e de não agir.414 O CI deve garantir que a
privacidade seja protegida, que a IA/ML não infrinja e que uma estratégia de mitigação de riscos inclui monitoramento de rotina.415
Compreender os riscos associados à IA/ML ajudará o CI a determinar o quanto pode confiar nos resultados de IA/ML.416 Uma área de
risco chave é o teste e avaliação de IA/
Tecnologias de ML, que cabe ao IC desenvolver uma estrutura de teste e avaliação baseada em risco.417

Desenvolvimento de equipe

O envolvimento do analista no processo de desenvolvimento é um fator crítico para o sucesso das ferramentas de IA/ML. As agências
precisam envolver todos os atores, especialmente os analistas, nas fases de desenvolvimento e implementação de IA/
O planejamento de ML inclui ser receptivo às observações e feedback do analista.418 O envolvimento do analista deve ir além de sua
familiarização com algoritmos, pois deve incluir o contexto em que o analista trabalha, porque a dinâmica organizacional influencia as
condições do local de trabalho, moldando assim como
Figura 25. Soluções de Desenvolvimento de Equipe os analistas percebem a utilidade de a IA/

Analistas
Envolvimento Ferramenta de ML.419 É necessário compreender o
contexto dos analistas, especialmente aqueles em
Analistas
Entendimento grandes instituições burocráticas, porque esses

Implementação Equipe contextos podem moldar a difusão, adoção, aceitação


Interdisciplinar
Precisa Desenvolvimento Equipe
e uso de ferramentas de IA/ML.420

Reduzir Humano Alguns recomendam que os Padrões Analíticos CID


Viés
203421 sejam usados como ponto de partida para o
Domínio desenvolvimento de temas de IA/ML de transformação,
Perícia
agregação, rotulagem e exibição de dados.422

Outro fator crítico é a compreensão do analista sobre algoritmos de IA/ML. Os analistas devem adotar IA/
Algoritmos de ML porque esses aplicativos podem classificar dados, aprender com os dados e responder aos dados.423 Os analistas
precisam confiar nos resultados de IA/ML, o que exige transparência e responsabilidade sobre como os sistemas de IA/ML são usados na
prática.424 Saber como os algoritmos funcionam é importante. especialmente importante à medida que mais dados são processados pela IA/
Tecnologias de ML.425 Os analistas precisam ser transparentes sobre os dados usados durante o treinamento da ferramenta AL/ML para
reduzir ou gerenciar preconceitos.426 Reduzir preconceitos não intencionais em IA/ML requer transparência para os analistas verem
como os algoritmos produzem resultados.427 Os analistas precisam saber como os sistemas de IA/ML são configurados e usados em

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 44


Machine Translated by Google

pratique confiar neles.428 Criar confiança no analista significa superar a dúvida inicial do analista sobre uma ferramenta de IA/
ML.429

Não se trata apenas do envolvimento do analista no desenvolvimento de IA/ML; a equipe interdisciplinar precisa estar envolvida.
Este é um esforço conjunto de todos os intervenientes, incluindo cientistas da computação, analistas de inteligência, estrategas,
advogados e visionários de liderança.430 Envolver todos os intervenientes significa analistas e gestores para que possam ver
e participar na concepção, implementação e adaptação da IA /ML para que a ferramenta seja mais provavelmente aceite.431
Todos os intervenientes devem estar envolvidos na decisão do que os analistas necessitam e compram.432 É necessário
desenvolver um quadro, a longo prazo, para que especialistas de diversas áreas possam participar na como a IA/ML lida com
conjuntos de dados complexos e como os resultados da análise de tais dados são implementados.433

Reduzir o preconceito humano não é um simples nível de esforço e nem um esforço único. Ter um conjunto diversificado de
profissionais envolvidos no escrutínio de IA/ML traz diferentes perspectivas para várias tarefas, como revisão de processos,
fornecimento de transparência algorítmica e auditoria da revisão de preconceitos.434 O desenvolvimento da equipe de uma
compreensão compartilhada da experiência e do conhecimento de cada membro a forma como cada membro enquadra uma
observação ou problema pode ajudar a identificar preconceitos.435 É bem reconhecido que o preconceito de IA/ML é um
fenómeno sistémico. Portanto, requer uma abordagem holística para observá-lo e reduzi- lo.436

As tecnologias de IA/ML devem interagir com a experiência do domínio porque os algoritmos devem refletir, da melhor forma
possível, os dados relevantes para o domínio.437 O analista é necessário para ajudar a predefinir o espaço do problema
analítico para o algoritmo de IA/ML. Esse envolvimento moldará o projeto ou a seleção de algoritmos, pois esclarece a tomada
de decisões analíticas.438 A experiência no domínio é especialmente importante com big data, pois a familiarização com o
439
contexto é necessária para priorizar alvos viáveis.

Foco na comunidade

O conjunto de soluções com foco na comunidade envolve recomendações para centralizar diversas funções. A primeira é
estabelecer um centro central de IA/ML para recursos de inteligência. Dado que as agências têm missões e culturas diferentes,
um ingrediente importante e necessário é falar uma linguagem comum sobre sistemas de IA/ML, desde o planeamento até à
implementação.440 Existem alguns esforços em curso, mas não são centralizados. Por exemplo, há uma diretoria digital na CIA,
novas iniciativas de IA/ML na NGA e novos esforços de computação em nuvem na NSA.441 Uma ideia é que o ODNI estabeleça
um Centro Nacional de Inteligência Artificial (NAIC).442
Outra ideia é centralizar o controle orçamentário de IA/ML com ODNI.443

Outra ideia é estabelecer um centro central para


inovação em IA/ ML. O DNI deve designar um líder Figura 26. Soluções com foco na comunidade

sênior de inovação responsável por impulsionar a Inteligência


Recursos
inovação em todo o IC.444
Esse líder poderia lançar uma iniciativa de inovação Implementação Comunidade Inovação
Precisa Foco
em IC.445 Uma ideia é que uma organização
paralela deveria ser estabelecida para nutrir IA/ML, Teste e
Verificação
como a Skunk da Lockheed Martin.

Resultados 45
Machine Translated by Google

Funciona.446 O IC poderia criar uma área restrita não classificada para os clientes do IC testarem e avaliarem novas
capacidades.447 Da mesma forma, o IC poderia usar projetos piloto para provar ideias impactantes, demonstrando que o IC
pode lidar com flexibilidade e velocidade.448 AI/ Os sistemas de ML precisam de manutenção regular, portanto, uma função
centralizada adicional atenderia ao ritmo acelerado da evolução da IA/ML.449

É necessário centralizar o foco nos testes e verificação de IA/ ML. Um dos principais objetivos do investimento em IA/ML é
fortalecer os testes, a verificação e a validação.450 Um órgão centralizado poderia servir como entidade coordenadora para
liderar os testes e a avaliação de tecnologias de IA/ML e incentivar a cooperação dentro do IC.451 O órgão centralizado poderia
ser usado para traduzir a estrutura de testes do setor privado para o contexto e as necessidades do IC.452 . Esta sugestão
poderia melhorar a confiança na IA/ML, mas testar, treinar e certificar equipes homem-máquina por meio de jogos de guerra,
simulação e experimentação .453 O IC deve criar uma célula vermelha de IA/ML para testar e verificar seu uso em ameaças
críticas.454

Resumo das Constatações


A Figura 27 resume as respostas às três questões de revisão colocadas no início deste estudo.
Em geral, as razões pelas quais os indivíduos levantaram preocupações sobre IA/ML no CI, identificadas na seção de motivação
acima, são áreas sobre as quais o CI não tem controle ou não fez um bom trabalho para superar sua auto-estima. restrições
impostas. As motivações recaem em duas questões amplas: fatores que devem ser considerados no processo de tomada de
decisão que leva à aquisição de IA/ML e preocupações sobre o ambiente dentro e fora do CI sobre IA/ML que o CI atualmente
não mitigou satisfatoriamente. diversas preocupações ambientais. Os problemas identificados para o CI são quantitativamente
muitos, variados em termos de tópicos e qualitativamente muito complexos. Coletivamente, os problemas identificados podem
ser esmagadores. Uma estrutura conceitual ajudaria a absorver os problemas e soluções e forneceria um caminho a seguir.

Uma estrutura proposta é discutida na próxima seção.

Figura 27. Respostas às perguntas de revisão

Que motivos são motivadores


o(s) autor(es) a publicar?
Motivação
• Questões Decisivas
• Questões comportamentais

Quais são os problemas


autor(es) identificando?
Problemas • Interno ao IC
• Externo ao IC
• Natureza da IA/ML

Quais são as soluções


autor(es) sugerindo?
Soluções
• Preencher lacunas de conhecimento

• Atender às necessidades de implementação

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 46


Machine Translated by Google

Problemas e soluções

Os problemas se enquadram em três áreas principais: interna ao CI, externa ao CI e a natureza da IA/
ml. Os problemas identificados como internos ao CI são problemas pessoais, de uma forma ou de outra. Concentram-se
principalmente nos desafios de uma cultura que não está preparada ou não é capaz de incorporar novas tecnologias, inovação
e assunção de riscos, para citar alguns. No entanto, outros problemas relacionados com as pessoas ocorrem em vários níveis
de análise, desde o indivíduo até à equipa, à organização e ao sector de segurança nacional. Os desafios vão desde a
utilização de uma teoria ultrapassada de definição de inteligência até à falta de compreensão de que a IA/ML requer uma
abordagem interdisciplinar. AI/ML não é apenas um problema de tecnologia da informação.

Os problemas identificados externos ao CI são variados e também são abordados em múltiplos níveis de análise, desde a
organização ao sector de segurança nacional, à sociedade dos EUA e ao sistema internacional. Vão desde ameaças reais e
consequentes à segurança nacional até políticas, regras e regulamentos dos EUA criados por instituições e departamentos
externos ao CI. Estes problemas restringem a capacidade do CI de se adaptar rápida e eficazmente a um mundo e a uma
sociedade sobrecarregados com a tecnologia digital e os seus dados que quase
todo mundo usa.

A natureza dos problemas de IA/ ML inclui a falta de conhecimento sobre IA/ML e a falta de uma compreensão realista do que
as tecnologias de IA/ML podem fazer. As tecnologias apresentam limitações em suas interações com os humanos e capacidade
limitada de lidar com tarefas deliberativas cognitivamente intensas. Os problemas de IA/ML são principalmente cognitivos e
abrangem vários níveis de análise, desde o indivíduo até a equipe e a organização.

As soluções oferecidas não são ações de uma única etapa. Este limite é provavelmente o insight mais importante deste estudo.
Eles são, em geral, um conjunto de empreendimentos humanos complexos e demorados que preenchem lacunas de
conhecimento que exigem técnicas e organização sofisticadas de gestão de mudanças. A solução mais desafiadora é o CI
decidir o que a IA/ML pode fazer em todo o espectro analítico e nos domínios empresariais.
O que é necessário é um extenso programa de pesquisa sobre como os analistas e outras pessoas que usam ou podem usar
tecnologias de IA/ML pensam e se comportam em suas interações com IA/ML.

A visão da liderança também será fundamental no tópico mais amplo das necessidades de implementação. Essas necessidades
incluiriam a incorporação de princípios científicos na relação de interação entre analistas e IA/
ml. A liderança desenvolverá ideias sobre como os analistas e outros profissionais de inteligência devem pensar sobre os novos
papéis que desempenham em comparação com as tecnologias de IA/ML. A parte mais desafiadora para a liderança começa
com o desenvolvimento da estratégia. Isso inclui o desenvolvimento de novas políticas, percepções e comportamentos sobre
como as tecnologias e analistas de IA/ML podem trabalhar juntos.

Resultados 47
Machine Translated by Google
Machine Translated by Google

Conclusão e implicações
Para melhorar o uso e a integração de IA/ML, todos os problemas e soluções identificados neste estudo estão
disponíveis para consideração. Contudo, qualquer escolha do CI enfrenta influências individuais e organizacionais
consideráveis que podem impedir a capacidade de adaptação do CI. O estudo conclui com uma discussão e
enquadramento de quatro elementos que influenciam as decisões: a natureza multinível dos problemas; soluções em
cada nível; atenção organizacional; e maneiras de liderar. A Figura 29 é a estrutura conceitual de como os quatro
elementos estão relacionados.

Natureza multinível dos problemas

Para traduzir a complexidade das descobertas em ação, uma estrutura conceitual é informada pelas lentes teóricas
usadas neste estudo da teoria da atenção organizacional de Ocasio.455 A estrutura compreende quatro elementos:
natureza multinível dos problemas, soluções propostas em cada nível, teoria da atenção organizacional e formas de
liderar.

Quanto aos desafios de compreensão dos problemas identificados através deste estudo, é útil representar os problemas
tal como ocorrem em diferentes níveis de análise. Ver os problemas de uma perspectiva multinível ajuda a priorizar a
atenção organizacional na melhoria da compreensão da diversidade e complexidade de todo o conjunto de
problemas.456

Tal perspectiva multinível pode ser vista como uma hierarquia de níveis diferentes e cada vez mais abstratos da
organização humana representados por um triângulo. A Figura 28 resume a visão hierárquica dos problemas deste
estudo. A parte inferior do triângulo são os indivíduos. Neste estudo, os problemas no nível individual são psicológicos,
combinando fatores cognitivos e emocionais. O próximo nível de abstração é o comportamento no nível do grupo/
equipe . Os problemas são identificados principalmente na interação entre máquinas, indivíduos que as desenvolvem
e aqueles que participam na aquisição, teste e implantação de máquinas. O próximo nível de abstração é o
comportamento no nível organizacional. Conforme identificado neste estudo, problemas ocorrem em todo o CI no que
é chamado de comportamento organizacional. O próximo nível de abstracção é o comportamento a nível sectorial, e os
problemas ocorrem através de parcerias com o sector privado e a academia. O próximo nível é o comportamento a
nível social dos EUA. Surgem problemas nas políticas elaboradas pelo governo dos EUA que exercem uma força
restritiva sobre o CI. O nível mais alto de abstração é o comportamento no sistema internacional e global. Os problemas
ocorrem devido a intervenientes estrangeiros no sistema internacional e à proliferação de tecnologia em todo o mundo.

Conclusão e Implicações 49
Machine Translated by Google

Figura 28. AI/ML no IC como um conjunto de problemas humanos multiníveis

• Tendências tecnológicas globais

Global • Ameaças à segurança nacional


Sistema

Sociedade dos EUA • Políticas do governo dos EUA

• Parcerias com setores privados e academia


Setores

Organizações • Comportamento organizacional

• Interação com máquinas e aqueles que


Grupos/Equipes desenvolvem máquinas

Indivíduos • Cognitivo e emocional

Soluções em cada nível


As soluções em todos os níveis do conjunto de problemas atendem a um fenômeno diferente.

A nível global, o CI precisa de uma estratégia para atender ao uso malicioso de IA/ML contra os Estados Unidos e os seus aliados
e para ter consciência situacional das tendências tecnológicas globais.

Ao nível da sociedade dos EUA, são necessárias estratégias para mudar a forma como o CI é moldado pelas regras, procedimentos
e regulamentos federais de aquisição e orçamentais. Da mesma forma, o CI precisa de redefinir a sua relação com os comités de
supervisão do Congresso a este nível.

A nível sectorial, é necessária investigação académica por parte do meio académico para abordar várias questões psicológicas e
sociais dentro de indivíduos e equipas. Há também a necessidade de desenvolver uma estratégia para melhorar as parcerias com
o meio académico, o sector privado e as autoridades responsáveis pela aplicação da lei.

No nível organizacional, são necessários comportamentos de liderança para incutir um espírito de mudança, para mudar a
mentalidade de comprar uma solução para resolver um problema, abraçar e usar princípios científicos, atender ao uso de IA/ ML e
reforça a proposição de que IA/ML aumenta os humanos, e não os substitui. A estratégia também é essencial neste nível para
determinar o que o CI deseja que a IA/ML faça, para tornar a IA/ML parte do

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 50


Machine Translated by Google

fluxo de trabalho diário, desviar o foco da cultura da aversão ao risco e descobrir como organizar tudo o que foi mencionado no
nível organizacional de análise nas conclusões deste estudo – seja para centralizar esforços ou para estabelecer uma organização
paralela.

Ao nível do grupo/equipa, existe uma curva de aprendizagem significativa necessária para os vários intervenientes envolvidos no
planeamento, desenvolvimento, teste e implementação de IA/ML, bem como a necessidade de compreender e desenvolver
processos de mitigação que lidam com preconceitos.

A nível individual, muitas das actividades a nível sectorial, organizacional e de grupo/equipa precisam de ser compreendidas pelo
indivíduo porque é o indivíduo, quer esteja numa situação de equipa ou não, que faz o trabalho. Quase tudo nestes níveis precisa
ser fundamentado na compreensão do que o indivíduo pode e não pode fazer. Isto envolve indivíduos adquirindo conhecimento e
desenvolvendo uma estratégia para evitar que soluções de nível superior desviem expectativas irrealistas.

Atenção Organizacional
Este estudo informa a complexidade dos problemas e soluções de IA/ML para os tomadores de decisão de CI atenderem e
absorverem. Os vários fatores individuais e organizacionais envolvidos foram discutidos na seção teórica deste estudo. Resumindo
estes factores, os decisores decidem onde querem concentrar-se a nível individual. Aquilo a que escolhem prestar atenção é
moldado pelo contexto e pela situação em que se encontram. O contexto e a situação são afetados por regras, recursos e relações
sociais. No nível organizacional, a atenção é moldada pela estratégia organizacional, pelo grau em que o tomador de decisão
dedica tempo e esforço para se envolver no fluxo de trabalho organizacional necessário para materializar o objeto de atenção e é
afetado pela história do que e como questões. foram atendidos em sua organização.

Maneiras de liderar
Como a teoria da atenção organizacional está centrada na atenção dos decisores, o que os decisores fazem depois de se
concentrarem numa questão torna-se relevante para uma estrutura conceptual. A pesquisa empírica do consultor organizacional
Charles Farkas sobre cinco estilos de liderança para implementação de soluções é, portanto, apropriada.457 A orientação externa
é ilustrada quando os líderes estão dispostos a delegar grande parte da sua autoridade para assuntos organizacionais internos,
lidar com os clientes e manter-se informados sobre os avanços tecnológicos. Um segundo estilo é o voltado para dentro, onde a
função principal do líder é transmitir valores modelando o comportamento e desenvolvendo as pessoas dentro da organização.
Um terceiro estilo é o voltado para expertise, definido pelo líder que se concentra no desenvolvimento de expertise e procura
indivíduos com mentalidade flexível e capacidade de se concentrar em tarefas que exigem expertise. Um quarto estilo é o controlo,
onde o líder se preocupa principalmente com o comportamento uniforme na organização, reduz a incerteza concentrando-se na
repetibilidade dos processos para garantir uma previsão precisa dos comportamentos e supervisiona a criação de políticas para
impor o controlo. O quinto estilo é o agente de mudança, onde o líder está principalmente envolvido na comunicação com a força
de trabalho, procura motivar a

Conclusão e Implicações 51
Machine Translated by Google

força de trabalho e demonstra abertura a ideias de mudança. Os estilos não são mutuamente exclusivos, e é mais provável
que os líderes empreguem múltiplos estilos em diferentes épocas e contextos.458 Decidir qual estilo adotar para qualquer
solução, a qualquer momento, em um contexto, e por quanto tempo será A chave para o sucesso.

Resumo da Estrutura Conceitual


Uma estrutura conceitual mostra como os quatro elementos estão relacionados, conforme mostrado na Figura 29. A natureza
multinível dos problemas de IA/ ML no CI é retratada como um conjunto cada vez mais abstrato de atividades humanas.
Esses problemas informam soluções propostas, cada uma diferente para cada nível de problema. Uma variedade de
soluções está disponível para a atenção do tomador de decisão. Aquilo a que o tomador de decisão presta atenção envolve
não apenas o interesse em qualquer solução, mas também uma variedade de fatores que normalmente não estão sob o
controle do líder. Esses fatores afetam o contexto ou situação em que o líder se encontra e as políticas, práticas e cultura organizacionais.
Uma vez assegurada a atenção – isto é, se estiver – em um conjunto de soluções, o líder deve descobrir como liderar a
implementação de uma solução.

Figura 29. Estrutura conceitual para abordar IA/ML no CI

Voltado para fora


• Estratégia
Global • Delegação
• Clientes
Sistema
• Tecnologia

• Estratégia Virado para dentro


Sociedade dos EUA
• Transmitir valores
• Comportamento do modelo

• Desenvolver pessoas
• Pesquisa acadêmica
Setores • Estratégia Experiência voltada
ATENÇÃO • Desenvolver experiência
• Mentalidade flexível
• Liderança • Capacidade de foco
Organizações • Estratégia
Ao controle

• Comportamento uniforme
• Previsibilidade
• Conhecimento da equipe
Grupos/Equipes • Criação de políticas
• Estratégia

Agente de mudança
• Comunica
• Conhecimento Individual
Indivíduos • Motiva
• Estratégia • Abertura

NATUREZA MULTILÍVEL SOLUÇÕES EM TEORIA DE CAMINHOS PARA

DE PROBLEMAS CADA NÍVEL ORGANIZACIONAL LIDERAR


ATENÇÃO

Recomendações
A estrutura conceitual apresentada na Figura 29 não é prescritiva. Em vez disso, é uma ferramenta analítica. Cada
elemento é multifacetado, dependendo das condições iniciais de partida e da jornada através de cada componente da
estrutura.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 52


Machine Translated by Google

Esta seção de recomendações concentra-se em duas soluções conflitantes apresentadas neste estudo, soluções que ocorrem
em uma escala muito grande: centralizar um esforço organizado para abordar todos ou muitos dos aspectos das questões de IA/
ML no CI, ou criar uma organização paralela para implementar os novos resultados desejados, deixando ao mesmo tempo que o
sistema existente faça o que faz actualmente melhor, sem grandes perturbações.

A centralização parece ser uma abordagem padrão para resolver problemas complexos em grandes burocracias hierárquicas.
Por outro lado, as organizações paralelas são concebidas especialmente para situações em que os resultados desejados são
muito diferentes da capacidade da organização oficial. Os desafios de transmitir um esforço de mudança significativo, IA/ML, ao
CI estão refletidos na amplitude e profundidade dos problemas e soluções deste estudo. Quase todos os problemas e soluções
são sobre pessoas, embora o tema seja tecnologia.
Como tal, pareceria difícil para as organizações existentes resolver problemas organizacionais novos e possivelmente intratáveis.

A criação de uma organização paralela não seria uma entidade centralizada, mas sim uma unidade organizacional separada, mas
conectada, que funciona de forma muito diferente do sistema oficial. Exemplos bem conhecidos de organizações paralelas incluem
a Skunk Works da Lockheed, equipes SWAT dentro de departamentos de polícia e forças de operações especiais dentro do
Exército dos EUA. O conjunto de briefers do President's Daily Brief (PDB) é uma organização paralela.459 Essa entidade de IC
focada em IA/ML provavelmente teria uma chance melhor de superar os problemas identificados neste estudo se as origens dos
problemas fossem mitigadas ou eliminadas e as soluções foram apoiadas. Embora uma organização paralela tivesse desafios
culturais, as oportunidades de sucesso superariam esses desafios, conforme observado no sucesso das organizações paralelas
mencionadas acima. Por exemplo, pode haver ressentimento no sistema oficial para aqueles que operam na organização paralela.
No entanto, a satisfação dos clientes e dos decisores mediria os factores críticos de sucesso da organização paralela.

Limitações

Este projeto tem duas limitações principais no uso da metodologia de revisão sistemática. Primeiro, o prazo de três meses
significava que nem todas as etapas da metodologia poderiam ser realizadas com o rigor desejado. O tempo adicional
provavelmente teria aumentado o número de artigos considerados para abordar a IA/
Uso de ML no IC. Em segundo lugar, devido ao curto espaço de tempo, foi pesquisado um número limitado de bases de dados e

utilizado um número limitado de frases de pesquisa. Mais bases de dados ou armazenamentos de conhecimento poderiam ser
explorados com mais tempo, e uma análise mais aprofundada das frases de pesquisa poderia ter aumentado o interesse dos artigos.

Comentários finais
Esta revisão sistemática da literatura sobre IA/ML no CI produziu uma grande diversidade de visões sobre problemas e soluções.
É muito mais fácil identificar problemas no presente do que prever soluções no futuro, portanto, o maior valor deste estudo é uma
compreensão mais profunda do estado atual da IA/ML no CI. Este estudo gerou quatro surpresas. Primeiro, se os tomadores de
decisão se concentrarem apenas nos tópicos de seu interesse,

Conclusão e Implicações 53
Machine Translated by Google

eles não veriam o quadro completo ou as dependências entre cada problema e solução. Por outro lado, sabendo
que a complexidade dos problemas e das soluções pode sobrecarregar os decisores, o quadro conceptual é
construído para aliviar ao máximo esta preocupação. A segunda surpresa é que quase todos os artigos abordam
tanto a IA/ML como o CI apresentam problemas e soluções principalmente em termos de comportamento
humano, e não de questões tecnológicas ou de engenharia. A terceira surpresa é que os problemas e soluções
sobre IA/ML no CI ocorrem em todos os níveis de análise da empresa humana, desde o sistema individual até
ao sistema internacional. Finalmente, a metodologia da revisão sistemática proporciona uma abordagem útil aos
estudos de inteligência. Embora a metodologia tenha um histórico de sucesso no apoio às áreas médica, de
saúde pública, ambiental e educacional, só recentemente contribuiu para a área de gestão com fins lucrativos.
Existem poucos exemplos de utilização de uma revisão sistemática para contextos de segurança nacional,
particularmente a Comunidade de Inteligência.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 54


Machine Translated by Google

Notas finais
1. Por exemplo, Cortney Weinbaum, Bradley Knopp, Soo Kim e Yuliya Shokh, “Opções para fortalecer a inteligência de todas as
fontes”. (Santa Mônica, CA: RAND Corporation, 2022). https://apps.dtic.mil/sti/pdfs/AD1161438.pdf
2. Kwasi Mitchell et al., “O futuro da análise de inteligência: uma visão em nível de tarefa do impacto da inteligência artificial na
análise de inteligência”, Deloitte Insights, (Washington, DC: Deloitte, 2019), https://www2.deloitte. com/conteúdo/
dam/insights/us/articles/6306_future-of-intel-análise/DI_Future-of-intel-análise.pdf
3. Avril Haines e Stephanie O'Sullivan, “Mantendo a vantagem da inteligência: reimaginando e reinventando a inteligência por
meio da inovação”. (Washington, DC: Centro de Estudos Estratégicos e Internacionais, janeiro de 2021). https://csis-website-
prod.s3.amazonaws.com/s3fs-public/publication/210113_Intelligence_Edge.pdf
4. Danielle Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial: Avaliação e Recomendações” (Santa
Monica, CA: RAND Corporation, 2019). https://www.rand.org/pubs/research_reports/RR4229.html
5. Eric Schmidt e Bob Work, “Relatório Final: Comissão Nacional de Segurança sobre Inteligência Artificial (IA),” (Washington,
DC: Comissão Nacional de Segurança sobre Inteligência Artificial, 2021). https://apps.dtic.mil/sti/pdfs/AD1124333.pdf
6. Michele Flournoy, Avril Haines e Gabrielle Chetifz, “Construindo Confiança por meio de Testes: Adaptando a Empresa de Teste
e Avaliação, Validação e Verificação (TEVV) do DoD para Sistemas de Aprendizado de Máquina, incluindo Sistemas de
Aprendizagem Profunda” (Washington, DC: Universidade de Georgetown Imprensa, 2020). https://cset.georgetown.edu/wp-content/
uploads/Building-Trust-Through-Testing.pdf
7. Karen Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência” (Atlanta, GA: Georgia Institute of
Imprensa de Tecnologia, 2016). https://arxiv.org/pdf/1610.08629v1.pdf
8. William Ocasio, “Rumo a uma visão da empresa baseada na atenção”. Revisão de Gestão Estratégica 18 (1997): 187-206.
https://doi.org/10.1002/(SICI)1097-0266(199707)18:1+%3C187::AID-SMJ936%3E3.0.CO;2-K
9. William Ocasio, “Atenção à Atenção”. Ciência da Organização 22, não. 5 (2011): 1286-1296. https://doi.
org/10.1287/orsc.1100.0602
10. Celine Rojon, Adun Okupe e Almuth McDowall, “Utilização e desenvolvimento de revisões sistemáticas em pesquisa de gestão:
o que sabemos e para onde vamos a partir daqui?” International Journal of Management Reviews 23, não. 2 (2021): 191-223.
https://doi.org/10.1111/ijmr.12245
11. Yu Xiao e Maria Watson, “Guidance on Conducting a Systematic Literature Review”, Journal of Planning Education and Research
39, no. 1 (2019): 93-112. https://doi.org/10.1177%2F0739456X17723971
12. Valerie Smith et al., “Metodologia na condução de uma revisão sistemática de revisões sistemáticas de intervenções em saúde”.
Metodologia de Pesquisa Médica BMC 11 (2011): 1-6. https://bmcmedresmethodol.biomedcentral.com/
track/pdf/10.1186/1471-2288-11-15.pdf
13. Xiao e Watson, “Orientações para conduzir uma revisão sistemática da literatura”.
14. Denise Rousseau, Joshua Manning e David Denyer, “Evidência em Gestão e Ciência Organizacional: Reunindo o Peso Total do
Conhecimento Científico do Campo por meio da Síntese”, Academy of Management Annals 2, no. 1 (2008): 475-515. https://
doi.org/10.5465/19416520802211651
15. Johnny Saldaña 2021, Manual de Codificação para Pesquisadores Qualitativos, 4ª edição (Thousand Oaks, CA: SAGE, 2021).

Notas finais 55
Machine Translated by Google

16. Saldaña, Manual de Codificação para Pesquisadores Qualitativos.


17. Saldaña, Manual de Codificação para Pesquisadores Qualitativos.
18. Jay T. Knippen e Thad B. Green, “Resolução de problemas”, Journal of Workplace Learning 9, no. 3 (1997): 98. http://
dx.doi.org/10.1108/13665629710164904
19. Rob Briner, David Denyer e Denise M. Rousseau, “Gerenciamento Baseado em Evidências: Tempo de Limpeza de Conceito?”
Perspectivas da Academia de Gestão 24, no.4 (2009): 19-32. https://doi.org/10.5465/amp.23.4.19
20. Saldaña, Manual de Codificação para Pesquisadores Qualitativos.
21. Guadys L. Sanclemente, “Confiabilidade: Compreendendo o preconceito humano cognitivo em inteligência artificial para
Análise de segurança e inteligência”, Security Journal 1-21. https://doi.org/10.1057/s41284-021-00324-z
22. Sanclemente, “Confiabilidade”.
23. Boaz Ganor, “Artificial ou Humano: Uma Nova Era de Inteligência Antiterrorista”. Estudos em Conflito e Terrorismo 44,
não. 7 (2021): 605-624. https://doi.org/10.1080/1057610X.2019.1568815
24. Danielle Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
25. Daniel Ish, Jared Ettinger e Christopher Ferris, “Avaliando a eficácia dos sistemas de inteligência artificial na análise de inteligência” (Santa
Monica: RAND Corporation, 2021). https://apps.dtic.mil/sti/pdfs/AD1146077.pdf
26. Micah Musser e Ashton Garriott, “Aprendizado de máquina e segurança cibernética: hype e realidade” (Washington, DC: Centro de
Segurança e Tecnologia Emergente da Universidade de Georgetown, 2021). https://cset.georgetown.edu/wp-content/uploads/Machine-
Learning-and-Cybersecurity.pdf
27. Lilian Alessa et al., “Surpresa e Suspense: Como a Comunidade de Inteligência Esqueceu o Futuro”, The International Journal of Intelligence,
Security, and Public Affairs 23, no. 3 (2021): 310-342. https://doi.org/10.1080/23800992.20
21.2006954

28. Rocco J. Blais e Adam M. Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”, American Intelligence Journal 36, no. 1
(2019): 108-113. https://www.jstor.org/stable/27066342
29. Alex Wilner, Casey Babb e Jessica Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”,
Direito (25 de julho de 2021). https://www.lawfareblog.com/four-things-consider-future-ai-enabled-deterrence#
30. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
31. Erik Blasch et al., “Artificial Intelligence Strategies for National Security and Safety Standards”, artigo apresentado na conferência AAAI
FSS-19, Artificial Intelligence in Government and Public Sector, Arlington, VA, 7 a 9 de novembro de 2019. https ://arxiv.org/abs/
1911.05727.
32. Alessa et al., “Surpresa e Suspense”.
33. Patrick Bury e Michael Chertoff, “Novas Estratégias de Inteligência para uma Nova Década”, The RUSI Journal 165, no. 4
(2020): 42-53. https://doi.org/10.1080/02684527.2018.1452555
34. David R. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”. Fundação Heri-
tage, 17 de novembro de 2020. https://www.heritage.org/military-strength-topical-essays/2021-essays/
a-postura-de-inteligência-américa-precisa-da-idade-grande-poder
35. David H. McCormick, Charles E. Luftig e James Cunningham. “Poder Econômico, Segurança Nacional e o Futuro da Política Americana.”
Revisão de Segurança Nacional do Texas 3, não. 3 (2020): 50-75. https://repositories.lib.utexas.
edu/bitstream/handle/2152/83223/04_TNSRVol3Issue3McCormick.pdf?sequence=2
36. Mitchell et al., “O Futuro da Análise de Inteligência”.
37. Aaron F. Brantly, “Quando tudo se torna inteligência: aprendizado de máquina e o mundo conectado”. Inteligência e Segurança Nacional
33, não. 4 (2018): 562-573. https://doi.org/10.1080/02684527.2018.1452555
38. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
39. Corin R. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”. Just Security, 17 de agosto de 2021. https://
www.justsecurity.org/77783/artificial-intelligence-in-the-intelligence-community-culture-is-critical/

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 56


Machine Translated by Google

40. Coring R. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”. Just Security, 28 de
setembro de 2021. https://www.justsecurity.org/78362/artificial-intelligence-in-the-intelligence- community-the-tangled-web-of-budget-
acquisition/
41. Corin R. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”. Just Security, 19
de outubro de 2021. https://www.justsecurity.org/78641/artificial-intelligence-in-the-intelligence-community-know-risk-know-reward/

42. Corin R. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”. Just Security, 12 de julho de 2021. https://
www.justsecurity.org/77354/artificial-intelligence-in-the-intelligence-community-money-is-not-enough/

43. Domingo O. Ogunlana, “Impedindo a Propaganda do Boko Haram/Estado Islâmico nas Províncias da África Ocidental no Ciberespaço com
Tecnologias de Cibersegurança”. Jornal de Segurança Estratégica 12, não. 1 (2019): 72-106. https://www.jstor.org/
estável/26623078?seq=1
44. Cortney Weinbaum e John NT Shanahan, “Inteligência em uma era baseada em dados”. Forças Conjuntas Trimestralmente 90, não. 3
(2018): 4-9. https://ndupress.ndu.edu/Portals/68/Documents/jfq/jfq-90/jfq-90_4-9_Weinbaum-Shanahan
.pdf
45. Brian Katz, “The Collection Edge: Aproveitando Tecnologias Emergentes para Coleta de Inteligência”. Centro de Estudos Estratégicos e
Internacionais. 1º de julho de 2020. https://www.jstor.org/stable/resrep25236?seq=1
46. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.
47. Mitchell et al., “O Futuro da Análise de Inteligência”.
48. Greg Allen e Taneiel Chan, “Inteligência Artificial e Segurança Nacional”. Universidade de Harvard, julho de 2017. https://
www.belfercenter.org/sites/default/files/files/publication/AI%20NatSec%20-%20final.pdf
49. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.
50. McCormick, Luftig e Cunningham. “Poder Econômico, Segurança Nacional e o Futuro da América
Política.

51. Amy Zegart, “11 de setembro: Olhe para trás e aprenda”. Hoover Digest, 20 de janeiro de 2020. https://www.hoover.org/research/
911-olhe para trás e aprenda

52. Amy Zegart, “As agências de espionagem americanas estão lutando na era dos dados”. Com fio, 2 de fevereiro de 2022. https://www.
wired.com/story/spies-algorithms-artificial-intelligence-cybersecurity-data/#:~:text=In%20short%2C%20data%20
volume%20e, lutando%20to%20adapt%20to%20it.
53. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
54. Schmidt e Work, “Relatório Final”.
55. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.
56. Emily Harding, “Mova-se JARVIS, Conheça OSCAR.” Centro de Estudos Estratégicos e de Inteligência, janeiro de 2022. https://csis-website-
prod.s3.amazonaws.com/s3fs-public/publication/220119_Harding_MoveOverJARVIS_
MeetOSCAR_0.pdf?NqfrbU05ULzzcySzNHB0pTzsNYw3HdfK
57. Laura McNamara, “Adoção de inovação, aceitação de tecnologia e ciência de dados: por que as tecnologias algorítmicas são tão
complicadas”. Slides apresentados na série de seminários da comunidade de prática de integração de sistemas humanos do
Departamento de Defesa, Albuquerque, NM, 4 de setembro de 2020.
58. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.
59. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
60. Douglas Yeung, “Quando o erro de julgamento da IA não é um acidente”. Scientific American, 19 de outubro de 2018. https://blogs.
ScientificAmerican.com/observations/when-ai-misjudgment-is-not-an-accident/
61. Rena DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”. Over the Horizon, 7 de setembro de 2021.
https://othjournal.com/2021/09/07/why-the-department-of-defense-should-create-an-ai-red-team/

Notas finais 57
Machine Translated by Google

62. Patrick Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”. Defense One, 27 de janeiro de

2020. https://www.defenseone.com/technology/2020/01/spies-ai-future-artificial-intelligence-us-intelligence-community/162673/

63. Zigfried Hampel-Arias e John S. Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”. Defense One, 5 de janeiro de 2021.

https://www.defenseone.com/ideas/2021/01/what-ai-can-and-cannot-do- intelligence-community/171195/

64. Douglas Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicações de

aplicação da lei”, 2021, RAND Corporation, https://www.rand.org/pubs/perspectives/PEA862-1.html

65. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.

66. Peter J. Phillips e Gabriela Pohl. “Algoritmos de Inteligência de Combate: Teoria de Decisão, Escolhas de Design e Contra-IA. O Jornal RUSI 165,

não. 7 (2020): 22-32. https://doi.org/10.1080/03071847.2021.1893126

67. Brantly, “Quando tudo se torna inteligência”.

68. Kathleen M. Vogel et al., “O impacto da IA na análise de inteligência: abordando questões de colaboração, transparência algorítmica, responsabilidade

e gerenciamento”. Inteligência e Segurança Nacional 36, não. 6 (2021): 827-848. https://doi.org/10.1080/02684527.2021.1946952 69. Kathleen

M. Vogel, “Big Data, IA, plataformas e o futuro da força de

trabalho de inteligência dos EUA: uma agenda de pesquisa”.

Revista IEEE Tecnologia e Sociedade 40, no. 3 (2021): 84-92. https://doi.org/10.1109/MTS.2021.3104384

70. Laura A. McNamara, “Pesquisa Interdisciplinar nos Laboratórios Nacionais”. Em Antropólogos no cenário de segurança, editado por Robert Albro,

George March, Laura A. McNamara e Monica Schoch-Spana, 87-100. (Walnut Creek, NY: Left Coast Press, 2012).

71. John Laird, Charan Ranganath e Samuel Gershman, “Oficina de Direções Futuras em Equipes Homem-Máquina”. Relatório preparado na série de

workshops Future Directions in Human Machine Teaming, Arlington, VA, 16 a 17 de julho de 2019. https://basicresearch.defense.gov/Portals/61/

Future%20Directions%20in%20Human%20Machine%

20Teaming%20Workshop%20report%20%20%28for%20public%20release%29.pdf

72. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.

73. Schmidt e Work, “Relatório Final”.

74. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.

75. Wilner, Babb e Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”.

76. Corin R. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”. Just Security, 12 de julho de 2021. https://

www.justsecurity.org/77354/artificial-intelligence-in-the-intelligence-community-money-is-not-enough/

77. Zegart, “11 de setembro: Olhe para trás e aprenda”.

78. Zegart, “11 de setembro: Olhe para trás e aprenda”.

79. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.

80. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.

81. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”.

82. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.

83. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

84. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.

85. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.

86. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.

87. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.

88. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.

89. Harding, “Mova-se JARVIS, Conheça OSCAR.”

90. Harding, “Mova-se JARVIS, Conheça OSCAR.”

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 58


Machine Translated by Google

91. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

92. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.

93. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.

94. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

95. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.


96. Alessa et al., “Surpresa e Suspense”.

97. Brantly, “Quando tudo se torna inteligência”.


98. Alessa et al., “Surpresa e Suspense”.

99. Brantly, “Quando tudo se torna inteligência”.

100. Brantly, “Quando tudo se torna inteligência”.


101. Alessa et al., “Surpresa e Suspense”.

102. Alessa et al., “Surpresa e Suspense”.

103. Brantly, “Quando tudo se torna inteligência”.

104. Bury e Chertoff, “Novas estratégias de inteligência para uma nova década”.

105. Ogunlana, “Travar a Propaganda da Província da África Ocidental do Boko Haram/Estado Islâmico no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

106. Alessa et al., “Surpresa e Suspense”.

107. Alessa et al., “Surpresa e Suspense”.

108. Alessa et al., “Surpresa e Suspense”.

109. Alessa et al., “Surpresa e Suspense”.

110. Brantly, “Quando tudo se torna inteligência”.

111. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
112. Alessa et al., “Surpresa e Suspense”.

113. Bury e Chertoff, “Novas estratégias de inteligência para uma nova década”.
114. Alessa et al., “Surpresa e Suspense”.

115. Bury e Chertoff, “Novas estratégias de inteligência para uma nova década”.

116. Vogel et al., “O Impacto da IA na Análise de Inteligência”.


117. Sanclemente, “Confiabilidade”.

118. Vogel et al., “O Impacto da IA na Análise de Inteligência”.

119. Harding, “Mova-se JARVIS, Conheça OSCAR.”

120. Harding, “Mova-se JARVIS, Conheça OSCAR.”

121. Harding, “Mova-se JARVIS, Conheça OSCAR.”


122. Laura A. McNamara, “Pesquisa Interdisciplinar nos Laboratórios Nacionais”.

123. Laura A. McNamara, “Pesquisa Interdisciplinar nos Laboratórios Nacionais”.

124. Vogel, Reid, Kampe e Jones. “O impacto da IA na análise de inteligência.”

125. Mitchell et al., “O Futuro da Análise de Inteligência”.

126. Harding, “Mova-se JARVIS, Conheça OSCAR.”

127. Vogel, “Big Data, IA, Plataformas e o Futuro da Força de Trabalho de Inteligência dos EUA”.

128. Blasch et al., “Estratégias de Inteligência Artificial para Segurança Nacional e Padrões de Proteção”.

129. Vogel et al., “O Impacto da IA na Análise de Inteligência”.

130. Ogunlana, “Travar a Propaganda da Província da África Ocidental do Boko Haram/Estado Islâmico no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

131. Ganor, “Artificial ou Humano”.

132. Vogel, “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA”.

Notas finais 59
Machine Translated by Google

133. Laura A. McNamara, “Pesquisa Interdisciplinar nos Laboratórios Nacionais”.


134. Harding, “Mova JARVIS, Conheça OSCAR.”
135. Allen e Chan, “Inteligência Artificial e Segurança Nacional”.
136. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.
137. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
138. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
139. Harding, “Mova-se JARVIS, Conheça OSCAR.”
140. Katz, “A borda da coleção”.
141. Sanclemente, “Confiabilidade”.
142. Phillips e Pohl, “Algoritmos de Inteligência de Combate”.
143. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.
144. Vogel et al., “O Impacto da IA na Análise de Inteligência”.
145. Zegart, “11 de setembro: Olhe para trás e aprenda”.

146. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.


147. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
148. Musser e Garriott, “Aprendizado de Máquina e Segurança Cibernética”.
149. Harding, “Mova-se JARVIS, Conheça OSCAR.”
150. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
151. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
152. Mitchell et al., “O Futuro da Análise de Inteligência”.
153. Harding, “Mova-se JARVIS, Conheça OSCAR.”
154. McNamara, “Adoção de inovação, aceitação de tecnologia e ciência de dados”.
155. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
156. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
157. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
158. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
159. Blasch et al., “Estratégias de Inteligência Artificial para Segurança Nacional e Padrões de Proteção”.
160. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
161. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
162. Katz, “The Collection Edge”.
163. McNamara, “Adoção de inovação, aceitação de tecnologia e ciência de dados”.
164. Don Fallis, “As variedades de desinformação”. Em A Filosofia da Qualidade da Informação, editado por Luciano Floridi
e Phyllis Illari, 135-162. (Nova York, NY: Springer, 2014).
165. Andrew Chadwick e James Stanyer, “Decepção como um conceito de ligação no estudo da desinformação, da desinformação e das
percepções equivocadas: em direção a uma estrutura holística”. Teoria da Comunicação, 32, não. 1 (2014): 1-24. https://doi.org/10.1093/
ct/qtab019 166. Weinbaum e
Shanahan, “Inteligência em uma era orientada por dados”.
167. Zegart, “11 de setembro: Olhe para trás e aprenda”.

168. DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”.
169. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
170. Katz, “A borda da coleção”.
171. Schmidt e Work, “Relatório Final”.
172. Katz, “A borda da coleção”.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 60


Machine Translated by Google

173. Allen e Chan, “Inteligência Artificial e Segurança Nacional”.

174. Schmidt e Work, “Relatório Final”.

175. Yeung, “Quando o erro de julgamento da IA não é um acidente”.

176. DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”.

177. Alessa et al., “Surpresa e Suspense”.

178. Schmidt e Work, “Relatório Final”.

179. Ogunlana, “Travar a Propaganda da Província da África Ocidental do Boko Haram/Estado Islâmico no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

180. Ogunlana, “Travar a Propaganda do Boko Haram/Estado Islâmico nas Províncias da África Ocidental no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

181. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”.

182. Bury e Chertoff, “Novas Estratégias de Inteligência para uma Nova Década”.

183. Zegart, “11 de setembro: Olhe para trás e aprenda”.

184. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.

185. Zegart, “11 de setembro: Olhe para trás e aprenda”.

186. Wilner, Babb e Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”.

187. Vogel, “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA”.

188. Harding, “Mova-se JARVIS, Conheça OSCAR.”

189. Schmidt e Work, “Relatório Final”.

190. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.

191. Katz, “The Collection Edge”.

192. McCormick, Luftig e Cunningham, “Poder Econômico, Segurança Nacional e o Futuro da América
Política.

193. DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”.

194. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.

195. Harding, “Mova-se JARVIS, Conheça OSCAR.”

196. Corin R. Stone, “Inteligência Artificial na Comunidade de Inteligência: A supervisão não deve ser uma supervisão”.

Just Security, 30 de novembro de 2021. https://www.justsecurity.org/79254/artificial-intelligence-in-the-intelligence- community-oversight-must-not-be-

an-oversight/

197. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

198. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

199. Harding, “Mova-se JARVIS, Conheça OSCAR.”

200. DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”.

201. Katz, “A borda da coleção”.

202. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.

203. Harding, “Mova-se JARVIS, Conheça OSCAR.”

204. Bury e Chertoff, “Novas estratégias de inteligência para uma nova década”.

205. Brantly, “Quando tudo se torna inteligência”.

206. Bury e Chertoff, “Novas estratégias de inteligência para uma nova década”.

207. Bury e Chertoff, “Novas estratégias de inteligência para uma nova década”.

208. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.

209. Ogunlana, “Impedindo a Propaganda do Boko Haram/Estado Islâmico nas Províncias da África Ocidental no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

210. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.

Notas finais 61
Machine Translated by Google

211. Brantly, “Quando tudo se torna inteligência”.


212. Sanclemente, “Confiabilidade”.

213. Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”.

214. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.
215. Schmidt e Work, “Relatório Final”.

216. Mitchell et al., “O Futuro da Análise de Inteligência”.

217. Harding, “Mova-se JARVIS, Conheça OSCAR.”

218. Mitchell et al., “O Futuro da Análise de Inteligência”.

219. Mitchell et al., “O Futuro da Análise de Inteligência”.

220. Katz, “The Collection Edge”.

221. Musser e Garriott, “Aprendizado de Máquina e Segurança Cibernética”.

222. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.

223. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.

224. Wilner, Babb e Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”.

225. Ogunlana, “Travar a Propaganda da Província da África Ocidental do Boko Haram/Estado Islâmico no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

226. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.
227. DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”.

228. Katz, “The Collection Edge”.

229. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.

230. Mitchell, Mariani, Routh, Keyal e Mirkow, “O Futuro da Análise de Inteligência”.

231. Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”.
232. Ganor, “Artificial ou Humano”.

233. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.

234. McNamara, “Adoção de inovação, aceitação de tecnologia e ciência de dados”.


235. Ganor, “Artificial ou Humano”.

236. Mitchell et al., “O Futuro da Análise de Inteligência”.

237. Vogel, Reid, Kampe e Jones. “O impacto da IA na análise de inteligência.”

238. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

239. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

240. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

241. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

242. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

243. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

244. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.

245. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.

246. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.

247. Brantly, “Quando tudo se torna inteligência”.

248. Blaschet et al., “Estratégias de Inteligência Artificial para Segurança Nacional e Padrões de Proteção”.

249. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

250. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

251. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.

252. Katz, “The Collection Edge”.

253. Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 62


Machine Translated by Google

254. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
255. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
256. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
257. Katz, “The Collection Edge”.
258. Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”.
259. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
260. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
261. Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”.
262. Brantly, “Quando tudo se torna inteligência”.
263. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
264. Sanclemente, “Confiabilidade”.
265. Yeung, “Quando o erro de julgamento da IA não é um acidente”.
266. Sanclemente, “Confiabilidade”.
267. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
268. Sanclemente, “Confiabilidade”.
269. Phillips e Pohl. “Algoritmos de Inteligência de Combate”.
270. Phillips e Pohl. “Algoritmos de Inteligência de Combate”.
271. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
272. Sanclemente, “Confiabilidade”.
273. Vogel et al., “O Impacto da IA na Análise de Inteligência”.
274. McNamara, “Adoção de inovação, aceitação de tecnologia e ciência de dados”.
275. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
276. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
277. Phillips e Pohl, “Algoritmos de Inteligência de Combate”.
278. Phillips e Pohl, “Algoritmos de Inteligência de Combate”.
279. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
280. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
281. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
282. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
283. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
284. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
285. Blasch et al., “Estratégias de Inteligência Artificial para Segurança Nacional e Padrões de Proteção”.
286. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
287. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
288. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
289. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
290. Phillips e Pohl, “Algoritmos de Inteligência de Combate”.
291. Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
292. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
293. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.

Notas finais 63
Machine Translated by Google

294. Mitchell et al., “O Futuro da Análise de Inteligência”.


295. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
296. Wilner, Babb e Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”.
297. Ogunlana,” Interrompendo a Propaganda da Província da África Ocidental do Boko Haram/Estado Islâmico no Ciberespaço com Segurança Cibernética

tecnologias de segurança.”

298. Brantly, “Quando tudo se torna inteligência”.


299. McCormick, Luftig e Cunningham, “Poder Econômico, Segurança Nacional e o Futuro da Política Americana”.
300. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.
301. McCormick, Luftig e Cunningham, “Poder Econômico, Segurança Nacional e o Futuro da Política Americana”.
302. Katz, “The Collection Edge”.
303. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
304. Wilner, Babb e Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”.
305. Katz, “The Collection Edge”.
306. Katz, “A borda da coleção”.
307. Katz, “The Collection Edge”.
308. Katz, “A borda da coleção”.
309. Katz, “A borda da coleção”.
310. Schmidt e Work, “Relatório Final”.
311. Harding, “Mova-se JARVIS, Conheça OSCAR.”
312. Harding, “Mova-se JARVIS, Conheça OSCAR.”
313. Katz, “A borda da coleção”.
314. Tucker, “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA”.
315. Mitchell et al., “O Futuro da Análise de Inteligência”.
316. Katz, “The Collection Edge”.
317. Schmidt e Work, “Relatório Final”.
318. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
319. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
320. Mitchell et al., “O Futuro da Análise de Inteligência”.
321. Alessa et al., “Surpresa e Suspense”.
322. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
323. Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
324. Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
325. Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
326. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
327. Mitchell et al., “O Futuro da Análise de Inteligência”.
328. Mitchell et al., “O Futuro da Análise de Inteligência”.
329. Mitchell et al., “O Futuro da Análise de Inteligência”.
330. Mitchell et al., “O Futuro da Análise de Inteligência”.
331. Musser e Garriott, “Aprendizado de Máquina e Segurança Cibernética”.
332. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
333. Schmidt e Work, “Relatório Final”.
334. Laird, Ranganath e Gershman. “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina.”
335. Mitchell et al., “O Futuro da Análise de Inteligência”.
336. Musser e Garriott, “Aprendizado de Máquina e Segurança Cibernética”.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 64


Machine Translated by Google

337. Schmidt e Work, “Relatório Final”.


338. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
339. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
340. Yeung et al., “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicação da lei
Formulários."
341. Schmidt e Work, “Relatório Final”.
342. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
343. Katz, “The Collection Edge”.
344. Wilner, Babb e Davis, “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA”.
345. Vogel, “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA”.
346. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.
347. Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
348. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.
349. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.
350. Vogel, “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA”.
351. Vogel, “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA”.
352. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.
353. Laird, Ranganath e Gershman, “Direções Futuras no Workshop de Formação de Equipes Homem-Máquina”.
354. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
355. Hampel-Arias e Meyers, “O que a IA pode e não pode fazer pela comunidade de inteligência”.
356. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”.
357. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
358. Alessa, Moon, Valentine, Works, Hepburn e Kilskey, “Surpresa e Suspense”.
359. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
360. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.
361. Longbing Cao, “Ciência de Dados: Uma Visão Geral Abrangente”. Pesquisas de Computação ACM, 50, não. 3 (2017): 1-42. https://doi.org/
10.1145/3076253 362. Ogunlana,
“Halting Boko Haram/Propaganda da Província da África Ocidental do Estado Islâmico no Ciberespaço com Segurança Cibernética”.
tecnologias de segurança.”

363. Alessa et al., “Surpresa e Suspense”.


364. Bury e Chertoff, “Novas Estratégias de Inteligência para uma Nova Década”.
365. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.
366. Alessa, Moon, Valentine, Works, Hepburn e Kilskey, “Surpresa e Suspense”.
367. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
368. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.
369. DeHenre, “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA”.
370. Allen e Chan, “Inteligência Artificial e Segurança Nacional”.
371. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
372. Mitchell, Mariani, Routh, Keyal e Mirkow, “O Futuro da Análise de Inteligência”.
373. Alessa, Moon, Valentine, Works, Hepburn e Kilskey, “Surpresa e Suspense”.
374. Musser e Garriott, “Aprendizado de Máquina e Segurança Cibernética”.
375. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.

Notas finais 65
Machine Translated by Google

376. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

377. Danielle Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.

378. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.

379. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.

380. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.

381. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.

382. Harding, “Mova-se JARVIS, Conheça OSCAR.”

383. Thomas F. Hawk e Dale E. Zand, “Organização Paralela: Formulação de Políticas, Aprendizagem e Integração entre Divisões”.
Jornal de Ciência Comportamental Aplicada, 50, não. 3 (2014): 307-336. https://doi.org/10.1177%2F00218863 13509276

384. Sanclemente, “Confiabilidade”.

385. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.

386. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.

387. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.

388. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.

389. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.


390. Schmidt e Work, “Relatório Final”.

391. Harding, “Mova-se JARVIS, Conheça OSCAR.”

392. Vogel et al., “O Impacto da IA na Análise de Inteligência”.

393. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

394. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

395. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

396. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

397. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

398. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

399. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

400. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Supervisão Não Deve Ser uma Supervisão”.

401. Shedd, “A postura de inteligência que a América precisa em uma era de competição entre grandes potências”.

402. Stone, “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente”.

403. Ogunlana, “Travar a Propaganda da Província da África Ocidental do Boko Haram/Estado Islâmico no Ciberespaço com Segurança Cibernética”.

tecnologias de segurança.”

404. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”.

405. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.

406. Zegart, “As agências de espionagem americanas estão lutando na era dos dados”.

407. Allen e Chan, “Inteligência Artificial e Segurança Nacional”.


408. Ganor, “Artificial ou Humano”.

409. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.

410. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.


411. Schmidt e Work, “Relatório Final”.

412. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.

413. Stone, “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa”.
414. Schmidt e Work, “Relatório Final”.
415. Ganor, “Artificial ou Humano”.

416. Sanclemente, “Confiabilidade”.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 66


Machine Translated by Google

417. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.


418. Vogel, Reid, Kampe e Jones, “O Impacto da IA na Análise de Inteligência”.
419. McNamara, “Pesquisa Interdisciplinar nos Laboratórios Nacionais”.
420. McNamara, “Adoção de inovação, aceitação de tecnologia e ciência de dados”.
421. Gabinete do Diretor de Inteligência Nacional, Diretiva da Comunidade de Inteligência 203, Padrões Analíticos, 2 de janeiro de 2015,
https://www.dni.gov/files/documents/ICD/ICD%20203%20Analytic%20Standards.pdf.
422. Blasch et al., “Estratégias de Inteligência Artificial para Segurança Nacional e Padrões de Proteção”.
423. Weinbaum e Shanahan, “Inteligência em uma era baseada em dados”.
424. Vogel et al., “O Impacto da IA na Análise de Inteligência”.
425. Brantly, “Quando tudo se torna inteligência”.
426. Sanclemente, “Confiabilidade”.
427. Yeung, “Quando o erro de julgamento da IA não é um acidente”.
428. Vogel et al., “O Impacto da IA na Análise de Inteligência”.
429. Mitchell et al., “O Futuro da Análise de Inteligência”.
430. Ganor, “Artificial ou Humano”.

431. Vogel, “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA”.
432. Harding, “Mova-se JARVIS, Conheça OSCAR.”
433. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
434. Sanclemente, “Confiabilidade”.
435. Sanclemente, “Confiabilidade”.
436. Yeung, “Quando o erro de julgamento da IA não é um acidente”.
437. Sanclemente, “Confiabilidade”.
438. Phillips e Pohl, “Algoritmos de Inteligência de Combate”.
439. Jani, “A promessa e o preconceito do Big Data na comunidade de inteligência”.
440. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
441. Zegart, “11 de setembro: Olhe para trás e aprenda”.

442. Blais e Jungdahl, “Inteligência Artificial em um Mundo de Inteligência Humana”.


443. Harding, “Mova-se JARVIS, Conheça OSCAR.”
444. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”.
445. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
446. Harding, “Mova-se JARVIS, Conheça OSCAR.”
447. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição”.
448. Stone, “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica”.
449. Ish, Ettinger e Ferris, “Avaliando a Eficácia dos Sistemas de Inteligência Artificial na Análise de Inteligência”.
450. Tarraf et al., “Postura do Departamento de Defesa para Inteligência Artificial”.
451. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
452. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
453. Flournoy, Haines e Chetifz, “Construindo Confiança por meio de Testes”.
454. Haines e O'Sullivan, “Mantendo a vantagem da inteligência”.
455. Ocasio, “Rumo a uma visão da empresa baseada na atenção” e Ocasio, “Atenção à atenção”.

456. Steve WJ Kozlowski e Katherine J. Klein, “Uma abordagem multinível para teoria e pesquisa em organizações: processo contextual,
temporal e emergente”, em Katherine J. Klein e Steve WJ Kozlowski (eds.), Teoria Multinível, Pesquisa, e métodos nas organizações:
fundamentos, extensões e novos rumos. (São Francisco, CA: Jossey-Bass, 2010), 3-90.

Notas finais 67
Machine Translated by Google

457. Charles M. Farkas e Suzy Wetlaufer, “As maneiras como os diretores executivos lideram”. Harvard Business Review, 74, não.
3 (1996): 110-122. https://hbr.org/1996/05/the-ways-chief-executive-officers-lead
458. Farkas e Wetlaufer, “As maneiras como os diretores executivos lideram”.
459. Adrian Wolfberg, “O Resumo Diário do Presidente: Gerenciando o Relacionamento entre a Inteligência e o Formulador de
Políticas”, Political Science Quarterly 132, no. 2 (2017): 225-258. https://doi.org/10.1002/polq.12616

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 68


Machine Translated by Google

Referências
As entradas que começam com um asterisco (*) são as 41 referências usadas na revisão da literatura AI/ML in IC.

*Alessa, et al. 2021. “Surpresa e suspense: como a comunidade de inteligência esqueceu o futuro.” O Jornal Internacional de Inteligência,
Segurança e Assuntos Públicos 23, no. 3: 310-342. https://doi.org/10.1080/23800992.2021.2006954 *Allen, Greg e Taniel Chan.
2017. “Inteligência Artificial e Segurança Nacional”. Universidade de Harvard, julho de 2017. https://
www.belfercenter.org/sites/default/files/files/publication/AI%20NatSec%20-%20final.pdf
*Blais, J. Rocco e Adam M. Jungdahl. 2019. “Inteligência Artificial em um Mundo de Inteligência Humana”. American Intelligence Journal
36, no. 1: 108-113. https://www.jstor.org/stable/27066342
* Blasch, et al. 2018. “Estratégias de Inteligência Artificial para Segurança Nacional e Padrões de Proteção”. Artigo apresentado na
conferência AAAI FSS-19, Artificial Intelligence in Government and Public Sector, Arlington, VA, 7 a 9 de novembro de 2019.
https://arxiv.org/abs/1911.05727
*Brantly, Aaron F. 2018. “Quando tudo se torna inteligência: aprendizado de máquina e o mundo conectado.” Inteligência e Segurança
Nacional 33, não. 4: 562-573. https://doi.org/10.1080/02684527.2018.1452555 Briner, Rob B., David Denyer e
Denise M. Rousseau. 2009. “Gestão Baseada em Evidências: Tempo de Limpeza do Conceito?”
Academia de Perspectivas de Gestão, 23, não. 4, 19-32: https://doi.org/10.5465/amp.23.4.19 *Bury,
Patrick e Michael Chertoff. 2020. “Novas estratégias de inteligência para uma nova década”. O Jornal RUSI 165, não.
4: 42-53. https://doi.org/10.1080/02684527.2018.1452555
Cao, Longbing. 2017. “Ciência de Dados: Uma Visão Geral Abrangente”. Pesquisas de Computação ACM, 50, não. 3: 1-42. https://doi.
org/10.1145/3076253
Chadwick, Andrew e James Stanyer. 2022. “O engano como um conceito de ligação no estudo da desinformação, da desinformação e
das percepções erradas: em direção a uma estrutura holística.” Teoria da Comunicação, 32, não. 1: 1-24. https://doi.
org/10.1093/ct/qtab019
Cherry, Gemma e Rumona Dickson. 2017. “Definindo minha pergunta de revisão e identificando critérios de inclusão e exclusão”. Em
Fazendo uma Revisão Sistemática: Guia do Estudante, editado por Angela Boland, Gemma Cheery e Rumona Dickson, 43-59.
Los Angeles, CA: SAGE.
*DeHenre, Rena. 2021. “Por que o Departamento de Defesa deveria criar uma equipe vermelha de IA.” Over the Horizon, 7 de setembro
de 2021. https://othjournal.com/2021/09/07/why-the-department-of-defense-should-create-an-ai-red-team/ Fallis, Don.
2014. “As variedades de desinformação”. Em A Filosofia da Qualidade da Informação, editado por Luciano Floridi
e Phyllis Illari, 135-162. Nova York, NY: Springer.
Farkas, Charles M. e Suzy Wellaufer. 1996. “As maneiras como os diretores executivos lideram”. Harvard Business Review 74, não. 3:
110-122. https://hbr.org/1996/05/the-ways-chief-executive-officers-lead
*Flournoy, Michele A., Avril Haines e Gabrielle Chefitz. 2020. “Construindo confiança por meio de testes: adaptando a empresa de teste
e avaliação, validação e verificação (TEVV) do DoD para sistemas de aprendizado de máquina, incluindo sistemas de aprendizado
profundo.” Universidade de Georgetown, outubro de 2020. https://cset.georgetown.edu/wp-content/uploads/Building-Trust-Through-
Testing.pdf

Referências 69
Machine Translated by Google

*Ganor, Boaz. 2021. “Artificial ou Humano: Uma Nova Era de Inteligência Antiterrorista”. Estudos em Conflito e Terrorismo, 44, não. 7:
605-624. https://doi.org/10.1080/1057610X.2019.1568815
Gorman, Christopher. 2022. “Desenvolvimentos recentes em IA e segurança nacional: o que você precisa saber.” Lawfare, 3 de março de
2022. https://www.lawfareblog.com/recent-developments-ai-and-national-security-what-you-need-know#
*Haines, Avril e Stephanie O'Sullivan. 2021. “Mantendo a vantagem da inteligência: reimaginando e reinventando a inteligência por meio da
inovação.” Centro de Estudos Estratégicos e Internacionais, janeiro de 2021. https://csis-website-prod.
s3.amazonaws.com/s3fs-public/publication/210113_Intelligence_Edge.pdf
*Hampel-Arias, Zeigried e John S. Meyers. 2021. “O que a IA pode e não pode fazer pela comunidade de inteligência.”
Defense One, 5 de janeiro de 2021. https://www.defenseone.com/ideas/2021/01/what-ai-can-and-cannot-do-intelligence- community/
171195/
*Harding, Emily. 2022. “Mova JARVIS, Conheça OSCAR.” Centro de Estudos Estratégicos e de Inteligência, janeiro de 2022. https://csis-
website-prod.s3.amazonaws.com/s3fs-public/publication/220119_Harding_MoveOverJARVIS_
MeetOSCAR_0.pdf?NqfrbU05ULzzcySzNHB0pTzsNYw3HdfK
Hawk, Thomas F. e Dale E. Zand. 2014. “Organização Paralela: Formulação de Políticas, Aprendizagem e Integração Interdivisões”. Jornal
de Ciência Comportamental Aplicada, 50, não. 3: 307-336. https://doi.org/10.1177%2F0021886313
509276

*Ish, Daniel, Jared Ettinger e Christopher Ferris. 2021. “Avaliando a eficácia dos sistemas de inteligência artificial na análise de inteligência.”
Corporação Rand. https://apps.dtic.mil/sti/pdfs/AD1146077.pdf
*Jani, Karen. 2016. “A promessa e o preconceito do Big Data na comunidade de inteligência”. Instituto de Tecnologia da Geórgia,
https://arxiv.org/pdf/1610.08629v1.pdf
*Katz, Brian. 2020. “The Collection Edge: Aproveitando Tecnologias Emergentes para Coleta de Inteligência.” Centro de Estudos Estratégicos
e Internacionais. 1º de julho de 2020. https://www.jstor.org/stable/resrep25236?seq=1
Knippen, Jay T. e Thad B. Green. 1997. “Resolução de Problemas”. Jornal de Aprendizagem no Local de Trabalho, 9, não. 3: 98. http://dx.doi
.org/10.1108/13665629710164904
Kozlowski, Steve WJ e Katherine J. Klein. 2010. “Uma abordagem multinível para teoria e pesquisa em organizações: processos contextuais,
temporais e emergentes.” Em Teoria Multinível, Pesquisa e Métodos em Organizações: Fundamentos, Extensões e Novas Direções,
editado por Katherine J. Klein e Steve WJ Kozlowski, 3-90. São Francisco, CA: Jossey-Bass.

*Laird, John, Charan Ranganath e Samuel Gershman. 2019. “Workshop de Direções Futuras em Equipes Homem-Máquina.” Relatório
preparado na série de workshops Future Directions in Human Machine Teaming, Arlington, VA, 16 a 17 de julho de 2019. https://
basicresearch.defense.gov/Portals/61/Future%20Directions%20in%20Human%20Machine
%20Teaming%20Workshop%20report%20%20%28for%20public%20release%29.pdf
*McCormick, David H., Charles E. Luftig e James M. Cunningham. 2020. “Poder Econômico, Segurança Nacional e o Futuro da Política
Americana”. Revisão de Segurança Nacional do Texas 3, não. 3: 50-75. https://repositories.lib.utexas.edu/
bitstream/handle/2152/83223/04_TNSRVol3Issue3McCormick.pdf?sequence=2
*McNamara, Laura A. 2012. “Pesquisa Interdisciplinar nos Laboratórios Nacionais”. Em Antropólogos no cenário de segurança, editado por
Robert Albro, George March, Laura A. McNamara e Monica Schoch-Spana, 87-100. Walnut Creek, NY: Left Coast Press.

*McNamara, Laura A. 2020. “Adoção de inovação, aceitação de tecnologia e ciência de dados: por que as tecnologias algorítmicas são tão
complicadas.” Slides apresentados na série de seminários da comunidade de prática de integração de sistemas humanos do
Departamento de Defesa, Albuquerque, NM, 4 de setembro de 2020.
*Mitchell, Kwasi, Joe Mariani, Adam Routh, Akash Keyal e Alex Mirkow. 2019. “O futuro da análise de inteligência: uma visão em nível de
tarefa do impacto da inteligência artificial na análise de inteligência”, Deloitte Insights. https://www2
.deloitte.com/content/dam/insights/us/articles/6306_future-of-intel-análise/DI_Future-of-intel-análise.pdf

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 70


Machine Translated by Google

*Musser, Micah e Ashton Garriott. 2021. “Aprendizado de máquina e segurança cibernética: campanha publicitária e realidade”. Centro
Universitário de Georgetown para Segurança e Tecnologia Emergente. Junho de 2021. https://cset.georgetown.edu/wp-content/uploads/
Aprendizado de máquina e segurança cibernética.pdf

*Phillips, Peter J. e Gabriela Pohl. 2020. “Algoritmos de Inteligência de Combate: Teoria de Decisão, Escolhas de Design e Contra-IA.” O
Jornal RUSI 165, não. 7: 22-32. https://doi.org/10.1080/03071847.2021.1893126
Ocásio, William. 1997. “Rumo a uma visão da empresa baseada na atenção”. Revisão de Gestão Estratégica 18: 187-206.
https://doi.org/10.1002/(SICI)1097-0266(199707)18:1+%3C187::AID-SMJ936%3E3.0.CO;2-K
Ocásio, William. 2011. “Atenção à Atenção”. Ciência da Organização 22, não. 5: 1286-1296. https://doi.org/10.1287/
orsc.1100.0602

Escritório do Diretor de Inteligência Nacional, Diretiva da Comunidade de Inteligência 203, Padrões Analíticos, 2 de janeiro de 2015,
https://www.dni.gov/files/documents/ICD/ICD%20203%20Analytic%20Standards.pdf.
*Ogunlana, Domingo O. 2019. “Travar a propaganda do Boko Haram/Estado Islâmico nas províncias da África Ocidental no ciberespaço com
tecnologias de segurança cibernética.” Jornal de Segurança Estratégica 12, não. 1: 72-106. https://www.jstor.org/
estável/26623078?seq=1
Rojon, Celine, Adun Okupe e Almuth McDowall. 2021. “Utilização e Desenvolvimento de Revisões Sistemáticas em Pesquisa de Gestão: O
que sabemos e para onde vamos a partir daqui?” International Journal of Management Reviews 23, no. 2: 191-223. https://doi.org/
10.1111/ijmr.12245
Rousseau, Denise, M., Joshua Manning e David Denyer. 2008. “Evidências em Gestão e Ciência Organizacional: Reunindo todo o peso do
conhecimento científico do campo por meio da síntese.” Anais da Academia de Administração, 2, não. 1: 475-515. https://doi.org/
10.5465/19416520802211651
Saldaña, Johnny. 2021. Manual de Codificação para Pesquisadores Qualitativos, 4ª edição. Mil Oaks, CA: SAGE.
*Sanclemente, Guadys L. 2021. “Confiabilidade: Compreendendo o preconceito humano cognitivo em inteligência artificial para
Análise de Segurança e Inteligência.” Diário de Segurança 1-21, https://doi.org/10.1057/s41284-021-00324-z
*Schmidt, Eric, Bob Work, et al. 2021. “Relatório Final: Comissão Nacional de Segurança em Inteligência Artificial (IA).”
Comissão Nacional de Segurança sobre Inteligência Artificial, https://apps.dtic.mil/sti/pdfs/AD1124333.pdf
*Shedd, David R. 2020. “A postura de inteligência que a América precisa em uma era de competição entre grandes potências.” The Her-itage
Foundation, 17 de novembro de 2020. https://www.heritage.org/military-strength-topical-essays/2021-essays/
a-postura-de-inteligência-américa-precisa-da-idade-grande-poder
Smith, et ai. 2011. “Metodologia para Conduzir uma Revisão Sistemática de Revisões Sistemáticas de Intervenções de Saúde”. Metodologia
de Pesquisa Médica BMC, 11, não. 15: 1-6. https://bmcmedresmethodol.biomedcentral.com/track/
pdf/10.1186/1471-2288-11-15.pdf
*Stone, Corin R. 2021. “Inteligência Artificial na Comunidade de Inteligência: Dinheiro não é suficiente.” Just Security, 12 de julho de 2021.
https://www.justsecurity.org/77354/artificial-intelligence-in-the-intelligence-community-money-is-not-enough/

*Stone, Corin R. 2021. “Inteligência Artificial na Comunidade de Inteligência: A Cultura é Crítica.” Just Security, 17 de agosto de 2021.
https://www.justsecurity.org/77783/artificial-intelligence-in-the-intelligence-community-culture-is-critical/

*Stone, Corin R. 2021. “Inteligência Artificial na Comunidade de Inteligência: A Teia Emaranhada de Orçamento e Aquisição.” Just Security,
28 de setembro de 2021. https://www.justsecurity.org/78362/artificial-intelligence-in-the- intelligence-community-the-tangled-web-of-
budget-acquisition/
*Stone, Corin R. 2021. “Inteligência Artificial na Comunidade de Inteligência: Conheça o Risco, Conheça a Recompensa.” Just Security,
19 de outubro de 2021. https://www.justsecurity.org/78641/artificial-intelligence-in-the-intelligence-community-know-risk-know-
reward/

Referências 71
Machine Translated by Google

*Stone, Corin R. 2021. “Inteligência Artificial na Comunidade de Inteligência: A supervisão não deve ser uma supervisão Just Security, 30 de
novembro de 2021. https://www.justsecurity.org/79254/artificial-intelligence-in-the- inteligência -supervisão-comunitária-não-deve-ser-uma-
supervisão/
*Tarraf, Danielle, William Shelton, Edward Parker, et al. 2019. “Postura do Departamento de Defesa para Inteligência Artificial
gência: Avaliação e Recomendações.” https://www.rand.org/pubs/research_reports/RR4229.html
*Tucker, Patrick. 2020. “Espiões como IA: O Futuro da Inteligência Artificial para a Comunidade de Inteligência dos EUA.” Defense One, 27 de
janeiro de 2020. https://www.defenseone.com/technology/2020/01/spies-ai-future-artificial-intelligence-us-intelligence-community/162673/

*Vogel, Kathleen M. 2021. “Big Data, IA, plataformas e o futuro da força de trabalho de inteligência dos EUA: uma agenda de pesquisa”. Revista
IEEE Tecnologia e Sociedade 40, no. 3: 84-92. https://doi.org/10.1109/MTS.2021.3104384
*Vogel, et al. 2021. “O impacto da IA na análise de inteligência: abordando questões de colaboração, transparência algorítmica, responsabilidade
e gerenciamento.” Inteligência e Segurança Nacional 36, não. 6: 827-848. https://doi.org/10.1
080/02684527.2021.1946952

*Weinbaum, Cortney e John NT Shanahan. 2018. “Inteligência em uma era baseada em dados”. Forças Conjuntas Trimestralmente 90, não. 3: 4-9.
https://ndupress.ndu.edu/Portals/68/Documents/jfq/jfq-90/jfq-90_4-9_Weinbaum-Shanahan.pdf
Weinbaum, Cortney, Bradley Knopp, Soo Kim e Yuliya Shokh. 2022. “Opções para fortalecer a inteligência de todas as fontes
gência.” RAND Corporation, https://apps.dtic.mil/sti/pdfs/AD1161438.pdf
*Wilner, Alex, Casey Babb e Jessica Davis. 2021. “Quatro coisas a considerar sobre o futuro da dissuasão habilitada para IA.”
Guerra jurídica. Última modificação em 25 de julho de 2021, 10h01. https://www.lawfareblog.com/four-things-consider-future-ai-enabled-deterrence#

Wolfberg, Adriano. 2017. “O Resumo Diário do Presidente: Gerenciando a Relação entre a Inteligência e o Formulador de Políticas.” Ciência
Política Trimestral 132, não. 2: 225-258. https://doi.org/10.1002/polq.12616
Xiao, Yu e Maria Watson. 2019. “Orientação para a realização de uma revisão sistemática da literatura”. Journal of Planning Education and
Research. 39, não. 1: 93-112. https://doi.org/10.1177%2F0739456X17723971
*Yeung, Douglas. 2018. “Quando o erro de julgamento da IA não é um acidente.” Scientific American, 19 de outubro de 2018. https://
blogs.scientificamerican.com/observations/when-ai-misjudgment-is-not-an-accident/
*Yeung et al. 2021. “Identificando preconceito sistêmico na aquisição de auxílios à decisão de aprendizado de máquina para aplicações policiais.”
RAND Corporation, https://www.rand.org/pubs/perspectives/PEA862-1.html
*Zegart, Amy. 2020. “11/09: Olhe para trás e aprenda.” Hoover Digest, 20 de janeiro de 2020. https://www.hoover.org/
pesquisar/911-olhar para trás e aprender

*Zegart, Amy. 2022. “As agências de espionagem americanas estão lutando na era dos dados.” Com fio, 2 de fevereiro de 2022. https://www
.wired.com/story/spies-algorithms-artificial-intelligence-cybersecurity-data/#:~:text=In%20short%2C%20data%20
volume%20e, lutando%20to%20adapt%20to%20it.

PERCEPÇÕES DE INTELIGÊNCIA ARTIFICIAL/APRENDIZAGEM DE MÁQUINA NA COMUNIDADE DE INTELIGÊNCIA 72


Machine Translated by Google

Você também pode gostar