Você está na página 1de 5

GOV.

Reino Unido

Lar AI Safety Summit 2023: A Declaração de Bletchley

Departamento de Escritório de Relações Exteriores, Gabinete do Primeiro Ministro, 10


Ciência, Inovação Commonwealth Downing Street
e Tecnologia e Desenvolvimento

Documento político
A Declaração de Bletchley dos países
participantes da Cúpula de Segurança da
IA, 1 a 2 de novembro de 2023
Publicado em 1º de novembro de 2023
© Crown copyright 2023

This publication is licensed under the terms of the Open Government Licence v3.0 except where otherwise
stated. To view this licence, visit nationalarchives.gov.uk/doc/open-government-licence/version/3 or write to
the Information Policy Team, The National Archives, Kew, London TW9 4DU, or email:
psi@nationalarchives.gov.uk.

Where we have identified any third party copyright information you will need to obtain permission from the
copyright holders concerned.

This publication is available at https://www.gov.uk/government/publications/ai-safety-summit-2023-the-


bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-
2023
A Inteligência Artificial ( IA ) apresenta enormes oportunidades globais: tem potencial para transformar e
melhorar o bem-estar humano, a paz e a prosperidade. Para concretizar isto, afirmamos que, para o bem de
todos, a IA deve ser concebida, desenvolvida, implantada e utilizada, de uma forma que seja segura, de forma a
ser centrada no ser humano, confiável e responsável. Saudamos os esforços da comunidade internacional até
agora para cooperar em matéria de IA para promover o crescimento económico inclusivo, o desenvolvimento
sustentável e a inovação, para proteger os direitos humanos e as liberdades fundamentais e para promover a
confiança do público nos sistemas de IA para concretizar plenamente o seu potencial.
Os sistemas de IA já estão implantados em muitos domínios da vida quotidiana, incluindo habitação, emprego,
transportes, educação, saúde, acessibilidade e justiça, e é provável que a sua utilização aumente.
Reconhecemos que este é, portanto, um momento único para agir e afirmar a necessidade do desenvolvimento
seguro da IA ​e de que as oportunidades transformadoras da IA ​sejam utilizadas para o bem e para todos, de
forma inclusiva nos nossos países e a nível global. Isto inclui serviços públicos como a saúde e a educação, a
segurança alimentar, a ciência, a energia limpa, a biodiversidade e o clima, para concretizar o gozo dos direitos
humanos e para reforçar os esforços para a consecução dos Objectivos de Desenvolvimento Sustentável das
Nações Unidas.
Paralelamente a estas oportunidades, a IA também apresenta riscos significativos, inclusive nos domínios da
vida quotidiana. Para esse fim, saudamos os esforços internacionais relevantes para examinar e abordar o
impacto potencial dos sistemas de IA em fóruns existentes e outras iniciativas relevantes, e o reconhecimento
de que a proteção dos direitos humanos, a transparência e a explicabilidade, a justiça, a responsabilização, a
regulamentação, a segurança, a adequação é necessário abordar a supervisão humana, a ética, a mitigação de
preconceitos, a privacidade e a proteção de dados. Observamos também o potencial de riscos imprevistos
decorrentes da capacidade de manipular conteúdo ou gerar conteúdo enganoso. Todas estas questões são
extremamente importantes e afirmamos a necessidade e urgência de abordá-las.
Riscos específicos de segurança surgem na “fronteira” da IA , entendida como sendo aqueles modelos de IA de
uso geral altamente capazes , incluindo modelos básicos, que poderiam executar uma ampla variedade de
tarefas - bem como IA restrita específica relevante que poderia exibir capacidades que causam danos - que
correspondem ou excedem as capacidades presentes nos modelos mais avançados de hoje. Riscos
substanciais podem surgir do potencial uso indevido intencional ou de problemas de controle não intencionais
relacionados ao alinhamento com a intenção humana. Estas questões devem-se, em parte, ao facto de essas
capacidades não serem totalmente compreendidas e, portanto, serem difíceis de prever. Estamos
especialmente preocupados com estes riscos em domínios como a cibersegurança e a biotecnologia, bem
como onde os sistemas de IA de fronteira podem amplificar riscos como a desinformação. Existe potencial para
danos graves, até mesmo catastróficos, deliberados ou não intencionais, decorrentes das capacidades mais
significativas destes modelos de IA . Dada a rápida e incerta taxa de mudança da IA , e no contexto da
aceleração do investimento em tecnologia, afirmamos que é especialmente urgente aprofundar a nossa
compreensão destes riscos potenciais e das ações para os enfrentar.
Muitos riscos decorrentes da IA ​são de natureza inerentemente internacional e, por isso, são mais bem
abordados através da cooperação internacional. Resolvemos trabalhar juntos de forma inclusiva para garantir
uma IA centrada no ser humano, confiável e responsável que seja segura e apoie o bem de todos através de
fóruns internacionais existentes e outras iniciativas relevantes, para promover a cooperação para enfrentar a
ampla gama de riscos colocados por IA . Ao fazê-lo, reconhecemos que os países devem considerar a
importância de uma governação e abordagem regulamentar pró-inovação e proporcionada que maximize os
benefícios e tenha em conta os riscos associados à IA . Isto poderia incluir a elaboração, quando apropriado, de
classificações e categorizações de risco com base nas circunstâncias nacionais e nos quadros jurídicos
aplicáveis. Notamos também a relevância da cooperação, quando apropriado, em abordagens como princípios
comuns e códigos de conduta. No que diz respeito aos riscos específicos mais prováveis ​encontrados em
relação à IA de fronteira, decidimos intensificar e sustentar a nossa cooperação, e ampliá-la com outros países,
para identificar, compreender e, conforme apropriado, agir, através de fóruns internacionais existentes e outras
iniciativas relevantes, incluindo futuras Cúpulas Internacionais de Segurança de IA .
Todos os intervenientes têm um papel a desempenhar na garantia da segurança da IA : as nações, os fóruns
internacionais e outras iniciativas, as empresas, a sociedade civil e o meio académico terão de trabalhar em
conjunto. Observando a importância da IA ​inclusiva e de colmatar o fosso digital, reafirmamos que a
colaboração internacional deve esforçar-se por envolver e envolver uma ampla gama de parceiros, conforme
apropriado, e acolhemos com agrado abordagens e políticas orientadas para o desenvolvimento que possam
ajudar os países em desenvolvimento a reforçar a capacitação e a alavancagem da IA . o papel facilitador da IA ​
para apoiar o crescimento sustentável e colmatar a lacuna de desenvolvimento.
Afirmamos que, embora a segurança deva ser considerada em todo o ciclo de vida da IA , os intervenientes que
desenvolvem capacidades de IA de ponta, em particular os sistemas de IA que são invulgarmente poderosos e
potencialmente prejudiciais, têm uma responsabilidade particularmente forte em garantir a segurança destes
sistemas de IA , nomeadamente através de sistemas para testes de segurança, por meio de avaliações e por
outras medidas apropriadas. Encorajamos todos os intervenientes relevantes a proporcionarem transparência e
responsabilização adequadas ao contexto nos seus planos para medir, monitorizar e mitigar capacidades
potencialmente prejudiciais e os efeitos associados que possam surgir, em particular para prevenir a utilização
indevida e problemas de controlo, e a amplificação de outros riscos.
No contexto da nossa cooperação, e para informar a ação a nível nacional e internacional, a nossa agenda para
abordar o risco fronteiriço da IA ​centrar -se-á em:
identificar riscos de segurança da IA ​de preocupação partilhada, construir uma compreensão científica
partilhada e baseada em evidências destes riscos, e sustentar essa compreensão à medida que as
capacidades continuam a aumentar, no contexto de uma abordagem global mais ampla para compreender o
impacto da IA ​nas nossas sociedades .
construir as respectivas políticas baseadas em riscos em nossos países para garantir a segurança à luz de
tais riscos, colaborando conforme apropriado, embora reconhecendo que nossas abordagens podem diferir
com base nas circunstâncias nacionais e nos quadros jurídicos aplicáveis. Isto inclui, juntamente com uma
maior transparência por parte dos intervenientes privados, o desenvolvimento de capacidades de IA de ponta
, métricas de avaliação adequadas, ferramentas para testes de segurança e o desenvolvimento de
capacidades relevantes do setor público e de investigação científica.
Na prossecução desta agenda, decidimos apoiar uma rede internacionalmente inclusiva de investigação
científica sobre segurança de IA de fronteira que englobe e complemente a colaboração multilateral, plurilateral
e bilateral existente e nova, nomeadamente através de fóruns internacionais existentes e outras iniciativas
relevantes, para facilitar a prestação de a melhor ciência disponível para a formulação de políticas e o bem
público.
Em reconhecimento do potencial transformador positivo da IA , e como parte da garantia de uma cooperação
internacional mais ampla em matéria de IA , decidimos manter um diálogo global inclusivo que envolva os
fóruns internacionais existentes e outras iniciativas relevantes e contribua de forma aberta para discussões
internacionais mais amplas, e continuar a investigação sobre a segurança da IA ​de fronteira para garantir que
os benefícios da tecnologia possam ser aproveitados de forma responsável para o bem e para todos.
Esperamos nos encontrar novamente em 2024.

Acordo
Os países representados foram:
Austrália
Brasil
Canadá
Chile
China
União Europeia
França
Alemanha
Índia
Indonésia
Irlanda
Israel
Itália
Japão
Quênia
Reino da Arábia Saudita
Holanda
Nigéria
As Filipinas
República da Coreia
Ruanda
Cingapura
Espanha
Suíça
Turquia
Ucrânia
Emirados Árabes Unidos
Reino Unido da Grã-Bretanha e Irlanda do Norte
Estados Unidos da América
As referências a “governos” e “países” incluem organizações internacionais que actuam de acordo com as suas
competências legislativas ou executivas.

De volta ao topo

Todo o conteúdo está disponível sob a Licença Open Government v3.0 , exceto
quando indicado de outra forma © Direitos autorais da Coroa

Você também pode gostar