Você está na página 1de 15

Democrática,

operacional e confiável:
três princípios para o
sucesso com IA
Revele o potencial do machine learning na era da IA
generativa
Sumário
PA R T E I: O M E R C A D O

Introdução.. . . . ............................................................................................. 4

Visão geral.. . . . . ............................................................................................ 5

PA R T E II: O S P R I N CÍPIO S PA R A O S U CESS O

1.º princípio: democratizar.. ........................................................................... 7

2.º princípio: operacionalizar......................................................................... 9

3.º princípio: ganhar confiança...................................................................... 11

Resultados de sucesso começam aqui. . ............................................................ 15

2
PA RTE I: O M ERC A D O

O rápido desenvolvimento da IA generativa


está fomentando investimentos e inovações
cada vez maiores

3
INTRODUÇÃO

Por que a inteligência artificial se


tornou tão importante
A inteligência artificial (IA) já existe há décadas, mas, com a pronta disponibilidade de capacidade
computacional escalável, a proliferação de dados em massa e o rápido avanço de tecnologias de
machine learning (ML), organizações de vários setores estão transformando seus negócios.

A IA generativa atraiu grande atenção e cativou a imaginação com aplicações voltadas ao


consumidor, como o ChatGPT, que proporciona resultados impressionantes e demonstra o
potencial e a sofisticação dos modelos de ML atuais de maneira incrível e evidente. Estamos em
um verdadeiro momento de transição e acreditamos que a maioria das experiências do cliente e
das aplicações será reinventada com a IA generativa.

Embora haja variações nas estimativas específicas sobre o crescimento da IA generativa, há


consenso no impacto dessa tecnologia na economia global. Os possíveis efeitos desses números
são surpreendentes tanto para as organizações que fazem os investimentos quanto para as que
não fazem. De acordo com a Goldman Sachs, a IA generativa pode aumentar em 7% (cerca de
USD 7 trilhões) o PIB global e elevar a produtividade em 1,5 ponto percentual ao longo de
10 anos.1 O Bloomberg espera que os gastos com a IA generativa ultrapassem USD 109 bilhões
até 2030, uma taxa de crescimento anual composta (CAGR) de 34,6% de 2022 a 2030.2

Se você já está expandindo suas iniciativas de IA com ferramentas generativas ou está apenas
começando a usar IA e ML, um guia de referência claro pode ajudar a desenvolver sua estratégia
e a garantir resultados positivos. Este e-book descreve os três pilares estratégicos para o sucesso
e fornece recomendações práticas que você pode aplicar à sua organização.

“A IA generativa pode aumentar o PIB global em 7%”, Goldman Sachs, abril de 2023
4
1

2
“O mercado da IA generativa deverá valer USD 109,37 bilhões até 2023: Grand View Research, Inc”, Bloomberg, janeiro de 2023
V IS Ã O G E R A L

O que é IA generativa?

Trata-se de um tipo de IA que pode criar conteúdo e ideias, incluindo Os FMs podem executar muito mais tarefas porque contêm um grande
conversas, histórias, imagens, vídeos e músicas. Assim como outros tipos número de parâmetros que possibilitam o aprendizado de conceitos
de IA, a IA generativa é possibilitada por amplos modelos pré-treinados complexos. Por meio da exposição do pré-treinamento aos dados da
com base em grandes quantidades de dados, geralmente conhecidos como Internet nos mais variados formatos e padrões, os FMs aprendem a aplicar o
modelos de base (FMs). Avanços recentes em ML causaram o aumento de conhecimento em inúmeros contextos. Embora os recursos e as possibilidades
modelos que contêm bilhões de parâmetros ou variáveis. resultantes dos FMs pré-treinados sejam incríveis, as organizações
consideram mais importante o fato de que esses modelos multifuncionais
Para se ter ideia da mudança na escala, o maior modelo pré-treinado em também podem ser personalizados para realizar aquelas funções de
2019 tinha 330 milhões de parâmetros. Agora, os maiores modelos têm domínios específicos que são o diferencial para seus negócios, ainda que usem
mais de 500 bilhões de parâmetros, um salto de 1,6 mil vezes em poucos somente uma pequena fração dos dados e da computação necessários para
anos. Os FMs atuais podem executar uma ampla variedade de tarefas que treinar um modelo do zero.
abrangem vários domínios, como redigir publicações de blog, gerar imagens,
resolver problemas de matemática, interagir em diálogos e responder FMs personalizados podem criar uma experiência única, representando a voz,
a perguntas com base em um documento. O tamanho e a natureza de o estilo e os serviços da empresa em uma grande variedade de setores de
propósito geral dos FMs os diferenciam de modelos de ML tradicionais, que consumo, como o setor bancário, de turismo e de saúde. Por exemplo, uma
normalmente realizam tarefas específicas como analisar sentimentos em instituição financeira que precisa gerar automaticamente relatórios diários
texto, classificar imagens e prever tendências. de atividade para circulação interna usando todas as transações relevantes
pode personalizar o modelo com dados proprietários, que incluem relatórios
anteriores, para que o FM aprenda como esses relatórios devem ser lidos e
quais dados foram usados para gerá-los.

5
PA RTE II: O S P RIN CÍPIO S PA R A O SU CESS O

Três princípios que podem ajudar as


organizações a integrar a IA a mais áreas
dos negócios

6
1.º P R I N CÍPIO

Democratizar Clientes como a Intuit, a Thomson Reuters,


a AstraZeneca, a Ferrari, a Bundesliga, a 3M,
Para acompanhar as rápidas inovações em IA, é importante tornar as a BMW e milhares de startups e agências
aplicações de IA generativa fáceis e práticas para todos. Isso é conhecido governamentais em todo o mundo estão
como democratização e, para muitos clientes da Amazon Web Services
transformando a si mesmos, seus setores e
(AWS), é o primeiro passo para revelar o potencial dessas tecnologias
avançadas. As organizações recorrem à AWS buscando maneiras diretas suas missões com IA.
de descobrir e acessar modelos de base (FMs) de alto desempenho que
entregam resultados excepcionais e são adequados a diferentes tarefas
de negócios. O segundo passo se concentra na integração perfeita de
FMs a aplicações sem a necessidade de gerenciar grandes clusters de
infraestrutura ou incorrer em custos significativos. O terceiro e último
passo simplifica o processo de criação de aplicações diferenciadas no
FM base usando os (poucos ou muitos) dados de cada organização e, ao
mesmo tempo, mantendo os dados protegidos.

A IA democratizada automatiza mais aplicações que


usamos para viver, trabalhar e nos divertir, liberando
mais tempo para você se concentrar em atividades de
alto valor.

7
Um caminho claro para a inteligência artificial democratizada
A AWS teve um papel central na democratização da IA, tornando-a acessível grande variedade de tarefas de processamento de conversa e texto e tem
a quem queira usá-la, incluindo mais de cem mil clientes de todos os portes como base o treinamento em IA constitucional e inocuidade. O modelo de
e setores. Temos o portfólio mais amplo e completo de serviços de IA e ML. A geração de texto Command da Cohere é treinado para seguir comandos do
AWS investiu e inovou para oferecer a infraestrutura de melhor desempenho usuário e ser instantaneamente útil em aplicações de negócios práticas, como
e escalabilidade no treinamento e na inferência de ML com bom custo- resumo, copywriting, diálogo, extração e resposta a perguntas. O modelo
benefício; desenvolveu o Amazon SageMaker, a maneira mais fácil para todos de compreensão de texto da Cohere, Embed, pode ser usado para tarefas
os desenvolvedores criarem, treinarem e implantarem modelos; e lançou de pesquisa, análise de cluster ou classificação em mais de cem idiomas,
uma ampla variedade de serviços de IA que permitem aos clientes adicionar permitindo que organizações pesquisem por significado ou categorizem
recursos de IA, como reconhecimento de imagens, previsão ou pesquisa textos. O Bedrock também facilita o acesso ao conjunto de FMs de texto
inteligente, a aplicações com uma chamada de API simples. para imagem da Stability AI, incluindo o Stable Diffusion (o mais popular da
categoria), que é capaz de gerar imagens, artes, logotipos e designs exclusivos,
Adotamos a mesma abordagem de democratização para a IA generativa: realistas e de alta qualidade.
trabalhamos para tirar essas tecnologias do domínio de pesquisa e
experimentos e ampliar sua disponibilidade para além de algumas startups e Um dos recursos mais importantes do Bedrock é a facilidade para personalizar
grandes empresas de tecnologia com amplos recursos financeiros. um modelo. Basta que os clientes indiquem ao Bedrock alguns exemplos
rotulados no Amazon Simple Storage Service (Amazon S3), e o serviço pode
O Amazon Bedrock é a solução mais fácil para criar e escalar aplicações ajustar o modelo para uma tarefa específica sem precisar anotar grandes
baseadas em IA generativa usando FMs, o que democratiza o acesso para volumes de dados (20 exemplos são suficientes).
todos os criadores. O Bedrock dá acesso a diversos FMs avançados para texto
e imagens, incluindo FMs do Amazon Titan, por meio de um serviço escalável, Embora o Bedrock democratize o acesso a FMs, a IA generativa também
confiável e seguro gerenciado pela AWS. Com a experiência de tecnologia pode ser usada para democratizar o desenvolvimento de software. Exemplo:
sem servidor do Bedrock, os clientes da AWS podem encontrar facilmente o o Amazon CodeWhisperer, um assistente de codificação de IA que usa um
modelo certo para qualquer finalidade, começar com rapidez, personalizar FM por dentro do sistema para melhorar radicalmente a produtividade
FMs com confidencialidade usando seus próprios dados, além de integrá-los e do desenvolvedor ao gerar sugestões de código em tempo real com base
implantá-los facilmente em suas aplicações usando ferramentas e recursos da nos comentários em linguagem natural dos desenvolvedores e em códigos
AWS já conhecidos, sem precisar gerenciar nenhuma infraestrutura. anteriores em seu ambiente de desenvolvimento integrado (IDE). Durante a
demonstração do CodeWhisperer, realizamos um desafio de produtividade,
Os clientes do Bedrock podem escolher alguns dos FMs mais inovadores e os participantes que usaram o CodeWhisperer concluíram tarefas 57%
disponíveis no momento. Isso inclui a família Jurassic-2 de grandes modelos mais depressa, em média, e tiveram 27% maior probabilidade de concluí-las
de linguagem (LLMs) do AI21 Labs, que seguem instruções de linguagem com êxito do que aqueles que não o usaram. Esse é um grande avanço na
natural para gerar texto em espanhol, francês, alemão, português, italiano produtividade dos desenvolvedores, e acreditamos que seja apenas o começo.
e holandês. O Claude, LLM da Anthropic para diálogo ponderado, criação de Além disso, o CodeWhisperer é gratuito para desenvolvedores individuais,
conteúdo, raciocínio complexo, criatividade e codificação, pode executar uma assim é fácil começar a usá-lo.

8
2.º P R I N CÍPIO

Operacionalizar
Com o rápido crescimento da adoção da IA, equipes técnicas e de negócios gerenciamento de projetos, que podem ser conectadas com segurança. Essa
são desafiadas a criar mais. Nessa corrida para aproveitar as tecnologias, realidade complica o gerenciamento entre equipes de analistas de negócios,
as organizações raramente param para definir ferramentas e processos desenvolvedores e cientistas de dados e em coordenação com ferramentas
padrão para o desenvolvimento de ML. Como resultado, equipes diferentes e processos de software existentes. Nesses cenários comuns, aumentar ou
com habilidades e requisitos diferentes costumam usar ferramentas muito diminuir a escala torna-se extremamente difícil.
distintas e desconectadas, tornando a colaboração impraticável, se não
A boa notícia é que existe uma maneira comprovada de minimizar os riscos e
impossível.
as complicações do ML, ao mesmo tempo que se fornecem práticas diretas e
Por exemplo, uma equipe de P&D pode trabalhar em uma aplicação de visão repetíveis para as equipes: trata-se de operacionalizar o ML.
computacional (CV) com algoritmos e estruturas de última geração, enquanto
A operacionalização do ML concede ferramentas, infraestrutura e suporte de
as equipes de vendas e marketing constroem um modelo de regressão linear
operações para escalar. Ela começa com as atividades de aquisição e modelagem
para prever a demanda do cliente em uma planilha armazenada localmente.
de dados da equipe de ciência de dados, que pauta suas decisões por uma
Ou os desenvolvedores podem programar um aplicativo móvel de compras
compreensão clara dos objetivos de negócios da aplicação de ML e de todos os
e adicionar um mecanismo de recomendação para tornar a experiência do
problemas de governança e conformidade. O MLOps garante que as equipes
cliente mais pessoal.
de ciência de dados, produção e operações trabalhem perfeitamente juntas em
Relativamente poucas organizações utilizam ferramentas e práticas uma série de fluxos de trabalho de ML tão automatizados quanto possível. A
operacionais de ML, como infraestrutura, IDEs, depuradores, criadores de intervenção humana é incorporada conforme necessário, garantindo implantações
perfil, ferramentas de colaboração, fluxos de trabalho e ferramentas de tranquilas, monitoramento de dados e rastreamento de performance do modelo.

9
Como a AWS ajuda os clientes a operacionalizar o machine learning
O Amazon SageMaker, que já sabemos ser um serviço poderoso para ajudar a democratizar o ML,
é igualmente adequado para operacionalização. Ele automatiza e padroniza cada etapa do fluxo
de trabalho de MLOps para ajudar os projetos a serem dimensionados sem limites. Graças ao
SageMaker, os clientes da AWS estão executando milhões de modelos com bilhões de parâmetros e “Estar na [Nuvem] AWS nos
gerando centenas de bilhões de previsões. permite alcançar um processo de
O SageMaker também oferece um serviço de ML de ponta a ponta para rotulagem de dados,
desenvolvimento mais rápido.”
preparação de dados, engenharia de atributos, treinamento, hospedagem, monitoramento e fluxos Kenji Takeuchi, vice-presidente sênior de soluções
de trabalho. Todos eles podem ser acessados usando uma única inferência visual no Amazon de tecnologia da Mueller Water Products, 2021
SageMaker Studio. Em comparação com ambientes de ML autogerenciados, a produtividade
da equipe de ciência de dados pode melhorar em até dez vezes e o tempo de desenvolvimento
do modelo pode ser reduzido de meses para semanas. E todos os recursos do SageMaker são
oferecidos em infraestrutura totalmente gerenciada, de baixo custo e alta performance na nuvem. Leia mais ›

Os clientes da AWS estão obtendo grande escala (e economia) com as ferramentas do SageMaker:

• Vanguard: automatizou totalmente a configuração de seus ambientes de ML e agora implanta


modelos de ML 20 vezes mais rápido.
• AstraZeneca: pode implantar novos ambientes de ML em cinco minutos (anteriormente um mês)
para gerar insights que melhoram a P&D e aceleram a comercialização de novas terapias.
• NerdWallet: reduziu os custos de treinamento em cerca de 75%, mesmo aumentando o número
de modelos treinados.
• Zendesk: reduziu os custos de inferência de ML em 90% ao implantar milhares de modelos por
endpoint usando os endpoints multimodelo do SageMaker.
• Mueller Water Products: reduziu o número de alertas falsos pela metade e maximizou a
identificação de eventos de vazamento verdadeiros.

A operacionalização também implica que precisamos fornecer a variedade e a especificidade dos


casos de uso de IA, incluindo centrais de atendimento inteligentes, processamento de documentos
inteligente (IDP), moderação de conteúdo, personalização, pesquisa inteligente, prevenção de fraudes,
verificação de identidade, manutenção preditiva, IA para DevOps, IA na saúde e business intelligence
(BI) baseada em ML. A AWS oferece serviços para todos esses casos de uso e muito mais.

10
3.º P R I N CÍPIO

Ganhar confiança
É essencial que as organizações ganhem a confiança de seus clientes, parceiros e partes interessadas
internas em relação ao uso da IA generativa. Para criar e manter essa confiança, as organizações
precisam fazer investimentos e ponderar sobre IA responsável, segurança e privacidade.

IA responsável
À medida que a IA generativa continua crescendo e se desenvolvendo, a adoção de princípios de IA
responsável se tornará cada vez mais crucial para se ganhar confiança e equilibrar possível inovação
e riscos emergentes. Abrangendo um conjunto central de conceitos (equidade, explicabilidade,
robustez, segurança e privacidade, transparência e, por fim, governança), a IA responsável mitiga
os riscos por meio do uso transparente de dados e modelos. Ela pode ser usada para aprimorar a
performance do modelo, aperfeiçoar a proteção de dados e estabelecer mecanismos de detecção e
mitigação de vieses em sistemas de ML para melhorar a equidade.

“94% (das empresas) estão lutando para operacionalizar todos os


elementos-chave da IA responsável.”
Accenture, 2022

A IA responsável é parte integrante do ciclo de vida completo de IA, estendendo-se desde o design inicial,
o desenvolvimento e a infraestrutura segura até a implantação e, em última análise, o uso contínuo.
Trata-se de um processo iterativo que requer testes e auditorias contínuos para possíveis vieses e precisão.
Embora a maioria das empresas tenha iniciado sua jornada para a IA responsável, a maioria (94%) também
está lutando para operacionalizar todos os principais elementos da IA responsável.3

Então, como as organizações colocam a IA responsável da teoria em prática? Elas começam


educando a próxima geração de líderes de ML para aumentar a equidade e mitigar o viés. Para
isso, trazem perspectivas mais diversas, fornecem recursos para promover educação e treinamento
e garantem a proteção de dados e privacidade. A IA responsável também exige um esforço
multidisciplinar de empresas de tecnologia, formuladores de políticas, grupos comunitários,
cientistas e muito mais para enfrentar novos desafios, à medida que surgem, e trabalhar para
compartilhar as melhores práticas e acelerar a pesquisa.

“From AI compliance to competitive advantage”, Accenture, junho de 2022


11
3
Crie uma IA mais responsável,
segura e privativa com a AWS

Segurança e privacidade detecta e emite automaticamente alertas quando modelos implantados na


produção geram previsões imprecisas.
A privacidade e a segurança dos dados também são essenciais para escalar a
IA generativa com responsabilidade. Quando for o momento de personalizar Para aprimorar a governança, o SageMaker fornece ferramentas com propósito
e ajustar um modelo, as organizações precisarão saber onde e como seus específico, incluindo o Gerenciador de Perfis, os Cartões de Modelos e o Painel
dados estão sendo utilizados. Elas precisam ter confiança de que seus dados de Modelos, que oferecem controle rigoroso e maior visibilidade de modelos de
protegidos ou sua propriedade intelectual não estão sendo usados para treinar ML. Os clientes da AWS podem configurar usuários com permissões baseadas no
um modelo público e que os dados dos clientes permanecem privados. As privilégio mínimo em poucos minutos; capturar, recuperar e compartilhar com
organizações precisam que segurança, escalabilidade e privacidade sejam facilidade informações de modelos essenciais; e se manter informados sobre o
incorporadas desde o início para serem viáveis em suas aplicações de negócios. comportamento do modelo, como o viés, tudo em um só lugar.

Tenha proteções com propósito específico usando o Aprimore a segurança e a privacidade com o Amazon
Amazon SageMaker Bedrock

À medida que as organizações escalam o uso de tecnologias de IA, podem Quando os clientes usam o Amazon Bedrock para personalizar um modelo, esse
aproveitar os recursos da AWS para ajudar a implementar a IA responsável em serviço pode ajustá-lo para uma determinada tarefa sem precisar anotar grandes
todo o ciclo de vida de ML. volumes de dados. Em seguida, o Bedrock cria uma cópia separada do FM base
que pode ser acessada somente pelo cliente e treina a cópia privada do modelo.
As organizações podem mitigar o viés e melhorar a explicabilidade com os
serviços de propósito específico da AWS. O Amazon SageMaker Clarify ajuda Os clientes da AWS também podem definir as configurações do Amazon
a mitigar o viés em todo o ciclo de vida de ML. Para isso, ele examina atributos Virtual Private Cloud para acessar as APIs do Bedrock e fornecer dados de
específicos e, assim, detecta possíveis vieses durante a preparação de dados, modelo ajustados de uma maneira segura. Os dados dos clientes são sempre
após o treinamento do modelo e no modelo implantado. criptografados em trânsito (TLS1.2) e em repouso por meio das chaves
gerenciadas pelo serviço.
O monitoramento também é importante para manter modelos de ML de alta
qualidade e garantir previsões precisas. O Amazon SageMaker Model Monitor

12
A AWS leva em consideração a IA responsável em todos os estágios de
seu amplo processo de desenvolvimento do modelo de base (FM). Por
meio do design, do desenvolvimento, da implantação e da operação
do FM, consideramos:

Recursos
Precisão Equidade
Ouça um Amazon Scholar
discutir os desafios
crescentes e as soluções
para criar IA generativa com
Propriedade intelectual Uso apropriado responsabilidade ›
e direitos autorais

Saiba mais sobre os novos


compromissos da Casa Branca,
de organizações tecnológicas
Toxicidade Privacidade e da comunidade de IA para
promover o uso seguro e
responsável de AI ›

Para resolver esses problemas, incorporamos soluções em nossos processos para adquirir
dados de treinamento nos FMs em si e na tecnologia que usamos para pré-processamento de
solicitações do usuário e pós-processamento de saídas. Investimos ativamente em todos os
nossos FMs para melhorar nossos recursos e aprender com os clientes à medida que eles fazem
experimentos com novos casos de uso.

13
Confira três recursos essenciais para ter uma IA mais responsável:

1. O guia Responsible Use of Machine Learning 2. A educação contínua sobre os mais recentes 3. Os Cartões de Serviços de IA da AWS
apresenta considerações e recomendações desenvolvimentos em ML é uma parte oferecem transparência, bem como
para desenvolver e usar sistemas de ML com importante do uso responsável. A AWS oferece documentam casos de uso planejados e
responsabilidade em três fases principais de o que há de mais moderno no ensino de ML considerações sobre equidade para os serviços
seus ciclos de vida: 1) design e desenvolvimento, para a jornada de aprendizado por meio de de IA da AWS. Explore os Cartões de Serviços
2) implantação e 3) uso contínuo. Saiba mais › programas como o curso de equidade e viés de IA: correspondência facial do Amazon
da AWS Machine Learning University (MLU), Rekognition, Amazon Textract AnalyzeID e
o Programa de Treinamento e Certificação Amazon Transcribe – Lote (inglês dos EUA).
e o Programa de Bolsas de IA e ML.

A AWS está comprometida com o desenvolvimento contínuo de AI


e ML de maneira responsável.

Saiba mais ›

14
Resultados positivos começam aqui Desde as maiores empresas
Mais de cem mil organizações escolheram a AWS para IA a fim de criar experiências para o cliente,
do mundo até startups
otimizar os negócios, aumentar a criatividade de seus funcionários, ajudar a melhorar a qualidade emergentes, mais IA é
de seus produtos e muito mais. Isso porque a AWS oferece suporte a você em qualquer estágio de desenvolvida na AWS do que
sua jornada de ML, com as soluções necessárias para escalar sem limites. em qualquer outro lugar.

Fale com os especialistas da AWS

• AWS Professional Services: uma equipe global de especialistas que podem ajudar você a obter Saiba mais sobre como sua
os resultados empresariais desejados em relação à Nuvem AWS. empresa pode fornecer
• O Centro de Inovação para IA Generativa da AWS conecta você a especialistas em IA e ML da resultados positivos de IA e ML ›
AWS, ajudando a imaginar, criar e lançar novos produtos, serviços e processos de IA generativa

Colabore com um parceiro oficial da AWS

• Parceiros da AWS: encontram-se numa posição privilegiada para ajudar os clientes da AWS a
acelerar a jornada para a Nuvem AWS.

Construa você mesmo com soluções comprovadas

• Explorador de Casos de Uso de IA: ajuda você a descobrir os principais casos de uso de IA,
histórias de clientes e caminhos de implementação com base em seus objetivos de negócios.
• Biblioteca de Soluções da AWS: oferece soluções criadas pela AWS e seus parceiros para uma
ampla variedade de casos de uso.
• Serviços de IA da AWS: permitem adicionar inteligência facilmente às aplicações, sem
necessidade de habilidades de ML.
• Amazon SageMaker: capacita os usuários a criar, treinar e implantar modelos de ML para qualquer
caso de uso com infraestrutura, ferramentas e fluxos de trabalho totalmente gerenciados.
• Por meio de uma API, o Amazon Bedrock torna acessíveis os FMs da Amazon e das principais
startups de IA, como AI21 Labs, Anthropic, Cohere e Stability AI.

© 2023, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.
15

Você também pode gostar