A inteligência artificial está transformando nosso mundo
— é de todos nós garantir que tudo corra bem
Como a IA é construída é atualmente é uma decisão tomada por um pequeno grupo de
tecnólogos. Como essa tecnologia está transformando nossas vidas, deve ser do nosso interesse ficarmos informados e engajados.
Por Lucas Castro
Por que você deveria se importar com o desenvolvimento da inteligência
artificial? Pense em como seria a alternativa. Se você e o público em geral não se informarem e se envolverem, deixaremos para alguns empreendedores e engenheiros decidirem como essa tecnologia transformará nosso mundo. Esse é o status quo. Esse pequeno número de pessoas em algumas empresas de tecnologia que trabalham diretamente em inteligência artificial (IA) entendem o quão extraordinariamente poderosa essa tecnologia está se tornando. Se o resto da sociedade não se envolver, então será essa pequena elite que decidirá como essa tecnologia mudará nossas vidas. Para mudar esse status quo, quero responder a três perguntas neste artigo: Por que é difícil levar a sério a perspectiva de um mundo transformado pela IA? Como podemos imaginar um mundo assim? E o que está em jogo à medida que essa tecnologia se torna mais poderosa? Por que é difícil levar a sério a perspectiva de um mundo transformado pela inteligência artificial? De alguma forma, deve ser óbvio como a tecnologia pode transformar fundamentalmente o mundo. Só temos que ver o quanto o mundo já mudou. Se você pudesse convidar uma família de caçadores-coletores de 20.000 anos atrás para o seu próximo voo, eles ficariam muito surpresos. A tecnologia já mudou nosso mundo, então devemos esperar que isso possa acontecer novamente. Mas, embora tenhamos visto o mundo se transformar antes, vimos essas transformações acontecerem ao longo de gerações. O que é diferente agora é o quão rápidas essas mudanças tecnológicas se tornaram. No passado, as tecnologias que nossos ancestrais usavam em sua infância ainda eram centrais para suas vidas na velhice. Este não tem sido mais o caso nas gerações recentes. Em vez disso, tornou-se comum que as tecnologias inimagináveis na juventude se tornem comuns mais tarde na vida. Esta é a primeira razão pela qual podemos não levar a perspectiva a sério: é fácil subestimar a velocidade com que a tecnologia pode mudar o mundo. A segunda razão pela qual é difícil levar a sério a possibilidade de IA transformadora - potencialmente até mesmo IA tão inteligente quanto os humanos - é que é uma ideia que ouvimos pela primeira vez no cinema. Não é de surpreender que, para muitos de nós, a primeira reação a um cenário em que as máquinas têm capacidades humanas seja a mesma de se você tivesse nos pedido para levar a sério um futuro em que vampiros, lobisomens ou zumbis vagueiam pelo planeta. Mas, é plausível que seja tanto o material da fantasia de ficção científica quanto a invenção central que possa chegar em nossas vidas, ou em nossas vidas de nossos filhos. A terceira razão pela qual é difícil levar essa perspectiva a sério é por não ver que a IA poderosa pode levar a mudanças muito grandes. Isso também é compreensível. É difícil formar uma ideia de um futuro que seja muito diferente do nosso próprio tempo. Há dois conceitos que acho úteis para imaginar um futuro muito diferente com inteligência artificial. Vamos dar uma olhada nos dois. Como desenvolver uma ideia de como pode ser o futuro da inteligência artificial? Ao pensar no futuro da inteligência artificial, acho útil considerar dois conceitos diferentes em particular: IA de nível humano e IA transformadora. O primeiro conceito destaca as capacidades da IA e as ancora a uma referência familiar, enquanto a IA transformadora enfatiza o impacto que essa tecnologia teria no mundo. De onde estamos hoje, muito disso pode soar como ficção científica. Portanto, vale a pena ter em mente que a maioria dos especialistas em IA pesquisados acreditam que há uma chance real de que a inteligência artificial em nível humano seja desenvolvida nas próximas décadas, e alguns acreditam que ela existirá muito mais cedo.
As vantagens e desvantagens de comparar a máquina e a inteligência humana
Uma maneira de pensar sobre a inteligência artificial em nível humano é contrastá-la
com o estado atual da tecnologia de IA. Embora os sistemas de IA de hoje muitas vezes tenham capacidades semelhantes a uma parte específica e limitada da mente humana, uma IA de nível humano seria uma máquina capaz de realizar a mesma gama de tarefas intelectuais de que nós, humanos, somos capazes. É uma máquina que seria “capaz de aprender a fazer qualquer coisa que um ser humano possa fazer”, como Norvig e Russell colocaram em seu livro. Em conjunto, a gama de habilidades que caracterizam a inteligência dá aos humanos a capacidade de resolver problemas e alcançar uma ampla variedade de objetivos. Uma IA em nível humano seria, portanto, um sistema que poderia resolver todos os problemas que nós, humanos, podemos resolver e fazer as tarefas que os humanos fazem hoje. Tal máquina, ou coletivo de máquinas, seria capaz de fazer o trabalho de um tradutor, um contador, um ilustrador, um professor, um terapeuta, um motorista de caminhão ou o trabalho de um comerciante nos mercados financeiros mundiais. Como nós, também seria capaz de fazer pesquisa e ciência, e desenvolver novas tecnologias com base nisso. O conceito de IA em nível humano tem algumas vantagens claras. Usar a familiaridade de nossa própria inteligência, como referência nos fornece algumas orientações claras sobre como imaginar as capacidades dessa tecnologia. No entanto, também tem desvantagens claras. Ancorar a imaginação dos futuros sistemas de IA à realidade familiar da inteligência humana acarreta o risco de obscurecer as diferenças muito reais entre eles. Algumas dessas diferenças são óbvias. Por exemplo, os sistemas de IA terão a imensa memória dos sistemas de computador, contra os quais nossa própria capacidade de armazenar informações empalidecem. Outra diferença óbvia é a velocidade com que uma máquina pode absorver e processar informações. Mas o armazenamento de informações e a velocidade de processamento não são as únicas diferenças. Os domínios em que as máquinas já superam os humanos estão aumentando constantemente: no xadrez, depois de corresponder ao nível dos melhores jogadores humanos no final dos anos 90, os sistemas de IA atingiram níveis sobre-humanos há mais de uma década. Em outros jogos como Go ou jogos de estratégia complexos, isso aconteceu mais recentemente. Essas diferenças significam que uma IA que é pelo menos tão boa quanto os humanos em todos os domínios seriam, no geral, muito mais poderosa do que a mente humana. Mesmo a primeira “AI de nível humano” seria, portanto, bastante sobre- humana em muitos aspectos. A inteligência humana também é uma má metáfora para a inteligência de máquina de outras maneiras. A maneira como pensamos é muitas vezes muito diferente das máquinas e, como consequência, a saída das máquinas pensantes pode ser muito estranha para nós. O mais desconcertante e mais preocupante são as maneiras estranhas e inesperadas pelas quais a inteligência de máquina pode falhar. A imagem gerada pela IA do cavalo abaixo fornece um exemplo: por um lado, as IAs podem fazer o que nenhum humano pode fazer - produzir uma imagem de qualquer coisa, em qualquer estilo (aqui fotorrealista), em meros segundos - mas, por outro lado, pode falhar de maneiras que nenhum humano falharia. Nenhum humano cometeria o erro de desenhar um cavalo com cinco pernas. Imaginar uma IA futura poderosa como apenas mais um ser humano provavelmente seria um erro. As diferenças podem ser tão grandes que será um erro chamar tais sistemas de "nível humano". Imagem gerada por IA de um cavalo
A inteligência artificial transformadora é definida pelo impacto que essa
tecnologia teria no mundo Em contraste, o conceito de IA transformadora não é baseado em uma comparação com a inteligência humana. Isso tem a vantagem de evitar os problemas que as comparações com nossa própria mente trazem. Mas tem a desvantagem de que é mais difícil imaginar como seria e seria capaz de tal sistema. Requer mais de nós. Isso exige que imaginemos um mundo com atores inteligentes que são potencialmente muito diferentes de nós mesmos. A IA transformadora não é definida por nenhum recurso específico, mas pelo impacto do mundo real que a IA teria. Para se qualificar como transformador, os pesquisadores pensam nisso como uma IA que é “poderosa o suficiente para nos trazer para um futuro novo e qualitativamente diferente”. Na história, houve dois casos de tais grandes transformações, as revoluções agrícolas e industriais. A IA transformadora se tornando realidade seria um evento nessa escala. Como a chegada da agricultura há 10.000 anos, ou a transição da fabricação manual para a fabricação de máquinas, seria um evento que mudaria o mundo para bilhões de pessoas em todo o mundo e para toda a trajetória do futuro da humanidade. Tecnologias que mudam fundamentalmente a forma como uma ampla gama de bens ou serviços é produzida são chamadas de "tecnologias de uso geral". Os dois eventos transformadores anteriores foram causados pela descoberta de duas tecnologias de uso geral particularmente significativas: a mudança na produção de alimentos à medida que a humanidade fazia a transição da caça e da coleta para a agricultura, e o aumento da fabricação de máquinas na revolução industrial. Com base nas evidências e argumentos apresentados nesta série sobre o desenvolvimento de IA, acredito que é plausível que a poderosa IA possa representar a introdução de uma tecnologia de uso geral igualmente significativa.
Linha do tempo dos três eventos transformadores da história mundial
Um futuro de nível humano ou IA transformadora?
Os dois conceitos estão intimamente relacionados, mas não são os mesmos. A criação de uma IA em nível humano certamente teria um impacto transformador em nosso mundo. Se o trabalho da maioria dos seres humanos pudesse ser realizado por uma IA, a vida de milhões de pessoas mudaria. O oposto, no entanto, não é verdade: podemos ver a IA transformadora sem desenvolver a IA em nível humano. Como a mente humana é, em muitos aspectos, uma má metáfora para a inteligência das máquinas, podemos provavelmente desenvolver IA transformadora antes de desenvolvermos IA em nível humano. Dependendo de como isso acontece, isso pode significar que nunca veremos nenhuma inteligência de máquina para a qual a inteligência humana seja uma comparação útil. Quando e se os sistemas de IA podem atingir qualquer um desses níveis é, é claro, difícil de prever. No meu artigo complementar sobre essa questão, dou uma visão geral do que os pesquisadores desse campo acreditam atualmente. Muitos especialistas em IA acreditam que há uma chance real de que tais sistemas sejam desenvolvidos nas próximas décadas, e alguns acreditam que eles existirão muito mais cedo. O que está em jogo à medida que a inteligência artificial se torna mais poderosa? Todas as principais inovações tecnológicas levam a uma série de consequências positivas e negativas. Para a IA, o espectro de resultados possíveis - do mais negativo ao mais positivo - é extraordinariamente amplo. Que o uso da tecnologia de IA pode causar danos é claro, porque já está acontecendo. Os sistemas de IA podem causar danos quando as pessoas os usam maliciosamente. Por exemplo, quando eles são usados em campanhas de desinformação politicamente motivadas ou para permitir a vigilância em massa. Mas os sistemas de IA também podem causar danos não intencionais, quando agem de forma diferente do pretendido ou falham. Por exemplo, na Holanda, as autoridades usaram um sistema de IA que alegou falsamente que cerca de 26.000 pais fizeram reivindicações fraudulentas de benefícios de cuidados infantis. As falsas alegações levaram a dificuldades para muitas famílias pobres e também resultaram na renúncia do governo holandês em 2021 À medida que a IA se torna mais poderosa, os possíveis impactos negativos podem se tornar muito maiores. Muitos desses riscos receberam justamente a atenção do público: uma IA mais poderosa poderia levar ao deslocamento em massa de mão-de-obra ou concentrações extremas de poder e riqueza. Nas mãos de autocratas, poderia capacitar o totalitarismo através de sua adequação para vigilância e controle em massa. O chamado problema de alinhamento da IA é outro risco extremo. Esta é a preocupação de que ninguém seria capaz de controlar um poderoso sistema de IA, mesmo que a IA tome ações que nos prejudiquem humanos, ou à humanidade como um todo. Infelizmente, esse risco está recebendo pouca atenção do público em geral, mas é visto como um risco extremamente grande por muitos dos principais pesquisadores de IA. Como uma IA poderia escapar do controle humano e acabar prejudicando os humanos? O risco não é que uma IA se torne autoconsciente, desenvolva más intenções e “escolha” fazer isso. O risco é que tentamos instruir a IA a perseguir algum objetivo específico - mesmo um que valha muito a pena - e, na busca desse objetivo, acaba prejudicando os seres humanos. É sobre consequências não intencionais. A IA faz o que lhe dissemos para fazer, mas não o que queríamos que fizesse. Não podemos simplesmente dizer à IA para não fazer essas coisas? É definitivamente possível construir uma IA que evite qualquer problema específico que prevemos, mas é difícil prever todas as possíveis consequências prejudiciais não intencionais. O problema de alinhamento surge por causa da “impossibilidade de definir verdadeiros propósitos humanos de forma correta e completa”, como diz o pesquisador de IA Stuart Russell. Não podemos simplesmente desligar a IA? Isso também pode não ser possível. Isso ocorre porque uma IA poderosa saberia duas coisas: ela enfrenta o risco de que os humanos possam desligá-la e não pode atingir seus objetivos depois de desligá-la. Como consequência, a IA perseguirá um objetivo muito fundamental de garantir que não seja desligada. É por isso que, uma vez que percebemos que uma IA extremamente inteligente está causando danos não intencionais na busca de algum objetivo específico, pode não ser possível desligá-la ou mudar o que o sistema faz. Esse risco - de que a humanidade possa não ser capaz de permanecer no controle quando a IA se tornar muito poderosa, e que isso possa levar a uma catástrofe extrema - foi reconhecido desde os primeiros dias da pesquisa de IA há mais de 70 anos. O desenvolvimento muito rápido da IA nos últimos anos tornou uma solução para esse problema muito mais urgente. Tentei resumir alguns dos riscos da IA, mas um pequeno artigo não é espaço suficiente para abordar todas as questões possíveis. Especialmente sobre os piores riscos dos sistemas de IA, e o que podemos fazer agora para reduzi-los, recomendo a leitura do livro The Alignment Problem, do artigo de Brian Christian e Benjamin Hilton Preventing an AI-related catastrophe. Se conseguirmos evitar esses riscos, a IA transformadora também pode levar a consequências muito positivas. Os avanços na ciência e na tecnologia foram cruciais para os muitos desenvolvimentos positivos na história da humanidade. Se a engenhosidade artificial pode aumentar a nossa, ela pode nos ajudar a progredir nos muitos grandes problemas que enfrentamos: desde energia mais limpa, até a substituição de trabalho desagradável, até cuidados de saúde muito melhores. Esse contraste extremamente grande entre os possíveis positivos e negativos deixa claro que as apostas são excepcionalmente altas com essa tecnologia. Reduzir os riscos negativos e resolver o problema do alinhamento pode significar a diferença entre um futuro saudável, florescente e rico para a humanidade - e a destruição do mesmo. Como podemos garantir que o desenvolvimento da IA corra bem? Garantir que o desenvolvimento da inteligência artificial corra bem não é apenas uma das questões mais cruciais do nosso tempo, mas provavelmente uma das questões mais cruciais da história humana. Isso precisa de recursos públicos - financiamento público, atenção pública e engajamento público. Atualmente, quase todos os recursos dedicados à IA visam acelerar o desenvolvimento dessa tecnologia. Esforços que visam aumentar a segurança dos sistemas de IA, por outro lado, não recebem os recursos de que precisam. O pesquisador Toby Ord estimou que em 2020 entre US$ 10 e US$ 50 milhões foram gastos em trabalho para resolver o problema de alinhamento. O investimento corporativo em IA no mesmo ano foi mais de 2000 vezes maior, somando US$ 125 bilhões. Este não é apenas o caso do problema de alinhamento de IA. O trabalho em toda a gama de consequências sociais negativas da IA tem poucos recursos em comparação com os grandes investimentos para aumentar o poder e o uso dos sistemas de IA. É frustrante e preocupante para a sociedade como um todo que o trabalho de segurança de IA seja extremamente negligenciado e que pouco financiamento público seja dedicado a esse campo crucial de pesquisa. Por outro lado, para cada pessoa individual, essa negligência significa que ela tem uma boa chance de realmente fazer uma diferença positiva, se ela se dedicar a esse problema agora. E embora o campo da segurança da IA seja pequeno, ele fornece bons recursos sobre o que você pode fazer concretamente se quiser trabalhar nesse problema. Espero que mais pessoas dediquem suas carreiras individuais a essa causa, mas ela precisa de mais do que esforços individuais. Uma tecnologia que está transformando nossa sociedade precisa ser um interesse central de todos nós. Como sociedade, temos que pensar mais sobre o impacto social da IA, nos tornar conhecedor da tecnologia e entender o que está em jogo. Quando nossos filhos olham para trás hoje, imagino que eles acharão difícil entender a pouca atenção e recursos que dedicamos ao desenvolvimento de IA segura. Espero que isso mude nos próximos anos e que comecemos a dedicar mais recursos para garantir que a IA poderosa seja desenvolvida de uma maneira que nos beneficie a nós e às próximas gerações. Se não conseguirmos desenvolver esse entendimento amplo, então continuará sendo a pequena elite que financia e constrói essa tecnologia que determinará como uma das - ou plausivelmente a - tecnologia mais poderosa da história humana transformará nosso mundo.