Você está na página 1de 25

Singularidade tecnológica

en.wikipedia.org / wiki / Technological_singularity

"The Singularity" redireciona aqui. Para outros usos, consulte Singularidade


(desambiguação) .
A singularidade tecnológica - também, simplesmente, a singularidade [1] - é um ponto
hipotético no tempo em que o crescimento tecnológico se torna incontrolável e
irreversível, resultando em mudanças imprevisíveis na civilização humana. [2] [3] De
acordo com a versão mais popular da hipótese da singularidade, chamada explosão de
inteligência , um agente inteligente atualizável acabará entrando em uma "reação
descontrolada" de ciclos de autoaperfeiçoamento, cada geração nova e mais inteligente
aparecendo cada vez mais rapidamente , causando uma "explosão" na inteligência e
resultando em uma poderosa superinteligência que ultrapassa qualitativamente todas
asinteligência humana .

O primeiro a usar o conceito de "singularidade" no contexto tecnológico foi John von


Neumann . [4] Stanislaw Ulam relata uma discussão com von Neumann "centrada no
progresso acelerado da tecnologia e mudanças no modo de vida humana, o que dá a
aparência de se aproximar de alguma singularidade essencial na história da raça além da
qual os assuntos humanos, como nós conhecê-los, não poderia continuar ". [5] Autores
subsequentes seguiram esse ponto de vista. [3] [6]

O modelo de "explosão de inteligência" de IJ Good prevê que uma futura


superinteligência desencadeará uma singularidade. [7]

O conceito e o termo "singularidade" foram popularizados por Vernor Vinge em seu


ensaio de 1993 The Coming Technological Singularity , no qual ele escreveu que marcaria
o fim da era humana, pois a nova superinteligência continuaria a se atualizar e avançaria
tecnologicamente a uma taxa incompreensível. Ele escreveu que ficaria surpreso se
ocorresse antes de 2005 ou depois de 2030. [7]

Figuras públicas como Stephen Hawking e Elon Musk expressaram preocupação de que
a inteligência artificial total (IA) pudesse resultar na extinção humana. [8] [9] As
consequências da singularidade e seu potencial benefício ou dano à raça humana têm
sido intensamente debatidas.

Quatro pesquisas de pesquisadores de IA, conduzidas em 2012 e 2013 por Nick Bostrom
e Vincent C. Müller , sugeriram uma estimativa de probabilidade média de 50% de que a
inteligência geral artificial (AGI) seria desenvolvida até 2040-2050. [10] [11]

Fundo
Embora o progresso tecnológico esteja se acelerando na maioria das áreas (embora
diminuindo em algumas), ele tem sido limitado pela inteligência básica do cérebro
humano, que não mudou significativamente , de acordo com Paul R. Ehrlich , por
milênios. [12] No entanto, com o crescente poder dos computadores e outras tecnologias,
pode eventualmente ser possível construir uma máquina que seja significativamente
mais inteligente do que os humanos. [13]

Se uma inteligência sobre-humana fosse inventada - seja por meio da amplificação da


inteligência humana ou por meio da inteligência artificial - ela traria maiores habilidades
de resolução de problemas e inventivas do que os humanos atuais são capazes. Tal AI é
referido como Semente AI [14] [15]porque se uma IA fosse criada com recursos de
engenharia iguais ou superiores aos de seus criadores humanos, ela teria o potencial de
melhorar autonomamente seu próprio software e hardware ou projetar uma máquina
ainda mais capaz. Essa máquina mais capaz poderia então projetar uma máquina com
capacidade ainda maior. Essas iterações de autoaperfeiçoamento recursivo podem
acelerar, permitindo potencialmente uma enorme mudança qualitativa antes de
quaisquer limites superiores impostos pelas leis da física ou computação teórica.
Especula-se que, ao longo de muitas iterações, tal IA ultrapassaria em muito as
habilidades cognitivas humanas .

Explosão de inteligência
A explosão de inteligência é um resultado possível da construção da inteligência geral
artificial (AGI) da humanidade . O AGI pode ser capaz de autoaperfeiçoamento recursivo,
levando ao rápido surgimento da superinteligência artificial (ASI), cujos limites são
desconhecidos, logo após o alcance da singularidade tecnológica.

IJ Good especulou em 1965 que a inteligência artificial geral poderia causar uma
explosão de inteligência. Ele especulou sobre os efeitos das máquinas sobre-humanas,
caso elas algum dia fossem inventadas: [16]

Deixe uma máquina ultrainteligente ser definida como uma máquina que pode
superar em muito todas as atividades intelectuais de qualquer homem, por mais
inteligente que seja. Visto que o projeto de máquinas é uma dessas atividades
intelectuais, uma máquina ultrainteligente poderia projetar máquinas ainda
melhores; então, sem dúvida, haveria uma 'explosão de inteligência', e a inteligência
do homem ficaria para trás. Assim, a primeira máquina ultrainteligente é a última
invenção que o homem precisa fazer, desde que seja dócil o suficiente para nos
dizer como mantê-la sob controle.

Outras manifestações

Emergência de superinteligência

Mais informações: Superinteligência


Uma superinteligência, hiperinteligência ou inteligência sobre-humana é um agente
hipotético que possui uma inteligência muito superior à das mentes humanas mais
brilhantes e talentosas. "Superinteligência" também pode se referir à forma ou grau de
inteligência possuída por tal agente. John von Neumann , Vernor Vinge e Ray Kurzweil
definem o conceito em termos da criação tecnológica da superinteligência,
argumentando que é difícil ou impossível para os humanos de hoje prever como seriam
as vidas dos seres humanos em um mundo pós-singularidade . [7] [17]

Os meteorologistas e pesquisadores de tecnologia discordam sobre quando, ou se, a


inteligência humana provavelmente será superada. Alguns argumentam que os avanços
na inteligência artificial (IA) provavelmente resultarão em sistemas de raciocínio geral
sem limitações cognitivas humanas. Outros acreditam que os humanos irão evoluir ou
modificar diretamente sua biologia para alcançar uma inteligência radicalmente maior.
Uma série de cenários de estudos futuros combinam elementos de ambas as
possibilidades, sugerindo que os humanos provavelmente farão interface com
computadores , ou enviarão suas mentes para computadores , de uma forma que
permita uma amplificação substancial da inteligência.

Singularidade não AI

Alguns escritores usam "a singularidade" de uma maneira mais ampla para se referir a
quaisquer mudanças radicais em nossa sociedade provocadas por novas tecnologias,
como a nanotecnologia molecular , [18] [19] [20] embora Vinge e outros escritores afirmem
especificamente que, sem superinteligência, tais mudanças não seriam qualificadas
como uma verdadeira singularidade. [7]

Superinteligência de velocidade
Uma superinteligência de velocidade descreve uma IA que pode fazer tudo o que um ser
humano pode fazer, onde a única diferença é que a máquina funciona mais rápido. [21]
Por exemplo, com um aumento de um milhão de vezes na velocidade de processamento
de informações em relação aos humanos, um ano subjetivo passaria em 30 segundos
físicos. [22] Essa diferença na velocidade de processamento da informação pode
conduzir à singularidade. [23]

Plausibilidade
Muitos tecnólogos e acadêmicos proeminentes contestam a plausibilidade de uma
singularidade tecnológica, incluindo Paul Allen , Jeff Hawkins , John Holland , Jaron
Lanier e Gordon Moore , cuja lei é freqüentemente citada em apoio ao conceito. [24] [25] [26]

A maioria dos métodos propostos para a criação de mentes sobre-humanas ou trans-


humanas se enquadra em uma de duas categorias: amplificação da inteligência do
cérebro humano e inteligência artificial. As muitas maneiras especuladas de aumentar a
inteligência humana incluem bioengenharia , engenharia genética , drogas nootrópicas ,
assistentes de IA, interfaces diretas cérebro-computador e upload mental . Esses
múltiplos caminhos para uma explosão de inteligência tornam uma singularidade mais
provável, pois todos eles teriam que falhar para que uma singularidade não ocorresse. [22]
Robin Hanson expressou ceticismo em relação ao aumento da inteligência humana,
escrevendo que uma vez que os "frutos mais fáceis" dos métodos fáceis para aumentar
a inteligência humana tenham sido exauridos, novas melhorias se tornarão cada vez
mais difíceis de encontrar. [27] Apesar de todas as maneiras especulado para ampliar a
inteligência humana, artificial inteligência não-humana (especificamente semente AI) é a
opção mais popular entre as hipóteses que iria avançar a singularidade.

A ocorrência ou não de uma explosão de inteligência depende de três fatores. [28] O


primeiro fator de aceleração são os novos aprimoramentos de inteligência possibilitados
por cada melhoria anterior. Ao contrário, à medida que as inteligências se tornam mais
avançadas, outros avanços se tornarão cada vez mais complicados, possivelmente
superando a vantagem do aumento da inteligência. Cada melhoria deve gerar pelo
menos mais uma melhoria, em média, para que o movimento em direção à singularidade
continue. Finalmente, as leis da física acabarão por impedir quaisquer melhorias futuras.

Existem duas causas logicamente independentes, mas que se reforçam mutuamente,


para as melhorias de inteligência: aumentos na velocidade de computação e melhorias
nos algoritmos usados. [29] O primeiro é previsto pela Lei de Moore e as melhorias
previstas no hardware, [30] e é comparativamente semelhante aos avanços tecnológicos
anteriores. Mas existem alguns pesquisadores de IA que acreditam que o software é
mais importante do que o hardware. [31]

Uma pesquisa de 2017 por e-mail de autores com publicações nas conferências de
aprendizado de máquina NeurIPS e ICML de 2015 perguntou sobre a chance de uma
explosão de inteligência. Dos entrevistados, 12% disseram que era "bastante provável",
17% disseram que era "provável", 21% disseram que era "quase par", 24% disseram que
era "improvável" e 26% disseram que era "bastante improvável " [32]

Melhorias de velocidade

Tanto para a inteligência humana quanto para a artificial, as melhorias de hardware


aumentam a taxa de futuras melhorias de hardware. Simplificando, [33] a Lei de Moore
sugere que se a primeira duplicação da velocidade levou 18 meses, a segunda levaria 18
meses subjetivos; ou 9 meses externos, após o que, quatro meses, dois meses e assim
por diante em direção a uma singularidade de velocidade. [34] Um limite superior de
velocidade pode eventualmente ser alcançado, embora não esteja claro o quão alto isso
seria. Jeff Hawkins afirmou que um sistema de computador de autoaperfeiçoamento
inevitavelmente atingiria os limites superiores do poder de computação: "no final, há
limites para o quão grande e rápido os computadores podem funcionar. Acabaríamos no
mesmo lugar; apenas chegar lá um pouco mais rápido. Não haveria singularidade. " [35]

É difícil comparar diretamente o hardware baseado em silício com os neurônios . Mas


Berglas (2008) observa que o reconhecimento de fala por computador está se
aproximando das capacidades humanas, e que essa capacidade parece exigir 0,01% do
volume do cérebro. Essa analogia sugere que o hardware de computador moderno está
dentro de algumas ordens de magnitude de ser tão poderoso quanto o cérebro humano.
Crescimento exponencial

O crescimento exponencial da tecnologia de


computação sugerido pela lei de Moore é comumente
citado como uma razão para esperar uma
singularidade em um futuro relativamente próximo, e
vários autores propuseram generalizações da lei de
Moore. O cientista da computação e futurista Hans
Moravec propôs em um livro de 1998 [36] que a curva
de crescimento exponencial poderia ser estendida por
meio de tecnologias de computação anteriores ao
circuito integrado .

Ray Kurzweil postula uma lei de retornos acelerados Ray Kurzweil escreve que, devido a
em que a velocidade da mudança tecnológica (e mais mudanças de paradigma , uma
geralmente, todos os processos evolutivos [37] ) tendência de crescimento
aumenta exponencialmente, generalizando a lei de exponencial estende a lei de Moore
Moore da mesma maneira que a proposta de Moravec, de circuitos integrados para
transistores anteriores , válvulas de
e também incluindo a tecnologia material
vácuo , relés e computadores
(especialmente quando aplicada à nanotecnologia ), eletromecânicos . Ele prevê que o
tecnologia médica e outros. [38]Entre 1986 e 2007, a crescimento exponencial
capacidade específica dos aplicativos das máquinas continuará e que em algumas
para computar informações per capita praticamente décadas o poder de computação
dobrou a cada 14 meses; a capacidade per capita dos de todos os computadores
excederá o dos cérebros humanos
computadores de uso geral do mundo dobrou a cada
("não aprimorados"), com a
18 meses; a capacidade global de telecomunicações
inteligência artificial sobre-humana
per capita dobrou a cada 34 meses; e a capacidade aparecendo na mesma época.
mundial de armazenamento per capita dobrou a cada
40 meses. [39] Por outro lado, argumentou-se que o
padrão de aceleração global tendo a singularidade do
século 21 como seu parâmetro deveria ser
caracterizado como hiperbólico ao invés de
exponencial. [40]

Kurzweil reserva o termo "singularidade" para um


rápido aumento da inteligência artificial (em oposição
a outras tecnologias), escrevendo por exemplo que "A Uma versão atualizada da lei de
Singularidade nos permitirá transcender essas Moore ao longo de 120 anos (com
limitações de nossos corpos biológicos e cérebros ... base no gráfico de Kurzweil ). Os 7
Não haverá distinção , pós-Singularidade, entre pontos de dados mais recentes
homem e máquina ". [41] Ele também define sua data são todos GPUs NVIDIA .

prevista da singularidade (2045) em termos de quando


ele espera que as inteligências baseadas em computador excedam significativamente a
soma total da capacidade cerebral humana, escrevendo que os avanços na computação
antes dessa data "não representarão a Singularidade" porque eles "ainda não
correspondem a uma expansão profunda de nossa inteligência". [42]
Mudança acelerada

Artigo principal: Acelerando a mudança


Alguns proponentes da singularidade argumentam sua
inevitabilidade por meio da extrapolação de
tendências anteriores, especialmente aquelas relativas
à redução das lacunas entre os avanços da tecnologia.
Em um dos primeiros usos do termo "singularidade" no
contexto do progresso tecnológico, Stanislaw Ulam
fala de uma conversa com John von Neumann sobre a
mudança acelerada:

Uma conversa centrou-se no progresso cada vez De acordo com Kurzweil, seu
mais acelerado da tecnologia e nas mudanças no gráfico logarítmico de 15 listas de
modo de vida humana, o que dá a impressão de mudanças de paradigma para
eventos históricos importantes
se aproximar de alguma singularidade essencial
mostra uma tendência exponencial
na história da raça, além da qual os assuntos
humanos, como os conhecemos, não poderiam
continuar. [5]

Kurzweil afirma que o progresso tecnológico segue um padrão de crescimento


exponencial , seguindo o que ele chama de " lei dos retornos acelerados ". Sempre que a
tecnologia se aproxima de uma barreira, escreve Kurzweil, novas tecnologias irão superá-
la. Ele prevê que as mudanças de paradigma se tornarão cada vez mais comuns, levando
a "mudanças tecnológicas tão rápidas e profundas que representam uma ruptura no
tecido da história humana". [43] Kurzweil acredita que a singularidade ocorrerá por volta
de 2045 aproximadamente . [38] Suas previsões diferem das de Vinge no sentido de que
ele prevê uma ascensão gradual à singularidade, ao invés da inteligência sobre-humana
de auto-aperfeiçoamento rápido de Vinge.

Os perigos frequentemente citados incluem aqueles comumente associados à


nanotecnologia molecular e à engenharia genética . Estas ameaças são questões
importantes para ambos os defensores de singularidade e críticos, e foram objecto de
Bill Joy 's Wired artigo da revista ' Por que o futuro não precisa de nós '. [6] [44]

Melhorias de algoritmo
Algumas tecnologias de inteligência, como "seed AI", [14] [15] também podem ter o
potencial de não apenas se tornarem mais rápidas, mas também mais eficientes,
modificando seu código-fonte . Essas melhorias tornariam possíveis melhorias
adicionais, o que tornaria possíveis melhorias adicionais, e assim por diante.

O mecanismo para um conjunto de algoritmos de autoaperfeiçoamento recursivamente


difere de um aumento na velocidade de computação bruta de duas maneiras. Em
primeiro lugar, não requer influência externa: as máquinas que projetam hardware mais
rápido ainda exigiriam que humanos criassem o hardware aprimorado ou programassem
as fábricas de maneira adequada. Um AI reescrevendo seu próprio código-fonte pode
fazê-lo enquanto estiver contido em uma caixa de AI .

Em segundo lugar, como acontece com a concepção de singularidade de Vernor Vinge , é


muito mais difícil prever o resultado. Embora os aumentos de velocidade pareçam ser
apenas uma diferença quantitativa da inteligência humana, os aprimoramentos reais do
algoritmo seriam qualitativamente diferentes. Eliezer Yudkowsky compara isso às
mudanças que a inteligência humana trouxe: os humanos mudaram o mundo milhares
de vezes mais rapidamente do que a evolução, e de maneiras totalmente diferentes. Da
mesma forma, a evolução da vida foi um afastamento e uma aceleração maciça das
taxas de mudança geológicas anteriores, e a inteligência aprimorada poderia fazer com
que a mudança fosse tão diferente novamente. [45]

Existem perigos substanciais associados a uma singularidade de explosão de


inteligência originada de um conjunto de algoritmos de autoaperfeiçoamento recursivo.
Em primeiro lugar, a estrutura de objetivo da IA ​pode não ser invariável sob o
autoaperfeiçoamento, potencialmente fazendo com que a IA seja otimizada para algo
diferente do que foi originalmente planejado. [46] [47] Em segundo lugar, as IAs poderiam
competir pelos mesmos recursos escassos que a humanidade usa para sobreviver. [48]
[49]

Embora não sejam ativamente maliciosos, não há razão para pensar que as IAs
promoveriam ativamente os objetivos humanos, a menos que pudessem ser
programados como tal, e se não pudessem, poderiam usar os recursos atualmente
usados ​para apoiar a humanidade a promover seus próprios objetivos, causando a
extinção humana. [50] [51] [52]

Carl Shulman e Anders Sandberg sugerem que as melhorias do algoritmo podem ser o
fator limitante para uma singularidade; enquanto a eficiência do hardware tende a
melhorar em um ritmo constante, as inovações de software são mais imprevisíveis e
podem ser prejudicadas por pesquisas cumulativas em série. Eles sugerem que, no caso
de uma singularidade limitada por software, a explosão de inteligência se tornaria
realmente mais provável do que com uma singularidade limitada por hardware, porque
no caso limitado por software, uma vez que a IA de nível humano é desenvolvida, ela
poderia ser executada em série hardware rápido e a abundância de hardware barato
tornariam a pesquisa de IA menos restrita. [53] Uma abundância de hardware acumulado
que pode ser liberado assim que o software descobrir como usá-lo tem sido chamada de
"projeção de computação".[54]

Críticas

Alguns críticos, como o filósofo Hubert Dreyfus , afirmam que os computadores ou


máquinas não podem alcançar a inteligência humana , enquanto outros, como o físico
Stephen Hawking , sustentam que a definição de inteligência é irrelevante se o resultado
final for o mesmo. [55]
O psicólogo Steven Pinker afirmou em 2008:

... Não há a menor razão para acreditar em uma singularidade vindoura. O fato de
você poder visualizar um futuro em sua imaginação não é evidência de que seja
provável ou mesmo possível. Olhe para as cidades com cúpulas, viagens de jet-
pack, cidades subaquáticas, edifícios com quilômetros de altura e automóveis
movidos a energia nuclear - todos os elementos básicos das fantasias futurísticas
de quando eu era criança que nunca chegaram. O poder de processamento
absoluto não é um pó mágico que resolve todos os seus problemas magicamente.
... [24]

Universidade da Califórnia, Berkeley , o professor de filosofia John Searle escreve:

[Os computadores] têm, literalmente ..., nenhuma inteligência , nenhuma motivação


, nenhuma autonomia e nenhuma agência. Nós os projetamos para se
comportarem como se tivessem certos tipos de psicologia , mas não há realidade
psicológica para os processos ou comportamentos correspondentes. ... [O]
maquinário não tem crenças, desejos [ou] motivações. [56]

Martin Ford em The Lights in the Tunnel: Automation, Accelerating Technology and the
Economy of the Future [57] postula um "paradoxo da tecnologia" em que antes que a
singularidade pudesse ocorrer a maioria dos trabalhos rotineiros na economia seriam
automatizados, uma vez que isso exigiria um nível de tecnologia inferior ao da
singularidade. Isso causaria desemprego em massa e queda na demanda do
consumidor, o que, por sua vez, destruiria o incentivo para investir nas tecnologias que
seriam necessárias para produzir a Singularidade. Cada vez mais, o deslocamento não
se limita mais ao trabalho tradicionalmente considerado "de rotina". [58]

Theodore Modis [59] e Jonathan Huebner [60] argumentam que a taxa de inovação
tecnológica não apenas parou de aumentar, mas na verdade está diminuindo agora. A
evidência para esse declínio é que o aumento nas taxas de clock do computador está
diminuindo, mesmo enquanto a previsão de Moore de aumentar exponencialmente a
densidade do circuito continua a se manter. Isso se deve ao aumento excessivo de calor
do chip, que não pode ser dissipado com rapidez suficiente para evitar que o chip derreta
ao operar em velocidades mais altas. Avanços na velocidade podem ser possíveis no
futuro em virtude de designs de CPU mais eficientes em termos de energia e
processadores multicelulares. [61]Enquanto Kurzweil usava os recursos de Modis, e o
trabalho de Modis girava em torno de mudanças aceleradas, Modis se distanciou da tese
de Kurzweil de uma "singularidade tecnológica", alegando que ela carece de rigor
científico. [62]

Em uma contabilidade empírica detalhada, The Progress of Computing , William Nordhaus


argumentou que, antes de 1940, os computadores acompanhavam o crescimento muito
mais lento de uma economia industrial tradicional, rejeitando assim as extrapolações da
lei de Moore para os computadores do século XIX. [63]
Em um artigo de 2007, Schmidhuber afirmou que a frequência de "eventos notáveis"
subjetivamente parece estar se aproximando de uma singularidade do século 21, mas
advertiu os leitores a tomar tais tramas de eventos subjetivos com um grão de sal: talvez
diferenças na memória de recentes e distantes eventos podem criar uma ilusão de
mudança acelerada onde não existe. [64]

Paul Allen argumentou o oposto de retornos acelerados, o freio de complexidade; [26]


quanto mais progresso a ciência faz no sentido de compreender a inteligência, mais
difícil se torna fazer progresso adicional. Um estudo do número de patentes mostra que
a criatividade humana não apresenta retornos acelerados, mas, na verdade, como
sugerido por Joseph Tainter em seu The Collapse of Complex Societies , [65] uma lei dos
rendimentos decrescentes . O número de patentes por mil atingiu o pico no período de
1850 a 1900 e vem diminuindo desde então. [60] O crescimento da complexidade
eventualmente se torna autolimitante e leva a um "colapso geral dos sistemas"
generalizado.

Jaron Lanier refuta a ideia de que a Singularidade é inevitável. Ele afirma: "Não acho que
a tecnologia esteja se criando. Não é um processo autônomo." [66] Ele prossegue
afirmando: "A razão para acreditar na agência humana sobre o determinismo tecnológico
é que você pode então ter uma economia onde as pessoas ganham seu próprio caminho
e inventam suas próprias vidas. Se você estruturar uma sociedade sem enfatizar o
indivíduo humano agência, é a mesma coisa operacionalmente que negar às pessoas
influência, dignidade e autodeterminação ... abraçar [a ideia da Singularidade] seria uma
celebração de dados e políticas ruins. " [66]

O economista Robert J. Gordon , em The Rise and Fall of American Growth: The US
Standard of Living Since the Civil War (2016), aponta que o crescimento econômico
medido desacelerou por volta de 1970 e desacelerou ainda mais desde a crise financeira
de 2007-2008 , e argumenta que os dados econômicos não mostram nenhum traço de
uma Singularidade vindoura como imaginada pelo matemático IJ Good . [67]

Além de críticas gerais ao conceito de singularidade, vários críticos levantaram questões


com o gráfico icônico de Kurzweil. Uma linha de crítica é que um gráfico log-log desta
natureza é inerentemente tendencioso para um resultado em linha reta. Outros
identificam viés de seleção nos pontos que Kurzweil escolhe usar. Por exemplo, o
biólogo PZ Myers aponta que muitos dos primeiros "eventos" evolucionários foram
escolhidos arbitrariamente. [68] Kurzweil refutou isso mapeando eventos evolutivos de 15
fontes neutras e mostrando que eles se encaixam em uma linha reta em um gráfico log-
log . O economistazombou do conceito com um gráfico extrapolando que o número de
lâminas em uma navalha, que aumentou ao longo dos anos de uma para até cinco,
aumentará cada vez mais rápido até o infinito. [69]

Impactos potenciais
Mudanças dramáticas na taxa de crescimento econômico ocorreram no passado devido
ao avanço tecnológico. Com base no crescimento populacional, a economia dobrou a
cada 250.000 anos desde o Paleolítico até a Revolução Neolítica . A nova economia
agrícola dobrou a cada 900 anos, um aumento notável. Na era atual, começando com a
Revolução Industrial, a produção econômica mundial dobra a cada quinze anos, sessenta
vezes mais rápido do que durante a era agrícola. Se a ascensão da inteligência sobre-
humana causar uma revolução semelhante, argumenta Robin Hanson, seria de se
esperar que a economia dobrasse pelo menos trimestralmente e, possivelmente,
semanalmente. [70]

Incerteza e risco

Mais informações: Risco existencial de inteligência artificial geral


O termo "singularidade tecnológica" reflete a ideia de que tal mudança pode acontecer
repentinamente e que é difícil prever como o novo mundo resultante operaria. [71] [72] Não
está claro se uma explosão de inteligência resultando em uma singularidade seria
benéfica ou prejudicial, ou mesmo uma ameaça existencial . [73] [74] Como a IA é um fator
importante no risco de singularidade, várias organizações buscam uma teoria técnica de
alinhar os sistemas de meta de IA com os valores humanos, incluindo o Future of
Humanity Institute , o Machine Intelligence Research Institute , [71] o Centro de
Inteligência Artificial Compatível com Seres Humanos , e oInstituto Futuro da Vida .

O físico Stephen Hawking disse em 2014 que "o sucesso na criação de IA seria o maior
evento da história da humanidade. Infelizmente, também pode ser o último, a menos que
aprendamos como evitar os riscos." [75] Hawking acreditava que nas próximas décadas, a
IA poderia oferecer "benefícios e riscos incalculáveis", como "tecnologia que supera os
mercados financeiros, supera os pesquisadores humanos, supera a manipulação dos
líderes humanos e desenvolve armas que nem mesmo podemos entender." [75] Hawking
sugeriu que a inteligência artificial deveria ser levada mais a sério e que mais deveria ser
feito para se preparar para a singularidade: [75]

Assim, diante de possíveis futuros de riscos e benefícios incalculáveis, os


especialistas com certeza estão fazendo todo o possível para garantir o melhor
resultado, certo? Errado. Se uma civilização alienígena superior nos enviasse uma
mensagem dizendo: "Chegaremos em algumas décadas", responderíamos apenas:
"OK, ligue-nos quando chegar aqui - deixaremos as luzes acesas"? Provavelmente
não - mas isso é mais ou menos o que está acontecendo com a IA.

Berglas (2008) afirma que não há motivação evolutiva direta para uma IA ser amigável
aos humanos. A evolução não tem tendência inerente para produzir resultados
valorizados pelos humanos, e há poucos motivos para esperar que um processo de
otimização arbitrário promova um resultado desejado pela humanidade, em vez de
inadvertidamente levar a uma IA se comportando de uma forma não pretendida por seus
criadores. [76] [77] [78] Anders Sandberg também elaborou esse cenário, abordando vários
contra-argumentos comuns. [79] O pesquisador de IA Hugo de Garis sugere que as
inteligências artificiais podem simplesmente eliminar a raça humana para ter acesso a
recursos escassos , [48] [80]e os humanos seriam impotentes para detê-los. [81]
Alternativamente, IAs desenvolvidos sob pressão evolucionária para promover sua
própria sobrevivência poderiam superar a humanidade. [52]

Bostrom (2002) discute cenários de extinção humana e lista a superinteligência como


uma possível causa:

Quando criamos a primeira entidade superinteligente, podemos cometer um erro e


atribuir a ela objetivos que a levem a aniquilar a humanidade, supondo que sua
enorme vantagem intelectual lhe dê o poder de fazer isso. Por exemplo, podemos
elevar erroneamente uma submeta ao status de supermeta. Dizemos a ele para
resolver um problema matemático e ele obedece transformando toda a matéria do
sistema solar em um gigantesco dispositivo de cálculo, matando no processo a
pessoa que fez a pergunta.

De acordo com Eliezer Yudkowsky , um problema significativo na segurança da IA ​é que a


inteligência artificial hostil é provavelmente muito mais fácil de criar do que a IA
amigável. Embora ambos exijam grandes avanços no design do processo de otimização
recursiva, a IA amigável também requer a capacidade de tornar as estruturas de metas
invariáveis ​sob o autoaperfeiçoamento (ou a IA poderia se transformar em algo hostil) e
uma estrutura de metas que se alinhe com os valores humanos e não automaticamente
destruir a raça humana. Uma IA hostil, por outro lado, pode otimizar para uma estrutura
de objetivo arbitrária, que não precisa ser invariável sob automodificação. [82] Bill Hibbard
(2014) propõe um projeto de IA que evita vários perigos, incluindo a auto-ilusão, [83]ações
instrumentais não intencionais, [46] [84] e corrupção do gerador de recompensa. [84] Ele
também discute os impactos sociais da IA [85] e testes de IA. [86] Seu livro de 2001, Super-
Intelligent Machines, defende a necessidade de educação pública sobre IA e controle
público sobre IA. Ele também propôs um design simples que era vulnerável à corrupção
do gerador de recompensa.

Próxima etapa da evolução sociobiológica

Mais informações: Evolução sociocultural


Embora a singularidade tecnológica
seja geralmente vista como um
evento repentino, alguns estudiosos
argumentam que a velocidade atual
da mudança já se encaixa nessa
descrição.

Além disso, alguns argumentam que


já estamos no meio de uma grande
transição evolutiva que mescla
tecnologia, biologia e sociedade. A
tecnologia digital se infiltrou no
tecido da sociedade humana a um Linha do tempo esquemática de informações e
grau de dependência indiscutível e, replicadores na biosfera: as " principais transições
evolutivas " de Gillings et al. No processamento de
muitas vezes, sustentável.
informações. [87]
Um artigo de 2016 na Trends in
Ecology & Evolution argumenta que "os humanos já
adotam fusões de biologia e tecnologia. Passamos a
maior parte do nosso tempo de vigília nos
comunicando por canais mediados digitalmente ...
confiamos na inteligência artificial em nossas vidas
por meio da frenagem antibloqueio em carros e pilotos
automáticos em aviões ... Com um em cada três
casamentos na América começando online, os
algoritmos digitais também estão desempenhando um
Quantidade de informações
papel na união e reprodução do casal humano ".
digitais em todo o mundo (5 × 10
21
bytes) versus informações do
O artigo argumenta ainda que, da perspectiva da genoma humano em todo o mundo
evolução , várias Transições Principais na Evolução (10 19 bytes) em 2014. [87]
anteriores transformaram a vida por meio de
inovações no armazenamento e replicação de informações ( RNA , DNA ,
multicelularidade e cultura e linguagem ). No estágio atual da evolução da vida, a
biosfera baseada em carbono gerou um sistema cognitivo (humanos) capaz de criar
tecnologia que resultará em uma transição evolutiva comparável .

A informação digital criada por humanos atingiu uma magnitude semelhante à


informação biológica na biosfera. Desde a década de 1980, a quantidade de informações
digitais armazenadas dobrou a cada 2,5 anos, atingindo cerca de 5 zetabytes em 2014 (5
× 10 21 bytes). [88]

Em termos biológicos, há 7,2 bilhões de humanos no planeta, cada um com um genoma


de 6,2 bilhões de nucleotídeos. Uma vez que um byte pode codificar quatro pares de
nucleotídeos, os genomas individuais de cada ser humano no planeta poderiam ser
codificados em aproximadamente 1 × 10 19 bytes. O mundo digital armazenou 500 vezes
mais informações do que isso em 2014 (veja a figura). A quantidade total de DNA
contido em todas as células da Terra é estimada em cerca de 5,3 × 10 37 pares de bases,
equivalente a 1,325 × 10 37 bytes de informação.

Se o crescimento do armazenamento digital continuar em sua taxa atual de 30-38% de


crescimento anual composto por ano, [39] ele irá rivalizar com o conteúdo total de
informações contidas em todo o DNA em todas as células da Terra em cerca de 110
anos. Isso representaria uma duplicação da quantidade de informações armazenadas na
biosfera em um período total de apenas 150 anos ". [87]

Implicações para a sociedade humana

Mais informações: Inteligência artificial na ficção


Em fevereiro de 2009, sob os auspícios da Associação para o Avanço da Inteligência
Artificial (AAAI), Eric Horvitz presidiu uma reunião dos principais cientistas da
computação, pesquisadores de inteligência artificial e roboticistas em Asilomar em
Pacific Grove, Califórnia. O objetivo era discutir o impacto potencial da possibilidade
hipotética de que os robôs se tornassem autossuficientes e capazes de tomar suas
próprias decisões. Eles discutiram até que ponto os computadores e robôs podem ser
capazes de adquirir autonomia e até que ponto eles podem usar essas habilidades para
representar ameaças ou perigos. [89]

Algumas máquinas são programadas com várias formas de semi-autonomia, incluindo a


capacidade de localizar suas próprias fontes de energia e escolher alvos para atacar
com armas. Além disso, alguns vírus de computador podem escapar da eliminação e, de
acordo com os cientistas presentes, pode-se dizer que atingiram um estágio de "barata"
da inteligência da máquina. Os participantes da conferência notaram que a
autoconsciência, conforme retratada na ficção científica, é provavelmente improvável,
mas que existem outros perigos e armadilhas em potencial. [89]

Frank S. Robinson prevê que, uma vez que os humanos alcancem uma máquina com a
inteligência de um humano, os problemas científicos e tecnológicos serão enfrentados e
resolvidos com uma capacidade cerebral muito superior à dos humanos. Ele observa que
os sistemas artificiais são capazes de compartilhar dados mais diretamente do que os
humanos, e prevê que isso resultaria em uma rede global de superinteligência que
diminuiria a capacidade humana. [90] Robinson também discute como o futuro seria
potencialmente diferente após tal explosão de inteligência. Um exemplo disso é a
energia solar, onde a Terra recebe muito mais energia solar do que a humanidade capta,
portanto, capturar mais dessa energia solar seria uma grande promessa para o
crescimento civilizacional.

Decolagem forte vs. suave


Em um cenário de decolagem difícil,
um AGI se auto-melhora
rapidamente, "assumindo o controle"
do mundo (talvez em questão de
horas), muito rapidamente para
correção de erro significativa iniciada
por humanos ou para um ajuste
gradual dos objetivos do AGI. Em um
cenário de decolagem suave, o AGI
Neste cenário de autoaperfeiçoamento recursivo de
ainda se torna muito mais poderoso amostra, humanos modificando a arquitetura de uma
do que a humanidade, mas em um IA seriam capazes de dobrar seu desempenho a cada
ritmo semelhante ao humano (talvez três anos por, por exemplo, 30 gerações antes de
na ordem de décadas), em uma esgotar todas as melhorias viáveis ​(esquerda). Se, em
escala de tempo em que a interação vez disso, a IA é inteligente o suficiente para modificar
sua própria arquitetura tão bem quanto os
pesquisadores humanos podem, seu tempo necessário
humana contínua e a correção para completar um redesenho é dividido em metades
podem efetivamente conduzir o com cada geração, e ele progride todas as 30 gerações
viáveis ​em seis anos (à direita). [91]
desenvolvimento do AGI. [92] [93]

Ramez Naam argumenta contra uma decolagem difícil. Ele apontou que já vemos o
autoaperfeiçoamento recursivo por superinteligências, como as corporações. A Intel , por
exemplo, tem "a capacidade intelectual coletiva de dezenas de milhares de humanos e
provavelmente milhões de núcleos de CPU para ... projetar CPUs melhores!" No entanto,
isso não levou a uma decolagem difícil; em vez disso, levou a uma decolagem suave na
forma da lei de Moore . [94] Naam aponta ainda que a complexidade computacional de
inteligência superior pode ser muito maior do que linear, de tal forma que "criar uma
mente de inteligência 2 é provavelmente mais do que duas vezes mais difícil do que criar
uma mente de inteligência 1." [95]

J. Storrs Hall acredita que "muitos dos cenários mais comumente vistos para decolagem
dura durante a noite são circulares - eles parecem assumir capacidades hiper-humanas
no ponto de partida do processo de autoaperfeiçoamento" para que uma IA seja capaz de
fazer o dramático , melhorias gerais de domínio necessárias para a decolagem. Hall
sugere que, em vez de auto-melhorar recursivamente seu hardware, software e
infraestrutura por conta própria, uma IA incipiente seria melhor se especializar em uma
área onde fosse mais eficaz e, em seguida, comprar os componentes restantes no
mercado, por causa da qualidade de produtos no mercado melhora continuamente, e a IA
teria dificuldade em acompanhar a tecnologia de ponta usada pelo resto do mundo. [96]

Ben Goertzel concorda com a sugestão de Hall de que uma nova IA de nível humano
faria bem em usar sua inteligência para acumular riqueza. Os talentos da IA ​podem
inspirar empresas e governos a espalhar seu software pela sociedade. Goertzel é cético
quanto a uma decolagem difícil de cinco minutos, mas especula que uma decolagem do
nível humano para o sobre-humano na ordem de cinco anos é razoável. Goerzel se refere
a esse cenário como uma "decolagem semifruta". [97]

Max Morediscorda, argumentando que, se houvesse apenas alguns IAs super-rápidos em


nível humano, eles não mudariam radicalmente o mundo, pois ainda dependeriam de
outras pessoas para fazer as coisas e ainda teriam restrições cognitivas humanas.
Mesmo se todos os IAs super-rápidos funcionassem no aumento da inteligência, não
está claro por que eles fariam melhor de forma descontínua do que os cientistas
cognitivos humanos existentes na produção de inteligência super-humana, embora a
taxa de progresso aumentasse. More ainda argumenta que uma superinteligência não
transformaria o mundo da noite para o dia: uma superinteligência precisaria se envolver
com sistemas humanos lentos existentes para realizar impactos físicos no mundo. "A
necessidade de colaboração, de organização,[98]

Imortalidade
Em seu livro de 2005, The Singularity is Near , Kurzweil sugere que os avanços médicos
permitiriam às pessoas proteger seus corpos dos efeitos do envelhecimento, tornando a
expectativa de vida ilimitada . Kurzweil argumenta que os avanços tecnológicos na
medicina nos permitiriam continuamente reparar e substituir componentes defeituosos
em nossos corpos, prolongando a vida até uma idade indeterminada. [99] Kurzweil reforça
ainda mais seu argumento, discutindo os avanços atuais da bioengenharia. Kurzweil
sugere terapia genética somática ; depois de vírus sintéticos com informação genética
específica, o próximo passo seria aplicar essa tecnologia à terapia gênica, substituindo o
DNA humano por genes sintetizados. [100]

K. Eric Drexler , um dos fundadores da nanotecnologia , postulou dispositivos de reparo


de células, incluindo aqueles que operam dentro das células e utilizando máquinas
biológicas ainda hipotéticas , em seu livro de 1986, Engines of Creation .

De acordo com Richard Feynman , foi seu ex-aluno de graduação e colaborador Albert
Hibbs quem originalmente sugeriu a ele (por volta de 1959) a ideia de um uso médico
para as micromáquinas teóricas de Feynman. Hibbs sugeriu que certas máquinas de
conserto poderiam um dia ter seu tamanho reduzido a ponto de, em teoria, ser possível
(como Feynman colocou) " engolir o médico ". A ideia foi incorporada ao ensaio de 1959
de Feynman, Há muito espaço no fundo . [101]

Além de simplesmente estender a vida operacional do corpo físico, Jaron Lanier defende
uma forma de imortalidade chamada "Ascensão Digital", que envolve "pessoas morrendo
na carne e sendo carregadas em um computador e permanecendo conscientes". [102]

História do conceito
Um artigo de Mahendra Prasad, publicado na AI Magazine , afirma que o matemático do
século 18, Marquês de Condorcet, foi a primeira pessoa a hipotetizar e modelar
matematicamente uma explosão de inteligência e seus efeitos na humanidade. [103]

Uma descrição inicial da ideia foi feita no conto de John Wood Campbell Jr. de 1932, "A
última evolução".

Em seu obituário de 1958 para John von Neumann , Ulam lembrou uma conversa com
von Neumann sobre o "progresso cada vez mais acelerado da tecnologia e as mudanças
no modo de vida humana, o que dá a aparência de se aproximar de alguma singularidade
essencial na história da raça além da qual os assuntos humanos, como os conhecemos,
não podiam continuar. " [5]

Em 1965, Good escreveu seu ensaio postulando uma "explosão de inteligência" de


autoaperfeiçoamento recursivo da inteligência de uma máquina.

Em 1981, Stanisław Lem publicou seu romance de ficção científica Golem XIV . Descreve
um computador militar de IA (Golem XIV) que adquire consciência e passa a aumentar
sua inteligência, caminhando em direção à singularidade tecnológica pessoal. Golem XIV
foi originalmente criado para ajudar seus construtores em guerras, mas como sua
inteligência avança para um nível muito mais alto que o dos humanos, ele deixa de se
interessar pelos requisitos militares porque os considera carentes de consistência lógica
interna.

Em 1983, Vernor Vinge popularizou enormemente a explosão da inteligência de Good em


uma série de escritos, abordando o assunto pela primeira vez na edição de janeiro de
1983 da revista Omni . Neste artigo de opinião, Vinge parece ter sido o primeiro a usar o
termo "singularidade" de uma forma que foi especificamente ligada à criação de
máquinas inteligentes: [104] [105]

Em breve criaremos inteligências maiores do que a nossa. Quando isso acontecer,


a história humana terá alcançado uma espécie de singularidade, uma transição
intelectual tão impenetrável quanto o atado espaço-tempo no centro de um buraco
negro, e o mundo passará muito além de nossa compreensão. Essa singularidade,
acredito, já assombra vários escritores de ficção científica. Torna impossível a
extrapolação realista para um futuro interestelar. Para escrever uma história
ambientada em mais de um século, é preciso uma guerra nuclear no meio ... para
que o mundo permaneça inteligível.

Em 1985, em "The Time Scale of Artificial Intelligence", o pesquisador de inteligência


artificial Ray Solomonoff articulou matematicamente a noção relacionada do que ele
chamou de "ponto infinito": se uma comunidade de pesquisa de IAs de
autoaperfeiçoamento em nível humano levar quatro anos para dobrar sua própria
velocidade, depois dois anos, depois um ano e assim por diante, suas capacidades
aumentam infinitamente em tempo finito. [6] [106]

O artigo de Vinge de 1993 "The Coming Technological Singularity: How to Survive in the
Post-Human Era", [7] se espalhou amplamente na internet e ajudou a popularizar a ideia.
[107] Este artigo contém a declaração: "Dentro de trinta anos, teremos os meios

tecnológicos para criar inteligência sobre-humana. Pouco depois, a era humana


terminará." Vinge argumenta que os autores de ficção científica não podem escrever
personagens pós-singularidade realistas que superem o intelecto humano, já que os
pensamentos de tal intelecto estariam além da capacidade de expressão dos humanos.
[7]

Em 2000, Bill Joy , um tecnólogo proeminente e cofundador da Sun Microsystems ,


expressou preocupação com os perigos potenciais da singularidade. [44]

Em 2005, Kurzweil publicou The Singularity is Near . A campanha publicitária de Kurzweil


incluiu uma aparição no The Daily Show com Jon Stewart . [108]

Em 2007, Eliezer Yudkowsky sugeriu que muitas das definições variadas que foram
atribuídas a "singularidade" são mutuamente incompatíveis em vez de se apoiarem
mutuamente. [19] [109] Por exemplo, Kurzweil extrapola as trajetórias tecnológicas atuais
além da chegada da IA ​de autoaperfeiçoamento ou inteligência sobre-humana, que
Yudkowsky argumenta que representa uma tensão tanto com o aumento descontínuo
proposto de IJ Good na inteligência quanto com a tese de Vinge sobre a
imprevisibilidade. [19]

Em 2009, Kurzweil e o fundador do X-Prize Peter Diamandis anunciaram o


estabelecimento da Singularity University , um instituto privado não credenciado cuja
missão declarada é "educar, inspirar e capacitar líderes para aplicar tecnologias
exponenciais para enfrentar os grandes desafios da humanidade." [110] Financiado pelo
Google , Autodesk , ePlanet Ventures , e um grupo de indústria de tecnologia líderes,
Universidade Singularity é baseado na NASA 's Centro de Pesquisa Ames em Mountain
View , Califórnia. A organização sem fins lucrativos administra um programa anual de
pós-graduação de dez semanas durante o verão, que cobre dez tecnologias diferentes e
áreas afins, e uma série de programas executivos ao longo do ano.

Na política
Em 2007, o Comitê Econômico Conjunto do Congresso dos Estados Unidos divulgou um
relatório sobre o futuro da nanotecnologia. Ele prevê mudanças tecnológicas e políticas
significativas no futuro de médio prazo, incluindo possível singularidade tecnológica. [111]
[112] [113]

O ex-presidente dos Estados Unidos Barack Obama falou sobre a singularidade em sua
entrevista à Wired em 2016: [114]

Uma coisa sobre a qual não conversamos muito, e só quero voltar, é que realmente
temos que pensar nas implicações econômicas. Porque a maioria das pessoas
não está gastando muito tempo agora se preocupando com a singularidade - elas
estão se preocupando com "Bem, meu trabalho será substituído por uma
máquina?"

Veja também

Referências

Citações
1. ^ Cadwalladr, Carole (2014). " Os robôs estão prestes a subir? O novo diretor de
engenharia do Google acha que sim ... Arquivado em 04/10/2018 na Wayback
Machine " The Guardian . Guardian News and Media Limited.
2. ^ "Coleção de fontes que definem" singularidade " " . singularitysymposium.com .
Arquivado do original em 17 de abril de 2019 . Página visitada em 17 de abril de 2019
.
3. ^ a b Eden, Amnon H .; Moor, James H. (2012). Hipóteses de singularidade: uma
avaliação científica e filosófica . Dordrecht: Springer. pp. 1–2. ISBN 9783642325601.
4. ^ The Technological Singularity de Murray Shanahan, (MIT Press, 2015), página 233
5. ^ a b c Ulam, Stanislaw (maio de 1958). "Homenagem a John von Neumann" (PDF) .
Boletim da American Mathematical Society . 64, # 3, parte 2: 5. Arquivado (PDF) do
original em 2021-02-15 . Página visitada em 07-11-2018 .
6. ^ a b c Chalmers, David (2010). “A singularidade: uma análise filosófica”. Journal of
Consciousness Studies . 17 (9–10): 7–65.
7. ^ a b c d e f Vinge, Vernor. "The Coming Technological Singularity: How to Survive in
the Post-Human Era" Archived 2018-04-10 at Wayback Machine , em Vision-21:
Ciência e Engenharia Interdisciplinar na Era do Ciberespaço , GA Landis, ed.,
Publicação da NASA CP-10129, pp. 11–22, 1993.
8. ^ Sparkes, Matthew (13 de janeiro de 2015). "Os melhores cientistas pedem cautela
em relação à inteligência artificial" . The Telegraph (Reino Unido) . Arquivado do
original em 7 de abril de 2015 . Retirado em 24 de abril de 2015 .
9. ^ "Hawking: AI poderia acabar com a raça humana" . BBC. 2 de dezembro de 2014.
Arquivado do original em 30 de outubro de 2015 . Retirado em 11 de novembro de
2017 .
10. ^ Khatchadourian, Raffi (16 de novembro de 2015). "A invenção do Juízo Final" . The
New Yorker . Arquivado do original em 29 de abril de 2019 . Página visitada em 31 de
janeiro de 2018 .
11. ^ Müller, VC, & Bostrom, N. (2016). "Progresso futuro em inteligência artificial: uma
pesquisa de opinião de especialistas". Em VC Müller (ed): questões fundamentais
da inteligência artificial (pp. 555-572). Springer, Berlim.
http://philpapers.org/rec/MLLFPI Arquivado em 02/03/2019 na Wayback Machine
12. ^ Ehrlich, Paul. O animal dominante: a evolução humana e o meio ambiente
Arquivado em 08/10/2018 na máquina Wayback
13. ^ Os supercérebros nascidos do silício vão mudar tudo. Arquivado em 1º de agosto
de 2010, na Wayback Machine
14. ^ a b Yampolskiy, Roman V. "Análise de tipos de software de melhoria automática."
Inteligência Artificial Geral. Springer International Publishing, 2015. 384-393.
15. ^ a b Eliezer Yudkowsky . General Intelligence and Seed AI - Criando Mentes
Completas Capazes de Auto-Aperfeiçoamento Aberto, 2001
16. ^ Good, IJ "Speculations Concerning the First Ultraintelligent Machine" , Advances in
Computers , vol. 6, 1965. Arquivado em 1º de maio de 2012, na Wayback Machine
17. ^ Ray Kurzweil, The Singularity is Near, pp. 135-136. Penguin Group, 2005.
18. ^ "h + Magazine | Cobrindo tendências tecnológicas, científicas e culturais que estão
mudando o ser humano de maneira fundamental" . Hplusmagazine.com. Arquivado
do original em 23/12/2010 . Página visitada em 09-09-2011 .
19. ^ a b c Yudkowsky, Eliezer . A singularidade: três escolas importantes arquivadas em
01/10/2018 na máquina Wayback
20. ^ Sandberg, Anders . Uma visão geral dos modelos de singularidade tecnológica
Arquivado em 24/07/2011 na Wayback Machine
21. ^ Kaj Sotala e Roman Yampolskiy (2017). “Riscos da Viagem à Singularidade”. A
Singularidade Tecnológica . A Coleção Fronteiras. Springer Berlin Heidelberg. pp. 11–
23. doi : 10.1007 / 978-3-662-54033-6_2 . ISBN 978-3-662-54031-2. Parâmetro
desconhecido |conference= ignorado ( ajuda )
22. ^ a b "O que é a singularidade? | Singularity Institute for Artificial Intelligence" .
Singinst.org. Arquivado do original em 08/09/2011 . Página visitada em 09-09-2011 .
23. ^ David J. Chalmers (2016). “A Singularidade”. Ficção científica e filosofia . John Wiley
\ & Sons, Inc. pp. 171–224. doi : 10.1002 / 9781118922590.ch16 .
ISBN 9781118922590. Parâmetro desconhecido |conference= ignorado ( ajuda )
24. ^ a b "Singularidade do endereço das luminárias da tecnologia - espectro IEEE" .
Spectrum.ieee.org . Arquivado do original em 30/04/2019 . Página visitada em 09-09-
2011 .
25. ^ "Quem é quem na singularidade - espectro IEEE" . Spectrum.ieee.org. Arquivado do
original em 2021-02-15 . Página visitada em 09-09-2011 .
26. ^ a b Paul Allen: A singularidade não está próxima , recuperado 2015-04-12
27. ^
28. ^ David Chalmers John Locke Lecture, 10 de maio, Exam Schools, Oxford,
Apresentando uma análise filosófica da possibilidade de uma singularidade
tecnológica ou "explosão de inteligência" resultante de IA recursivamente auto-
aprimorada Arquivado em 15/01/2013 na Wayback Machine .
29. ^
30. ^ "ITRS" (PDF) . Arquivado do original (PDF) em 29/09/2011 . Página visitada em 09-
09-2011 .
31. ^ Shulman, Carl; Anders, Sandberg. "Implicações de uma singularidade limitada por
software" (PDF) . intelligence.org . Instituto de Pesquisa de Inteligência de Máquina .
Retirado em 21 de março de 2021 .
32. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (24 de maio
de 2017). "Quando a IA excederá o desempenho humano? Evidências de especialistas
em IA". arXiv : 1705.08807 [ cs.AI ].
33. ^ Siracusa, John (2009-08-31). "Mac OS X 10.6 Snow Leopard: a análise da Ars
Technica" . Arstechnica.com. Arquivado do original em 03/09/2011 . Página visitada
em 09-09-2011 .
34. ^ Eliezer Yudkowsky, 1996 "Staring into the Singularity" Arquivado em 30/03/2018
na Wayback Machine
35. ^ "Singularidade do endereço das luminárias da tecnologia" . Espectro IEEE . 1 de
junho de 2008. Arquivado do original em 30 de abril de 2019 . Página visitada em 2 de
fevereiro de 2020 .
36. ^ Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind . Oxford U.
Press. p. 61. ISBN 978-0-19-513630-2.
37. ^ Ray Kurzweil, The Age of Spiritual Machines , Viking; 1999, ISBN  978-0-14-028202-
3 . pp. 30, 32 Arquivado em 2021-02-15 na Wayback Machine
38. ^ a b Ray Kurzweil, a singularidade está próximo , grupo do pinguim, 2005
39. ^ a b "The World Technological Capacity to Store, Communicate, and Compute
Information" Arquivado2013-07-27 naWayback Machine, Martin Hilbert e Priscila
López (2011),Science, 332 (6025), 60-65; acesso gratuito ao artigo aqui:
martinhilbert.net/WorldInfoCapacity.html
40. ^ A singularidade do século XXI e os futuros globais. A Big History Perspective
Archived 2021-02-15 at the Wayback Machine (Springer, 2020)
41. ^ Ray Kurzweil, a singularidade está próximo, p. 9. Penguin Group, 2005
42. ^ Ray Kurzweil, The Singularity is Near , pp. 135-136. Penguin Group, 2005. "Portanto,
estaremos produzindo cerca de 10 26 a 10 29 cps de computação não biológica por
ano no início de 2030. Isso é aproximadamente igual à nossa estimativa para a
capacidade de toda inteligência humana biológica viva ... Este estado de
computação no início de 2030 não representará a Singularidade, no entanto, porque
ainda não corresponde a uma expansão profunda de nossa inteligência. Em
meados da década de 2040, no entanto, aquele valor de mil dólares em
computação será igual a 10 26 cps , portanto, a inteligência criada por ano (a um
custo total de cerca de US $ 10 12) será cerca de um bilhão de vezes mais poderoso
do que toda a inteligência humana hoje. Isso vai de fato representam uma profunda
mudança, e é por essa razão que eu definir a data para a Singularity-representando
uma transformação profunda e perturbadora em humano capacidade, como 2045."
43. ^ Kurzweil, Raymond (2001), "The Law of Accelerating Returns" , Nature Physics ,
Lifeboat Foundation, 4 (7): 507, Bibcode : 2008NatPh ... 4..507B , doi : 10.1038 /
nphys1010 , arquivado do original em 2018/08/27 , recuperado 2007-08-07
44. ^ a b Joy, Bill (abril de 2000), "Por que o futuro não precisa de nós" , Wired Magazine ,
Viking Adult, 8 (4), ISBN 978-0-670-03249-5, arquivado do original em 05/02/2009 ,
recuperado em 07/08/2007
45. ^ Eliezer S. Yudkowsky. "Poder da Inteligência" . Yudkowsky. Arquivado do original em
03/10/2018 . Página visitada em 09-09-2011 .
46. ^ a b "Omohundro, Stephen M.," The Basic AI Drives. "Artificial General Intelligence,
2008 procedimentos da Primeira Conferência AGI, eds. Pei Wang, Ben Goertzel e Stan
Franklin. Vol. 171. Amsterdam: IOS, 2008 " .Arquivado do original em 17/09/2018 .
Página visitada em 2010-08-20 .
47. ^ "Inteligência Artificial Geral: Agora é a Hora" . KurzweilAI. Arquivado do original em
04/12/2011 . Página visitada em 09-09-2011 .
48. ^ a b "Omohundro, Stephen M.," a natureza da inteligência artificial Self-Improving.
"Sistemas Auto-cientes. 21 de janeiro de 2008. Web. 7 de janeiro de 2010".Arquivado
do original em 12/06/2018 . Página visitada em 2010-08-20 .
49. ^ Barrat, James (2013). "6," Quatro unidades básicas " ". Nossa invenção final (primeira
edição). Nova York: St. Martin's Press. pp. 78–98. ISBN 978-0312622374.
50. ^ "Max More e Ray Kurzweil na Singularidade" . KurzweilAI. Arquivado do original em
21/11/2018 . Página visitada em 09-09-2011 .
51. ^ "Resumo conciso | Instituto da singularidade para inteligência artificial" .
Singinst.org. Arquivado do original em 21/06/2011 . Página visitada em 09-09-2011 .
52. ^ a b "Bostrom, Nick, o futuro da evolução humana, morte e Anti-morte: Duzentos anos
após Kant, cinquenta anos após Turing, ed. Charles Tandy, pp. 339-371, 2004, Ria
University Press" . Arquivado do original em 28/08/2018 . Página visitada em 2010-08-
20 .
53. ^ Shulman, Carl; Anders Sandberg (2010). Mainzer, Klaus (ed.). "Implicações de uma
singularidade limitada por software" (PDF) . ECAP10: VIII Conferência Europeia sobre
Computação e Filosofia . Arquivado (PDF) do original em 30 de abril de 2019 .
Retirado em 17 de maio de 2014 .
54. ^ Muehlhauser, Luke; Anna Salamon (2012). "Explosão de inteligência: evidências e
importação" (PDF) . Em Amnon Eden; Johnny Søraker; James H. Moor; Eric Steinhart
(editores). Hipóteses de singularidade: uma avaliação científica e filosófica . Springer.
Arquivado (PDF) do original em 26/10/2014 . Página visitada em 28/08/2018 .
55. ^ Dreyfus & Dreyfus 2000 , p. xiv : 'A verdade é que a inteligência humana nunca
pode ser substituída pela inteligência da máquina simplesmente porque não somos
nós mesmos' máquinas pensantes 'no sentido em que esse termo é comumente
entendido.' Hawking (1998) : “Algumas pessoas dizem que os computadores nunca
podem mostrar inteligência verdadeira, seja ela qual for. Mas me parece que, se
moléculas químicas muito complicadas podem operar nos humanos para torná-los
inteligentes, então circuitos eletrônicos igualmente complicados também podem
fazer os computadores agirem de maneira inteligente. E, se forem inteligentes,
podem provavelmente projetar computadores com complexidade e inteligência
ainda maiores.
56. ^ John R. Searle , “What Your Computer Can't Know”, The New York Review of Books
, 9 de outubro de 2014, p. 54
57. ^ Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the
Economy of the Future Archived 2010-09-06 at the Wayback Machine , Acculant
Publishing, 2009, ISBN  978-1-4486-5981-4
58. ^ Markoff, John (04/03/2011). "Exércitos de advogados caros, substituídos por
software mais barato" . O jornal New York Times . Arquivado do original em 2021-02-
15 . Recuperado 25/02/2017 .
59. ^ Modis, Theodore (2002) "Forecasting the Growth of Complexity and Change"
Archived 2021-02-15 na Wayback Machine , Technological Forecasting & Social
Change , 69, No 4, 2002, pp. 377 - 404
60. ^ a b Huebner, Jonathan (2005) "A Possible Declining Trend for Worldwide
Innovation" Arquivado 2015-03-22 na Wayback Machine , Technological Forecasting
& Social Change , outubro de 2005, pp. 980-6
61. ^ Krazit, Tom. Intel promete 80 núcleos em cinco anos Archived 2021-02-15 at the
Wayback Machine , CNET News , 26 de setembro de 2006.
62. ^ Modis, Theodore (2006) "The Singularity Myth" Archived 2021-02-15 na Wayback
Machine , Technological Forecasting & Social Change , fevereiro de 2006, pp. 104-
112
63. ^ Nordhaus, William D. (2007). "Dois séculos de crescimento da produtividade em
computação". The Journal of Economic History . 67 : 128–159. CiteSeerX
 10.1.1.330.1871 . doi : 10.1017 / S0022050707000058 .
64. ^ Schmidhuber, Jürgen. "Novo milênio AI e a convergência da história." Desafios
para inteligência computacional. Springer Berlin Heidelberg, 2007. 15–35.
65. ^ Tainter, Joseph (1988) " The Collapse of Complex Societies Archived 2015-06-07
at the Wayback Machine " (Cambridge University Press)
66. ^ a b Jaron Lanier (2013). "Quem é o dono do futuro?" . Nova York: Simon & Schuster .
Arquivado do original em 2021-02-15 . Recuperado 2016-03-02 .
67. ^ William D. Nordhaus , "Why Growth Will Fall" (uma revisão de Robert J. Gordon ,
The Rise and Fall of American Growth: The US Standard of Living Since the Civil War ,
Princeton University Press, 2016, ISBN  978-0691147727 , 762 pp., $ 39,95), The
New York Review of Books , vol. LXIII, no. 13 (18 de agosto de 2016), p. 68
68. ^ Myers, PZ, Singularly Silly Singularity , arquivado do original em 28/02/2009 ,
recuperado 13/04/2009
69. ^ Anonymous (18 de março de 2006), "More blades good" , The Economist , London,
378 (8469), p. 85, arquivado do original em 10 de julho de 2006 , recuperado 12 de
julho de 2006
70. ^ Robin Hanson, "Economics Of The Singularity" , IEEE Spectrum Special Report: The
Singularity , arquivado do original em 11/08/2011 , recuperado em 25/07/2009E
crescimento de longo prazo como uma sequência de modos exponencial
Arquivado 2019/05/27 no Wayback Machine
71. ^ a b Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milan (eds.), "Artificial
Intelligence as a Positive and Negative Factor in Global Risk" (PDF) , Global
Catastrophic Risks , Oxford University Press: 303, Bibcode : 2008gcr..book..303Y ,
ISBN 978-0-19-857050-9, arquivado do original (PDF) em 07/08/2008
72. ^ "O futuro incerto" . theuncertainfuture.com; um futuro projeto de tecnologia e
modelagem de mundo . Arquivado do original em 30/04/2019 . Página visitada em
2010-08-17 .
73. ^ "GLOBAL CATASTROPHIC RISKS SURVEY (2008) Relatório técnico 2008/1 publicado
pelo Future of Humanity Institute, Oxford University. Anders Sandberg e Nick Bostrom"
(PDF) . Arquivado de original (PDF) em 16/05/2011.
74. ^ a b c Stephen Hawking (1º de maio de 2014). "Stephen Hawking: 'A transcendência
analisa as implicações da inteligência artificial - mas estamos levando a IA
suficientemente a sério? ' " . The Independent . Arquivado do original em 25 de
setembro de 2015 . Recuperado em 5 de maio de 2014 .
75. ^ Nick Bostrom, "Ethical Issues in Advanced Artificial Intelligence" Archived 2018-
10-08 em Wayback Machine , em Cognitive, Emotive and Ethical Aspects of Decision
Making in Humans and in Artificial Intelligence , Vol. 2, ed. I. Smit et al., Int. Instituto
de Estudos Avançados em Pesquisa de Sistemas e Cibernética, 2003, pp. 12-17
76. ^ Eliezer Yudkowsky : Inteligência Artificial como um Fator Positivo e Negativo no
Risco Global Arquivado em 11/06/2012 na Máquina Wayback . Rascunho para uma
publicação no Global Catastrophic Risk de 31 de agosto de 2006, recuperado em 18
de julho de 2011 (arquivo PDF)
77. ^ "O Dispositivo de Coleta de Selos, Nick Hay" . Arquivado do original em 17/06/2012 .
Recuperado em 21-08-2010 .
78. ^ 'Por que devemos temer o Paperclipper' Arquivado em 08/08/2018 na máquina
Wayback , entrada de 14/02/2011 do blog de Sandberg 'Andart'
79. ^ de Garis, Hugo. "The Coming Artilect War" Arquivado em 28/06/2011 na Wayback
Machine , Forbes.com, 22 de junho de 2009.
80. ^ Coherent Extrapolated Volition, Eliezer S. Yudkowsky, maio de 2004 arquivado em
15-08-2010 na máquina de Wayback
81. ^ a b Evitando comportamentos involuntários do AI. Arquivado em 29/06/2013 na
Wayback Machine Bill Hibbard. Atas de 2012 da Quinta Conferência de Inteligência
Geral Artificial, eds. Joscha Bach, Ben Goertzel e Matthew Ikle. Este artigo ganhou
o Prêmio Turing de 2012 do Machine Intelligence Research Institute para o melhor
artigo de segurança da AGI, arquivado em 2021-02-15 em Wayback Machine .
82. ^ Hibbard, Bill (2008), "A Tecnologia da Mente e um Novo Contrato Social" , Journal of
Evolution and Technology , 17 , arquivado do original em 2021-02-15 , recuperado em
2013-01-05 .
83. ^ Suporte de decisão para design seguro de IA |. Arquivado em 2021-02-15 em
Wayback Machine Bill Hibbard. Atas de 2012 da Quinta Conferência de Inteligência
Geral Artificial, eds. Joscha Bach, Ben Goertzel e Matthew Ikle.
84. ^ a b c Kemp, DJ; Hilbert, M .; Gillings, MR (2016). "Informação na Biosfera: mundos
biológicos e digitais" . Tendências em Ecologia e Evolução . 31 (3): 180–189. doi :
10.1016 / j.tree.2015.12.013 . PMID  26777788 . Arquivado do original em 04/06/2016
. Página visitada em 2016-05-24 .
85. ^ a b Markoff, John (26 de julho de 2009). "Cientistas preocupam-se com máquinas
podem superar o homem" . O jornal New York Times . Arquivado do original em 01-07-
2017.
86. ^ Robinson, Frank S. (27 de junho de 2013). "O futuro humano: atualização ou
substituição?" . The Humanist . Arquivado do original em 15 de fevereiro de 2021 .
Retirado em 1 de maio de 2020 .
87. ^ Bugaj, Stephan Vladimir e Ben Goertzel. "Cinco imperativos éticos e suas
implicações para a interação humano-AGI." Psicologia Dinâmica (2007).
88. ^ Sotala, Kaj e Roman V. Yampolskiy. "Respostas ao risco catastrófico de AGI: uma
pesquisa." Physica Scripta 90.1 (2014): 018001.
89. ^ Naam, Ramez (2014). "A singularidade é mais longe do que parece" . Arquivado do
original em 17 de maio de 2014 . Obtido em 16 de maio de 2014 .
90. ^ Naam, Ramez (2014). "Por que os IAs não sobem em um piscar de olhos - um pouco
de matemática" . Arquivado do original em 17 de maio de 2014 . Obtido em 16 de
maio de 2014 .
91. ^ Salão, J. Storrs (2008). "Engineering Utopia" (PDF) . Artificial General Intelligence,
2008: Proceedings of the First AGI Conference : 460–467. Arquivado (PDF) do original
em 1 de dezembro de 2014 . Obtido em 16 de maio de 2014 .
92. ^ Goertzel, Ben (26 de setembro de 2014). "Superinteligência - Cenários de decolagem
semi-difícil" . h + Magazine. Arquivado do original em 25 de outubro de 2014 . Obtido
em 25 de outubro de 2014 .
93. ^ Mais, máx. "Singularidade encontra economia" . Arquivado do original em 28 de
agosto de 2009 . Obtido em 10 de novembro 2014 .
94. ^ A singularidade está próximo , p. 215
95. ^ The Singularity is Near , p. 216
96. ^ Feynman, Richard P. (dezembro de 1959). "Há muito espaço no fundo" . Arquivado
do original em 11/02/2010.
97. ^ Lanier, Jaron (2010). Você não é um gadget: um manifesto . New York, NY: Alfred A.
Knopf . p. 26 . ISBN 978-0307269645.
98. ^ Prasad, Mahendra (2019). "Nicolas de Condorcet e a hipótese de explosão da
Primeira Inteligência" . AI Magazine . 40 (1): 29–33. doi : 10.1609 / aimag.v40i1.2855 .
99. ^ Vinge não usou realmente a frase "singularidade tecnológica" no artigo Omni, mas
a usou na coleção de contos Ameaças e outras promessas de 1988, escrevendo na
introdução de sua história "O turbilhão do tempo" (p. 72): Exceto uma catástrofe
mundial, acredito que a tecnologia vai realizar nossos sonhos mais loucos, e em
breve.Quando elevamos nossa própria inteligência e a de nossas criações, não
estamos mais em um mundo de personagens de tamanho humano. Nesse ponto,
caímos em um "buraco negro" tecnológico, uma singularidade tecnológica.
100. ^ Solomonoff, RJ "The Time Scale of Artificial Intelligence: Reflections on Social
Effects" , Human Systems Management, Vol. 5, pp. 149-153, 1985.
101. ^ Episódio datado de 23 de agosto de 2006 na IMDb
102. ^ Sandberg, Anders. "Uma visão geral dos modelos de singularidade tecnológica."
Workshop Roadmaps to AGI and the Future of AGI, Lugano, Suíça, março. Vol. 8.
2010.
103. ^ Singularity University Archived 2021-02-15 na Wayback Machine em seu site
oficial
104. ^ Guston, David H. (14 de julho de 2010). Enciclopédia de Nanociência e Sociedade .
Publicações SAGE. ISBN 978-1-4522-6617-6. Arquivado do original em 15 de fevereiro
de 2021 . Obtido em 4 de novembro de 2016 .
105. ^ "Nanotecnologia: O futuro está chegando mais cedo do que você pensa" (PDF) .
Comitê Econômico Conjunto. Março de 2007. Arquivado (PDF) do original em 2021-
02-15 . Página visitada em 29/04/2012 .
106. ^ Dadich, Scott (12 de outubro de 2016). "Barack Obama fala sobre IA, carros
robóticos e o futuro do mundo" . Com fio . Arquivado do original em 3 de dezembro de
2017 . Obtido em 4 de novembro de 2016 .

Origens

Kurzweil, Ray (2005). A singularidade está próxima . New York, NY: Penguin Group.
ISBN 9780715635612.
William D. Nordhaus , "Why Growth Will Fall" (uma revisão de Robert J. Gordon , The
Rise and Fall of American Growth: The US Standard of Living Since the Civil War ,
Princeton University Press, 2016, ISBN  978-0691147727 , 762 pp., $ 39,95), The
New York Review of Books , vol. LXIII, no. 13 (18 de agosto de 2016), pp. 64, 66, 68.
John R. Searle , “What Your Computer Can't Know” (revisão de Luciano Floridi , The
Fourth Revolution: How the Infosphere Is Reshaping Human Reality , Oxford University
Press, 2014; e Nick Bostrom , Superintelligence: Paths, Dangers, Strategies , Oxford
University Press, 2014), The New York Review of Books , vol. LXI, não. 15 (9 de
outubro de 2014), pp. 52–55.
Good, IJ (1965), "Speculations Concerning the First Ultraintelligent Machine" , em
Franz L. Alt; Morris Rubinoff (eds.), Advances in Computers Volume 6 , Advances in
Computers, 6 , Academic Press , pp. 31-88, doi : 10.1016 / S0065-2458 (08) 60418-0 ,
hdl : 10919/89424 , ISBN 9780120121069, arquivado do original em 27/05/2001 ,
recuperado em 07/08/2007
Hanson, Robin (1998), Some Skepticism , Robin Hanson, arquivado do original em
28/08/2009 , recuperado em 19/06/2009
Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren , arquivado do
original em 2014-07-23 , recuperado em 2008-06-13
Hibbard, Bill (5 de novembro de 2014). "Inteligência Artificial Ética". arXiv : 1411,1373 [
cs.AI ].

Leitura adicional
Marcus, Gary , "Am I Human ?: Os pesquisadores precisam de novas maneiras de
distinguir a inteligência artificial da natural", Scientific American , vol. 316, no. 3
(março de 2017), pp. 58–63. Vários testes de eficácia da inteligência artificial são
necessários porque, "assim como não existe um único teste de destreza atlética ,
não pode haver um teste definitivo de inteligência". Um desses testes, um "Desafio
de construção", testaria a percepção e a ação física - "dois elementos importantes
de comportamento inteligente que estavam inteiramente ausentes do original teste
de Turing. "Outra proposta foi dar às máquinas os mesmos testes padronizados de
ciências e outras disciplinas que os alunos fazem. Um obstáculo até agora
insuperável para a inteligência artificial é a incapacidade de desambiguação
confiável ." [V] praticamente todas as frases [que as pessoas geram] é ambíguo ,
muitas vezes de várias maneiras. "Um exemplo importante é conhecido como o"
problema de desambiguação de pronomes ": uma máquina não tem como
determinar para quem ou o que um pronome em uma frase - como" ele "," ela "ou"
refere-se.
Scaruffi, Piero , "Intelligence is not Artificial" (2016) para uma crítica ao movimento
de singularidade e suas semelhanças com os cultos religiosos.

links externos
A vindoura singularidade tecnológica: como sobreviver na era pós-humana (no site
de Vernor Vinge, acessado em julho de 2019)
Perguntas frequentes sobre explosão de inteligência pelo Machine Intelligence
Research Institute
Blog sobre bootstrapping de inteligência artificial por Jacques Pitrat
Por que uma explosão de inteligência é provável (março de 2011)
Por que uma explosão de inteligência é impossível (novembro de 2017)
Quão próximos estamos da singularidade tecnológica e quando? (Maio de 2021)

Você também pode gostar