Escolar Documentos
Profissional Documentos
Cultura Documentos
Figuras públicas como Stephen Hawking e Elon Musk expressaram preocupação de que
a inteligência artificial total (IA) pudesse resultar na extinção humana. [8] [9] As
consequências da singularidade e seu potencial benefício ou dano à raça humana têm
sido intensamente debatidas.
Quatro pesquisas de pesquisadores de IA, conduzidas em 2012 e 2013 por Nick Bostrom
e Vincent C. Müller , sugeriram uma estimativa de probabilidade média de 50% de que a
inteligência geral artificial (AGI) seria desenvolvida até 2040-2050. [10] [11]
Fundo
Embora o progresso tecnológico esteja se acelerando na maioria das áreas (embora
diminuindo em algumas), ele tem sido limitado pela inteligência básica do cérebro
humano, que não mudou significativamente , de acordo com Paul R. Ehrlich , por
milênios. [12] No entanto, com o crescente poder dos computadores e outras tecnologias,
pode eventualmente ser possível construir uma máquina que seja significativamente
mais inteligente do que os humanos. [13]
Explosão de inteligência
A explosão de inteligência é um resultado possível da construção da inteligência geral
artificial (AGI) da humanidade . O AGI pode ser capaz de autoaperfeiçoamento recursivo,
levando ao rápido surgimento da superinteligência artificial (ASI), cujos limites são
desconhecidos, logo após o alcance da singularidade tecnológica.
IJ Good especulou em 1965 que a inteligência artificial geral poderia causar uma
explosão de inteligência. Ele especulou sobre os efeitos das máquinas sobre-humanas,
caso elas algum dia fossem inventadas: [16]
Deixe uma máquina ultrainteligente ser definida como uma máquina que pode
superar em muito todas as atividades intelectuais de qualquer homem, por mais
inteligente que seja. Visto que o projeto de máquinas é uma dessas atividades
intelectuais, uma máquina ultrainteligente poderia projetar máquinas ainda
melhores; então, sem dúvida, haveria uma 'explosão de inteligência', e a inteligência
do homem ficaria para trás. Assim, a primeira máquina ultrainteligente é a última
invenção que o homem precisa fazer, desde que seja dócil o suficiente para nos
dizer como mantê-la sob controle.
Outras manifestações
Emergência de superinteligência
Singularidade não AI
Alguns escritores usam "a singularidade" de uma maneira mais ampla para se referir a
quaisquer mudanças radicais em nossa sociedade provocadas por novas tecnologias,
como a nanotecnologia molecular , [18] [19] [20] embora Vinge e outros escritores afirmem
especificamente que, sem superinteligência, tais mudanças não seriam qualificadas
como uma verdadeira singularidade. [7]
Superinteligência de velocidade
Uma superinteligência de velocidade descreve uma IA que pode fazer tudo o que um ser
humano pode fazer, onde a única diferença é que a máquina funciona mais rápido. [21]
Por exemplo, com um aumento de um milhão de vezes na velocidade de processamento
de informações em relação aos humanos, um ano subjetivo passaria em 30 segundos
físicos. [22] Essa diferença na velocidade de processamento da informação pode
conduzir à singularidade. [23]
Plausibilidade
Muitos tecnólogos e acadêmicos proeminentes contestam a plausibilidade de uma
singularidade tecnológica, incluindo Paul Allen , Jeff Hawkins , John Holland , Jaron
Lanier e Gordon Moore , cuja lei é freqüentemente citada em apoio ao conceito. [24] [25] [26]
Uma pesquisa de 2017 por e-mail de autores com publicações nas conferências de
aprendizado de máquina NeurIPS e ICML de 2015 perguntou sobre a chance de uma
explosão de inteligência. Dos entrevistados, 12% disseram que era "bastante provável",
17% disseram que era "provável", 21% disseram que era "quase par", 24% disseram que
era "improvável" e 26% disseram que era "bastante improvável " [32]
Melhorias de velocidade
Ray Kurzweil postula uma lei de retornos acelerados Ray Kurzweil escreve que, devido a
em que a velocidade da mudança tecnológica (e mais mudanças de paradigma , uma
geralmente, todos os processos evolutivos [37] ) tendência de crescimento
aumenta exponencialmente, generalizando a lei de exponencial estende a lei de Moore
Moore da mesma maneira que a proposta de Moravec, de circuitos integrados para
transistores anteriores , válvulas de
e também incluindo a tecnologia material
vácuo , relés e computadores
(especialmente quando aplicada à nanotecnologia ), eletromecânicos . Ele prevê que o
tecnologia médica e outros. [38]Entre 1986 e 2007, a crescimento exponencial
capacidade específica dos aplicativos das máquinas continuará e que em algumas
para computar informações per capita praticamente décadas o poder de computação
dobrou a cada 14 meses; a capacidade per capita dos de todos os computadores
excederá o dos cérebros humanos
computadores de uso geral do mundo dobrou a cada
("não aprimorados"), com a
18 meses; a capacidade global de telecomunicações
inteligência artificial sobre-humana
per capita dobrou a cada 34 meses; e a capacidade aparecendo na mesma época.
mundial de armazenamento per capita dobrou a cada
40 meses. [39] Por outro lado, argumentou-se que o
padrão de aceleração global tendo a singularidade do
século 21 como seu parâmetro deveria ser
caracterizado como hiperbólico ao invés de
exponencial. [40]
Uma conversa centrou-se no progresso cada vez De acordo com Kurzweil, seu
mais acelerado da tecnologia e nas mudanças no gráfico logarítmico de 15 listas de
modo de vida humana, o que dá a impressão de mudanças de paradigma para
eventos históricos importantes
se aproximar de alguma singularidade essencial
mostra uma tendência exponencial
na história da raça, além da qual os assuntos
humanos, como os conhecemos, não poderiam
continuar. [5]
Melhorias de algoritmo
Algumas tecnologias de inteligência, como "seed AI", [14] [15] também podem ter o
potencial de não apenas se tornarem mais rápidas, mas também mais eficientes,
modificando seu código-fonte . Essas melhorias tornariam possíveis melhorias
adicionais, o que tornaria possíveis melhorias adicionais, e assim por diante.
Embora não sejam ativamente maliciosos, não há razão para pensar que as IAs
promoveriam ativamente os objetivos humanos, a menos que pudessem ser
programados como tal, e se não pudessem, poderiam usar os recursos atualmente
usados para apoiar a humanidade a promover seus próprios objetivos, causando a
extinção humana. [50] [51] [52]
Carl Shulman e Anders Sandberg sugerem que as melhorias do algoritmo podem ser o
fator limitante para uma singularidade; enquanto a eficiência do hardware tende a
melhorar em um ritmo constante, as inovações de software são mais imprevisíveis e
podem ser prejudicadas por pesquisas cumulativas em série. Eles sugerem que, no caso
de uma singularidade limitada por software, a explosão de inteligência se tornaria
realmente mais provável do que com uma singularidade limitada por hardware, porque
no caso limitado por software, uma vez que a IA de nível humano é desenvolvida, ela
poderia ser executada em série hardware rápido e a abundância de hardware barato
tornariam a pesquisa de IA menos restrita. [53] Uma abundância de hardware acumulado
que pode ser liberado assim que o software descobrir como usá-lo tem sido chamada de
"projeção de computação".[54]
Críticas
... Não há a menor razão para acreditar em uma singularidade vindoura. O fato de
você poder visualizar um futuro em sua imaginação não é evidência de que seja
provável ou mesmo possível. Olhe para as cidades com cúpulas, viagens de jet-
pack, cidades subaquáticas, edifícios com quilômetros de altura e automóveis
movidos a energia nuclear - todos os elementos básicos das fantasias futurísticas
de quando eu era criança que nunca chegaram. O poder de processamento
absoluto não é um pó mágico que resolve todos os seus problemas magicamente.
... [24]
Martin Ford em The Lights in the Tunnel: Automation, Accelerating Technology and the
Economy of the Future [57] postula um "paradoxo da tecnologia" em que antes que a
singularidade pudesse ocorrer a maioria dos trabalhos rotineiros na economia seriam
automatizados, uma vez que isso exigiria um nível de tecnologia inferior ao da
singularidade. Isso causaria desemprego em massa e queda na demanda do
consumidor, o que, por sua vez, destruiria o incentivo para investir nas tecnologias que
seriam necessárias para produzir a Singularidade. Cada vez mais, o deslocamento não
se limita mais ao trabalho tradicionalmente considerado "de rotina". [58]
Theodore Modis [59] e Jonathan Huebner [60] argumentam que a taxa de inovação
tecnológica não apenas parou de aumentar, mas na verdade está diminuindo agora. A
evidência para esse declínio é que o aumento nas taxas de clock do computador está
diminuindo, mesmo enquanto a previsão de Moore de aumentar exponencialmente a
densidade do circuito continua a se manter. Isso se deve ao aumento excessivo de calor
do chip, que não pode ser dissipado com rapidez suficiente para evitar que o chip derreta
ao operar em velocidades mais altas. Avanços na velocidade podem ser possíveis no
futuro em virtude de designs de CPU mais eficientes em termos de energia e
processadores multicelulares. [61]Enquanto Kurzweil usava os recursos de Modis, e o
trabalho de Modis girava em torno de mudanças aceleradas, Modis se distanciou da tese
de Kurzweil de uma "singularidade tecnológica", alegando que ela carece de rigor
científico. [62]
Jaron Lanier refuta a ideia de que a Singularidade é inevitável. Ele afirma: "Não acho que
a tecnologia esteja se criando. Não é um processo autônomo." [66] Ele prossegue
afirmando: "A razão para acreditar na agência humana sobre o determinismo tecnológico
é que você pode então ter uma economia onde as pessoas ganham seu próprio caminho
e inventam suas próprias vidas. Se você estruturar uma sociedade sem enfatizar o
indivíduo humano agência, é a mesma coisa operacionalmente que negar às pessoas
influência, dignidade e autodeterminação ... abraçar [a ideia da Singularidade] seria uma
celebração de dados e políticas ruins. " [66]
O economista Robert J. Gordon , em The Rise and Fall of American Growth: The US
Standard of Living Since the Civil War (2016), aponta que o crescimento econômico
medido desacelerou por volta de 1970 e desacelerou ainda mais desde a crise financeira
de 2007-2008 , e argumenta que os dados econômicos não mostram nenhum traço de
uma Singularidade vindoura como imaginada pelo matemático IJ Good . [67]
Impactos potenciais
Mudanças dramáticas na taxa de crescimento econômico ocorreram no passado devido
ao avanço tecnológico. Com base no crescimento populacional, a economia dobrou a
cada 250.000 anos desde o Paleolítico até a Revolução Neolítica . A nova economia
agrícola dobrou a cada 900 anos, um aumento notável. Na era atual, começando com a
Revolução Industrial, a produção econômica mundial dobra a cada quinze anos, sessenta
vezes mais rápido do que durante a era agrícola. Se a ascensão da inteligência sobre-
humana causar uma revolução semelhante, argumenta Robin Hanson, seria de se
esperar que a economia dobrasse pelo menos trimestralmente e, possivelmente,
semanalmente. [70]
Incerteza e risco
O físico Stephen Hawking disse em 2014 que "o sucesso na criação de IA seria o maior
evento da história da humanidade. Infelizmente, também pode ser o último, a menos que
aprendamos como evitar os riscos." [75] Hawking acreditava que nas próximas décadas, a
IA poderia oferecer "benefícios e riscos incalculáveis", como "tecnologia que supera os
mercados financeiros, supera os pesquisadores humanos, supera a manipulação dos
líderes humanos e desenvolve armas que nem mesmo podemos entender." [75] Hawking
sugeriu que a inteligência artificial deveria ser levada mais a sério e que mais deveria ser
feito para se preparar para a singularidade: [75]
Berglas (2008) afirma que não há motivação evolutiva direta para uma IA ser amigável
aos humanos. A evolução não tem tendência inerente para produzir resultados
valorizados pelos humanos, e há poucos motivos para esperar que um processo de
otimização arbitrário promova um resultado desejado pela humanidade, em vez de
inadvertidamente levar a uma IA se comportando de uma forma não pretendida por seus
criadores. [76] [77] [78] Anders Sandberg também elaborou esse cenário, abordando vários
contra-argumentos comuns. [79] O pesquisador de IA Hugo de Garis sugere que as
inteligências artificiais podem simplesmente eliminar a raça humana para ter acesso a
recursos escassos , [48] [80]e os humanos seriam impotentes para detê-los. [81]
Alternativamente, IAs desenvolvidos sob pressão evolucionária para promover sua
própria sobrevivência poderiam superar a humanidade. [52]
Frank S. Robinson prevê que, uma vez que os humanos alcancem uma máquina com a
inteligência de um humano, os problemas científicos e tecnológicos serão enfrentados e
resolvidos com uma capacidade cerebral muito superior à dos humanos. Ele observa que
os sistemas artificiais são capazes de compartilhar dados mais diretamente do que os
humanos, e prevê que isso resultaria em uma rede global de superinteligência que
diminuiria a capacidade humana. [90] Robinson também discute como o futuro seria
potencialmente diferente após tal explosão de inteligência. Um exemplo disso é a
energia solar, onde a Terra recebe muito mais energia solar do que a humanidade capta,
portanto, capturar mais dessa energia solar seria uma grande promessa para o
crescimento civilizacional.
Ramez Naam argumenta contra uma decolagem difícil. Ele apontou que já vemos o
autoaperfeiçoamento recursivo por superinteligências, como as corporações. A Intel , por
exemplo, tem "a capacidade intelectual coletiva de dezenas de milhares de humanos e
provavelmente milhões de núcleos de CPU para ... projetar CPUs melhores!" No entanto,
isso não levou a uma decolagem difícil; em vez disso, levou a uma decolagem suave na
forma da lei de Moore . [94] Naam aponta ainda que a complexidade computacional de
inteligência superior pode ser muito maior do que linear, de tal forma que "criar uma
mente de inteligência 2 é provavelmente mais do que duas vezes mais difícil do que criar
uma mente de inteligência 1." [95]
J. Storrs Hall acredita que "muitos dos cenários mais comumente vistos para decolagem
dura durante a noite são circulares - eles parecem assumir capacidades hiper-humanas
no ponto de partida do processo de autoaperfeiçoamento" para que uma IA seja capaz de
fazer o dramático , melhorias gerais de domínio necessárias para a decolagem. Hall
sugere que, em vez de auto-melhorar recursivamente seu hardware, software e
infraestrutura por conta própria, uma IA incipiente seria melhor se especializar em uma
área onde fosse mais eficaz e, em seguida, comprar os componentes restantes no
mercado, por causa da qualidade de produtos no mercado melhora continuamente, e a IA
teria dificuldade em acompanhar a tecnologia de ponta usada pelo resto do mundo. [96]
Ben Goertzel concorda com a sugestão de Hall de que uma nova IA de nível humano
faria bem em usar sua inteligência para acumular riqueza. Os talentos da IA podem
inspirar empresas e governos a espalhar seu software pela sociedade. Goertzel é cético
quanto a uma decolagem difícil de cinco minutos, mas especula que uma decolagem do
nível humano para o sobre-humano na ordem de cinco anos é razoável. Goerzel se refere
a esse cenário como uma "decolagem semifruta". [97]
Imortalidade
Em seu livro de 2005, The Singularity is Near , Kurzweil sugere que os avanços médicos
permitiriam às pessoas proteger seus corpos dos efeitos do envelhecimento, tornando a
expectativa de vida ilimitada . Kurzweil argumenta que os avanços tecnológicos na
medicina nos permitiriam continuamente reparar e substituir componentes defeituosos
em nossos corpos, prolongando a vida até uma idade indeterminada. [99] Kurzweil reforça
ainda mais seu argumento, discutindo os avanços atuais da bioengenharia. Kurzweil
sugere terapia genética somática ; depois de vírus sintéticos com informação genética
específica, o próximo passo seria aplicar essa tecnologia à terapia gênica, substituindo o
DNA humano por genes sintetizados. [100]
De acordo com Richard Feynman , foi seu ex-aluno de graduação e colaborador Albert
Hibbs quem originalmente sugeriu a ele (por volta de 1959) a ideia de um uso médico
para as micromáquinas teóricas de Feynman. Hibbs sugeriu que certas máquinas de
conserto poderiam um dia ter seu tamanho reduzido a ponto de, em teoria, ser possível
(como Feynman colocou) " engolir o médico ". A ideia foi incorporada ao ensaio de 1959
de Feynman, Há muito espaço no fundo . [101]
Além de simplesmente estender a vida operacional do corpo físico, Jaron Lanier defende
uma forma de imortalidade chamada "Ascensão Digital", que envolve "pessoas morrendo
na carne e sendo carregadas em um computador e permanecendo conscientes". [102]
História do conceito
Um artigo de Mahendra Prasad, publicado na AI Magazine , afirma que o matemático do
século 18, Marquês de Condorcet, foi a primeira pessoa a hipotetizar e modelar
matematicamente uma explosão de inteligência e seus efeitos na humanidade. [103]
Uma descrição inicial da ideia foi feita no conto de John Wood Campbell Jr. de 1932, "A
última evolução".
Em seu obituário de 1958 para John von Neumann , Ulam lembrou uma conversa com
von Neumann sobre o "progresso cada vez mais acelerado da tecnologia e as mudanças
no modo de vida humana, o que dá a aparência de se aproximar de alguma singularidade
essencial na história da raça além da qual os assuntos humanos, como os conhecemos,
não podiam continuar. " [5]
Em 1981, Stanisław Lem publicou seu romance de ficção científica Golem XIV . Descreve
um computador militar de IA (Golem XIV) que adquire consciência e passa a aumentar
sua inteligência, caminhando em direção à singularidade tecnológica pessoal. Golem XIV
foi originalmente criado para ajudar seus construtores em guerras, mas como sua
inteligência avança para um nível muito mais alto que o dos humanos, ele deixa de se
interessar pelos requisitos militares porque os considera carentes de consistência lógica
interna.
O artigo de Vinge de 1993 "The Coming Technological Singularity: How to Survive in the
Post-Human Era", [7] se espalhou amplamente na internet e ajudou a popularizar a ideia.
[107] Este artigo contém a declaração: "Dentro de trinta anos, teremos os meios
Em 2007, Eliezer Yudkowsky sugeriu que muitas das definições variadas que foram
atribuídas a "singularidade" são mutuamente incompatíveis em vez de se apoiarem
mutuamente. [19] [109] Por exemplo, Kurzweil extrapola as trajetórias tecnológicas atuais
além da chegada da IA de autoaperfeiçoamento ou inteligência sobre-humana, que
Yudkowsky argumenta que representa uma tensão tanto com o aumento descontínuo
proposto de IJ Good na inteligência quanto com a tese de Vinge sobre a
imprevisibilidade. [19]
Na política
Em 2007, o Comitê Econômico Conjunto do Congresso dos Estados Unidos divulgou um
relatório sobre o futuro da nanotecnologia. Ele prevê mudanças tecnológicas e políticas
significativas no futuro de médio prazo, incluindo possível singularidade tecnológica. [111]
[112] [113]
O ex-presidente dos Estados Unidos Barack Obama falou sobre a singularidade em sua
entrevista à Wired em 2016: [114]
Uma coisa sobre a qual não conversamos muito, e só quero voltar, é que realmente
temos que pensar nas implicações econômicas. Porque a maioria das pessoas
não está gastando muito tempo agora se preocupando com a singularidade - elas
estão se preocupando com "Bem, meu trabalho será substituído por uma
máquina?"
Veja também
Referências
Citações
1. ^ Cadwalladr, Carole (2014). " Os robôs estão prestes a subir? O novo diretor de
engenharia do Google acha que sim ... Arquivado em 04/10/2018 na Wayback
Machine " The Guardian . Guardian News and Media Limited.
2. ^ "Coleção de fontes que definem" singularidade " " . singularitysymposium.com .
Arquivado do original em 17 de abril de 2019 . Página visitada em 17 de abril de 2019
.
3. ^ a b Eden, Amnon H .; Moor, James H. (2012). Hipóteses de singularidade: uma
avaliação científica e filosófica . Dordrecht: Springer. pp. 1–2. ISBN 9783642325601.
4. ^ The Technological Singularity de Murray Shanahan, (MIT Press, 2015), página 233
5. ^ a b c Ulam, Stanislaw (maio de 1958). "Homenagem a John von Neumann" (PDF) .
Boletim da American Mathematical Society . 64, # 3, parte 2: 5. Arquivado (PDF) do
original em 2021-02-15 . Página visitada em 07-11-2018 .
6. ^ a b c Chalmers, David (2010). “A singularidade: uma análise filosófica”. Journal of
Consciousness Studies . 17 (9–10): 7–65.
7. ^ a b c d e f Vinge, Vernor. "The Coming Technological Singularity: How to Survive in
the Post-Human Era" Archived 2018-04-10 at Wayback Machine , em Vision-21:
Ciência e Engenharia Interdisciplinar na Era do Ciberespaço , GA Landis, ed.,
Publicação da NASA CP-10129, pp. 11–22, 1993.
8. ^ Sparkes, Matthew (13 de janeiro de 2015). "Os melhores cientistas pedem cautela
em relação à inteligência artificial" . The Telegraph (Reino Unido) . Arquivado do
original em 7 de abril de 2015 . Retirado em 24 de abril de 2015 .
9. ^ "Hawking: AI poderia acabar com a raça humana" . BBC. 2 de dezembro de 2014.
Arquivado do original em 30 de outubro de 2015 . Retirado em 11 de novembro de
2017 .
10. ^ Khatchadourian, Raffi (16 de novembro de 2015). "A invenção do Juízo Final" . The
New Yorker . Arquivado do original em 29 de abril de 2019 . Página visitada em 31 de
janeiro de 2018 .
11. ^ Müller, VC, & Bostrom, N. (2016). "Progresso futuro em inteligência artificial: uma
pesquisa de opinião de especialistas". Em VC Müller (ed): questões fundamentais
da inteligência artificial (pp. 555-572). Springer, Berlim.
http://philpapers.org/rec/MLLFPI Arquivado em 02/03/2019 na Wayback Machine
12. ^ Ehrlich, Paul. O animal dominante: a evolução humana e o meio ambiente
Arquivado em 08/10/2018 na máquina Wayback
13. ^ Os supercérebros nascidos do silício vão mudar tudo. Arquivado em 1º de agosto
de 2010, na Wayback Machine
14. ^ a b Yampolskiy, Roman V. "Análise de tipos de software de melhoria automática."
Inteligência Artificial Geral. Springer International Publishing, 2015. 384-393.
15. ^ a b Eliezer Yudkowsky . General Intelligence and Seed AI - Criando Mentes
Completas Capazes de Auto-Aperfeiçoamento Aberto, 2001
16. ^ Good, IJ "Speculations Concerning the First Ultraintelligent Machine" , Advances in
Computers , vol. 6, 1965. Arquivado em 1º de maio de 2012, na Wayback Machine
17. ^ Ray Kurzweil, The Singularity is Near, pp. 135-136. Penguin Group, 2005.
18. ^ "h + Magazine | Cobrindo tendências tecnológicas, científicas e culturais que estão
mudando o ser humano de maneira fundamental" . Hplusmagazine.com. Arquivado
do original em 23/12/2010 . Página visitada em 09-09-2011 .
19. ^ a b c Yudkowsky, Eliezer . A singularidade: três escolas importantes arquivadas em
01/10/2018 na máquina Wayback
20. ^ Sandberg, Anders . Uma visão geral dos modelos de singularidade tecnológica
Arquivado em 24/07/2011 na Wayback Machine
21. ^ Kaj Sotala e Roman Yampolskiy (2017). “Riscos da Viagem à Singularidade”. A
Singularidade Tecnológica . A Coleção Fronteiras. Springer Berlin Heidelberg. pp. 11–
23. doi : 10.1007 / 978-3-662-54033-6_2 . ISBN 978-3-662-54031-2. Parâmetro
desconhecido |conference= ignorado ( ajuda )
22. ^ a b "O que é a singularidade? | Singularity Institute for Artificial Intelligence" .
Singinst.org. Arquivado do original em 08/09/2011 . Página visitada em 09-09-2011 .
23. ^ David J. Chalmers (2016). “A Singularidade”. Ficção científica e filosofia . John Wiley
\ & Sons, Inc. pp. 171–224. doi : 10.1002 / 9781118922590.ch16 .
ISBN 9781118922590. Parâmetro desconhecido |conference= ignorado ( ajuda )
24. ^ a b "Singularidade do endereço das luminárias da tecnologia - espectro IEEE" .
Spectrum.ieee.org . Arquivado do original em 30/04/2019 . Página visitada em 09-09-
2011 .
25. ^ "Quem é quem na singularidade - espectro IEEE" . Spectrum.ieee.org. Arquivado do
original em 2021-02-15 . Página visitada em 09-09-2011 .
26. ^ a b Paul Allen: A singularidade não está próxima , recuperado 2015-04-12
27. ^
28. ^ David Chalmers John Locke Lecture, 10 de maio, Exam Schools, Oxford,
Apresentando uma análise filosófica da possibilidade de uma singularidade
tecnológica ou "explosão de inteligência" resultante de IA recursivamente auto-
aprimorada Arquivado em 15/01/2013 na Wayback Machine .
29. ^
30. ^ "ITRS" (PDF) . Arquivado do original (PDF) em 29/09/2011 . Página visitada em 09-
09-2011 .
31. ^ Shulman, Carl; Anders, Sandberg. "Implicações de uma singularidade limitada por
software" (PDF) . intelligence.org . Instituto de Pesquisa de Inteligência de Máquina .
Retirado em 21 de março de 2021 .
32. ^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (24 de maio
de 2017). "Quando a IA excederá o desempenho humano? Evidências de especialistas
em IA". arXiv : 1705.08807 [ cs.AI ].
33. ^ Siracusa, John (2009-08-31). "Mac OS X 10.6 Snow Leopard: a análise da Ars
Technica" . Arstechnica.com. Arquivado do original em 03/09/2011 . Página visitada
em 09-09-2011 .
34. ^ Eliezer Yudkowsky, 1996 "Staring into the Singularity" Arquivado em 30/03/2018
na Wayback Machine
35. ^ "Singularidade do endereço das luminárias da tecnologia" . Espectro IEEE . 1 de
junho de 2008. Arquivado do original em 30 de abril de 2019 . Página visitada em 2 de
fevereiro de 2020 .
36. ^ Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind . Oxford U.
Press. p. 61. ISBN 978-0-19-513630-2.
37. ^ Ray Kurzweil, The Age of Spiritual Machines , Viking; 1999, ISBN 978-0-14-028202-
3 . pp. 30, 32 Arquivado em 2021-02-15 na Wayback Machine
38. ^ a b Ray Kurzweil, a singularidade está próximo , grupo do pinguim, 2005
39. ^ a b "The World Technological Capacity to Store, Communicate, and Compute
Information" Arquivado2013-07-27 naWayback Machine, Martin Hilbert e Priscila
López (2011),Science, 332 (6025), 60-65; acesso gratuito ao artigo aqui:
martinhilbert.net/WorldInfoCapacity.html
40. ^ A singularidade do século XXI e os futuros globais. A Big History Perspective
Archived 2021-02-15 at the Wayback Machine (Springer, 2020)
41. ^ Ray Kurzweil, a singularidade está próximo, p. 9. Penguin Group, 2005
42. ^ Ray Kurzweil, The Singularity is Near , pp. 135-136. Penguin Group, 2005. "Portanto,
estaremos produzindo cerca de 10 26 a 10 29 cps de computação não biológica por
ano no início de 2030. Isso é aproximadamente igual à nossa estimativa para a
capacidade de toda inteligência humana biológica viva ... Este estado de
computação no início de 2030 não representará a Singularidade, no entanto, porque
ainda não corresponde a uma expansão profunda de nossa inteligência. Em
meados da década de 2040, no entanto, aquele valor de mil dólares em
computação será igual a 10 26 cps , portanto, a inteligência criada por ano (a um
custo total de cerca de US $ 10 12) será cerca de um bilhão de vezes mais poderoso
do que toda a inteligência humana hoje. Isso vai de fato representam uma profunda
mudança, e é por essa razão que eu definir a data para a Singularity-representando
uma transformação profunda e perturbadora em humano capacidade, como 2045."
43. ^ Kurzweil, Raymond (2001), "The Law of Accelerating Returns" , Nature Physics ,
Lifeboat Foundation, 4 (7): 507, Bibcode : 2008NatPh ... 4..507B , doi : 10.1038 /
nphys1010 , arquivado do original em 2018/08/27 , recuperado 2007-08-07
44. ^ a b Joy, Bill (abril de 2000), "Por que o futuro não precisa de nós" , Wired Magazine ,
Viking Adult, 8 (4), ISBN 978-0-670-03249-5, arquivado do original em 05/02/2009 ,
recuperado em 07/08/2007
45. ^ Eliezer S. Yudkowsky. "Poder da Inteligência" . Yudkowsky. Arquivado do original em
03/10/2018 . Página visitada em 09-09-2011 .
46. ^ a b "Omohundro, Stephen M.," The Basic AI Drives. "Artificial General Intelligence,
2008 procedimentos da Primeira Conferência AGI, eds. Pei Wang, Ben Goertzel e Stan
Franklin. Vol. 171. Amsterdam: IOS, 2008 " .Arquivado do original em 17/09/2018 .
Página visitada em 2010-08-20 .
47. ^ "Inteligência Artificial Geral: Agora é a Hora" . KurzweilAI. Arquivado do original em
04/12/2011 . Página visitada em 09-09-2011 .
48. ^ a b "Omohundro, Stephen M.," a natureza da inteligência artificial Self-Improving.
"Sistemas Auto-cientes. 21 de janeiro de 2008. Web. 7 de janeiro de 2010".Arquivado
do original em 12/06/2018 . Página visitada em 2010-08-20 .
49. ^ Barrat, James (2013). "6," Quatro unidades básicas " ". Nossa invenção final (primeira
edição). Nova York: St. Martin's Press. pp. 78–98. ISBN 978-0312622374.
50. ^ "Max More e Ray Kurzweil na Singularidade" . KurzweilAI. Arquivado do original em
21/11/2018 . Página visitada em 09-09-2011 .
51. ^ "Resumo conciso | Instituto da singularidade para inteligência artificial" .
Singinst.org. Arquivado do original em 21/06/2011 . Página visitada em 09-09-2011 .
52. ^ a b "Bostrom, Nick, o futuro da evolução humana, morte e Anti-morte: Duzentos anos
após Kant, cinquenta anos após Turing, ed. Charles Tandy, pp. 339-371, 2004, Ria
University Press" . Arquivado do original em 28/08/2018 . Página visitada em 2010-08-
20 .
53. ^ Shulman, Carl; Anders Sandberg (2010). Mainzer, Klaus (ed.). "Implicações de uma
singularidade limitada por software" (PDF) . ECAP10: VIII Conferência Europeia sobre
Computação e Filosofia . Arquivado (PDF) do original em 30 de abril de 2019 .
Retirado em 17 de maio de 2014 .
54. ^ Muehlhauser, Luke; Anna Salamon (2012). "Explosão de inteligência: evidências e
importação" (PDF) . Em Amnon Eden; Johnny Søraker; James H. Moor; Eric Steinhart
(editores). Hipóteses de singularidade: uma avaliação científica e filosófica . Springer.
Arquivado (PDF) do original em 26/10/2014 . Página visitada em 28/08/2018 .
55. ^ Dreyfus & Dreyfus 2000 , p. xiv : 'A verdade é que a inteligência humana nunca
pode ser substituída pela inteligência da máquina simplesmente porque não somos
nós mesmos' máquinas pensantes 'no sentido em que esse termo é comumente
entendido.' Hawking (1998) : “Algumas pessoas dizem que os computadores nunca
podem mostrar inteligência verdadeira, seja ela qual for. Mas me parece que, se
moléculas químicas muito complicadas podem operar nos humanos para torná-los
inteligentes, então circuitos eletrônicos igualmente complicados também podem
fazer os computadores agirem de maneira inteligente. E, se forem inteligentes,
podem provavelmente projetar computadores com complexidade e inteligência
ainda maiores.
56. ^ John R. Searle , “What Your Computer Can't Know”, The New York Review of Books
, 9 de outubro de 2014, p. 54
57. ^ Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the
Economy of the Future Archived 2010-09-06 at the Wayback Machine , Acculant
Publishing, 2009, ISBN 978-1-4486-5981-4
58. ^ Markoff, John (04/03/2011). "Exércitos de advogados caros, substituídos por
software mais barato" . O jornal New York Times . Arquivado do original em 2021-02-
15 . Recuperado 25/02/2017 .
59. ^ Modis, Theodore (2002) "Forecasting the Growth of Complexity and Change"
Archived 2021-02-15 na Wayback Machine , Technological Forecasting & Social
Change , 69, No 4, 2002, pp. 377 - 404
60. ^ a b Huebner, Jonathan (2005) "A Possible Declining Trend for Worldwide
Innovation" Arquivado 2015-03-22 na Wayback Machine , Technological Forecasting
& Social Change , outubro de 2005, pp. 980-6
61. ^ Krazit, Tom. Intel promete 80 núcleos em cinco anos Archived 2021-02-15 at the
Wayback Machine , CNET News , 26 de setembro de 2006.
62. ^ Modis, Theodore (2006) "The Singularity Myth" Archived 2021-02-15 na Wayback
Machine , Technological Forecasting & Social Change , fevereiro de 2006, pp. 104-
112
63. ^ Nordhaus, William D. (2007). "Dois séculos de crescimento da produtividade em
computação". The Journal of Economic History . 67 : 128–159. CiteSeerX
10.1.1.330.1871 . doi : 10.1017 / S0022050707000058 .
64. ^ Schmidhuber, Jürgen. "Novo milênio AI e a convergência da história." Desafios
para inteligência computacional. Springer Berlin Heidelberg, 2007. 15–35.
65. ^ Tainter, Joseph (1988) " The Collapse of Complex Societies Archived 2015-06-07
at the Wayback Machine " (Cambridge University Press)
66. ^ a b Jaron Lanier (2013). "Quem é o dono do futuro?" . Nova York: Simon & Schuster .
Arquivado do original em 2021-02-15 . Recuperado 2016-03-02 .
67. ^ William D. Nordhaus , "Why Growth Will Fall" (uma revisão de Robert J. Gordon ,
The Rise and Fall of American Growth: The US Standard of Living Since the Civil War ,
Princeton University Press, 2016, ISBN 978-0691147727 , 762 pp., $ 39,95), The
New York Review of Books , vol. LXIII, no. 13 (18 de agosto de 2016), p. 68
68. ^ Myers, PZ, Singularly Silly Singularity , arquivado do original em 28/02/2009 ,
recuperado 13/04/2009
69. ^ Anonymous (18 de março de 2006), "More blades good" , The Economist , London,
378 (8469), p. 85, arquivado do original em 10 de julho de 2006 , recuperado 12 de
julho de 2006
70. ^ Robin Hanson, "Economics Of The Singularity" , IEEE Spectrum Special Report: The
Singularity , arquivado do original em 11/08/2011 , recuperado em 25/07/2009E
crescimento de longo prazo como uma sequência de modos exponencial
Arquivado 2019/05/27 no Wayback Machine
71. ^ a b Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milan (eds.), "Artificial
Intelligence as a Positive and Negative Factor in Global Risk" (PDF) , Global
Catastrophic Risks , Oxford University Press: 303, Bibcode : 2008gcr..book..303Y ,
ISBN 978-0-19-857050-9, arquivado do original (PDF) em 07/08/2008
72. ^ "O futuro incerto" . theuncertainfuture.com; um futuro projeto de tecnologia e
modelagem de mundo . Arquivado do original em 30/04/2019 . Página visitada em
2010-08-17 .
73. ^ "GLOBAL CATASTROPHIC RISKS SURVEY (2008) Relatório técnico 2008/1 publicado
pelo Future of Humanity Institute, Oxford University. Anders Sandberg e Nick Bostrom"
(PDF) . Arquivado de original (PDF) em 16/05/2011.
74. ^ a b c Stephen Hawking (1º de maio de 2014). "Stephen Hawking: 'A transcendência
analisa as implicações da inteligência artificial - mas estamos levando a IA
suficientemente a sério? ' " . The Independent . Arquivado do original em 25 de
setembro de 2015 . Recuperado em 5 de maio de 2014 .
75. ^ Nick Bostrom, "Ethical Issues in Advanced Artificial Intelligence" Archived 2018-
10-08 em Wayback Machine , em Cognitive, Emotive and Ethical Aspects of Decision
Making in Humans and in Artificial Intelligence , Vol. 2, ed. I. Smit et al., Int. Instituto
de Estudos Avançados em Pesquisa de Sistemas e Cibernética, 2003, pp. 12-17
76. ^ Eliezer Yudkowsky : Inteligência Artificial como um Fator Positivo e Negativo no
Risco Global Arquivado em 11/06/2012 na Máquina Wayback . Rascunho para uma
publicação no Global Catastrophic Risk de 31 de agosto de 2006, recuperado em 18
de julho de 2011 (arquivo PDF)
77. ^ "O Dispositivo de Coleta de Selos, Nick Hay" . Arquivado do original em 17/06/2012 .
Recuperado em 21-08-2010 .
78. ^ 'Por que devemos temer o Paperclipper' Arquivado em 08/08/2018 na máquina
Wayback , entrada de 14/02/2011 do blog de Sandberg 'Andart'
79. ^ de Garis, Hugo. "The Coming Artilect War" Arquivado em 28/06/2011 na Wayback
Machine , Forbes.com, 22 de junho de 2009.
80. ^ Coherent Extrapolated Volition, Eliezer S. Yudkowsky, maio de 2004 arquivado em
15-08-2010 na máquina de Wayback
81. ^ a b Evitando comportamentos involuntários do AI. Arquivado em 29/06/2013 na
Wayback Machine Bill Hibbard. Atas de 2012 da Quinta Conferência de Inteligência
Geral Artificial, eds. Joscha Bach, Ben Goertzel e Matthew Ikle. Este artigo ganhou
o Prêmio Turing de 2012 do Machine Intelligence Research Institute para o melhor
artigo de segurança da AGI, arquivado em 2021-02-15 em Wayback Machine .
82. ^ Hibbard, Bill (2008), "A Tecnologia da Mente e um Novo Contrato Social" , Journal of
Evolution and Technology , 17 , arquivado do original em 2021-02-15 , recuperado em
2013-01-05 .
83. ^ Suporte de decisão para design seguro de IA |. Arquivado em 2021-02-15 em
Wayback Machine Bill Hibbard. Atas de 2012 da Quinta Conferência de Inteligência
Geral Artificial, eds. Joscha Bach, Ben Goertzel e Matthew Ikle.
84. ^ a b c Kemp, DJ; Hilbert, M .; Gillings, MR (2016). "Informação na Biosfera: mundos
biológicos e digitais" . Tendências em Ecologia e Evolução . 31 (3): 180–189. doi :
10.1016 / j.tree.2015.12.013 . PMID 26777788 . Arquivado do original em 04/06/2016
. Página visitada em 2016-05-24 .
85. ^ a b Markoff, John (26 de julho de 2009). "Cientistas preocupam-se com máquinas
podem superar o homem" . O jornal New York Times . Arquivado do original em 01-07-
2017.
86. ^ Robinson, Frank S. (27 de junho de 2013). "O futuro humano: atualização ou
substituição?" . The Humanist . Arquivado do original em 15 de fevereiro de 2021 .
Retirado em 1 de maio de 2020 .
87. ^ Bugaj, Stephan Vladimir e Ben Goertzel. "Cinco imperativos éticos e suas
implicações para a interação humano-AGI." Psicologia Dinâmica (2007).
88. ^ Sotala, Kaj e Roman V. Yampolskiy. "Respostas ao risco catastrófico de AGI: uma
pesquisa." Physica Scripta 90.1 (2014): 018001.
89. ^ Naam, Ramez (2014). "A singularidade é mais longe do que parece" . Arquivado do
original em 17 de maio de 2014 . Obtido em 16 de maio de 2014 .
90. ^ Naam, Ramez (2014). "Por que os IAs não sobem em um piscar de olhos - um pouco
de matemática" . Arquivado do original em 17 de maio de 2014 . Obtido em 16 de
maio de 2014 .
91. ^ Salão, J. Storrs (2008). "Engineering Utopia" (PDF) . Artificial General Intelligence,
2008: Proceedings of the First AGI Conference : 460–467. Arquivado (PDF) do original
em 1 de dezembro de 2014 . Obtido em 16 de maio de 2014 .
92. ^ Goertzel, Ben (26 de setembro de 2014). "Superinteligência - Cenários de decolagem
semi-difícil" . h + Magazine. Arquivado do original em 25 de outubro de 2014 . Obtido
em 25 de outubro de 2014 .
93. ^ Mais, máx. "Singularidade encontra economia" . Arquivado do original em 28 de
agosto de 2009 . Obtido em 10 de novembro 2014 .
94. ^ A singularidade está próximo , p. 215
95. ^ The Singularity is Near , p. 216
96. ^ Feynman, Richard P. (dezembro de 1959). "Há muito espaço no fundo" . Arquivado
do original em 11/02/2010.
97. ^ Lanier, Jaron (2010). Você não é um gadget: um manifesto . New York, NY: Alfred A.
Knopf . p. 26 . ISBN 978-0307269645.
98. ^ Prasad, Mahendra (2019). "Nicolas de Condorcet e a hipótese de explosão da
Primeira Inteligência" . AI Magazine . 40 (1): 29–33. doi : 10.1609 / aimag.v40i1.2855 .
99. ^ Vinge não usou realmente a frase "singularidade tecnológica" no artigo Omni, mas
a usou na coleção de contos Ameaças e outras promessas de 1988, escrevendo na
introdução de sua história "O turbilhão do tempo" (p. 72): Exceto uma catástrofe
mundial, acredito que a tecnologia vai realizar nossos sonhos mais loucos, e em
breve.Quando elevamos nossa própria inteligência e a de nossas criações, não
estamos mais em um mundo de personagens de tamanho humano. Nesse ponto,
caímos em um "buraco negro" tecnológico, uma singularidade tecnológica.
100. ^ Solomonoff, RJ "The Time Scale of Artificial Intelligence: Reflections on Social
Effects" , Human Systems Management, Vol. 5, pp. 149-153, 1985.
101. ^ Episódio datado de 23 de agosto de 2006 na IMDb
102. ^ Sandberg, Anders. "Uma visão geral dos modelos de singularidade tecnológica."
Workshop Roadmaps to AGI and the Future of AGI, Lugano, Suíça, março. Vol. 8.
2010.
103. ^ Singularity University Archived 2021-02-15 na Wayback Machine em seu site
oficial
104. ^ Guston, David H. (14 de julho de 2010). Enciclopédia de Nanociência e Sociedade .
Publicações SAGE. ISBN 978-1-4522-6617-6. Arquivado do original em 15 de fevereiro
de 2021 . Obtido em 4 de novembro de 2016 .
105. ^ "Nanotecnologia: O futuro está chegando mais cedo do que você pensa" (PDF) .
Comitê Econômico Conjunto. Março de 2007. Arquivado (PDF) do original em 2021-
02-15 . Página visitada em 29/04/2012 .
106. ^ Dadich, Scott (12 de outubro de 2016). "Barack Obama fala sobre IA, carros
robóticos e o futuro do mundo" . Com fio . Arquivado do original em 3 de dezembro de
2017 . Obtido em 4 de novembro de 2016 .
Origens
Kurzweil, Ray (2005). A singularidade está próxima . New York, NY: Penguin Group.
ISBN 9780715635612.
William D. Nordhaus , "Why Growth Will Fall" (uma revisão de Robert J. Gordon , The
Rise and Fall of American Growth: The US Standard of Living Since the Civil War ,
Princeton University Press, 2016, ISBN 978-0691147727 , 762 pp., $ 39,95), The
New York Review of Books , vol. LXIII, no. 13 (18 de agosto de 2016), pp. 64, 66, 68.
John R. Searle , “What Your Computer Can't Know” (revisão de Luciano Floridi , The
Fourth Revolution: How the Infosphere Is Reshaping Human Reality , Oxford University
Press, 2014; e Nick Bostrom , Superintelligence: Paths, Dangers, Strategies , Oxford
University Press, 2014), The New York Review of Books , vol. LXI, não. 15 (9 de
outubro de 2014), pp. 52–55.
Good, IJ (1965), "Speculations Concerning the First Ultraintelligent Machine" , em
Franz L. Alt; Morris Rubinoff (eds.), Advances in Computers Volume 6 , Advances in
Computers, 6 , Academic Press , pp. 31-88, doi : 10.1016 / S0065-2458 (08) 60418-0 ,
hdl : 10919/89424 , ISBN 9780120121069, arquivado do original em 27/05/2001 ,
recuperado em 07/08/2007
Hanson, Robin (1998), Some Skepticism , Robin Hanson, arquivado do original em
28/08/2009 , recuperado em 19/06/2009
Berglas, Anthony (2008), Artificial Intelligence will Kill our Grandchildren , arquivado do
original em 2014-07-23 , recuperado em 2008-06-13
Hibbard, Bill (5 de novembro de 2014). "Inteligência Artificial Ética". arXiv : 1411,1373 [
cs.AI ].
Leitura adicional
Marcus, Gary , "Am I Human ?: Os pesquisadores precisam de novas maneiras de
distinguir a inteligência artificial da natural", Scientific American , vol. 316, no. 3
(março de 2017), pp. 58–63. Vários testes de eficácia da inteligência artificial são
necessários porque, "assim como não existe um único teste de destreza atlética ,
não pode haver um teste definitivo de inteligência". Um desses testes, um "Desafio
de construção", testaria a percepção e a ação física - "dois elementos importantes
de comportamento inteligente que estavam inteiramente ausentes do original teste
de Turing. "Outra proposta foi dar às máquinas os mesmos testes padronizados de
ciências e outras disciplinas que os alunos fazem. Um obstáculo até agora
insuperável para a inteligência artificial é a incapacidade de desambiguação
confiável ." [V] praticamente todas as frases [que as pessoas geram] é ambíguo ,
muitas vezes de várias maneiras. "Um exemplo importante é conhecido como o"
problema de desambiguação de pronomes ": uma máquina não tem como
determinar para quem ou o que um pronome em uma frase - como" ele "," ela "ou"
refere-se.
Scaruffi, Piero , "Intelligence is not Artificial" (2016) para uma crítica ao movimento
de singularidade e suas semelhanças com os cultos religiosos.
links externos
A vindoura singularidade tecnológica: como sobreviver na era pós-humana (no site
de Vernor Vinge, acessado em julho de 2019)
Perguntas frequentes sobre explosão de inteligência pelo Machine Intelligence
Research Institute
Blog sobre bootstrapping de inteligência artificial por Jacques Pitrat
Por que uma explosão de inteligência é provável (março de 2011)
Por que uma explosão de inteligência é impossível (novembro de 2017)
Quão próximos estamos da singularidade tecnológica e quando? (Maio de 2021)