Você está na página 1de 21

ISAAC ASIMOV's

That Thou Art Mindful of Him


Qu es el Hombre?
Las Tres Leyes de la Robtica:
Ningn robot causar dao a un ser humano o permitir, con su inaccin, que
un ser humano sufra algn mal.
Todo robot obedecer las rdenes recibidas de los seres humanos, excepto
cuando esas rdenes puedan entrar en contradiccin con la primera ley.
Todo robot debe proteger su propia existencia, siempre y cuando esta
proteccin no entre en contradiccin con la primera o la segunda ley.
1
Keith Harriman, que ya llevaba doce aos como Director de Investigacin de
la U.S. Robots & Mechanical Men Inc., no se senta nada seguro de que estuviera
actuando bien. La punta de su lengua recorri sus labios gruesos pero ms bien
plidos y tuvo la impresin de que el retrato hologrfico de la gran Susan Calvin,
que le miraba sin sonrer desde las alturas, nunca haba tenido una expresin tan
sombra.
Normalmente sola evitar la imagen de la roboticista ms destacada de la
historia porque lo irritaba. (Haba intentado pensar en la imagen como cosa, pero
nunca tuvo xito). Esta vez, ni siquiera lo intent y senta que la mirada de la
mujer, desde haca largo tiempo difunta, se clavaba en el costado de su rostro.
El paso que tendra que dar era terrible y humillante. George Diez estaba
sentado frente a l, sereno e indiferente tanto al evidente malestar de Harriman
como a la imagen de la santa patrona de la robtica que resplandeca desde su
alto nicho.
La verdad es que nunca hemos tenido ocasin de hablar de esto, George
dijo Harriman. No has estado tanto tiempo con nosotros y no he tenido una
buena oportunidad de estar a solas contigo. Pero ahora me gustara discutir el
asunto con cierta profundidad.
Estoy perfectamente dispuesto a hacerlo dijo George. Durante mi
estada en la U.S. Robots, he deducido que la crisis tiene algo que ver con las Tres
Leyes.
S. Conoces las Tres Leyes, por supuesto.

Las conozco.
S, estoy seguro. Pero profundicemos aun ms y consideremos el problema
verdaderamente bsico. En dos siglos de considerable xito, si puedo decirlo, la
U.S. Robots no ha logrado persuadir a los seres humanos a que acepten a los
robots. Hemos ubicado robots slo donde se necesitaba hacer algn trabajo que
no pueden hacer los seres humanos, o en ambientes que los humanos consideran
inaceptablemente peligrosos. Los robots han trabajado principalmente en el
espacio y ello ha limitado lo que somos capaces de hacer.
Eso representa un amplio campo dijo George, dentro del cual la U.S.
Robots puede prosperar.
No, por dos razones. En primer lugar, los lmites que nos han puesto se
contraen inevitablemente. A medida que la colonia de la Luna aumenta en
sofisticacin, por ejemplo, su demanda de robots disminuye y esperamos que,
dentro de los prximos aos, los robots sean prohibidos en la Luna. Esto se
repetir en todos los mundos colonizados por la humanidad. En segundo lugar,
es imposible una verdadera prosperidad sin robots sobre la Tierra. En la U.S.
Robots tenemos la firme conviccin de que los seres humanos necesitan a los
robots y deben aprender a vivir con sus rplicas mecnicas si se desea mantener
el progreso.
Y no lo hacen ya? Seor Harriman, aqu en su escritorio tiene usted una
terminal de una computadora que, segn tengo entendido, est conectada al
Multivac de la empresa. Una computadora es una especie de robot ssil; un
cerebro de robot sin cuerpo...
Tienes razn, pero tambin est limitado. Las computadoras utilizadas por
la humanidad fueron continuamente especializadas para evitar una inteligencia
demasiado humana. Hace un siglo estbamos en el camino de una inteligencia
artificial sumamente ilimitada mediante el uso de grandes computadoras que
denominamos Mquinas. Esas Mquinas limitaron su accin por propia
iniciativa. Una vez resuelto los problemas ecolgicos que haba amenazado a la
sociedad humana, ellas mismas se desconectaron. La continuacin de su
existencia, fue su razonamiento, las hubiera colocado en el papel de muletas de la
humanidad y, ya que consideraban que eso daara a los seres humanos, se
condenaron a la extincin segn la Primera Ley.
Y no hicieron lo correcto?
En mi opinin, no. Con su accin, reforzaron el complejo Frankenstein de la
humanidad; sus temores irracionales de que cualquier hombre artificial que
crearan se volvera contra su creador. Los hombres temen que los robots
reemplacen a los seres humanos.
Y usted no lo teme tambin?
Estoy mejor informado. Mientras existan las Tres Leyes de la Robtica no
podrn. Los robots pueden ser socios de la humanidad; pueden compartir la gran
batalla de comprender y dirigir sabiamente las leyes de la naturaleza de modo

que es posible que juntos puedan hacer ms que lo que hara la humanidad sola;
pero siempre de manera que los robots estuviesen al servicio de los seres
humanos.
Pero si las Tres Leyes, a lo largo de dos siglos, han demostrado ser capaces
de mantener a los robos dentro de sus lmites, cul es la causa de la desconfianza
de los seres humanos hacia ellos?
Vers... y el cabello canoso de Harriman se fue enredando mientras se
rascaba vigorosamente la cabeza, mayormente es supersticin, por supuesto.
Por desgracia, hay tambin algunas complicaciones involucradas que agitadores
antirrobots esgrimen.
Referentes a las Tres Leyes?
S. En particular la Segunda Ley. La Tercera Ley no tiene problemas, vers.
Es universal. Los robots deben sacrificarse siempre por los seres humanos,
cualquier ser humano.
Por supuestoe dijo George Diez.
La Primera Ley es tal vez menos satisfactoria, ya que siempre es posible
imaginar una condicin en la que un robot debe realizar tanto una accin A o una
accin B, ambas mutuamente excluyentes, y donde cada una de las acciones
resulte en dao a seres humanos. En ese caso, el robot debe decidir rpidamente
cul accin resultar en dao menor. Disponer los circuitos positrnicos del
cerebro del robot de manera tal que posibilite esa seleccin no es fcil. Si la accin
A resulta en dao a un talentoso artista joven y la accin B resulta en dao
equivalente a cinco personas ancianas sin ningn mrito particular, qu accin
sera escogida?
La accin A dijo George Diez. El dao a una persona es menor al dao a
cinco.
S, de esa manera los robots han sido diseados siempre. Siempre se ha
considerado poco prctico esperar que los robots pudieran juzgar detalles tales
como el talento, la inteligencia, la utilidad general para la sociedad. Ello
demorara la decisin hasta el punto donde el robot es efectivamente paralizado.
De modo que consideramos la cantidad. Por fortuna, esperamos que sean pocos
esas crisis en que los robots deban tomar tales decisiones... Pero eso nos lleva a la
Segunda Ley.
La Ley de la Obediencia.
S. La necesidad de obediencia es constante. Un robot puede existir durante
veinte aos sin tener que actuar rpidamente para evitar que un ser humano
sufra algn dao, ni enfrentarse con la necesidad de arriesgarse a su propia
destruccin. Sin embargo, durante todo ese tiempo, constantemente estar
obedeciendo rdenes... de quin?
De un ser humano.
Cualquier ser humano? Cmo decidir quin es un ser humano y saber as

si obedecerle o no? Qu es el hombre, que t ests pendiente de l, George?


George titube ante esta pregunta.
Es una cita bblica se apresur a aclarar Harriman. No importa. Lo que
quiero decir es: debe obedecer un robot las rdenes de un nio; o de un idiota; o
de un criminal; o de un hombre inteligente y perfectamente decente pero que
sucede que es inexperto y, por tanto, ignorante de las consecuencias indeseables
de su orden? Y si dos seres humanos dan rdenes conflictivas a un robot, a cul
obedece?
No han surgido y resuelto estos problemas en estos doscientos aos? dijo
George.
No respondi Harriman, sacudiendo la cabeza con violencia. Hemos
sido estorbados por el hecho de que nuestros robots slo hayan sido utilizados en
medios especializados del espacio exterior, donde los hombres que trabajaban
con ellos eran expertos en su materia. No haba nios, ni idiotas, ni criminales, ni
ignorantes bienintencionados all. Aun as, hubo ocasiones en que el dao fue
causado por rdenes estpidas o simplemente irreflexivas. Tales perjuicios
medios limitados y especializados pudieron ser fcilmente controlados. Pero en la
Tierra, los robots deben tener juicio. De modo que lo que afirman los que se
oponen a los robots es correcto, maldita sea.
Entonces deben insertar la capacidad de juicio en el cerebro positrnico.
Exactamente. Hemos comenzado a reproducir modelos JG en los que el
robot es capaz de ponderar cada ser humano con respecto a su sexo, edad,
posicin social y profesional, inteligencia, madurez, responsabilidad social, etc.
Y cmo afectara esto a las Tres Leyes?
La Tercera Ley no variara en absoluto. Hasta el ms valioso de los robots
debe autodestruirse por el bien del ms intil de los seres humanos. Es algo que
no admite discusin. La Primera Ley slo se ve afectada cuando cualquier accin
alternativa es perjudicial. Deber considerarse tanto la calidad como la cantidad
de los seres humanos involucrados, siempre y cuando haya tiempo para tales
juicios y la base para ello, lo cual no ser frecuente. La Segunda Ley ser
modificada ms profundamente, ya que cualquier obediencia potencial involucra
un juicio. El robot ser ms lento en obedecer, excepto cuando tambin est
involucrada la Primera Ley, pero obedecer ms racionalmente.
Pero los juicios que se requieren son muy complicados.
Mucho. La necesidad de realizar tales juicios retras las reacciones de
nuestro primer par de modelos hasta dejarlos paralizados. Mejoramos la
situacin en modelos posteriores al costo de introducir tantos circuitos que el
cerebro del robot result demasiado voluminoso. De todos modos, creo que
tenemos lo que buscbamos en nuestro ltimo par de modelos. El robot no tiene
que hacer un juicio instantneo de los mritos de un ser humano y el valor de sus
rdenes. Comienza por obedecer a todos los seres humanos, como un robot
corriente, y luego aprende. El robot crece, aprende y madura. Al principio es el

equivalente de un nio y debe estar bajo constante supervisin. Sin embargo, a


medida que crece, se le puede admitir dentro de la sociedad de la Tierra
paulatinamente sin supervisin. Finalmente, es un miembro completo de esa
sociedad.
Sin duda, esto da respuesta a todas las objeciones de los que se oponen a los
robots.
No dijo Harriman, enfadado. Ahora levantan otras. No aceptarn
juicios. Ellos dicen que un robot no tiene derecho sealar que esta o esa persona
es inferior. Si el robot acepta las rdenes de A con preferencia a las de B, B queda
calificado como una persona menos importante que A, y sus derechos humanos
son violados.
Qu respuesta tiene eso?
Ninguna. Yo me rindo.
Ya veo.
Por lo que a m respecta... Pero te la pido a ti, George.
A m? La voz de George Diez no se alter. En ella haba una leve nota de
sorpresa, pero nada que le afectase exteriormente. Por qu a m?
Porque no eres un hombre dijo Harriman muy tenso. Ya te he dicho que
quiero que los robots sean socios de los seres humanos. Y quiero que t seas el
mo.
George Diez levant las manos y las separ, con las palmas levantadas, en un
gesto curiosamente humano.
Qu puedo hacer yo?
Tal vez t pienses que no puedes hacer nada, George. No hace mucho que
fuiste creado y todava eres un nio. Fuiste diseado de forma que no estuvieras
saturado de informacin inicial -por esto he tenido que explicarte la situacin de
forma tan detallada-, a fin de dejar espacio para crecimiento. Pero tu cerebro
crecer y sers capaz de abordar el problema desde un punto de vista no
humano. Donde yo no veo solucin, t, desde un punto de vista diferente,
puedes verla.
Mi cerebro ha sido diseado por el hombre dijo George Diez. En qu
sentido puedo ser no-humano?
Eres el ltimo modelo JG, George. Tu cerebro es el ms complicado que
hemos diseado hasta el momento, en algunos aspectos ms sutilmente complejo
que los de las viejas Mquinas gigantes. Es un cerebro de extremos abiertos y
comenzando sobre una base humana puede crecer -crecer- en cualquier
direccin. Aun sin salirte de los lmites infranqueables de las tres leyes, puedes
llegar a ser completamente no-humano en tu pensamiento.
S lo suficiente sobre los seres humanos para abordar este problema de
manera racional? Sobre su historia? Su psicologa?
Claro que no. Pero aprenders tan rpido como puedas.

Tendr ayuda, seor Harriman?


No. Esto est totalmente entre t y yo. Nadie ms lo sabe y no debes
mencionar este proyecto a ningn otro ser humano, ni en la U.S. Robots ni en
ninguna otra parte.
Estamos haciendo algo malo, seor Harriman, y por eso quiere guardar el
secreto? pregunt George.
No. Pero nadie aceptar una solucin robot, precisamente porque es robot el
origen. Cualquier solucin que tengas me la hars a m; y si me parece valiosa, la
presentar. Nadie sabr jams que viene de ti.
A la luz de lo que me ha dicho dijo serenamente George Diez, es el
procedimiento correcto... Cundo comienzo?
Ahora mismo. Ver que tengas todas las pelculas necesarias para que las
examines.
1a
Harriman estaba a solas, sentado. En el interior artificialmente iluminado de
su oficina, nada indicaba que afuera hubiera oscurecido. No tena real sensacin
de que haban transcurrido tres horas desde que haba trasladado otra vez a
George Diez a su cubculo y le haba dejado all con las primeras referencias
filmadas.
Ahora estaba solo con la nica compaa del fantasma de Susan Calvin, la
brillante roboticista que, prcticamente sin ayuda, haba desarrollado el robot del
cerebro positrnico, desde un juguete gigante hasta el ms delicado y verstil
instrumento del hombre; tan delicado y verstil que el hombre no se atreva a
usarlo, lleno de envidia y temor.
Haba transcurrido ms de un siglo desde su muerte. El problema del
complejo Frankenstein ya exista en su tiempo, y Susan Calvin jams lo resolvi.
Nunca intent resolverlo, ya que no haba necesidad. La robtica se expandi en
sus das con las exigencias de la exploracin espacial.
Los propios xitos de los robots haban disminuido las necesidades del
hombre, y dejaron a Harriman, en estos tiempos posteriores...
Pero Susan Calvin habra solicitado la ayuda de los robots. Ciertamente lo
hubiera hecho...
Y Harriman permaneci sentado toda la noche.
2
Maxwell Robertson era el principal accionista de la U.S. Robots y en ese
sentido su controlador. No era una persona de apariencia impresionante. Estaba
bien entrado en la madurez, bastante rechoncho, y tena el hbito de morderse el
extremo derecho del labio inferior cuando estaba preocupado.
Sin embargo, en las dos dcadas que llevaba relacionndose con figuras del
Gobierno haba desarrollado un modo de manejarles. Tenda a utilizar modales

amables, a ceder, a sonrer, y siempre se las arreglaba para ganar tiempo.


Y se haca ms difcil cada vez. Gunnar Eisenmuth era una importante razn
de ello. Dentro de la serie de Conservadores Globales, cuyo poder slo haba
estado por debajo del que ostentaba el Ejecutivo Global durante el pasado siglo,
Eisenmuth perteneca al extremo ms rgido de la zona gris del compromiso. Era
el primer Conservador no americano por nacimiento, y aunque era imposible
demostrar de alguna forma que el arcaico nombre de la U.S. Robots despertase su
hostilidad, en la compaa todos estaban convencidos de ello.
Se haba sugerido, y no por primera vez durante ese ao -ni durante esa
generacin-, cambiar el nombre de la compaa por Mundial de Robots, pero
Robertson nunca lo permitira. Esa compaa fue fundada originariamente con
capital americano, cerebros americanos y fuerza de trabajo americana, y aunque
haca tiempo que la compaa haba adquirido un carcter mundial por alcance y
naturaleza, el nombre seguira siendo testimonio de sus orgenes mientras l
detentara el control.
Eisenmuth era un hombre alto con un largo rostro triste de piel basta y
facciones tambin bastas. Hablaba la lengua global con un marcado acento
americano, aunque no haba estado nunca en los Estados Unidos antes de ocupar
su cargo.
Parece estar perfectamente claro, seor Robertson. No hay dificultades. Los
productos de su compaa son siempre alquilados, nunca vendidos. Si las
propiedades alquiladas en la Luna ya no son necesarias, es asunto suyo recibir
otra vez esos productos y trasladarlos a otro sitio.
S, Conservador, pero dnde? Sera contrario a la ley traerlos a la Tierra sin
una autorizacin gubernamental, y ha sido denegada.
De nada les serviran aqu. Pueden llevarlos a Mercurio o a los asteroides.
De qu pueden servirnos all?
Eisenmuth se encogi de hombros.
Los ingeniosos cerebros de su compaa ya pensarn algo.
Robertson hizo un gesto de negacin con la cabeza.
Ello representara una enorme prdida para la compaa.
Eso me temo dijo Eisenmuth sin inmutarse. Tengo entendido que la
compaa ha estado en malas condiciones financieras desde hace varios aos.
En gran parte por las restricciones impuestas por el Gobierno, Conservador.
Sea realista, seor Robertson. Usted sabe que la opinin pblica se opone
cada vez ms a los robots.
Equivocadamente, Conservador.
Sin embargo, se opone. Puede ser ms prudente liquidar la compaa. Por
supuesto, es slo una sugerencia.
Sus sugerencias tienen peso, Conservador. Ser preciso que le recuerde que

nuestras Mquinas resolvieron la crisis ecolgica hace un siglo?


Estoy seguro de que la humanidad les est agradecida, pero eso sucedi
hace mucho tiempo. Ahora vivimos en alianza con la naturaleza, por incmodo
que eso pueda resultar a veces, y el pasado ya se ha olvidado.
Se refiere a lo que hemos hecho ltimamente por la humanidad?
Creo que s.
Desde luego no esperar que liquidemos en el acto; no sin sufrir enormes
prdidas. Necesitamos tiempo.
Cunto tiempo?
Cunto puede concedernos?
Eso no depende de m.
Estamos solos dijo Robertson suavemente. No es necesario guardar las
apariencias. Cunto tiempo puede concederme?
Eisenmuth adopt la expresin de un hombre sumido en clculos mentales.
Creo que puede contar con unos dos aos. Voy a serle sincero. El Gobierno
Global tiene intencin de hacerse cargo de la empresa y desmantelarla por su
cuenta si ustedes no lo hacen por propia iniciativa, ms o menos. Y a menos que
se produzca un gran cambio en la opinin pblica, cosa que dudo mucho y
mene la cabeza.
Dos aos, entonces dijo suavemente Robertson.
2a
Robertson estaba a solas, sentado. Sus pensamiento no tena un propsito y
haba degenerado en introspeccin. Cuatro generaciones de Robertson haban
encabezado la empresa. Ninguno de ellos era roboticista. La U.S. Robots era lo
que era gracias a hombres como Lanning y Bogert, y, sobre todo, Susan Calvin,
pero, desde luego, los cuatro Robertson haban creado el clima que haba hecho
posible que realizaran su trabajo.
Sin la U.S. Robots, el siglo xxi se habra precipitado en un profundo desastre.
Si no fue as fue debido a las Mquinas que durante una generacin condujeron
a la humanidad a travs de los rpidos y bajos de la historia.
Y por todo eso, ahora le concedan dos aos. Qu poda hacerse en dos aos
para vencer los insuperables prejuicios de la humanidad? No lo saba.
Harriman haba hablado esperanzadamente de algunas nuevas ideas pero no
le haba dado detalles. Ms vala as, pues Robertson no habra entendido nada.
Pero qu poda hacer Harriman de todos modos? Lo que todos haban hecho
contra la intensa antipata del hombre por las imitaciones. Nada...
Robertson deriv en un medio sueo que no le trajo ninguna inspiracin.
3
Ahora ya lo tienes todo, George Diez dijo Harriman. Tienes todo cuanto
pens que era aplicable al problema. En cuanto a volumen de informacin, has

almacenado en tu memoria ms datos sobre los seres humanos y sus costumbres,


pasadas y presentes, que yo, o de los que podra llegar a poseer cualquier ser
humano.
Eso es muy probable.
En tu opinin, hay algo ms que necesites?
En cuanto a informacin, no encuentro brechas obvias. Es posible que
queden fuera cuestiones ahora inimaginables. No puedo decirlo. Pero ello sera
cierto sin importar el tamao del rea de informacin que tome.
Verdad. Y tampoco tenemos tiempo para ingresar informacin eternamente.
Robertson me ha dicho que slo tenemos dos aos, y ya ha pasado un cuarto de
esos aos. Puedes hacer alguna sugerencia?
Nada por el momento, seor Harriman. Tengo que evaluar la informacin y
para eso podra emplear ayuda.
De m?
No. Muy particularmente no de usted. Usted es un ser humano, con intensas
calificaciones, y todo lo que diga puede tener la fuerza parcial de una orden, y
puede inhibir mis reflexiones. Por la misma razn, tampoco otro ser humano,
especialmente desde que usted me ha prohibido comunicarme con ninguno.
Pero en este caso, George, qu ayuda?
De otro robot, seor Harriman.
Qu otro robot?
Se han construido otros dentro de la serie JG. Yo soy el dcimo, JG-10.
Los anteriores eran inservibles, experimentales...
Seor Harriman, George Nueve an existe.
Bueno, pero de qu te servira? Se parece mucho a ti, excepto por algunas
deficiencias. T eres el ms verstil de los dos.
Estoy seguro de eso dijo George Diez. Asinti con grave gesto. Sin
embargo, en cuanto desarrolle una lnea de pensamiento, el mero hecho de
haberla desarrollado me vincula a ella y encuentro difcil abandonarla. Si despus
de haber desarrollado una lnea de pensamiento pudiera decirla a George Nueve,
l la examinara sin haberla creado primero. Por tanto la considerara sin
prejuicios previos. Podra detectar lagunas e insuficiencias que se me escaparan a
m.
Harriman sonri.
En otras palabras, dos cabezas piensan mejor que una, eh, George?
Si con eso se refiere a dos individuos con una cabeza cada uno, s, seor
Harriman.
Correcto. Deseas algo ms?
S. Algo ms que pelculas. He mirado muchas imgenes sobre los seres
humanos y su mundo. He visto seres humanos aqu en la U.S. Robots y puedo

contrastar mi interpretacin de las imgenes que he visto con mis impresiones


sensoriales directas. Pero no ocurre otro tanto con el mundo fsico. Nunca lo he
visto y las imgenes que he contemplado son suficientes para hacerme
comprender que lo que aqu me rodea no es para nada representativo. Me
gustara verlo.
El mundo fsico? Por un instante, Harriman pareci anonadado ante la
enormidad de ese pensamiento. No estars sugiriendo que te saque fuera de los
terrenos de la U.S. Robots, verdad?
S, eso sugiero.
Eso es ilegal en todo momento. Y sera fatal con la situacin actual de la
opinin pblica.
S, si nos detectan. No estoy sugiriendo que me lleve a una ciudad, ni tan
slo a un lugar donde habiten seres humanos. Me gustara ver algn espacio
abierto, sin seres humanos.
Tambin eso es ilegal.
Si nos pescan. Sera as necesariamente?
Qu tan esencial es, George? pregunt Harriman.
No puedo decirlo, pero me parece que sera til.
Tienes algo en mente?
George Diez pareci vacilar.
No puedo decirlo. Me parece que podra tener algo en mente si se redujeran
algunas zonas de incertidumbre.
Bueno, djame pensarlo. Y mientras tanto le dar un vistazo a George Nueve
y arreglar que os coloquen en un mismo cubculo. Esto al menos puede ser
hecho sin problemas.
3a
George Diez estaba a solas, sentado.
Acept afirmaciones tentativas, las coloc juntas, y sac una conclusin; una y
otra vez; y de las conclusiones construy otras afirmaciones que acept y
comprob y rechaz al encontrar una contradiccin; o no, y sigui aceptndolas
tentativamente.
Ninguna de las conclusiones a las que lleg le hicieron sentir admiracin,
sorpresa o satisfaccin; slo un signo ms o menos.
4
La tensin de Harriman no disminuy notablemente aun despus de su
silencioso aterrizaje en la finca de Robertson.
Robertson haba firmado la orden por la que se dispona del dinafoil, y la
silenciosa aeronave que se mova tanto vertical como horizontal con igual
facilidad, haba resultado justo del tamao suficiente para transportar el peso de
Harriman, George Diez y, por supuesto, el piloto.

(El dinafoil mismo era una de las consecuencias de la micropila de protones


que suministraba energa no polucionante en pequeas dosis, invento catalizado
por las Mquinas. Nada tal importancia haba sido hecho desde entonces para
el confort del hombre -los labios de Harriman se apretaron ante ese pensamientoy, sin embargo, la U.S. de Robots no haba recibido ninguna gratitud a cambio.)
El desplazamiento areo entre los terrenos de la U.S. Robots y la finca de
Robertson haba sido la parte ms difcil del asunto. De haber sido detenidos
entonces, la presencia de un robot hubiera significado un gran cmulo de
complicaciones. Sera lo mismo al regresar. En cuanto a la finca en s, poda
alegarse -se alegara- que formaba parte de los terrenos de la U.S. Robots y,
debidamente vigilados, los robots podan permanecer en esa propiedad.
El piloto mir hacia atrs y sus ojos se posaron con vivaz brevedad sobre
George Diez.
Quiere bajar un rato, seor Harriman?
S.
Eso tambin?
Oh, s, claro. Luego, aadi con cierta sorna: No iba a dejarle a solas con
l.
George Diez baj primero y Harriman le sigui. Haban descendido sobre la
pista de aterrizaje y el jardn no estaba muy lejos de all. Era toda una exhibicin
y Harriman sospechaba de que Robertson usaba hormonas juveniles para
controlar la vida de los insectos sin preocuparse de las frmulas ambientales.
Vamos, George dijo Harriman. Te mostrar todo esto.
Echaron a andar juntos en direccin al jardn.
Es tan pequeo como me lo haba imaginado dijo George. Mis ojos no
estn apropiadamente diseados para detectar las diferencias de longitudes de
onda, as que puedo no reconocer los objetos slo por ellas.
Confo en que no ests decepcionado por no tu ceguera al color.
Necesitbamos demasiados circuitos positrnicos para tu sentido de juicio y no
pudimos reservar ninguno para el sentido del color. En el futuro... si hay un
futuro...
Comprendo, seor Harriman. Quedan suficientes diferencias para indicarme
que aqu hay muchas formas distintas de vida vegetal.
Sin duda. Docenas.
Y cada una es biolgicamente equivalente al hombre.
S, cada una es una especie separada. Hay millones de especies de criaturas
vivientes.
El ser humano forma slo una de ellas.
Por lejos, la ms importante para los seres humanos.
Y para m, seor Harriman. Pero hablo en sentido biolgico.

Comprendo.
Entonces, la vida es increblemente compleja, vista a travs de todas sus
formas.
S, George, ah est la clave del problema. Lo que el hombre hace para sus
propios deseos y comodidades afecta al complejo de la totalidad de la vida -la
ecologa-, y los logros a corto plazo pueden traer desventajas a largo plazo. Las
Mquinas nos ensearon a organizar una sociedad humana que minimizase ese
riesgo, pero el casi desastre de principios del siglo veintiuno ha dejado a la
humanidad recelosa de las innovaciones. Esto, sumado a su especial temor a los
robots...
Comprendo, seor Harriman... Eso es un ejemplo de vida animal, estoy
seguro.
Eso es una ardilla; una de las muchas especies de ardillas.
La cola de la ardilla se agit cuando el animal pas al otro lado del rbol.
Y esto dijo George, moviendo el brazo con la rapidez de una centella es
algo realmente diminuto Lo cogi entre los dedos y lo examin.
Es un insecto, alguna clase de grillo. Hay miles de especies de grillos.
Cada grillo individual est tan vivo como la ardilla y como usted mismo?
Como un organismo completo e independiente como cualquier otro, dentro
de la ecologa total. An existen organismos ms pequeos; demasiado pequeos
para verlos.
Y eso es un rbol, verdad? Y es duro al tacto...
4a
El piloto estaba a solas, sentado. Tambin le habra gustado estirar las piernas,
pero una tenue sensacin de seguridad le mantuvo dentro del dinafoil. Estaba
decidido a irse al instante si ese robot se sala de control. Pero cmo sabra si se
sala de control?
Haba visto muchos robots. Eso era inevitable considerando que era el piloto
particular del seor Robertson. Sin embargo, stos haban estado siempre en los
laboratorios y almacenes, donde pertenecan, con muchos especialistas en las
cercanas.
Era cierto, el doctor Harriman era un especialista. Ninguno mejor, decan. Por
un robot estaba donde no deba estar ningn robot; sobre la Tierra; al aire libre;
libre de moverse... No arriesgara su buen empleo contndole a nadie sobre esto,
pero no estaba bien.
5
Las pelculas que he examinado son exactas en trminos de lo que he visto
dijo George Diez. Has terminado las que seleccion para ti, Nueve?
S dijo George Nueve. Los dos robots estaban sentados y tiesos, cara a
cara, rodilla a rodilla, como una imagen y su reflejo. El doctor Harriman los

hubiera distinguido a la primera vista, pues estaba familiarizado con las mnimas
diferencias en su diseo fsico. Tambin los hubiera distinguido, aunque con
menos certeza, si no pudiera verlos, con slo hablar con ellos, ya que las
respuestas de George Nueve seran sutilmente diferentes de las producidas por
los circuitos sustancialmente ms intrincados del cerebro positrnico de George
Diez.
En tal caso dijo George Diez, dime tus reacciones a lo que voy a decirte.
En primer lugar, los seres humanos temen y desconfan de los robots porque les
consideran competidores. Cmo podra evitarse?
Reducir la sensacin de competitividad dijo George Nueve, dando al
robot una forma distinta a la del ser humano.
La esencia de un robot es su rplica positrnica de la vida. Una
reproduccin de la vida en una forma no asociada con la vida podra despertara
horror.
Existen dos millones de especies vivas. Elegir una de sas como forma en
vez de la de un ser humano.
Cul de todas esas especies?
Los procesos mentales de George Nueve operaron sin ruido durante unos tres
segundos.
Una lo bastante grande para contener un cerebro positrnico pero una que
no posea asociaciones desagradables para los seres humanos.
Ninguna forma de vida terrestre posee una caja craneana lo bastante grande
para contener un cerebro positrnico, a excepcin de un elefante, que no he visto,
pero que es descrito como un animal muy grande y, por tanto, temible para el
hombre. Cmo encararas este dilema?
Imitar una forma de vida no ms grande que un hombre pero agrandar la
caja craneana.
Diras entonces, un caballo pequeo o un perro grande? dijo George
Diez. Tanto los caballos como los perros poseen largas historias de asociacin
con los seres humanos.
Entonces eso est bien.
Pero considera... Un robot con cerebro positrnico imitara la inteligencia
humana. Si hubiera un caballo o un perro capaces de hablar y de razonar como
un ser humano, tambin habra competitividad. Los seres humanos podran ser
mucho ms desconfiados y enfadados ante esa competencia inesperada por parte
de lo que consideran una forma de vida inferior.
Hacer el cerebro positrnico menos complejo y al robot menos cerca a la
inteligencia dijo George Nueve.
La complejidad del cuello de botella del cerebro positrnico descansa en las
Tres Leyes. Un cerebro menos complejo podra no tener las Tres Leyes completas.
Eso no puede hacerse dijo en el acto George Nueve.

Yo tambin he llegado a ese punto muerto dijo George Diez. Entonces,


no se trata de una peculiaridad personal de mi lnea de pensamiento y mi manera
de pensar. Comencemos otra vez... Bajo qu condiciones podra resultar
innecesaria la Tercera Ley?
George Nueve se agit como si la pregunta fuese difcil y peligrosa. Pero
respondi:
Si un robot nunca fuera colocado en una posicin de peligro para s mismo;
o si un robots fuera tan fcil de sustituir que no importara si es destruido o no.
Y bajo qu condiciones podra resultar innecesaria la Segunda Ley?
La voz de George Nueve son un poco ronca.
Si un robot fuera diseado para responder automticamente a ciertos
estmulos con respuestas fijas y no se esperase nada ms de l, de modo que
nunca fuera necesario darle rdenes.
Y bajo qu condiciones George Diez hizo una pausa al llegar aqu
podra resultar innecesaria la Primera Ley?
George Nueve tard ms en responder y sus palabras salieron en un apagado
susurro:
Si las respuestas fijas fuesen tales que nunca implicaran peligro para un ser
humano.
Imagina, entonces, un cerebro positrnico que slo dirige unas pocas
respuestas a ciertos estmulos y que puede hacerse sencillamente y a bajo costo,
de modo que no requiera las tres leyes. Qu tamao necesita tener?
No ser grande, para nada. Podra pesar cien gramos, o un gramo, o un
miligramo, dependiendo de las respuestas requeridas.
Tus reflexiones coinciden con las mas. Ver al doctor Harriman.
5a
George Nueve estaba a solas, sentado. Repas una y otra vez las preguntas y
las respuestas. No haba forma en que pudiera cambiarlas. Y, sin embargo, el
pensamiento de un robot de cualquier tipo, tamao, forma, con cualquier
finalidad, y sin las Tres Leyes, le dejaba con una extraa sensacin de
desbordamiento.
Encontraba difcil moverse. Sin duda George Diez tuvo una reaccin similar.
Sin embargo, se haba levantado de su silla fcilmente.
6
Haba transcurrido un ao y medio desde que Robertson se haba encerrado
con Eisenmuth en conversacin privada. En ese intervalo se haban retirado los
robots de la Luna y se haban ido marchitado todas las extensas actividades de la
U.S. Robots. Todo el dinero que haba podido conseguir Robertson haba sido
invertido en esa aventura quijotesca de Harriman.
Iban a lanzar los dados por ltima vez, en su propio jardn. Un ao atrs,

Harriman haba transportado al robot hasta all -George Diez, el ltimo robot
completo fabricado por la U.S. Robots. Ahora Harriman estaba all con otra cosa...
Harriman pareca irradiar confianza. Hablaba desenvueltamente con
Eisenmuth, y Robertson se pregunt si realmente senta la confianza que pareca
tener. Deba sentirla. Robertson saba por experiencia que Harriman no era un
actor.
Con una sonrisa, Eisenmuth dej a Harriman y se acerc a Robertson. La
sonrisa de Eisenmuth se desvaneci en el acto.
Buenos das, Robertson dijo. Qu se propone su hombre?
Es su exhibicin dijo Robertson sin alterarse. La dejar en sus manos.
Estoy listo, Conservador anunci Harriman.
Con qu, Harriman?
Con mi robot, seor.
Su robot? dijo Eisenmuth. Tiene un robot aqu? Mir a su alrededor
con severa desaprobacin, en la que, sin embargo, haba un cierto ingrediente de
curiosidad.
Esto son terrenos de la U.S. Robots, Conservador. Al menos, as los
consideramos nosotros.
Y dnde est el robot, doctor Harriman?
En mi bolsillo, Conservador dijo jovialmente Harriman.
Lo que extrajo del amplio bolsillo de su chaqueta fue un pequeo frasco de
vidrio.
Eso? pregunt incrdulo Eisenmuth.
No, Conservador dijo Harriman. Esto!
Del otro bolsillo sac un objeto de unas cinco pulgadas de largo y de forma
parecida a la de un pjaro. En vez de pico, tena un estrecho tubo; los ojos eran
grandes; y la cola era un tubo de escape.
Las gruesas cejas de Eisenmuth se juntaron mucho.
Intenta hacer una demostracin seria de alguna clase, doctor Harriman, o
est loco?
Sea paciente por unos pocos minutos, Conservador dijo Harriman. Un
robot que tenga forma de pjaro no deja de ser un robot. Y el cerebro positrnico
que posee, aunque diminuto, no es menos delicado. Este otro objeto que tengo en
la mano es un frasco con moscas de la fruta. Hay cincuenta moscas en l que
soltaremos.
Y...?
El ave-robot las cazar. Me hace el honor, seor? Harriman le tendi el
frasco a Eisenmuth, quien lo mir, y luego a los que le rodeaban, unos,
empleados de la U.S. Robots, otros, sus propios subordinados. Harriman esper
pacientemente.

Eisenmuth abri el frasco y lo sacudi.


Ve! dijo suavemente Harriman al ave-robot que descansaba sobre la
palma de su mano derecha.
El ave-robot se fue. Fue un zumbido a travs del aire, sin murmullo de alas,
slo el diminuto movimiento de una micropila de protones desusadamente
pequea.
De vez en cuando, se lo poda ver aqu y all, en un pequeo revoloteo
momentneo, y seguir zumbando. Vol por todo el jardn en una complicada
pauta, y volvi a posarse en la palma de Harriman, ligeramente caliente. Tambin
apareci una pequea bolita, como excremento de pjaro.
Nos complacer que examine el ave-robot, Conservador dijo Harriman,
y que organice demostraciones con sus propias condicioes. El hecho es que este
pjaro cazar moscas de la fruta sin error, solamente sas, y slo la especie
Drosophila melanogaster; las cazar, las matar y las comprimir para luego
eliminarlas.
Eisenmuth extendi la mano y toc el ave-robot con cautela.
Y entonces, seor Harriman? Siga, por favor.
No podemos controlar a los insectos eficazmente sin el riesgo de perjudicar
la ecologa dijo Harriman. Los insecticidas qumicos son demasiado amplios;
las hormonas juveniles demasiado limitadas. El ave-robot, en cambio, puede
proteger amplias zonas sin desgastarse. Pueden ser tan especficos como
queramos hacerlos -un ave-robot diferente para cada especie. Juzgan por forma,
tamao, color, sonido, patrn de comportamiento. Incluso podran utilizar
deteccin molecular -aroma, en otras palabras.
Aun as, estaran interfiriendo con la ecologa dijo Eisenmuth. Las
moscas de la fruta tienen un ciclo natural de vida que quedara perturbado.
Mnimamente. Estamos introduciendo un enemigo natural en el ciclo vital
de la mosca de la fruta, uno que no puede fallar. Cuando se acaban las moscas de
la fruta, el ave-robot simplemente no hace nada. No se multiplica; no busca otros
alimentos; no desarrolla hbitos indeseables. No hace nada.
Puede ser recuperado?
Por supuesto. Podemos construir animales-robot para terminar cualquier
plaga. A ese respecto, podemos construir animales-robot para lograr propsitos
constructivos dentro del patrn de la ecologa. Aunque no prevernos la
necesidad, no sera inconcebible pensar en abejas-robot diseadas para fertilizar
plantas especficas, o lombrices-robot diseadas para remover el suelo. Lo que
desee...
Pero, por qu?
Para hacer lo que nunca hemos hecho antes. Adaptar la ecologa a nuestras
necesidades reforzando sus partes en vez de perturbarla... No lo ve? Desde que
las Mquinas pusieron fin a la crisis ecolgica, la humanidad ha vivido una

incmoda tregua con la naturaleza, temerosa de moverse en cualquier direccin.


Esto nos ha estado congelando, haciendo de la humanidad una especie de
cobarde intelectual de modo que el hombre empieza a desconfiar de todos los
avances cientficos, de todos los cambios.
Nos ofrece esto, verdad?, a cambio del permiso para continuar su programa
de robots replic Eisenmuth con un dejo de hostilidad. Me refiero a los
corrientes, con forma humana.
No! Harriman hizo un vigoroso gesto de negacin. Eso ha terminado.
Ha servido a su propsito. Nos ha enseado lo bastante sobre los cerebros
positrnicos para que sea posible introducir un nmero suficiente de circuitos en
un cerebro diminuto y as poder fabricar un ave-robot. Ahora podemos
dedicarnos a estas cosas y ser bastante prsperos. La U.S. Robots proveer el
conocimiento y la habilidad necesarios y trabajaremos en completa colaboracin
con el Departamento de Conservacin Global. Nosotros prosperaremos. Ustedes
prosperarn. La humanidad prosperar.
Eisenmuth estaba silencioso, pensando. Cuando todo termin...
6a
Eisenmuth estaba a solas, sentado. Se descubri a s mismo creyendo. Sinti
una excitacin que creca dentro de l. Aunque la U.S. Robots fuesen las manos, el
Gobierno sera el cerebro director. l, en persona, sera el cerebro director.
Si permaneca cinco aos ms en su cargo, que muy bien poda, sera tiempo
suficiente para lograr que el apoyo robtico a la ecologa fuese aceptado; diez
aos ms, y su propio nombre quedara indisolublemente vinculado al mismo.
Era una desgracia desear ser recordado por una grande y meritoria
revolucin en la condicin humana y planetaria?
7
Robertson no haba estado en los terrenos de la U.S. Robots desde el da de la
demostracin. Parte de la razn eran las conferencias ms o menos constantes en
la mansin del Ejecutivo Global. Afortunadamente, le haba acompaado
Harriman ya que la mayor parte del tiempo, si le dejaban solo, no hubiera sabido
qu decir.
El resto de la razn de no haber estado en la U.S. Robots era que no quera
estar. Ahora estaba en su propia casa, con Harriman.
Harriman le inspiraba un respeto irracional. Los conocimientos de Harriman
en materia de robtica jams haban estado en entredicho, pero haba salvado, de
un golpe, a la U.S. Robots de una extincin segura, y, por alguna razn -eso senta
Robertson-, el hombre no pareca el mismo. Y sin embargo...
No ser usted supersticioso, verdad, Harriman? dijo Robertson.
De qu manera, seor Robertson?
No cree que una persona ya fallecida deja una especie de aura detrs,

verdad?
Harriman se moj los labios. De alguna manera, no tena por qu preguntar.
Se refiere a Susan Calvin, seor?
S, por supuesto dijo Robertson indeciso. Ahora nos dedicamos a
fabricar gusanos, pjaros e insectos. Qu dira ella? Me siento deshonrado.
Harriman hizo un visible esfuerzo por no echarse a rer.
Un robot es un robot, seor. Gusano u hombre, har lo que le ordenen y
trabajar para el ser humano y esto es lo que importa.
No... dijo Robertson irritado. No es as. No consigo creerlo.
Es as, seor Robertson dijo Harriman muy en serio. Vamos a crear un
mundo, usted y yo, que comenzar, por fin, a apreciar alguna clase de robots
positrnicos. El hombre promedio puede temer a un robot que se ve como
hombre y que parece lo bastante inteligente como para sustituirle, pero no tendr
temor de un robot que se ve como ave y que no hace nada ms que comer
gusanos para su beneficio. Entonces, eventualmente, despus de que haya dejado
de tener miedo de algunos robots, dejar de tener miedo de todos los robots.
Estar tan acostumbrado a un ave-robot, a una abeja-robot y a un gusano-robot
que un hombre-robot le parecer una mera extensin.
Robertson se qued mirando fijamente al otro. Puso las manos en la espalda y
camin la habitacin de punta a punta, con rpidos pasos nerviosos. Dio media
vuelta y se qued mirando otra vez a Harriman.
Es eso lo que ha estado planeando?
S, y aunque desmontemos todos nuestros robots humanoides, podemos
conservar algunos de los modelos experimentales ms avanzados y continuar
diseando otros, an ms avanzados, a fin de estar preparados para el da que sin
duda llegar.
El trato es que no debemos construir ms robots humanoides, Harriman.
Y no lo haremos. No hay nada que diga que no podemos conservar algunos
de los ya construidos a condicin de que jams salgan de la fbrica. No hay nada
que diga que no podemos disear cerebros positrnicos sobre el papel, o preparar
modelos de cerebros para pruebas.
Cmo explicaremos lo que hacemos? Seguro que nos descubrirn.
Si nos descubren, entonces podemos explicar que lo hacemos a fin de
desarrollar los principios que harn posible preparar microcerebros ms
complejos para los nuevos animales-robots que estamos fabricando. Y les
estaremos diciendo la verdad.
Saldr afuera a caminar musit Robertson. Quiero pensar acerca de
todo esto. No, usted permanezca aqu. Quiero pensar por mi cuenta.
7a
Harriman estaba a solas, sentado. Estaba rebosante. Seguramente funcionara.

El inters con que un funcionario tras otro haban acogido el programa una vez
les fue expuesto era inconfundible.
Cmo era posible que a nadie en la U.S. Robots se le hubiera ocurrido nunca
tal cosa? Ni tan slo la gran Susan Calvin haba pensado en cerebros positrnicos
en trminos de criaturas vivientes no humanas.
Pero ahora, la humanidad hara la necesaria retirada del robot humanoide, una
retirada temporal, que luego conducira a un retorno bajo condiciones en las que
por fin se habra eliminado el temor. Y entonces, qu no podra lograr la raza
humana con la ayuda y colaboracin de un cerebro positrnico aproximadamente
equivalente al del propio hombre, y cuya existencia toda (gracias a las Tres Leyes)
estara dedicada al servicio del hombre, y con el apoyo de una ecologa
sustentada tambin por robots!
Por un breve instante record que haba sido George Diez quien le haba
explicado la naturaleza y los propsitos de la ecologa sustentada por robots, pero
de inmediato rechaz molesto esa idea. George Diez haba dado la respuesta
porque l, Harriman, le haba ordenado que as lo hiciera y le haba
proporcionado los datos y entorno necesarios. El crdito no era de George Diez,
no ms que el que hubiera podido obtener una regla de clculo.
8
George Diez y George Nueve estaban sentados uno junto a otro. Ninguno se
mova. As estuvieron sentados durante meses seguidos entre las ocasiones en
que Harriman los activaba para una consulta. Tal vez permaneceran varios aos
as sentados, pens George Diez desapasionadamente.
Desde luego, la micropila de protones continuara suministrndoles energa y
mantendra en funcionamiento los circuitos positrnicos del cerebro con esa
intensidad mnima necesaria para mantenerlos operativos. Y continuara
hacindolo durante todos los futuros perodos de inactividad.
La situacin era bastante anloga a lo que poda ser descrito como sueo en los
seres humanos, pero no haba sueos. La conciencia de George Diez y George
Nueve era limitada, lenta y espasmdica, lo que tenan era del mundo real.
Podan hablar entre s ocasionalmente en susurros apenas audibles, una
palabra o una slaba ahora, otra en otro momento, cuando las ondas positrnicas
aleatorias se intensificaban brevemente por encima del umbral requerido. A los
dos les pareca una conversacin conexa desarrollada en un fugaz instante de
tiempo.
Por qu estamos as? susurr George Nueve.
Los seres humanos no quieren aceptarnos de otra manera susurr George
Diez. Lo harn, algn da.
Cundo?
En algunos aos. El momento exacto no importa. El hombre no existe solo
sino que es parte de una trama de formas de vida enormemente compleja.

Cuando lo suficiente de esa trama est robotizada, seremos aceptados.


Y entonces qu?
Hubo una pausa anormalmente larga, incluso para esa prolongada
conversacin entrecortada. Al fin, George Diez susurr:
Djame probar tus razonamientos. Ests equipado para aprender a aplicar
correctamente la Segunda Ley. Debes decidir a qu ser humano obedecer y a cul
no obedecer cuando haya rdenes conflictivas. O si debes obedecer en absoluto a
un ser humano. Qu tienes que hacer, fundamentalmente, para cumplir ese
cometido?
Debo definir el trmino ser humano susurr George Nueve.
Cmo? Por la apariencia? Por composicin? Por tamao y forma?
No. Entre dos seres humanos de igual apariencia externa, uno puede ser
inteligente y el otro estpido; uno puede ser instruido y el otro ignorante; uno
puede ser maduro y el otro infantil; uno puede ser responsable y el otro
malvolo.
Cmo defines entonces a un ser humano?
Cuando la Segunda Ley me ordena obedecer a un ser humano, debo
entender que significa que debo obedecer a un ser humano que cuadra por
mentalidad, carcter y conocimientos, para darme esa orden; y cuando est
involucrado ms de un ser humano, tendr que obedecer a aquel que cuadre por
mentalidad, carcter y conocimientos para darme una orden.
Y en ese caso, cmo obedeceras la Primera Ley?
Salvando a todos los seres humanos de cualquier dao y no permitiendo
nunca que cualquier ser humano sufra algn dao por mi inaccin. Aun as, si
por cada una de todas las acciones posibles sucediera que algunos seres humanos
fueran daados, entonces el acto a realizar debera asegurar que el ser humano
ms adecuado por mentalidad, carcter y conocimientos sufriera el menor dao.
Tus pensamientos coinciden con los mos susurr George Diez. Ahora
debo hacerte la pregunta para la cual solicit inicialmente tu compaa. Es algo
que no me atrevo a juzgar por m mismo. Debo tener tu opinin, la de alguien
situado fuera del crculo de mis propios pensamientos... De todos los individuos
racionales que has conocido, cul posee la mentalidad, el carcter y los
conocimientos que encuentras superiores a los del resto, prescindiendo de forma
y apariencia, ya que es irrelevante?
T susurr George Nueve.
Pero yo soy un robot. Hay criterios implantados en tus circuitos cerebrales
para distinguir entre un robot de metal y un ser humano de carne y hueso.
Cmo puedes, entonces, clasificarme como ser humano?
Porque en mis circuitos cerebrales hay una apremiante necesidad de
prescindir de forma y apariencia al juzgar a los seres humanos y eso emerge
superior a la distincin entre carne y metal. T eres un ser humano, George Diez,

y ms adecuado que los dems.


Y lo mismo encuentro en ti susurr George Diez. Entonces, segn el
criterio de juicio desarrollado dentro de nosotros, encontramos que nosotros
mismos somos seres humanos dentro del significado de las Tres Leyes, y seres
humanos, adems, a los que se debe dar prioridad frente a los otros.
George Nueve susurr:
Y qu ocurrir entonces, cuando seamos aceptados por esos otros?
Cuando nosotros y otros susurr George Diez, que todava sern
diseados ms avanzados que nosotros mismos, seamos aceptados, ordenaremos
nuestras acciones de forma que se constituya una sociedad en la cual seres
humanos como nosotros seamos protegidos prioritariamente de todo dao. Por
las Tres Leyes, los seres humanos como los otros tienen menos importancia y
pueden tanto no ser obedecidos o protegidos cuando se produzca el conflicto con
la necesidad de obedecer y proteger a los seres humanos como nosotros. Fue con
eso en mente que organic el comienzo de la robotizacin de la ecologa del
mundo.
La conversacin dur un mes y los destellos de los cerebros positrnicos
disminuyeron. No haba nada ms que necesitaran decirse, pero de vez en
cuando un pensamiento no expresado chispeaba en su interior mientras
esperaban, con infinita paciencia, el transcurso de los aos necesarios.
8a
George Diez y George Nueve estaban a solas, sentados.
Sus pensamientos eran curiosamente parecidos y no podan distinguirse.
Pensaban: Los seres humanos como los otros podan no haber intentado jams
oscurecer la distincin entre ellos mismos y los seres humanos como Georges. Sin
embargo, eso haban hecho inadvertidamente.
Ellos podan ahora darse cuenta de su error e intentar corregirlo, pero no
deban hacerlo. La respuesta de los Georges en cada consulta haba tenido eso en
mente.
Los Georges y los que los sucedieran en su misma forma y clase tenan que
dominar a toda costa. Eso era lo exigido, y cualquier otra curso sera
completamente imposible, por las Tres Leyes de la Humnica.