Escolar Documentos
Profissional Documentos
Cultura Documentos
Tercera edición
Vicerrectora de Docencia
Lina María Grisales Franco
Autor
Guillermo Pineda Gaviria
Coordinadora de Producción
Lyda Yaneth Contreras Olivares
Asesora pedagógica
Lyda Yaneth Contreras Olivares
Corrector de estilo
Daniel Aldana Estrada
Diagramación y diseño
Juan Felipe Vargas Martínez
Ilustrador
Sebastián García
Isabel Echeverri
Alejandra Vélez
Tercera edición
Esta publicación es un producto del Programa Vamos para la Universidad. Reservados todos los dere-
chos. No se permite la reproducción, archivo o transmisión total o parcial de este texto mediante ningún
medio, ya sea electrónico, mecánico, óptico, de fotorreproducción, memoria o cualquier otro tipo sin per-
miso de los editores del Programa Vamos para la Universidad.
ISBN: 978-958-5413-84-9
Para Isabel.
Agradecimientos
A mis estudiantes, a mis colegas y a mis amigos, cuyas preguntas y comentarios me han
ayudado a resolver muchas dudas y a generar otras tantas.
Prólogo
La ciencia en general, y la física en particular, se ocupan de indagar, modelar y predecir los fenóme-
nos del entorno, del mundo microscópico y del cosmos a gran escala, lo que constituye una de las
más grandes hazañas del conocimiento humano.
En este texto introductorio a los conceptos de la física haremos un recorrido panorámico y con-
ceptual que nos permitirá establecer relaciones entre los fenómenos más inmediatos y cotidianos,
incluso aquellos que a veces pasan desapercibidos, y las teorías que se han elaborado para dar
cuenta de ellos, gracias a las cuales ha sido posible predecir nuevas y apasionantes experiencias
que descubren un universo insospechado de fenómenos y relaciones, y que sugieren respuestas
a algunas de las preguntas más fundamentales que se ha planteado la humanidad respecto al ori-
gen, la constitución y la evolución del universo en el corto y en el largo plazo, a la vez que definen
nuestro papel en todo este proceso. No en vano se ha calificado a la física como “una aventura del
pensamiento”.
Con el fin de lograr la máxima claridad posible en la presentación de los conceptos y teorías con
los que la física elabora sus enunciados sobre el mundo y la fenomenología, se hace énfasis en
las situaciones históricas, los aspectos sociales y las necesidades prácticas que determinaron las
condiciones que hicieron posible elaborar modelos y teorías sobre el mundo y los fenómenos, que
se tradujeron en desarrollos tecnológicos, innovaciones y avances en las técnicas de producción
y en la solución de diferentes problemas prácticos. De esta manera, se relacionan los inicios de la
astronomía a partir de la observación sistemática del movimiento de los astros asociado al estableci-
miento de un calendario de gran utilidad práctica en la planeación y ejecución de actividades comu-
nitarias de interés vital como la agricultura y la guerra, y se destaca cómo la necesidad de efectuar
observaciones con la máxima precisión posible para hacer predicciones suficientemente acertadas
condujo a la introducción de modelos astronómicos que desafiaban el sentido común y rompían con
las más antiguas tradiciones y convicciones sobre la constitución del mundo y el orden del universo.
Puesto que el primer y más evidente resultado de la interacción entre la ciencia y la tecnología en
la época moderna fue la emergencia de la Revolución Industrial, se presta particular atención a la
emergencia de los conceptos y principios de la termodinámica y a las teorías sobre la constitución
y estructura de la materia. Así, al examinar los antecedentes de dos artefactos tan aparentemente
disímiles como una cafetera moka y una central nuclear —en tanto que ambas son, en último tér-
mino, máquinas de vapor—, es posible presentar las leyes de los gases y de la termodinámica de
manera coherente y comprensible para aquellos lectores que tengan una especial afinidad con los
temas de generación y consumo de energía y manejo eficiente y sostenible de los recursos natura-
les. También mostraremos cómo la necesidad de identificar, clasificar y conocer las propiedades de
los materiales, según el uso que se les quisiera dar, condujo a una larga indagación que se inició a
finales de la antigüedad, continuó a lo largo de la Edad Media y se concretó en la época moderna
en una teoría de la estructura atómica y corpuscular de la materia, que habría de llevarnos al descu-
brimiento de las más insospechadas leyes de su comportamiento, cuyas consecuencias no solo se
podrían apreciar en el mundo microscópico, sino que su alcance se habría de extender al universo
en su totalidad, dando cuenta de su evolución y estructura en el marco de teorías como la relatividad
y la mecánica cuántica, cuyos rasgos más sobresalientes serán enunciados en el transcurso de
nuestras reflexiones.
En la selección y presentación de los temas que se discuten en este texto se ha tenido muy presente
que la mayoría de los lectores a quienes está dirigido no tienen dentro de las expectativas de su
futura actividad la realización de cálculos o la elaboración de artículos técnicos que demanden un
manejo de los formalismos propios de las teorías científicas, sin que por esta razón resulten excusa-
dos de tener una mínima comprensión de los fenómenos físicos que suceden a su alrededor o que
median su relación con el entorno, y de comprender razonablemente la información sobre asuntos
de ciencia y tecnología que proveen de manera frecuente y profusa los medios de comunicación.
Por esta razón, el tono didáctico y divulgativo del texto convierte su estudio en un ejercicio de lecto-
escritura, que se refuerza con la propuesta de preguntas abiertas y ejercicios sencillos que se pro-
ponen al final de cada capítulo, cuyo objetivo fundamental es generar la reflexión en un ambiente de
discusión racional y objetiva en consonancia con el carácter controversial, y en ocasiones precario,
del conocimiento científico que, no por estar fundamentado en serios razonamientos y contrastado
por la experimentación rigurosa, adquiere el carácter de verdad absoluta o de artículo de fe, sino
que, muy por el contrario, cobra importancia y genera beneficios, en tanto se realiza como un pro-
ceso dinámico, de permanente controversia, renovación y descubrimiento.
Capítulo 1
El nacimiento de la astronomía 11
Capítulo 2
La revolución copernicana 29
Capítulo 3
Inercia 53
Capítulo 4
La mecánica de Newton 71
Capítulo 5
Gravitación 81
Capítulo 6
Trabajo 93
Capítulo 7
Potencia motriz 105
Capítulo 8
La mecánica del calor 117
Capítulo 9
Entropía 125
Capítulo 10
Electricidad 135
Capítulo 11
Electromagnetismo 149
Capítulo 12
Campos y ondas
165
Capítulo 13
Teoría de la relatividad 183
Capítulo 14
Materia y geometría 201
Capítulo 15
Cosmología: el origen y el fin 215
Capítulo 16
Materia y radiación 225
Capítulo 17
La estructura de la materia 237
Capítulo 18
Partículas 247
Capítulo 19
Comunicaciones 259
Capítulo 20
Información 269
Epílogo 279
Capítulo 1 El nacimiento de la astronomía
Introducción
El nacimiento de la astronomía es también el nacimiento de la ciencia, y por eso resulta de gran
interés examinar detalladamente las circunstancias que condujeron a la humanidad a la observa-
ción sistemática del movimiento de los astros y a establecer una correlación entre las regularidades
de tal movimiento y la periodicidad de fenómenos como los ciclos estacionales. El resultado más
tangible de este primitivo interés por la búsqueda de relaciones entre los sucesos terrestres y los
acontecimientos de los cielos fue el calendario, que habría de convertirse en la referencia obliga-
da para realizar las actividades más importantes de la sociedad. Sin embargo, las imprecisiones
acumuladas a lo largo de los años demandaban revisiones continuas y la elaboración de modelos
capaces de predecir los eventos astronómicos con más exactitud, lo cual condujo al planteamiento
de problemas cuya solución sirvió de estímulo al estudio y desarrollo de disciplinas como las mate-
máticas y la geometría.
La primera regularidad que nos brinda el movimiento astronómico es la sucesión del día y la
noche. Aunque dos días sucesivos son casi iguales, la observación prolongada nos permite
apreciar una diferencia que se va haciendo cada vez mayor: el día dura cada vez más y la
noche dura menos, hasta llegar a un día que es el más largo del año, lo cual marca el inicio
del verano. A partir de este día la diferencia en duración con la noche se va haciendo menor
hasta que se igualan en el día del equinoccio, que señala el inicio del otoño; a continuación
la noche empieza a alargarse y el día a reducirse hasta llegar a la noche más larga del
año, que determina el inicio del invierno; finalmente, el día empieza a alargarse y la noche
a reducirse hasta llegar a un nuevo equinoccio que marca el inicio de la primavera, que se
habrá de prolongar hasta que de nuevo llegue al día más largo del año. El ciclo completo,
que comprende las cuatro estaciones, tiene una duración aproximada de 365 días.
La diferencia entre el día y la noche es muy apreciable en las zonas situadas en las latitudes
medias y altas del planeta, donde en el verano, por ejemplo, se puede tener luz del Sol has-
ta altas horas de la noche, y en el invierno se invierte completamente la situación; pero en
las zonas tropicales tales diferencias no son tan evidentes, aunque pueden ser observadas
si se presta atención a algunos fenómenos como el comportamiento de la sombra que pro-
yecta el Sol en un patio lleno de materas con flores delicadas, que deben ser cambiadas de
lugar periódicamente para evitar que se resequen por el exceso de luz solar. Por otra parte,
quienes deben madrugar para empezar a estudiar o a trabajar a las seis de la mañana en-
cuentran familiar el hecho de que en unas épocas del año amanece más temprano que en
otras, y lo propio ocurre con el atardecer.
La variación periódica en la duración del día y la noche está acompañada de una variación
sistemática del punto por donde sale y se pone el Sol sobre el horizonte cada día, obser-
vado siempre desde un mismo lugar; pero también es posible hacer una observación del
movimiento del Sol que no depende del lugar de la Tierra desde donde se realice, y es su
desplazamiento respecto a las estrellas fijas.
Física conceptual
Capítulo 1: El nacimiento de la astronomía
es que la mayoría de las estrellas que se aprecian con el ojo desnudo conservan sus posi-
ciones relativas cuando se mueven en conjunto a través del firmamento, excepto por cinco
astros que reciben el nombre de planetas. Con el fin de ser identificadas y clasificadas, las
estrellas se agrupan en constelaciones, que fueron bautizadas de acuerdo con las figuras
que sugirieron a la imaginación de los astrónomos de la antigüedad, tales como Leo, Cán-
cer, Virgo, Piscis, Ursa o Hércules. La observación atenta a lo largo de varias horas en no-
ches sucesivas permite apreciar el hecho de que las estrellas parecen girar alrededor de un
13
eje que atraviesa la Tierra y pasa por dos puntos opuestos en el firmamento: los polos norte
y sur celestes. Los puntos sobre la Tierra por donde pasa el eje definen los polos norte y
sur terrestres. Muy cerca de donde se ubica el polo norte celeste hay una estrella particular-
mente brillante, la estrella Polar, que tradicionalmente ha servido para la orientación de los
navegantes en el hemisferio norte. En el polo sur celeste no hay una estrella tan conspicua
como sucede en el polo norte.
A lo largo del periodo de 365 días que hemos denominado un año, el Sol se va desplazando
respecto a las estrellas fijas y recorre una trayectoria que se denomina eclíptica, o línea de
los eclipses, por ser a lo largo de esta línea que se producen estos fenómenos. El Sol apa-
rece todos los días con cinco minutos de retraso respecto a las estrellas que lo precedieron
el día anterior, como si se desplazara hacia el este (figura 1.1).
1.3 Planetas
Además de las estrellas fijas en el firmamento, es posible apreciar cinco astros que se
desplazan respecto a ellas sin la regularidad del movimiento del Sol, de la Luna o de las
mismas estrellas, razón por la que se les dio el nombre de planetas, que significa errantes o
14 vagabundos, los cuales fueron denominados con los nombres de algunos de los dioses del
Olimpo: Mercurio, Venus, Marte, Júpiter y Saturno. Posiblemente el aspecto más notable
del movimiento planetario es la denominada retrogradación, que consiste en que, en un mo-
mento dado, el planeta invierte la dirección de su desplazamiento y retrocede, para luego
detenerse, e invertir nuevamente su dirección y continuar en su trayectoria original (figura
1.2). Este comportamiento de los planetas constituyó uno de los más difíciles retos para
los astrónomos que pretendían elaborar modelos que tuvieran la capacidad de describir y
predecir el movimiento de todos los astros.
Física conceptual
Capítulo 1: El nacimiento de la astronomía
El hecho de que el periodo del ciclo solar no dure un número exacto de días obligó a los
astrónomos a elaborar modelos que fueran capaces de dar cuenta precisa de los eventos
astronómicos y a recurrir a métodos de ajuste periódico de las fechas, como la introducción
de un día adicional cada cuatro años, en los llamados años bisiestos, excepto en los cen-
tenarios.
Es evidente que los sistemas numéricos elaborados por los asirios y los babilonios, como el
sistema sexagesimal, los sistemas de medición del tiempo en periodos de 12 y 24 horas y
las correspondientes subdivisiones de las horas en 60 minutos y los minutos en 60 segun-
dos, están directamente relacionados con la duración del año de 365 días y la división de
la circunferencia en 360 grados, de los grados en 60 minutos y de estos en 60 segundos.
También tiene un origen astronómico la división del Zodiaco en doce constelaciones, que
corresponde de manera gruesa al número de ciclos lunares de treinta días que tiene un año.
De igual forma, la duración del mes, de alrededor de treinta días, está relacionada con la
duración del ciclo de las fases de la Luna. Finalmente, los siete días de la semana tienen
que ver con los siete cuerpos celestes que se mueven respecto a las estrellas fijas: el Sol,
la Luna y los cinco planetas que se pueden ver con el ojo desnudo.
un barco sobre el horizonte, permitieron corroborar la idea. Una vez establecido el hecho
de que la Tierra tiene forma esférica es necesario disponer de un sistema de coordenadas
para ubicar la posición de cualquier lugar sobre ella, lo que da lugar a la definición de los
conceptos de latitud y longitud, con la ayuda de la observación astronómica y del uso del
calendario.
16 La aparente rotación de los astros define un eje que determina los polos norte y sur sobre
la bóveda celeste, los cuales se proyectan sobre la Tierra para definir los correspondientes
polos geográficos. De igual manera, se puede definir el ecuador celeste como el lugar de
todas las estrellas que describen la trayectoria de máxima circunferencia alrededor de la
Tierra. El ecuador terrestre resulta de la proyección del ecuador celeste sobre ella (figura
1.3).
También es posible definir el ecuador terrestre como el lugar de la Tierra de todos los pun-
tos donde el día y la noche siempre tienen la misma duración. Adicionalmente, el ecuador
terrestre corresponde al lugar de todos los puntos sobre la Tierra donde el Sol cae perpen-
dicularmente durante los equinoccios.
1.5.1 Latitud
Todos los puntos que tienen la misma latitud definen un paralelo, llamado así porque resulta
Física conceptual
Capítulo 1: El nacimiento de la astronomía
de la intersección de la Tierra con un plano que es paralelo al plano que define el ecuador.
La observación de la posición del Sol y la proyección de su sombra a mediodía permite
definir otros lugares notables sobre la Tierra. El día del solsticio de verano en el hemisferio
norte el Sol alcanza su máximo desplazamiento hacia el norte respecto al ecuador. Ese día
el Sol cae perpendicularmente sobre el lugar que define el trópico de Cáncer. Seis meses
más tarde alcanza su máximo desplazamiento hacia el sur y cae perpendicularmente sobre
un lugar denominado trópico de Capricornio. Los trópicos de Cáncer y Capricornio definen
17
planos paralelos al ecuador que cortan la Tierra a 23° 27’ de latitud norte y sur, respectiva-
mente.
Durante el solsticio de verano el Sol es visible durante 24 horas dentro de un casquete al-
rededor del polo norte que está limitado por un paralelo denominado círculo polar ártico. El
mismo día, de manera correspondiente, alrededor del polo sur se define un casquete donde
el Sol está oculto las 24 horas del día, limitado por un paralelo denominado círculo polar
antártico. Seis meses más tarde, durante el solsticio de invierno en el hemisferio norte, la
situación se invierte. Por esta razón se dice que los días y las noches polares duran seis
meses, aunque lo correcto sería decir que durante seis meses los días polares duran 24
horas, y durante los siguientes seis meses las noches duran 24 horas (figura 1.4).
1.5.2 Longitud
atraviesa. De igual manera, cualquier punto sobre la Tierra es atravesado por un meridiano
que define la longitud del lugar. La longitud se mide entre 0 y 180 grados hacia el este o el
oeste del meridiano 0 (figura 1.5).
La longitud de un lugar se puede medir comparando la hora local con la hora de Greenwich,
lo cual solo se podía hacer mediante observaciones astronómicas antes del siglo XVIII,
18 cuando fue posible disponer de relojes que permitían transportar la hora de referencia para
compararla con la hora local. Antes de que esto sucediera, la determinación de la longitud
constituyó uno de los problemas prácticos más importantes que debía resolver la astrono-
mía para la orientación en alta mar y en los viajes a través de estepas y desiertos.
El meridiano 180 define la línea del cambio de fecha, un curioso lugar donde dos puntos
tan cercanos como se quiera, cada uno en diferente lado de la línea, tienen una diferencia
horaria de 24 horas.
Física conceptual
Capítulo 1: El nacimiento de la astronomía
Los primeros modelos del universo reflejan una visión bastante directa e ingenua de la natu-
raleza. Los babilonios suponían que el universo era como una especie de cajón que tenía la
Tierra por piso, mientras que el cielo, que era sostenido por las montañas, servía de techo.
Alrededor de la Tierra había un foso que era recorrido diariamente por el Sol. Los egipcios,
siguiendo la influencia babilonia, situaron a El Cairo en la mitad de la Tierra, que se hallaba
rodeada por el río Nilo. Pero en el siglo IV a. C., los griegos empezaron a elaborar modelos
menos simplistas. Tales de Mileto consideró que la Tierra era un disco que flotaba en el
19
agua. Por su parte, Anaximandro asumió que las estrellas estaban fijas a una gran bóveda
que rotaba alrededor de la Tierra, mientras que esta se mantenía suspendida en el centro.
Gracias a este modelo se podía explicar la sucesión del día y la noche por el paso del Sol
debajo de la Tierra, aunque Anaximandro supuso un mecanismo un poco más complicado
para tal fenómeno.
También se atribuye a los pitagóricos la idea de que los cuerpos celestes deben estar
dispuestos en órbitas que satisfacen relaciones numéricas sencillas, tal y como lo hacen
las cuerdas de una lira para poder emitir sus sonidos armónicos, y que, por tanto, el uni-
verso en su conjunto debía producir una música celeste, “la armonía de las esferas”, que
algún día habría de servir de inspiración a Johannes Kepler para realizar algunos de sus
descubrimientos astronómicos. Los pitagóricos tuvieron conocimiento de que una cuerda
tensa produce sonidos armónicos cuando es pulsada y su longitud corresponde a fraccio-
nes sencillas de la longitud fundamental; así, la nota fundamental corresponde a la cuerda
al aire, y la octava, a la mitad de la cuerda. Si se asigna la longitud de 1 a la cuerda, y la
nota fundamental corresponde a la nota do, entonces una longitud de 8/9 corresponde a
re, una longitud de 3/4 a fa, una longitud de 2/3 a sol y una longitud de 16/27 a la. Estas
cinco notas corresponden a la escala pentatónica, o sin semitonos, que fue característica
de la cultura griega y de muchos pueblos primitivos. La relación entre la música y las ma-
temáticas sugirió a los pitagóricos la idea de que la estructura del universo corresponde a
un plan matemático, y que quien lo descifre estará en poder del conocimiento del mundo,
de ahí su gran interés por las proporciones matemáticas y geométricas, lo que, de alguna
manera, constituye el origen más remoto de la idea, base para la ciencia moderna, de que
los fenómenos naturales están regidos por leyes matemáticas que se pueden conocer.
20
El primer modelo del universo que pretendía dar una descripción y una explicación mecá-
nica del movimiento astronómico se atribuye a un pitagórico, Eudoxio de Cnido, en el siglo
IV a. C. Se trata de un modelo mecánico que parte de la suposición de que la Tierra se
encuentra suspendida e inmóvil en el centro del universo. Alrededor de la Tierra, adosados
a esferas cristalinas, giran los planetas, el Sol y la Luna, y más allá de todos ellos gira la
esfera de las estrellas fijas (figura 1.7). La característica más sobresaliente de este modelo
es que todas las esferas se encuentran engranadas entre sí, de modo que el movimiento
de cada una depende del movimiento de las demás. Por otra parte, los ejes de rotación
de cada esfera apuntan en diferente dirección, lo que puede explicar, entre otras cosas, el
cambio en la posición del Sol respecto a la Tierra a lo largo del año, que es responsable del
ciclo de las estaciones. La combinación del movimiento simultáneo de varias esferas podía
reproducir con cierto grado de aproximación el movimiento retrógrado de los planetas, aun-
que para poder lograrlo era necesario introducir esferas adicionales.
Física conceptual
Capítulo 1: El nacimiento de la astronomía
21
El modelo de Eudoxio, que llegó a tener hasta 55 esferas, no tuvo una larga vida en la
práctica de la astronomía debido a su imprecisión y a la dificultad de utilizarlo como instru-
mento de cálculo, pero introdujo un elemento clave que habría de definir la forma de trabajo
astronómico durante los siguientes dos mil años: la idea de reproducir cualquier tipo de
movimiento astronómico a partir de la superposición de movimientos circulares.
22
La trayectoria circular que describe el centro del epiciclo alrededor de la Tierra se deno-
mina deferente. Mediante los epiciclos fue posible hacer una descripción del movimiento
retrógrado de los planetas y explicar los cambios en los tamaños relativos del Sol y la Luna
situando a estos últimos en órbitas excéntricas respecto a la Tierra, lo cual explicaba el
hecho observado de que el Sol recorre más de la mitad de su trayectoria en tan solo medio
año. El modelo de epiciclos (figura 1.9) fue adoptado en el siglo II por Ptolomeo, el más
notable astrónomo de la antigüedad, quien en su Almagesto compendió el conocimiento
astronómico de su tiempo y sentó las bases para la práctica de la astronomía durante casi
mil quinientos años.
Física conceptual
Capítulo 1: El nacimiento de la astronomía
23
pues se argumentaba que los cuerpos celestes eran de una naturaleza y de una materia
diferente a la de la Tierra, por lo que no tenían ninguna dificultad para girar alrededor de
ella aunque fueran mucho más grandes. De la obra de Aristarco se tiene noticia por las
referencias que hace de ella Arquímedes. Según este, Aristarco determinó la posición del
Sol en el momento en que la Luna se encontraba en cuarto creciente, es decir que desde
la Tierra se apreciaba como media Luna, de modo que la relación entre la distancia de la
24 Tierra a la Luna, TL, y la distancia de la Tierra al Sol, TS, es el coseno del ángulo α formado
por las líneas TL y TS (figura 1.10).
De acuerdo con las mediciones hechas por Aristarco, TL/TS = 1/20, siendo un valor más
aproximado 1/400. Si bien el error es de apreciable magnitud, pues la determinación pre-
cisa del ángulo en cuestión implica tener en cuenta la refracción de la luz por la atmósfera
terrestre, algo imposible para la época, se rescata el ingenio de la medición y el resultado
puramente cualitativo de que el Sol está mucho más lejos de la Tierra que la Luna. También
se atribuye a Aristarco el haber determinado la relación entre el radio de la Tierra y el radio
de la Luna durante un eclipse lunar. Aristarco estimó que el radio terrestre era unas dos
veces el de la Luna, aunque un valor más aproximado es de unas cuatro veces. A partir
de esta medición y teniendo en cuenta el hecho de que el Sol y la Luna se ven aproxima-
damente del mismo tamaño, es decir que sus diámetros subtienden el mismo ángulo, se
puede concluir que, de acuerdo con las mediciones de Aristarco, el radio del Sol es unas
veinte veces mayor que el de la Luna y unas diez veces mayor que el de la Tierra. De nuevo
tenemos un error de medida considerable, pero sigue siendo importante el hecho de haber
podido determinar que el Sol es mucho más grande que la Tierra, lo que, aparentemente,
llevó a Aristarco a proponer que era esta la que giraba alrededor de aquel, y no lo contrario,
como predicaban los modelos de la época.
Física conceptual
Capítulo 1: El nacimiento de la astronomía
Rα = 800 km
No hay un acuerdo bien establecido entre los historiadores respecto al valor que obtuvo,
pues lo expresó en estadios, pero no especificó si eran estadios griegos o romanos, que
tienen diferente longitud, además del hecho de que Asuán y Alejandría no se encuentran
exactamente sobre el mismo meridiano, lo que introduce un factor de error considerable.
En el mejor de los casos se podría estimar el valor obtenido para el radio de la Tierra por
Eratóstenes en 6840 kilómetros, mientras que el valor real es de 6370, lo que constituye
una excelente aproximación teniendo en cuenta el método de medición utilizado. Indepen-
dientemente del valor obtenido, lo importante es saber que casi mil ochocientos años antes
de Colón se tenía conocimiento de que la Tierra era redonda y se disponía de un método,
con errores, pero susceptible de ser perfeccionado, para determinar sus dimensiones.
Resumen
Gracias a la observación astronómica, ingenua y a ojo desnudo, el hombre pri-
mitivo empezó a descubrir regularidades y a establecer una correlación con pro-
26 cesos cíclicos que afectaban su vida cotidiana y mejoraban sus posibilidades de
supervivencia. En primer lugar, el movimiento concertado de las estrellas fijas,
como si giraran alrededor de un eje, permitió definir los polos celestes y disponer
de un valioso recurso para la orientación; y, en segundo lugar, la agrupación de
estrellas de acuerdo a su brillo y a las figuras que suscitaban en la imaginación del
observador, así como el comportamiento aparentemente errático de los planetas,
permitió hacer una primera clasificación de los objetos celestes. Posteriormente
se definió el año a partir de la observación de la regularidad y de la periodicidad
del movimiento del Sol respecto a las estrellas a lo largo de la eclíptica para
completar un ciclo en 365 días, que corresponde, aproximadamente, a unos doce
ciclos lunares, y se establecieron las bases para la elaboración del calendario,
que habría de constituirse en la guía de los eventos comunitarios de mayor im-
portancia. Adicionalmente, la necesidad de predecir eventos astronómicos como
los eclipses y las conjunciones planetarias condujo a la elaboración de modelos
astronómicos, a partir de la idea de que el circular era el único movimiento posible
para los astros.
Nacimiento de la Astronomía
Física conceptual
Capítulo 1: El nacimiento de la astronomía
Cuestionario
Introducción
Durante un periodo de casi mil quinientos años comprendido entre los siglos II y XVI, la práctica de
la astronomía hizo pocos progresos en cuanto a sus técnicas y modelos, aunque gracias a los ára-
bes después del siglo VII conservó una vigorosa actividad en aspectos como la observación de los
astros y la elaboración de tablas y manuales astronómicos. En el transcurso de este periodo había
estado vigente el calendario juliano, pero hacia mediados del siglo XVI se presentaba un desfase de
cerca de catorce días entre los días de equinoccio y solsticio y las fechas correspondientes. El papa
Gregorio XIII ordenó a los astrónomos de la cristiandad la elaboración de un nuevo calendario que
restaurara el equinoccio vernal, y en 1582 se adelantó la fecha haciendo que el día siguiente al 4
de octubre fuera el 15 de octubre. El nuevo calendario fue adoptado inmediatamente por los países
de influencia católica, y con el transcurso del tiempo todos los demás fueron adoptándolo, con la
excepción de los países islámicos que todavía utilizan su propio calendario. En particular, Inglaterra
y sus colonias solo adoptaron el nuevo calendario en el año 1752.
El desfase que se presentaba entre las fechas del calendario y la ocurrencia de los fenómenos
astronómicos que le sirven de referencia se debía a que el calendario juliano se basaba en años de
365.25 días, pero el verdadero valor del año solar es de 365 días 5 horas 48 minutos y 46 segundos,
o sea 365.2425 días, lo que causa un retraso de casi un día por siglo. A diferencia del calendario
juliano, el gregoriano está concebido para que haya una adecuada correspondencia entre las fechas
y los eventos astronómicos durante 20.000 años debido a que elimina los años bisiestos en todos
los finales de siglo, excepto si son divisibles por 400 o por 4000.
La necesidad de reformar el calendario conllevó una revisión a fondo de las tablas astronómicas y
del modelo y los artificios de cálculo astronómicos vigentes para la época, lo que permitió evidenciar,
una vez más, lo extraordinariamente complicado que resultaba la realización de un cálculo al tener
que manipular de manera simultánea un gran número de epiciclos, dificultad que se veía agravada
cuando, como sucedía con frecuencia, los cálculos y las observaciones no concordaban y se hacía
necesario introducir correcciones. Los astrónomos clamaban por modelos más sencillos que simpli-
ficaran e hicieran más fácil su trabajo, y se empezó a contemplar la idea de que un modelo diferente
al de Ptolomeo podría satisfacer estas aspiraciones, lo cual encontró condiciones favorables en el
ambiente intelectual del Renacimiento.
El renovado interés por la cultura griega, que se generalizó en Europa a finales de la Edad Media,
puso en contacto a los estudiosos de la época con los grandes desarrollos científicos, matemáticos
y astronómicos que habían hecho los griegos, particularmente en Alejandría, lo cual fomentó una
Capítulo 2 : La revolución copernicana
actitud crítica a la filosofía de Aristóteles, que era el soporte de la doctrina de la Iglesia cató-
lica, y, por el contrario, a la exaltación de la filosofía de Platón y de las doctrinas pitagóricas
referentes a la perfección matemática del universo y la posibilidad de descubrir sus leyes a
partir del estudio de las matemáticas y la geometría, disciplinas que en la época tenían muy
bajo estatus intelectual frente a otras como la teología, la retórica o la filosofía, que gozaban
30 del máximo reconocimiento.
Fue en este ambiente intelectual que la obra del astrónomo polaco Nicolás Copérnico
(1473-1543) surgió como una alternativa esperanzadora. Copérnico estudió astronomía en
Italia con el famoso astrónomo Francisco María Novaro, y se familiarizó con el Almagesto,
la monumental obra astronómica de Ptolomeo, base fundamental de la astronomía oficial.
Pero Copérnico también conoció la dura crítica que hizo Pico de la Mirandola a la astrono-
mía de la época en su obra Crítica a la astrología adivinatoria, en la que descalificaba la
pretensión de los astrólogos de adivinar el futuro a partir de la interpretación de los astros,
cuando ni siquiera podían ponerse de acuerdo en la posición de los planetas. En efecto, el
modelo de Ptolomeo afirmaba que Venus estaba más cerca del Sol que Mercurio, y este
más cerca de la Luna, y que los dos recorrían órbitas en epiciclos entre la Tierra y el Sol,
por lo cual se denominaban planetas interiores; no obstante, otros afirmaban que los dos
planetas se hallaban más allá de la órbita del Sol, lo que daba cuenta de la incertidumbre
en la que se encontraba la astronomía de la época, y esto imponía, por tanto, la necesidad
de hacer reformas, tales como la que Copérnico estaba a punto de proponer. Es importante
tener en cuenta que en la época de Copérnico las profesiones de astrónomo, astrólogo y
matemático se confundían entre sí.
Física conceptual
Capítulo 2: La revolución copernicana
La obra magna de Copérnico, Sobre las revoluciones de las esferas celestes, se publicó en
1543 (el mismo año de la muerte de su autor) gracias al empeño del astrónomo protestante
Cornelio Rético, quien alentó a Copérnico a que publicara el texto y realizó gran parte de
los trámites necesarios para su impresión. Sin embargo, antes de salir a la luz pública, la
Iglesia protestante condenó el libro al considerar que defender el movimiento de la Tierra 31
y la inmovilidad del Sol era ponerse en contra de las Sagradas Escrituras, donde se afirma
explícitamente lo contrario. Por esta razón el impresor Andreas Ossiander, con el fin de
no perder la cuantiosa inversión que ya se había hecho, decidió publicarlo añadiendo un
prólogo apócrifo en el que, supuestamente, el autor afirmaba que las ideas expuestas en el
texto se debían tomar como meras hipótesis cuya única finalidad era facilitar la realización
de cálculos astronómicos, sin ninguna pretensión de verdad. Por su parte, la Iglesia católica
puso a la obra de Copérnico en el Índice de libros prohibidos en 1616, hasta 1822 cuando
se permitió a los fieles estudiar lo que para entonces ya era el modelo oficial de la astrono-
mía en la mayor parte del mundo civilizado (figura 2.1).
3. Todas las esferas giran alrededor del Sol, que es el centro del universo.
4. La relación entre la distancia de la Tierra al Sol y la distancia al firmamento es tan
inferior a la relación entre el radio de la Tierra y su distancia al Sol, que la distancia
de la Tierra al Sol es imperceptible comparada con la distancia al firmamento.
5. Todos los movimientos que parece hacer el firmamento no provienen del firma-
mento mismo sino del movimiento de la Tierra, que, junto con todo lo que la rodea,
32 realiza una rotación completa sobre sí misma diariamente, mientras el firmamento
permanece inmóvil.
6. Lo que se nos presenta como movimiento del Sol no proviene de su movimiento
sino del movimiento de la Tierra y de su esfera, con la que gira alrededor del Sol
como cualquier planeta; por tanto, la Tierra tiene más de un movimiento.
7. Los movimientos retrógrados y directos de los planetas no provienen de sus mo-
vimientos sino del de la Tierra. El movimiento de la Tierra por sí solo es suficiente
para explicar los movimientos de los cielos.
Copérnico asigna a la Tierra tres tipos de movimientos: el de rotación sobre su eje con una
duración de 24 horas, que explica la sucesión del día y la noche; uno de traslación alrededor
del Sol a lo largo de una órbita excéntrica, que dura un año sideral; y un movimiento de
declinación del eje de rotación, que explica la precesión de los equinoccios, que había sido
descubierta por Hiparco de Nicea en la época de oro de la astronomía en Alejandría. Fiel
a la tradición, Copérnico preserva la circularidad del movimiento astronómico y continúa
utilizando los epiciclos como artificio para reproducir las órbitas planetarias y para construir
órbitas excéntricas como la de la Tierra alrededor del Sol, o la de la Luna alrededor de la
Tierra, de tal forma que se puedan explicar las variaciones en las distancias relativas de
los astros, que se manifiestan en los cambios de brillo de los planetas o en la ocurrencia
de eclipses parciales o totales de sol. Pero a diferencia de Ptolomeo, Copérnico prescinde
del uso del ecuante, una construcción introducida por Ptolomeo con el fin de recuperar la
regularidad del movimiento astronómico mediante la definición de un punto desde el que el
planeta parece describir un movimiento angular uniforme. El punto ecuante fue introducido
por Ptolomeo para subsanar la aparente irregularidad del movimiento de los planetas que
cambian continuamente de velocidad a lo largo de su trayectoria cuando son vistos desde
la Tierra.
Física conceptual
Capítulo 2: La revolución copernicana
33
Física conceptual
Capítulo 2: La revolución copernicana
Copérnico pretende responder a estas objeciones dentro del mismo esquema conceptual,
al afirmar que la Tierra es el centro de la gravedad, es decir, de la caída de los cuerpos, y
del movimiento de la Luna, y que todas las cosas que hay en la Tierra y alrededor de ella la
acompañan solidariamente en su viaje. Explica el movimiento de rotación y de traslación en
una órbita circular por ser lo más apropiado para un cuerpo que, como la Tierra, tiene forma
esférica. Además replica al argumento de que la Tierra se debería despedazar al rotar sobre
sí misma diciendo que, al ser mucho más grande que la Tierra, la esfera de las estrellas
fijas tendría una mayor razón para despedazarse, cosa que no sucede. En el caso de este
último contraargumento, Copérnico incurre en una omisión, pues aparentemente no tiene
en cuenta que los cuerpos celestes se suponían compuestos por un material de diferente
naturaleza al que compone la Tierra, y, por tanto, sujeto a diferentes condiciones.
Algunos historiadores, como Thomas Kuhn, afirman que, más que un revolucionario de la
astronomía, Copérnico fue el último astrónomo clásico, y que su modelo fue el último intento
por salvar la astronomía y sus conceptos de base tal y como se habían mantenido durante
más de dos mil años. Las radicales innovaciones que habrían de realizar los sucesores de
Copérnico para poner a punto su sistema y lograr su aceptación demostrando su sencillez
y eficacia respaldan esta posición.
traba quien llegaría a ser el astrónomo más importante de su época, el alemán Johannes
Kepler (1571-1630). Formado en la tradición pitagórica, lo que muy probablemente lo llevó
a adoptar la causa de Copérnico, pues los pitagóricos rendían culto al Sol como la máxima
deidad, Kepler se dio a la tarea de encontrar en el universo, a través del modelo de Copér-
nico, las armonías matemáticas y geométricas que, supuestamente, regían sus movimien-
36 tos. Dotado de una imaginación tan grande como sus capacidades de matemático, Kepler
creyó haber descubierto en los cinco sólidos perfectos la razón de que solo hubiera los seis
planetas que se conocían en su época. Buscando relaciones geométricas entre las órbitas
planetarias, Kepler inscribió los cinco sólidos regulares en las seis esferas planetarias, pero
como no pudo conseguir el acuerdo perfecto entre el cálculo matemático, el modelo geomé-
trico y los valores entonces conocidos de los radios de las órbitas, decidió que las esferas
planetarias debían tener un cierto espesor, de tal manera que forzando un poco los datos
pudo llegar a lo que para él fue un gran descubrimiento, aunque el resultado obtenido no
fue exactamente como se esperaba, pues en lugar de una única armonía celeste o música
celestial emitida por las esferas planetarias en su movimiento, se obtenía una melodía
que alternaba de tonalidad en notas altas y bajas. Al igual que en el caso de las órbitas y
los sólidos regulares, Kepler “descubrió” otras supuestas regularidades matemáticas en el
universo, que no resistieron la prueba del tiempo, como aquella que pretendía explicar por
qué Júpiter tenía cuatro satélites y la Tierra solo uno, pero en medio de la confusa maraña
de seudodescubrimientos y supuestas regularidades matemáticas, también encontró las
tres primeras leyes universales del movimiento astronómico, gracias, en gran parte, a las
tablas de observaciones astronómicas del astrónomo danés Tycho Brahe (1546-1601), cu-
yos datos tenían la mejor precisión que se podía lograr con los instrumentos de la época.
Física conceptual
Capítulo 2: La revolución copernicana
el este, argumentaba Tycho, una bala de cañón debería avanzar más cuando es disparada
hacia el oeste, pues el blanco se mueve hacia el lugar desde donde disparó el cañón, que
cuando es disparada hacia el este, pues en el último caso el blanco se aleja de donde fue
disparada la bala. Aunque no hay indicios de que Tycho hubiera realizado ningún tipo de ex-
perimento con cañones, los de su época no le habrían permitido llegar a ninguna conclusión
definitiva en vista del muy corto alcance que poseían, de tan solo unos cientos de metros. 37
No deja de ser paradójico que cuando a principios del siglo XX los barcos dispusieron de
cañones con un alcance de hasta veinte kilómetros, los artilleros se vieron en la necesidad
de tener en cuenta la rotación de la Tierra para acertar en el blanco.
Una notable observación que realizó Tycho fue la de una estrella nova. Anotando su posi-
ción con mucho cuidado durante varios días consecutivos en los que la estrella iba cam-
biando de brillo, Tycho pudo determinar que se trataba de un cuerpo celeste y no de un
cometa o de otro supuesto fenómeno sublunar, pues no cambiaba de posición respeto a
las estrellas fijas. Esta observación contradecía claramente la doctrina aristotélica de la
perfección e inmutabilidad del mundo celeste.
Las relaciones entre Tycho y Kepler fueron tormentosas debido a que el primero era un cor-
tesano amante de los placeres mundanos, mientras que el alemán era un individuo retraído
y poco sociable, y no fue sino hasta después de la muerte de Tycho que tuvo Kepler pleno
acceso a los datos astronómicos de gran precisión con los que trató de demostrar la validez
del modelo copernicano.
38
“Todos los planetas describen órbitas elípticas con el Sol situado en uno de los focos”.
Física conceptual
Capítulo 2: La revolución copernicana
39
La primera ley de Kepler supone un sacrificio conceptual de igual o mayor valor que el
realizado por Copérnico al ceder el privilegiado centro del universo a un cuerpo diferente
a la Tierra, puesto que el axioma de circularidad, íntimamente asociado a la perfección del
mundo celeste, era la más antigua y venerada de las ideas de la astronomía; sin embargo,
Kepler renunció a él ante la evidencia de los datos astronómicos de Tycho. Se puede decir
que este es uno de los más importantes aportes metodológicos que Kepler hizo a la cons-
trucción de la ciencia moderna.
40
Física conceptual
Capítulo 2: La revolución copernicana
damente tratando de llegar a la mejor concordancia posible entre el modelo que pretendía
verificar y los datos astronómicos de los que disponía, y de esta manera descubrió que “el
radio que va del Sol al planeta barre áreas iguales en tiempos iguales”, lo que constituye su
segunda ley del movimiento planetario (figura 2.8). Tal como sucedía con el punto ecuante,
esta ley permite recuperar la regularidad donde aparentemente hay una falta de uniformi-
dad. De acuerdo con esta ley, cuando un planeta está más alejado del Sol y su radio vector 41
es mayor, barre un área determinada en un lapso de tiempo T. Posteriormente, cuando el
planeta se encuentra en la posición opuesta, su radio vector es menor y en el mismo lapso
de tiempo T debe recorrer una distancia mayor para barrer la misma área, como conse-
cuencia de lo cual resulta que cuando el planeta se encuentra más cerca al Sol su velocidad
es mayor. La ley de áreas permite conocer la velocidad de desplazamiento del planeta en
cualquier punto de su órbita.
Kepler interpretó el hecho de que la velocidad del planeta aumentara cuando estaba más
cerca al Sol suponiendo que el Sol era responsable del movimiento planetario y trabajó
arduamente tratando de encontrar la forma matemática de la ley de fuerzas que gobierna
este movimiento. Aunque no logró su objetivo dejó planteado el problema que, al ser re-
suelto por Newton, habría de poner a la astronomía sobre sólidas bases físico-matemáticas.
También anticipó que dos cuerpos suspendidos en el espacio e inicialmente en reposo se
debían atraer hasta chocar en un punto tal que la distancia recorrida por cada cuerpo debía
ser inversamente proporcional a su masa. Actualmente este punto se denomina centro de
masas del sistema.
T2 α R3 (2.1)
Aunque las órbitas planetarias son elípticas, su excentricidad es muy pequeña, y en algu-
nos casos, como en este, se pueden considerar aproximadamente circulares, con un radio
igual a su radio promedio. Si se miden las distancias astronómicas en términos del radio
medio de la órbita de la Tierra, RT, y los periodos orbitales en años, lo que constituye las de-
nominadas unidades astronómicas, UA, la tercera ley de Kepler se puede expresar como:
T2 = R3 (2.2)
Valiéndose de la tercera ley de Kepler es posible determinar los radios de las órbitas plane-
tarias a partir de sus periodos. También es posible calcular la velocidad orbital
V = 2πR/T (2.3)
de modo que
V2 = 4πR2/T2 (2.4)
V2 = 4π2/R en UA (2.5)
Física conceptual
Capítulo 2: La revolución copernicana
hacía que los planetas se movieran en sus órbitas, como si se tratara de un inmenso carru-
sel. Sin embargo, la rotación del Sol, descubierta por Galileo al observar el desplazamiento
de las manchas solares mediante el telescopio, no tiene relación directa con la suposición
de Kepler.
Aunque Kepler no hizo ningún avance positivo en la solución del problema del movimien- 43
to astronómico, dado que seguía aferrado a la concepción aristotélica del movimiento, al
sugerir la posible existencia de una ley matemática que describe las fuerzas que rigen el
movimiento de los astros contribuyó a plantear con más precisión el problema que habría
de ser resuelto con base en la dinámica elaborada por Galileo y Newton.
44
Física conceptual
Capítulo 2: La revolución copernicana
45
Es importante notar que si bien la observación de las fases de Venus no constituye de por
sí una verificación del modelo de Copérnico, puesto que el de Tycho también puede prede-
cirlas, sí es un poderoso argumento en contra del modelo de Ptolomeo, lo que contribuyó
poderosamente a que Galileo se convirtiera en un ardiente defensor del heliocentrismo.
Pero el argumento definitivo que inclinó a Galileo hacia el modelo de Copérnico fue el
descubrimiento de los satélites de Júpiter. El hecho de que Júpiter poseyera cuatro cuerpos
celestes que giraban a su alrededor en órbitas definidas y en periodos bien establecidos,
conformando un sistema copernicano en miniatura, demostraba que la Tierra no era el
único centro de los movimientos celestes, al tiempo que sugería la posibilidad de que girara
alrededor del Sol sin perder su propia luna.
Aunque Galileo también observó los anillos de Saturno, la poca resolución de su telescopio
lo hizo pensar que se trataba de un par de satélites que siempre aparecían a su lado. Gali-
leo publicó sus descubrimientos en una obra titulada Sidereus nuntius, o El enviado de los
cielos, en 1610, un año después de la aparición de la obra de Kepler Astronomia nova, y en
1613 publicó Cartas sobre las manchas solares, donde no solo anuncia el descubrimiento
de la existencia de manchas sobre la superficie del Sol, una nueva refutación de la supuesta
perfección de los cuerpos celestes, sino que permite determinar la rotación del Sol sobre
su propio eje a partir del seguimiento de las manchas a lo largo de varios días consecutivos
(figura 2.12).
46
Esta última publicación tuvo unos efectos indeseados desde el punto de vista de la acepta-
ción del modelo de Copérnico, pues dio lugar a una agria disputa respecto a la paternidad
del descubrimiento con el padre Christoph Scheiner, el astrónomo principal de la Compañía
de Jesús. La disputa, que llegó a alcanzar gran virulencia, fue particularmente desafortu-
nada pues los jesuitas, la avanzada intelectual de la Iglesia católica, se habían mostrado
inicialmente favorables al modelo de Copérnico, pero después del enfrentamiento de Gali-
leo con el Sagrado Colegio se inclinaron por el modelo de Tycho y pronto llegaron a ser los
grandes contradictores de aquel.
En 1616 Galileo fue denunciado ante la Santa Inquisición por la supuesta herejía de pre-
dicar el movimiento de la Tierra, y llamado a dar explicaciones, con el grave riesgo de ser
amonestado públicamente, e incluso procesado, en caso de sostenerse en su afirmación.
Pero esto no sucedió, pues Galileo, sabiamente aconsejado, adoptó una actitud diplomática
y declaró que sus consideraciones copernicanas no constituían una declaración de fe sino
Física conceptual
Capítulo 2: La revolución copernicana
que tenían un carácter puramente hipotético, lo que lo salvó, en esa ocasión, de una amo-
nestación que conllevaba serias consecuencias penales, y el expediente fue archivado sin
mayores consecuencias, luego de lo cual Galileo asumió una posición discreta respecto a
sus convicciones copernicanas. La situación habría de cambiar cuando el cardenal Maffeo
Barberini fue elegido papa, con el nombre de Urbano VIII, en 1623. Barberini, un intelectual
florentino de reconocido prestigio, e importante figura de la corte vaticana, había desem- 47
peñado un papel importante en su defensa cuando Galileo fue llamado a la Inquisición en
1616.
Luego de una visita al Vaticano, en la que sostuvo una larga conversación con el nuevo
papa sobre sus trabajos en astronomía, Galileo se sintió alentado para hacer públicas sus
convicciones copernicanas y los avances que había hecho al respecto, y en 1632 publicó,
con el beneplácito de la Inquisición de Florencia y la aprobación del Vaticano, su obra mag-
na, Diálogos sobre los dos máximos sistemas del mundo: el de Copérnico y el de Ptolomeo.
Pero tan pronto salió a la luz pública, el texto fue recogido por orden de la Inquisición y su
autor fue llamado a rendir cuentas.
Los Diálogos, como es conocida la obra de Galileo, se plantean como una cordial discusión
entre dos personajes. Simplicio y Salviati, que representan, respectivamente, el pensamien-
to escolástico de corte aristotélico, que se identificaba con el de la Iglesia, y el pensamiento
de Galileo, que se identificaba con los planteamientos de Copérnico. Un tercer personaje,
supuestamente imparcial, llamado Sagredo, escuchaba los argumentos de uno y otro y
terminaba siempre por darle la razón a Galileo en la persona de Salviati. Si bien la obra su-
puestamente cumplía con el formalismo de discutir en tono hipotético las dos teorías rivales
sobre el mundo, su sesgo copernicano era evidente para cualquier lector medianamente
informado. Pero la piedra de escándalo que permitió a los jesuitas acudir al Papa y acusar
a Galileo de ridiculizarlo fue que la teoría sobre la influencia de la Luna en las mareas, que
era defendida por el Papa, aparecía en la obra en boca de Simplicio. Por el contrario, el muy
brillante Salviati exponía la teoría de Galileo, en la que se explicaban las mareas como un
efecto del movimiento combinado de la traslación y la rotación de la Tierra, algo que hoy en
día se considera como el mayor fiasco intelectual del astrónomo italiano. El Papa se sintió
asaltado en su buena fe y traicionado por quien había considerado su amigo, y de inme-
diato ordenó a la Inquisición que procediera contra Galileo, quien fue convocado a Roma a
responder por el cargo de desobedecer la admonición de 1616 de no defender ni enseñar
la teoría copernicana, a pesar de que esta nunca se había concretado.
Desoyendo el consejo de algunos de sus amigos de escapar de Italia lejos del alcance del
Vaticano y la Inquisición, Galileo se presentó a Roma en pleno invierno a pesar de su preca-
rio estado de salud, seguro de convencer a sus contradictores con poderosos argumentos
de la veracidad de sus proposiciones y la bondad de sus intenciones, pero no tenía idea de
que su causa era perdida y la condena ya había sido sentenciada.
Tanto la obra de Galileo como la de Copérnico ingresaron al Índice, que era el nombre con
el que se conocía la lista de libros prohibidos para el catolicismo.
La identificación entre el pensamiento católico y el aristotélico llegó a ser tan estrecha que
se consideraba que cuestionar al uno era como cuestionar a los dos. Sin embargo, Galileo,
consciente de las grandes debilidades que presentaba la concepción aristotélica del movi-
miento, ideó una serie de ingeniosas refutaciones lógicas y prácticas de las premisas funda-
mentales de esta doctrina, y de paso estableció las bases metodológicas de la experimenta-
ción como instrumento de investigación científica y de verificación de teorías y postulados.
Física conceptual
Capítulo 2: La revolución copernicana
Resumen
La elaboración de modelos astronómicos geocéntricos que usaban en forma siste-
mática ecuantes y epiciclos permitió salvar hasta cierto punto las apariencias de los
eventos astronómicos, a costa de una considerable dificultad para la elaboración 49
de los cálculos; sin embargo, la limitada precisión de los modelos y la inexactitud
de sus predicciones, que se reflejaba en el desfase de más de diez días que tenía
el calendario a finales de la Edad Media, demandaba una permanente revisión de
los cálculos y la introducción reiterada de ajustes y modificaciones, lo que hizo de la
práctica astronómica una actividad extraordinariamente complicada. La importancia
creciente de la astronomía como auxiliar de la navegación en alta mar después del
descubrimiento de América, y la determinación papal de actualizar el calendario,
contribuyeron a la revisión de los fundamentos de la astronomía y a la elaboración
de modelos revolucionarios como el propuesto por Copérnico, que suscitó todo tipo
de polémicas debido a las fuertes implicaciones que tenía su aceptación respecto a
las creencias ancestrales sobre la posición del hombre y de la Tierra en el universo.
La Revolución Copernicana
Cuestionario
1. ¿Qué circunstancia determinó la necesidad de reformar el calendario a media-
dos del siglo XVI?
50 2. ¿Por qué no es suficiente con añadir un día al calendario cada cuatro años para
que las efemérides concuerden con los solsticios y los equinoccios?
3. ¿Cómo se puede explicar el movimiento retrógrado de los planetas a partir de
un modelo heliocéntrico con epiciclos?
4. ¿Qué ventajas, y qué inconvenientes, se le pueden reconocer al modelo astro-
nómico de Copérnico frente al de Ptolomeo?
5. Compare las fases de Venus tal como son predichas por los modelos de Ptolo-
meo y Copérnico.
6. Explique cuál es la diferencia más notable entre el modelo astronómico propues-
to inicialmente por Copérnico y el modelo de Kepler.
7. Demuestre que dados un cono y un plano secante, solo hay un ángulo entre los
dos que permite obtener una circunferencia o una parábola, en tanto que hay
una cantidad infinita de posibilidades de obtener elipses o hipérbolas.
8. ¿Cómo se puede explicar que los eclipses de sol y de luna no se produzcan de
manera regular por lo menos una vez al mes, sino con una frecuencia mucho
menor y una regularidad difícil de apreciar?
9. Calcule la velocidad a la que se desplaza un planeta en cualquier punto de su
órbita, suponiendo que se conoce su velocidad en el perihelio.
10. Calcule la distancia de la Tierra a un planeta cuyo periodo orbital es de doce
años, aproximadamente.
11. Calcule el periodo orbital de un cuerpo astronómico que ha sido observado orbi-
tando el Sol a una distancia de unas treinta veces el radio de la órbita terrestre.
12. ¿Cómo se puede calcular la altura de una montaña de la Luna vista desde la
Tierra?
13. ¿Cómo se puede utilizar la observación de las fases de Venus para verificar o
descartar el modelo astronómico de Ptolomeo o el de Copérnico?
14. ¿Cómo se podía saber que las manchas solares son fenómenos que ocurren
en la superficie del Sol, y no el tránsito de algún satélite o planeta, con la única
ayuda del telescopio de Galileo?
15. ¿Por qué se puede decir que la existencia de los satélites de Júpiter favorece la
aceptación del modelo copernicano?
Física conceptual
Capítulo 2: La revolución copernicana
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bernal, J. (1975). Historia de la física clásica. Siglo Veintiuno.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
De Santillana, G. (1976). El crimen de Galileo. Universidad de Chicago. 51
Drake, S. (1983). Galileo. Alianza Editorial.
Galilei, G. (1967). Diálogos sobre los dos máximos sistemas del mundo. Universidad de
California.
Geymonat, L. (1998). Historia de la filosofía y de la ciencia. Grijalbo.
Jeans, J. (1968). Historia de la física. FCE.
Koyré, A. (1973). Estudios de historia del pensamiento científico. Siglo Veintiuno.
Kunh, T. (1978). La revolución copernicana. Ariel.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Introducción
La aparición de la obra de Copérnico, Sobre las revoluciones de las esferas celestes, no solamente
conmocionó el ambiente intelectual de la época por las discusiones filosóficas y teológicas a las
que dio lugar, sino por los problemas relacionados con el movimiento de los cuerpos que surgían al
analizar la propuesta copernicana a la luz de las doctrinas aristotélicas del movimiento, que deman-
daban la manifestación de efectos asociados al movimiento de la Tierra, cuya ausencia era tomaba
como prueba de la falsedad del modelo heliocéntrico. La respuesta de Galileo consistió en aceptar,
por principio, que el movimiento no se siente, y en elaborar experimentos mentales y reales, inge-
niosamente concebidos y hábilmente ejecutados, cuyos resultados habrían de trastocar el orden
establecido por la filosofía escolástica sobre el carácter natural o violento del movimiento, y de sus
causas y efectos, gracias a lo cual se sentaron las bases de una nueva dinámica en cuyo marco
el modelo de Copérnico era viable. Los descubrimientos de Kepler de regularidades inobservadas
hasta entonces en el movimiento planetario, y su no menos revolucionaria abolición del axioma
de la circularidad en favor de las trayectorias elípticas ante la contundencia de la precisión de las
observaciones astronómicas de Tycho Brahe, constituyen, junto con la obra de Galileo, las bases
sobre las cuales Newton construyó una teoría de carácter universal y matemático, de gran capaci-
dad predictiva, que no solo resolvió el problema del movimiento de los cuerpos, sino que definió los
parámetros metodológicos para la práctica de la actividad científica de las posteriores generaciones.
Galileo obtuvo la primera clave sobre el movimiento de caída de los cuerpos del movimiento pen-
dular luego de observar que dos péndulos idénticos tienen el mismo periodo de oscilación inde-
pendientemente de la amplitud del movimiento, por lo menos hasta donde se puede verificar con el
primitivo reloj utilizado por Galileo, que no era otro que su propio pulso. Pero la clave que lo condujo
a establecer la ley de caída de los cuerpos resulta de observar que el periodo de oscilación de los
Capítulo 3: Inercia
péndulos es independiente del peso, y que péndulos de igual longitud y diferentes pesos
realizan sus oscilaciones con la misma frecuencia.
En razón de lo anterior, Galileo estableció que “todos los cuerpos caen en el mismo tiempo
desde la misma altura, independientemente de su peso”.
Esta afirmación contradice el sentido común, según el cual la velocidad a la que caen los
cuerpos debería ser proporcional a su peso. En términos aristotélicos se podría decir que
el efecto es proporcional a la causa, y puesto que la causa de la caída es la pesantez, el
cuerpo más pesado tiende a caer con mayor rapidez hacia el centro de la Tierra. Pero el
ingenioso Galileo demostró que este razonamiento conduce a una contradicción, mediante
la reducción al absurdo.
Supongamos que de manera simultánea y desde la misma altura se dejan caer dos cuerpos
cuyos pesos se encuentran en relación 10/1. De acuerdo con Aristóteles, cuando el cuerpo
más pesado llegue al suelo el cuerpo más liviano solo habrá recorrido la décima parte de la
trayectoria total, y cuando llegue al suelo habrá tardado diez veces más que el cuerpo de
mayor peso. Pero ¿qué pasa si los dos cuerpos se unen y se dejan caer? Es de esperarse
que el cuerpo más pesado arrastre al más liviano y este caiga con una mayor velocidad que
la que tendría en el caso de caer solo. Recíprocamente, el cuerpo más liviano frena al más
pesado, por lo que este habrá de caer con una velocidad menor que la que tendría si cayera
solo, de modo que el sistema combinado cae con una velocidad mayor que la del más livia-
no, pero menor que la del más pesado, cuando cada uno cae por separado. De esta manera
se contradice el principio de que la velocidad es proporcional al peso del cuerpo, pues el
sistema en su conjunto pesa más que el más pesado considerado de manera individual.
Esta contradicción deja como única opción la ley de caída de Galileo.
Galileo fue célebre por plantear experimentos mentales en los que partiendo de situaciones
reales se descubre una tendencia que permite llegar a la ley, una vez establecidas las con-
diciones ideales. Veamos cómo se da esta situación en el caso de la caída de los cuerpos.
Consideremos dos esferas macizas de igual diámetro, la una de hierro y la otra de madera,
y dejémoslas caer en diferentes medios para estudiar el efecto de la viscosidad sobre la
Física conceptual
Capítulo 3: Inercia
velocidad de caída. Si las esferas se dejan caer de manera simultánea en aceite, se podrá
apreciar que la bola de hierro cae más rápidamente que la de madera. Si se repite la expe-
riencia en agua, se podrá observar que la bola de hierro todavía cae más rápido que la de
madera, pero la diferencia se ha reducido. Luego se realiza la experiencia en el aire y se
podrá constatar que, aunque persiste una diferencia, es casi imperceptible.
55
Finalmente se plantea el experimento que, aunque Galileo no podía realizar por limitaciones
prácticas, es el que conduce a la ley deseada: la caída de los cuerpos en el vacío. Es de es-
perarse que, si la tendencia se mantiene, a medida que disminuye la viscosidad del medio
disminuye la diferencia entre los tiempos de caída asociada al peso del cuerpo, de tal modo
que en el vacío, donde la resistencia del medio es nula, la diferencia entre los tiempos de
caída también lo sea, de modo que se puede establecer, nuevamente, la ley de caída de
los cuerpos de Galileo en su forma cualitativa: “En el vacío todos los cuerpos caen con la
misma velocidad, independientemente de su peso” (figura 3.1).
3.2 Inercia
El estudio del péndulo provee de importantes claves sobre el movimiento de caída y de
ascenso de los cuerpos, que posteriormente Galileo habría de estudiar detalladamente uti-
lizando planos inclinados para establecer relaciones cuantitativas, algo que en el péndulo
estaba más allá de sus posibilidades.
R0, descendiendo desde la altura h, pero ahora la trayectoria de la derecha tiene radio R2, a
pesar de lo cual la masa del péndulo siempre alcanza a la derecha la misma altura h. Este
procedimiento se puede continuar hasta donde permitan las condiciones experimentales y
se podrá observar que el cuerpo que desciende desde la altura h siempre tiende a alcan-
zar la misma altura, aunque tenga que recorrer trayectorias cada vez más prolongadas,en
56 tanto se pueda despreciar el efecto de la fricción del aire que tiende a frenar el movimiento
pendular.
R1 = R 0 + P1 O
P2 R2 = R 0 + P2 O
R2
P1 R1
h h h
R0
R ∞
Figura 3.2. Péndulo con obstáculo.
Consideremos la primera pregunta. El péndulo parte del reposo y alcanza su máxima ve-
locidad en el punto más bajo de su trayectoria; a partir de este punto el péndulo empieza
a ascender y su velocidad disminuye gradualmente hasta que la masa alcanza la altura h
y se detiene, antes de reiniciar el ciclo. Galileo hace la siguiente consideración: cuando el
péndulo desciende, su velocidad aumenta; cuando asciende, su velocidad disminuye; pero
cuando la masa del péndulo ni asciende ni desciende, su velocidad permanece constante.
En consecuencia, Galileo propone que la velocidad de un cuerpo que se desplaza horizon-
talmente sin ningún tipo de fricción permanece constante.
Ahora consideremos la segunda pregunta: ¿qué mueve al cuerpo sobre la trayectoria ho-
rizontal? Si bien podemos considerar que hay un agente, al que le damos el nombre de
Física conceptual
Capítulo 3: Inercia
gravedad, responsable de que la velocidad del cuerpo aumente durante la caída y de que
disminuya durante la subida, no hay ningún agente responsable del movimiento horizontal;
se puede decir que el cuerpo se mueve sin que ningún agente actúe sobre él, o que:
La clepsidra está conformada por un recipiente esférico con pequeños agujeros en la base,
rematado por un tubo que se puede tapar o abrir para que salga el agua contenida en su
interior. El agua vertida durante el recorrido del móvil se pesaba, y se estimaba que su peso
era proporcional al tiempo transcurrido. En resumen, podemos decir que Galileo pesaba el
tiempo (figura 3.3).
58
Si consideramos una cuña rectangular que reposa sobre uno de los catetos (figura 3.5) se
puede determinar que la relación entre el peso P de la sección que cuelga perpendicular-
mente y el peso P de la sección que descansa sobre el lado h es
Física conceptual
Capítulo 3: Inercia
F = P sen α
Pa h
a
59
α
De esta manera se puede establecer que el peso necesario para equilibrar a un cuerpo de
peso P sobre un plano inclinado en un ángulo α es
F = P sen a (3.3)
Esta relación garantiza que a partir del análisis del movimiento en el plano inclinado se
puede establecer el comportamiento de un cuerpo en caída libre, teniendo en cuenta que
sen 90° = 1. De igual manera se puede determinar la aceleración de caída libre g a partir de
la aceleración a del móvil sobre el plano inclinado, a partir de la relación
a = g sen a (3.4)
Para determinar a qué tipo de movimiento acelerado corresponde la caída de los cuerpos,
Galileo utilizó la regla de Oresme, que discutiremos en detalle más adelante, para el mo-
vimiento uniformemente acelerado. Aunque no había manera de saber “a priori” a qué tipo
de movimiento correspondía el de caída, Galileo apeló a un principio de sencillez e hizo la
suposición de que se trataba del más simple de los movimientos acelerados posible. La
experimentación con el plano inclinado y la paciente recolección de datos, tomados del nú-
mero de veces necesario para reducir el margen de error, le permitió verificar que efectiva-
mente la caída libre de un cuerpo corresponde a un movimiento uniformemente acelerado.
3.5 Cinemática
El aporte metodológico de Galileo a la construcción de la ciencia como una actividad teórica
se puede verificar experimentalmente a partir de la cuidadosa preparación de sus montajes,
la selección de las variables que se quieren determinar y la definición clara de las magnitu-
des que intervienen en el modelo teórico.
Si ∆x = x - x0 y ∆t = t -t0, entonces
v = ∆x/∆t (3.5)
x = x0 + vt (3.6)
Si ∆v = v - v0, entonces
a = ∆v/∆t (3.7)
v = v0 + at (3.8)
Si se hace una gráfica de v contra t se puede demostrar la regla de Oresme, que establece
que el espacio recorrido en un movimiento acelerado que se inicia con la velocidad v0 y
aumenta hasta la velocidad v en el tiempo t es igual al espacio que se habría recorrido en
el mismo tiempo con una velocidad igual al promedio de las velocidades entre v y v0 (figura
3.6):
x = (v + v0 )t/2 (3.9)
Física conceptual
Capítulo 3: Inercia
v
v
vo
61
t
0 t
Figura 3.6. Gráfica de velocidad contra tiempo.
De (3.9) se puede concluir que el promedio de las velocidades inicial y final es igual a la
velocidad media, vM, que es igual al espacio total sobre el tiempo total del recorrido:
vM = (v + v0)/2 (3.10)
A partir de (3.10) es posible conocer la velocidad final de un cuerpo que parte del reposo
en un movimiento uniformemente acelerado, en función del espacio total y el tiempo total
de recorrido:
v = 2x/t (3.11)
También es posible que, como afirma el historiador Stillmann Drake, Galileo haya aprove-
chado sus dotes musicales para medir el tiempo cantando, pues cualquier persona con el
oído musicalmente educado es capaz de medir con las notas de una canción intervalos de
tiempo del orden de décimas de segundo. Pero independientemente del método que haya
62 utilizado, obtuvo la suficiente cantidad de datos como para poder concluir que el movimiento
de caída de los cuerpos es un movimiento uniformemente acelerado, viéndose obligado
a descartar su hipótesis inicial de que la velocidad de caída era proporcional al espacio
recorrido, pues los datos indicaban que la velocidad era proporcional al tiempo de recorri-
do, que es lo que caracteriza al movimiento uniformemente acelerado. Para llegar a esta
conclusión, Galileo determinó las distancias recorridas por el móvil en intervalos sucesivos
de tiempo y al analizarlas encontró que si el tiempo aumentaba según la secuencia de los
números naturales 1, 2, 3..., los correspondientes espacios aumentaban como los números
impares 1, 3, 5, 7…, así (tabla 3.1):
Tabla 3.1
Tiempo Distancia recorrida Recorrido total
1 1 1
2 3 4
3 5 9
4 7 16
5 9 25
n 2n + 1 n2
El análisis de los datos indica que el espacio total recorrido es proporcional al cuadrado del
tiempo de recorrido, es decir:
s a t2 (3.13)
Galileo encontró que los cuerpos que rodaban por el plano inclinado satisfacían esta rela-
ción independientemente de su peso, por lo que la ley de caída se puede establecer en los
siguientes términos:
“En el vacío todos los cuerpos caen con la misma aceleración, independientemente
de su peso”.
Física conceptual
Capítulo 3: Inercia
Consideremos inicialmente dos planos enfrentados con la misma inclinación. Si desde uno
de ellos se deja descender un cuerpo se podrá observar que asciende por el plano opuesto
hasta una altura aproximadamente igual a aquella desde la que descendió. Si se pudiera
eliminar por completo la fricción se podría esperar que la altura que alcanza el móvil en el
plano opuesto sea exactamente igual a la altura desde la que descendió.
h h
Consideremos nuevamente los dos planos enfrentados, pero ahora disminuyamos la in-
clinación del segundo de ellos (figura 3.8). Se puede observar que, siempre que se pueda
despreciar la fricción, el cuerpo alcanza la misma altura desde la que descendió, aunque
ahora su recorrido es mayor. Podemos continuar en el proceso de disminuir la inclinación
del segundo plano y se podrá observar que se mantiene la tendencia del cuerpo a subir
hasta la misma altura desde la que descendió, siempre que se desprecie el efecto de la
fricción. Puesto que el cuerpo alcanza su máxima velocidad cuando llega a la parte inferior
del plano, esto quiere decir que siempre tiene la misma velocidad inicial antes de ascender
por el plano opuesto para alcanzar la altura h desde la que descendió.
Se puede concluir que la altura que alcanza un cuerpo impulsado hacia arriba sobre un
plano inclinado solo depende de la velocidad inicial.
Si se deja descender el cuerpo desde el segundo plano, siempre desde la misma altura h,
64 para varias inclinaciones posibles, se podrá observar que alcanza la altura h en el plano
inicial. De lo anterior se puede llegar a una importante conclusión: la velocidad que alcanza
un cuerpo que desciende sin fricción por un plano inclinado depende exclusivamente de la
altura inicial.
Ahora podemos plantearnos la siguiente pregunta: ¿Qué sucede con el cuerpo después de
descender del primer plano si el plano opuesto está en posición horizontal y se prolonga
indefinidamente? (figura 3.9).
v = cte
h
3.8 Proyectiles
Consideremos el movimiento de un cuerpo que es lanzado horizontalmente. Supongamos
que el cuerpo en cuestión inicialmente desciende por un plano inclinado hasta alcanzar
una velocidad v sobre la horizontal y que luego cae al vacío. Si en lugar de caer al vacío el
cuerpo hubiera continuado su trayectoria horizontal sobre un plano su movimiento habría
Física conceptual
Capítulo 3: Inercia
sido uniforme, de tal modo que en iguales intervalos de tiempo habría efectuado iguales
desplazamientos, que vamos a registrar como puntos igualmente espaciados sobre una
línea horizontal.
Ahora consideremos el movimiento de un cuerpo que se deja caer desde el punto donde
termina el plano horizontal. De acuerdo con la ley de caída de Galileo, el cuerpo recorre en 65
intervalos consecutivos de tiempo espacios proporcionales a los números impares.
x = vt (3.14)
y = (1/2)gt2 (3.15)
y = (g/2v2)x2 (3.16)
De nuevo una de las cónicas desempeña un papel clave en la descripción del movimiento
de los cuerpos. Antes de Galileo, y de acuerdo con la concepción aristotélica del movimien-
to, se creía que la trayectoria de un proyectil era inicialmente rectilínea, correspondiente al
movimiento violento sustentado por el aire, y posteriormente, una vez el aire se “cansaba”
de impulsar al proyectil, este caía verticalmente hacia el centro de la Tierra, lo que no resul-
taba de mucha ayuda para los artilleros de la época a la hora de acertar a un blanco que se
encontraba a considerable distancia.
o no a través del comportamiento de los cuerpos en caída libre y de los proyectiles. Tycho
Brahe sostenía que si la Tierra tuviera un movimiento de rotación hacia el este las balas de
un cañón deberían tener mayor alcance al ser disparadas hacia el oeste, y que como tal
efecto no se apreciaba se podía concluir que la Tierra estaba inmóvil. También se argumen-
taba que debido a la rotación de la Tierra los cocos no deberían caer al pie de las palmas,
66 puesto que durante la caída el piso se habría desplazado una distancia considerable. Si
tenemos en cuenta que un coco cae desde una altura de unos cinco metros en poco más
de un segundo y que la velocidad con la que supuestamente se desplaza un punto del
ecuador debido a la rotación de la Tierra es de unos 460 m/s, los cocos deberían caer desde
las palmas de más de cinco metros a una distancia de casi medio kilómetro de la base de
la palmera. De nuevo, el hecho de que tal fenómeno no se aprecie se tomaba como una
prueba irrefutable de que la Tierra estaba en reposo. La respuesta de Galileo ante la falta
de evidencia del movimiento terrestre se podría parafrasear en los siguientes términos: “El
movimiento de la Tierra no se siente porque el movimiento inercial no se siente”. La ante-
rior afirmación constituye una forma de enunciar lo que se ha dado en llamar “principio de
relatividad galileana”, que establece la imposibilidad de detectar el estado de movimiento
de un sistema inercial dentro del propio sistema”. Las anteriores consideraciones permiten
establecer que la mecánica de Galileo y, en consecuencia, la física que se construye a partir
de sus conceptos parten de un principio de relatividad.
A partir del principio de relatividad galileana y del estudio del movimiento de los proyectiles
se puede analizar un viejo problema directamente relacionado con la posibilidad de detectar
el movimiento de la Tierra que se había planteado mucho antes de que Galileo publicara
sus trabajos. Se trataba de determinar dónde caería una bala de cañón soltada desde lo
alto del mástil de un barco que se desliza suavemente con la corriente del río (figura 3.10).
Física conceptual
Capítulo 3: Inercia
De acuerdo con los aristotélicos, al soltar la bala cesa la acción violenta que la mantenía
en un movimiento horizontal solidario con el barco y, siguiendo su naturaleza, caería hacia
el centro de la Tierra de manera vertical, mientras el barco continúa su desplazamiento
horizontal. En consecuencia, la bala debería caer alejada del pie del mástil. Si el barco
estuviera envuelto en una densa capa de niebla, supuestamente se podría utilizar la caída 67
de balas desde lo alto del mástil para saber si se encuentra en reposo o en movimiento, e,
incluso, se podría saber qué tan rápido se desplaza.
Como alternativa a la percepción aristotélica se plantea que el barco y todos los elementos
que hay en su interior hacen parte de un mismo sistema de referencia y comparten de ma-
nera solidaria el desplazamiento, por lo cual es imposible detectar el movimiento mediante
observaciones internas. Probablemente este haya sido el origen del concepto de sistema
de referencia y está asociado al pensamiento de Giordano Bruno.
Al analizar el mismo problema desde la perspectiva del movimiento de los proyectiles ela-
borada por Galileo, se concluye que mientras el barco se desliza suavemente por el río a
velocidad uniforme es imposible detectar su estado de movimiento mediante la observación
de la caída de balas desde lo alto del mástil, puesto que en el momento de ser soltada la
bala adquiere un movimiento vertical acelerado, pero conserva su estado de movimiento
horizontal, solidario con el barco, y caería al pie del mástil. Para un observador en tierra la
bala habría descrito un movimiento parabólico, en tanto que para un observador dentro del
barco el movimiento habría sido vertical y rectilíneo.
De esta manera es posible entender que al establecer el movimiento inercial como la ley
fundamental de la mecánica, Galileo estaba pensando en una inercia de tipo circular, apro-
piada para describir el movimiento de la Tierra y de los demás planetas como un movimiento
exento de fuerzas y de manifestaciones internas, tal como proponía el sistema copernicano
y exigían las objeciones de sus detractores. La prolongación del plano horizontal opuesto
al plano inclinado desde donde se deja rodar un cuerpo corresponde a la circunferencia
terrestre, y el movimiento inercial del cuerpo que se desplaza sin ningún obstáculo con
velocidad uniforme es un movimiento circular.
Se especula que el compromiso de Galileo con el movimiento circular podría haber sido la
razón por la que nunca manifestó demasiado interés o reconocimiento por la obra de Kepler
68 y sus órbitas elípticas; aunque también es igualmente probable que la oscuridad de los
escritos del alemán y su innumerable cantidad de seudodescubrimientos le hayan ocultado
el verdadero valor de su obra.
La primera persona que estableció con toda claridad el movimiento inercial como una ley
de movimiento rectilíneo y uniforme fue René Descartes, como parte fundamental de su
sistema del mundo, cuya idea central era que el universo estaba completamente lleno de
materia que giraba en vórtices o remolinos, de tal modo que la Tierra giraba en el remolino
del Sol, y la Luna en el de la Tierra. Descartes consideraba que de no ser por la fuerza que
el medio ejercía sobre los cuerpos al girar, estos se moverían rectilínea y uniformemente.
El modelo de Descartes pretendía dar una explicación mecánica a la fuerza de gravedad y
reprochaba a Galileo que al estudiar la caída de los cuerpos solo llegara a una descripción
matemática del fenómeno, sin explicar su causa.
Resumen
Con el fin de determinar a qué tipo de movimiento corresponde la caída de los
cuerpos, Galileo concibió los experimentos en el plano inclinado, lo que le per-
mitió eliminar la influencia de la fricción en el movimiento de los cuerpos que se
deslizan, prolongar el tiempo del desplazamiento para poder medirlo con sus
métodos rudimentarios, obtener resultados que le permitieron concluir que el
movimiento de caída es uniformemente acelerado y establecer que todos los
cuerpos caen en el vacío con la misma aceleración, independientemente de su
peso. Posteriores consideraciones sobre las causas de la aceleración lo llevaron
a afirmar que un cuerpo sobre el que no actúa ninguna fuerza conserva su esta-
do de movimiento, lo que constituye un primer enunciado del principio de inercia,
aunque restringido a trayectorias circulares, tales como las que él suponía que
describe la Tierra en su órbita alrededor del Sol.
Movimiento Inercial
Física conceptual
Capítulo 3: Inercia
Cuestionario
1. Si la velocidad de caída de los cuerpos dependiera de su peso, ¿qué se podría
esperar del periodo de oscilación de un péndulo en función de su peso?
2. ¿Hasta qué punto son equivalentes los movimientos de un péndulo y de una 69
esfera que se mueve entre dos planos inclinados opuestos?
3. Demuestre que la suposición de que "la velocidad de caída de los cuerpos
depende del peso" conduce a una contradicción cuando se considera la caída
desde la misma altura de dos cuerpos de diferente peso, primero por separado,
y después unidos.
4. ¿Qué ventaja sobre el péndulo ofrece el plano inclinado para el estudio de la
caída de los cuerpos?
5. Analice la relación entre el tiempo de caída de un cuerpo desde determinada al-
tura y las características del medio en el que cae (aire, agua, aceite), y extrapole
sus consideraciones para una supuesta caída en el vacío. ¿A qué conclusión se
puede llegar?
6. ¿Qué tienen en común, y en qué se diferencian, las formulaciones del principio
de inercia de Galileo y Newton?
7. ¿Por qué se puede concluir, a partir del estudio de los datos obtenidos en un
plano inclinado, que la caída de los cuerpos es un movimiento uniformemente
acelerado?
8. Determine experimentalmente el tiempo que tarda en caer un objeto, como una
piedra, una tiza, o una bola de cristal, desde una altura de cinco metros.
9. Calcule la velocidad a la que llega a tierra el objeto de la pregunta anterior.
10. Estime la aceleración que experimentó el cuerpo al que se refiere la pregunta
anterior.
11. Calcule la velocidad a la que debe ser lanzado un objeto para que alcance una
altura de cinco metros.
12. Si la fuerza no es lo que genera el movimiento, ¿por qué razón los automóviles
se detienen cuando el motor se apaga?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Drake, S. (1983). Galileo. Alianza Editorial.
70 Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2003.) Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.
Física conceptual
Capítulo 4 La mecánica de Newton
Introducción
En 1687 se publicó en Londres la obra que habría de constituirse en la piedra angular y punto de
partida para la ciencia moderna, Los principios matemáticos de la filosofía natural, escrita por Isaac
Newton, nacido el 25 de diciembre de 1642, año de la muerte de Galileo. Algunos de los aspectos
más destacados de esta obra son la solución matemática del problema del movimiento astronómico
y la extensión de las leyes naturales a todo el universo, aboliendo la división entre el mundo celeste
y el mundo sublunar que consideraba la filosofía escolástica.
Newton publicó su obra luego de que los astrónomos Edmund Halley y Chistopher Wren solicitaran
su ayuda para resolver el problema de calcular la trayectoria de un cuerpo sujeto a una fuerza cen-
tral, como la que supuestamente ejerce el Sol sobre los planetas, y, de manera particular, sobre el
cometa que hoy lleva el nombre de Halley.
Es importante destacar que cuando Newton apareció en la escena científica, la rotación de la Tierra
sobre su eje y su desplazamiento alrededor del Sol ya no eran objeto de discusión, sino que se da-
ban por hecho, excepto en los países que se encontraban bajo la influencia de la Santa Inquisición,
de modo que el trabajo de Newton consistió en resolver un problema de física matemática, lo cual
hizo con precisión y elegancia.
Newton desarrolló un nuevo campo de las matemáticas, que denominó “cálculo de fluxiones” y que
hoy en día conocemos como cálculo infinitesimal, para expresar sus conceptos sobre la mecánica
y encontrar soluciones a los problemas del movimiento de los cuerpos, aunque las demostraciones
Capítulo 4 : La mecánica de Newton
72
4.1 Espacio y tiempo absolutos
En el inicio de su obra, Newton establece con toda claridad los términos y los conceptos
que va a utilizar, pues, aunque los supone ampliamente conocidos, considera necesario
establecer precisiones sobre los conceptos de espacio y tiempo, luego de plantear lo que,
de acuerdo con su criterio, son las reglas que deben guiar el razonamiento de la filosofía
natural, que era el término genérico que identificaba por entonces a la actividad que ahora
llamamos ciencia. Es importante destacar dos de sus reglas; en primer lugar, la que hace
alusión a la no proliferación de las causas: “no se debe atribuir a muchas causas lo que se
puede explicar con una sola”; y, en segundo término, la que se refiere a la certeza de las
afirmaciones: “si no se tiene certeza sobre algo, es mejor no hacer hipótesis”. A continua-
ción, Newton expresa su concepción del espacio y establece la distinción entre el espacio
absoluto y el espacio relativo. El espacio absoluto es infinito, homogéneo e isotrópico, exis-
te por siempre y es independiente de su contenido, y posee las características que le asigna
la geometría de Euclides. El espacio relativo, nos dice Newton, son las medidas sensibles
que hacemos para establecer la distancia entre dos puntos.
Respecto al tiempo absoluto, Newton afirma que fluye de manera uniforme, independien-
temente de los fenómenos, tal como lo ha hecho desde siempre y lo hará por siempre. El
tiempo relativo, que también se llama duración, son las medidas sensibles de tiempo que
hacemos entre dos fenómenos.
Los conceptos de espacio y tiempo que Newton establece son necesarios para instituir las
leyes del movimiento que se plantearán a continuación, aparte del profundo significado
filosófico y teológico que les asignaba su autor.
La ley del movimiento de los cuerpos que adopta Newton es equivalente a la que había pro-
puesto Descartes, y se distingue de la que había propuesto Galileo por el carácter rectilíneo
Física conceptual
Capítulo 4: La mecánica de Newton
del movimiento y por la posibilidad de que este se prolongue de una manera indefinida.
4.3 Momentum
Del planteamiento de la ley de inercia se concluye que la fuerza es lo que cambia el esta-
do del movimiento, y, por tanto, se precisa una definición de estado de movimiento y una
magnitud física que lo describa. A dicha magnitud se le dará el nombre de “momentum”, o
momento lineal, que se designa por la letra p.
p = mv (4.1)
y, por tanto,
74 MRcm = ∑i mi ri (4.4)
y
m1 m2
r2
r1
M
R
m3
r3
r4 m4
x
Si cada una de las partículas realiza un desplazamiento ∆ri en un tiempo ∆t, el centro de
masa del sistema habrá realizado un desplazamiento ∆Rcm dado por la expresión
MVcm = ∑i mi vi (4.6)
Puesto que el momentum de cada una de las partículas está dado por la expresión pi = mvi,
el momento total está dado por
P = ∑i pi (4.7)
A partir de esta expresión se puede concluir que un sistema de partículas se comporta como
una sola partícula cuya masa es igual a la masa total del sistema localizada en el centro
de masa.
Física conceptual
Capítulo 4: La mecánica de Newton
F = ∆p/∆t (4.8)
F = m∆v/∆t (4.9)
Puesto que ∆v/∆t es la aceleración a que experimenta el cuerpo sujeto a la fuerza F, esta
se puede expresar como
F = ma (4.10)
p
76
Puesto que
F1 = m1a1, F2 = m2a2 y F1 = F2
tenemos que
donde se puede ver que la aceleración experimentada por un cuerpo bajo la acción de una
fuerza es inversamente proporcional a su masa. Resulta evidente que el concepto de masa
está directamente relacionado con el de inercia, pues mientras mayor es la masa de un
cuerpo, mayor es la fuerza que se debe aplicar para que su velocidad varíe en una cantidad
determinada.
Es importante tener en cuenta que la inercia es una propiedad de todos los cuerpos, mien-
tras que la masa es una magnitud física propia de cada cuerpo, que se puede determinar a
partir de sus propiedades inerciales.
Física conceptual
Capítulo 4: La mecánica de Newton
Después de una colisión las velocidades de los cuerpos serán v1 y v2, respectivamente, y la
cantidad de movimiento del sistema será
Si dividimos ambos miembros de esta expresión por ∆t, el tiempo que duró la colisión, la
ecuación se puede escribir como
F1 = -F2 (4.19)
Es importante anotar que en toda interacción por contacto entre dos cuerpos se genera un
par de fuerzas de acción y reacción, de igual magnitud y sentido contrario, y que cada una
de ellas actúa sobre un cuerpo diferente.
ma = msas (4.20)
En la relación anterior solo nos interesa la magnitud de las aceleraciones, de modo que
podemos prescindir del signo menos que indica que tienen sentidos opuestos. Si decidi-
mos, de manera arbitraria y conveniente, que la masa ms sea el patrón de referencia para
la medición de la masa, entonces la masa desconocida m se puede determinar en términos
de ms, as y a, así:
m = msas/a (4.21)
Física conceptual
Capítulo 4: La mecánica de Newton
Resumen
La mecánica de Newton se construye a partir del concepto de inercia. Una vez
establecida la inercia como la condición fundamental del movimiento, se define
el concepto de fuerza, a partir de la cual se pueden medir las magnitudes físicas
79
involucradas en la mecánica. La conservación de la cantidad de movimiento es-
pecifica los criterios para establecer cuándo un sistema físico se puede considerar
aislado. El concepto de masa adquiere pleno significado físico como medida de la
inercia de los cuerpos a partir del concepto de fuerza y de la tercera ley de Newton.
Unidades
De acuerdo con el Sistema Internacional de Unidades, SI, las unidades corres-
pondientes a las magnitudes fundamentales longitud, tiempo y masa son el metro,
m, el segundo, s, y el kilogramo, kg. La unidad correspondiente a la fuerza es el
newton, N, y se define como la magnitud de una fuerza que al ser aplicada a una
masa de 1 kg le produce una aceleración de 1 m/s2: 1 N = 1 kgm/s2.
Cuestionario
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.
Física conceptual
Capítulo 5 Gravitación
Introducción
Las leyes de Newton permiten plantear ecuaciones de movimiento para los cuerpos siempre que
las fuerzas que actúan sobre ellos se puedan expresar en términos matemáticos apropiados. La
solución a la ecuación de movimiento se denomina trayectoria y expresa la posición del cuerpo
en función del tiempo. Para determinar las posibles trayectorias de un cuerpo sujeto a la fuerza de
gravitación es necesario determinar la forma matemática de la fuerza y resolver la ecuación de mo-
vimiento que resulta. Los resultados obtenidos deben ser compatibles con resultados previamente
validados de las teorías y los modelos anteriores.
F = Ft + Fp (5.1)
Y
FT
m
Fc
F
V1 V2
FT :
m m
V1 V2
82 :
FT
m m
Por su parte, la componente de la fuerza perpendicular a la trayectoria del móvil, Fp, cambia
la dirección del movimiento pero no afecta la magnitud de la velocidad (figura 5.3).
Fc
v v
Fc Fc
Fc
v = constante
v
Consideremos ahora dos puntos A y B de una trayectoria circular, muy próximos entre sí,
que definen el arco ∆s que es recorrido por el móvil en el tiempo ∆t (figura 5.4), de modo
que la magnitud de la velocidad es
v = ∆s/∆t (5.2)
Física conceptual
Capítulo 5: Gravitación
A
vA
RA
vB
RB
83
v
C
A
v
A
B
v
A
RA α
RB v
B
v
α
vA = vB
Figura 5.5. Aceleración centrípeta en el movimiento circular.
Observemos que los dos vectores velocidad, va y vb, subtienden un ángulo α igual al ángulo
entre los radios Ra y Rb. Si el intervalo de tiempo ∆t se hace tan corto como se quiera,
llamado infinitesimal, el arco AB se aproxima a una línea recta y el sector circular ABO
corresponde a un triángulo semejante al triángulo formado por las velocidades va y vb, y su
diferencia ∆v.
Fc = mv2/R (5.7)
Física conceptual
Capítulo 5: Gravitación
85
86 v = 2πR/T (5.8)
F = 4π2mR/T2 (5.9)
En la ecuación (5.9) podemos ver que la fuerza depende del inverso del cuadrado del pe-
riodo, pero si tenemos en cuenta la tercera ley de Kepler, que en unidades astronómicas
se expresa como
T2 = R3 (5.10)
F = 4π2m/R2 (5.11)
F α mT/R2 (5.12)
Puesto que la fuerza con la que el Sol atrae a la Tierra es igual y de sentido contrario a la
fuerza con la que la Tierra atrae al Sol, esta última tiene que ser proporcional a la masa del
Sol mS, así como la primera es proporcional a la masa de la Tierra mT, y, por tanto, la fuerza
debe ser proporcional al producto de las masas del Sol y de la Tierra, por lo que la ley de
fuerza se debe poder escribir así:
F α mTmS/R2 (5.13)
La proporción (5.13) se puede escribir como una ecuación introduciendo una constante de
proporcionalidad llamada constante de gravitación universal G:
F = GmTmS/R2 (5.14)
Física conceptual
Capítulo 5: Gravitación
87
5.3 Ecuaciones de movimiento para fuerzas gravitacionales
Una vez conocida la forma de la ley de fuerzas para la atracción gravitatoria, Newton proce-
dió a plantear y a resolver la respectiva ecuación de movimiento. Teniendo en cuenta que la
aceleración está dada por la relación a = ∆v/∆t, y que la velocidad se puede expresar como
∆r/∆t, donde r es el vector posición del cuerpo que está sujeto a la acción de la fuerza gravi-
tacional, si el intervalo de tiempo se vuelve infinitesimal y lo expresamos como dt podemos
escribir las expresiones para la velocidad y la aceleración así: v = dr/dt. De acuerdo con lo
anterior, la aceleración se puede expresar como
a = d2r/dt2 (5.15)
Para escribir la ecuación (5.16) se ha partido del supuesto de que la masa m' se encuentra
en el origen del sistema de coordenadas y que es mucho mayor que la masa m (figura 5.8).
m’ >> m
eje del cono y la normal al plano y del ángulo entre el eje y la generatriz del cono se obtiene
una de las cuatro cónicas: circunferencia, elipse, parábola o hipérbola. Notemos que en la
ecuación (5.16) hay dos parámetros ajustables, la posición y la velocidad inicial, así como
en la ecuación de una cónica se pueden variar el ángulo entre el eje y la generatriz, y el
ángulo entre el plano secante y el eje del cono.
88
Consideremos de nuevo el lanzamiento horizontal de proyectiles desde un sitio suficiente-
mente alto para ilustrar de qué modo resulta cada una de las posibles trayectorias al variar
la magnitud de la velocidad de lanzamiento, dejando fija la posición inicial (figura 5.9).
Hipérbola
Circunferencia vh vp
vc
Parábola
Elipse
vp ve vc vp
El primer caso de interés resulta cuando la velocidad inicial tiene el valor mínimo vc nece-
sario para que el cuerpo describa una trayectoria cerrada y regrese al punto de partida; en
este caso la trayectoria es una circunferencia.
El segundo caso a considerar corresponde al lanzamiento del proyectil con la mínima velo-
cidad necesaria vp para escapar del centro de fuerza y alejarse indefinidamente; la trayec-
toria que resulta es una parábola.
En el tercer caso consideremos un proyectil que parte con una velocidad ve mayor que vc y
menor que vp; la trayectoria resultante es una elipse.
Por último consideremos el caso en el que la velocidad inicial es mayor que vp; la trayectoria
que resulta es una hipérbola.
Física conceptual
Capítulo 5: Gravitación
Es importante observar que para una posición inicial dada solo hay un modo de obtener una
circunferencia o una parábola, en tanto que existe un número infinito de posibles elipses
o de hipérbolas para cada una de las velocidades que se encuentren en los rangos asig-
nados, lo que explica por qué es tan poco frecuente encontrar en el movimiento planetario
trayectorias perfectamente circulares y en cambio son tan comunes las elípticas y las hi-
perbólicas. 89
F = GMm/R2 (5.17)
mg = GmM/R2 (5.18)
Dividiendo a ambos lados de la ecuación (5.18) por m se obtiene la expresión para la ace-
leración que experimenta el cuerpo que cae sobre la superficie de la Tierra:
g = GM/R2 (5.19)
Observemos que la magnitud g no depende de la masa del cuerpo que cae, lo cual con-
cuerda con el resultado obtenido por Galileo según el cual la aceleración de caída de los
cuerpos es independiente de la masa. Para llegar a este resultado se hizo la suposición
implícita de que la masa gravitatoria de un cuerpo es igual a su masa inercial, consideración
que inicialmente pasa casi desapercibida pero que posteriormente va a cobrar un importan-
te significado físico.
Pero Galileo también afirmó que la aceleración de caída de los cuerpos no depende de la
altura desde la que se dejen caer. Sin embargo, la ecuación (5.19) nos dice que la ace-
leración depende de la distancia al centro de la Tierra, dato que fue clave para comparar
la aceleración centrípeta de la Luna con la aceleración de caída de los cuerpos sobre la
superficie terrestre. El resultado de Galileo es aceptable si se tiene en cuenta que el radio
90 terrestre mide unos 6369 kilómetros y que variaciones de altura de unos cientos de metros
no producen variaciones perceptibles en el valor de la aceleración de caída, de donde
resulta que la ley de la caída de los cuerpos de Galileo es una aproximación compatible
con la ley de gravitación de Newton. Mediciones realizadas con instrumentos de suficiente
precisión permiten comprobar que la aceleración de caída en los polos es mayor que en el
ecuador debido al achatamiento de la Tierra.
Resumen
A partir de las leyes del movimiento y de las características conocidas del mo-
vimiento planetario, Newton encontró la expresión matemática de la fuerza de
gravitación y estableció la ley de gravitación universal, con lo que pudo plantear,
y resolver, la ecuación de movimiento para un cuerpo sujeto a este tipo de fuerza.
La solución más general a la ecuación de movimiento de un cuerpo sujeto a la
fuerza gravitacional es una trayectoria cónica, que toma una forma específica
según los valores de la posición inicial y la velocidad inicial. Los descubrimientos
de Galileo sobre la caída libre y el movimiento pendular son casos particulares de
la ley de gravitación universal.
Gravitación
Física conceptual
Capítulo 5: Gravitación
Cuestionario
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Arons. Trillas.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
92 Hobson, A. (2010). Physics, concepts and connections. Pearson.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.
Física conceptual
Capítulo 6 Trabajo
Introducción
Al igual que con otros conceptos de la física, el de trabajo ha sido bautizado con un nombre que tie-
ne diversas acepciones en el lenguaje cotidiano, y casi ninguna de ellas da cuenta de su significado
y utilidad en el contexto de la física. Por esta razón, es necesario precisar su significado y definir
su relación con otras magnitudes más fundamentales de la física mediante el establecimiento de
procedimientos que permitan determinar de manera cuantitativa el valor que se le debe asignar a
los procesos físicos descritos por esta función.
W = F∆x (6.1)
Puesto que una fuerza F que actúa sobre un cuerpo de masa m produce una aceleración a, pode-
mos expresar el trabajo W como
W = ma∆x (6.2)
De acuerdo con la cinemática del movimiento uniformemente acelerado, la expresión a∆x se puede
expresar en términos de la velocidad inicial y de la velocidad final del móvil, así:
Por tanto, el trabajo realizado por la fuerza que actúa sobre un cuerpo a lo largo del desplazamiento
se puede expresar como
Dado que la expresión ½mv2 aparece de manera recurrente en los cálculos relacionados
con los sistemas dinámicos, se consideró apropiado darle el nombre de energía cinética,
o Ek. Por esta razón, el trabajo realizado sobe un sistema físico se puede definir como el
cambio de la energía cinética del sistema:
94 W = ∆Ek (6.5)
m h1 v1
F = _ mg
m h2 v2
Notemos que los términos del lado izquierdo de la ecuación solo dependen de h1 y de v1, y
Física conceptual
Capítulo 6: Trabajo
que los términos del lado derecho solo dependen de h2, y de v2, de donde se concluye que
la cantidad
Es conveniente notar que el trabajo realizado por la gravedad sobre un cuerpo que descien-
de desde la altura h1 hasta la altura h2 se puede expresar en términos de la variación de la
energía potencial, así:
W = - ∆Ep (6.13)
y, por tanto,
Con el fin de lograr una mejor comprensión de lo que significa el concepto físico de trabajo
resulta esclarecedor reflexionar sobre la definición dada por Josiah Willard Gibbs, uno de
los padres de la física estadística, de acuerdo con la cual “trabajo es cualquier interacción
entre un sistema y su entorno cuyo único efecto sea, o pueda ser, la elevación de un peso,
dentro del sistema o en el entorno”.
96
6.3 Equilibrio
Consideremos la situación de un cuerpo de masa m suspendido por una cuerda. Para que
el cuerpo se encuentre en equilibrio es necesario que la tensión de la cuerda sea igual a la
fuerza que ejerce la gravedad, que se denomina peso, o mg. En tanto la suma de fuerzas
que actúan sobre el peso sea nula, el cuerpo se podrá desplazar inercialmente en cualquier
dirección. De acuerdo con lo anterior, para subir un cuerpo de masa m hasta una altura h
solo se necesita equilibrar las fuerzas y darle un leve impulso para que se desplace por
inercia. En tanto el desplazamiento del cuerpo se realice a velocidad constante, su energía
cinética no varía y, por consiguiente, el trabajo neto realizado por las fuerzas que actúan
sobre el cuerpo es nulo. Sin embargo, es importante notar que tanto la fuerza de gravedad
como la tensión de la cuerda realizan trabajo sobre el cuerpo, pero puesto que las fuerzas
son iguales pero de sentido contrario, y el desplazamiento es el mismo para las dos, la
suma de los trabajos realizados es nula.
Un sencillo ejemplo del trabajo realizado por fuerzas balanceadas sobre un sistema en
equilibrio es la máquina de Atwood (figura 6.2), un dispositivo en el que dos cuerpos de igual
peso cuelgan de los extremos de una cuerda. Luego de un leve impulso cada uno de los
cuerpos se puede desplazar con velocidad constante, en un movimiento inercial.
Física conceptual
Capítulo 6: Trabajo
97
La condición del equilibrio de un sistema físico permite determinar la masa de los cuerpos
mediante un proceso de comparación gracias a la balanza. En una balanza de brazos igua-
les el sistema se encuentra balanceado cuando los pesos de los cuerpos que reposan en
los platos de ambos brazos son iguales (figura 6.3). De acuerdo con esto, es posible deter-
minar el peso de un cuerpo desconocido que se coloca en uno de los platos de la balanza
depositando un determinado número de elementos de peso mucho menor en el otro plato
hasta alcanzar el equilibrio. De esta manera el pesaje de un cuerpo, como todo proceso de
medición, es, en último término, un proceso de conteo.
Luego:
Una notable ventaja de la balanza romana sobre la balanza de brazos iguales es la posi-
bilidad de determinar la masa de cuerpos mucho más grandes y pesados que las pesas
calibradas de la balanza.
Física conceptual
Capítulo 6: Trabajo
Las fuerzas centrípetas que actúan sobre los cuerpos forman un par de acción y reacción;
por tanto, tienen la misma magnitud y opuesta dirección y se pueden expresar en términos
del radio de giro y de la velocidad angular, así:
m = msr/rs (6.21)
L = r × p (6.22)
uxv
v
0
u
r p
Física conceptual
Capítulo 6: Trabajo
L = mr2ω (6.24)
que se puede escribir como
L = Iω (6.25)
101
donde la cantidad I, que se denomina momento de inercia, es una magnitud que depende
de la distribución de masa del cuerpo rotante y juega un papel análogo al de la masa en la
expresión para el momento lineal.
Ek = (1/2)Iω2 (6.26)
Al igual que para un cuerpo que se desplaza inercialmente, donde la cantidad de movi-
miento y la energía total se conservan, se puede establecer que cuando un sistema físico
rota libremente su energía total se conserva y su momento angular permanece invariante,
debido a la inercia rotacional. El concepto de inercia rotacional es una consecuencia directa
del principio de inercia, y, por tanto, es compatible con la afirmación de que todo sistema en
el que las fuerzas actuantes se encuentren balanceadas conserva su estado de movimiento
lineal y rotacional.
6.5 Trompos
Un ejemplo ilustrativo del caso de un sistema rotante en el cual todas las fuerzas que actúan
se encuentran balanceadas es el de un trompo que no se desplaza del punto de apoyo y
rota con su eje de simetría perpendicular al plano horizontal, en tanto se puedan considerar
despreciables las fuerzas de fricción, lo cual puede ser válido si la observación se hace
durante un breve periodo (figura 6.9).
Otro ejemplo notable es la Tierra, cuyo eje de rotación apunta siempre en la misma direc-
ción mientras se desplaza a lo largo de su órbita alrededor del Sol. Como en el caso del
trompo, la Tierra parece conservar su estado de movimiento rotacional, siempre que la
observación se realice durante un periodo suficientemente corto, que, en este caso, puede
102 ser de cientos de años antes de que sea posible apreciar un desplazamiento notable de la
estrella Polar respecto al polo norte astronómico (figura 6.10).
Figura 6.10. Giro aparente de las estrellas alrededor del eje polar.
Tomado de: http://bit.ly/2tNGBZE
Resumen
La acción de una fuerza sobre un sistema físico no solo se puede caracterizar
por la aceleración, sino por las variaciones de una nueva magnitud física que se
deriva de la definición de trabajo, llamada energía, que se define en términos de la
velocidad, lo cual corresponde a la energía cinética, y la configuración del sistema,
que corresponde a la energía potencial.
Trabajo y equilibrio
Física conceptual
Capítulo 6: Trabajo
Cuestionario
1. Elabore por lo menos cinco frases en las que la palabra trabajo tenga diferentes
significados.
2. ¿En cuál de las frases que elaboró el significado de la palabra trabajo se acerca
más al significado que este concepto tiene en la física? 103
3. Defina el concepto de trabajo en términos cuantitativos, de tal forma que no dé
lugar a interpretaciones equívocas.
4. ¿Con qué criterios se puede definir un patrón para determinar el peso de los
cuerpos?
5. ¿En qué principio se fundamenta el funcionamiento de la balanza romana?
6. ¿Qué ventaja tiene el uso de la balanza romana respecto a la balanza de brazos
iguales?
7. ¿Qué papel desempeña el sistema de contrapesos de un ascensor?
8. Explique por qué los dos brazos de una grúa de construcción no son iguales, e
indique qué caracteriza a cada uno de ellos.
9. Utilice el principio de conservación de la energía mecánica bajo fuerzas gravita-
cionales para demostrar la ley de caída de los cuerpos de Galileo.
10. ¿Qué conclusión se puede sacar de la aplicación del principio de conservación de
la energía mecánica al estudio del movimiento pendular respecto a la caída de los
cuerpos?
11. ¿Qué conclusión se puede sacar de la aplicación del principio de conservación de
la energía mecánica respecto a un cuerpo que luego de descender por un plano
inclinado se desplaza por un plano horizontal que se prolonga indefinidamente?
12. ¿A qué componente de la energía total de un sistema físico contribuye la energía
rotacional?
13. ¿A qué conclusión respecto a la rotación de un sistema libre de fuerzas externas
se puede llegar mediante la aplicación del principio de conservación de la energía
mecánica?
14. ¿En qué se diferencia la rotación de un trompo en caída libre con la rotación de
un trompo que se apoya en el piso?
15. ¿A cuál de los dos casos anteriores pertenece la Tierra?
16. ¿Qué tipo de observación pudo haber conducido al hombre prehistórico a la in-
vención de la rueda?
17. ¿Qué tiene que ver una rueda con un canto rodado?
18. ¿Qué ventaja posee un vehículo que se desplaza sobre ruedas en comparación
con uno que se desliza sobre una superficie?
19. ¿En qué sentido se puede decir que la rotación de una rueda es un caso repre-
sentativo de movimiento inercial?
20. Cuando un cuerpo rota alrededor de un eje cada uno de los puntos del cuerpo
debe estar sujeto a una fuerza dirigida hacia el eje. ¿Por qué es posible hablar de
movimiento inercial en el caso de una rueda que rota alrededor de su eje a una
frecuencia constante?
21. ¿Por qué se dice que las fuerzas centrípetas que aparecen sobre cada uno de los
104 puntos de un cuerpo rotante no realizan trabajo?
22. Demuestre que la suma de fuerzas que actúan sobre un trompo que rota con
frecuencia constante es cero.
23. Compare las definiciones de momento lineal y momento angular e interprete el
factor que acompaña a la velocidad angular en el momento angular en términos
del factor que acompaña a la velocidad lineal en el momento lineal.
24. Demuestre que la fuerza de gravedad que actúa sobre un trompo y la fuerza que
la superficie en la que se apoya ejerce sobre la punta del trompo no son una
pareja de acción y reacción.
25. Considere una rueda y un disco del mismo radio y de la misma masa y mues-
tre, sin acudir al cálculo diferencial, que sus momentos de inercia son diferentes.
¿Qué se podría decir de una esfera maciza y de una esfera hueca que tienen la
misma masa y el mismo radio?
26. ¿En qué se fundamenta el funcionamiento de un giróscopo, y cuál sería su venta-
ja sobre una brújula magnética?
27. ¿Cómo se puede explicar que el movimiento aparente de los astros tenga un eje
de rotación que pasa a través de los polos terrestres, y qué tiene de particular la
estrella Polar respecto a las demás estrellas?
28. ¿Qué tan confiable es la tierra como auxiliar de navegación?
29. ¿Por qué se utilizan volantes como sistemas de almacenamiento de energía ciné-
tica en lugar de utilizar esferas que con la misma masa ocuparían un espacio más
reducido?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Drake, S. (1983). Galileo. Alianza Editorial.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.
Física conceptual
Capítulo 7 Potencia motriz
Introducción
El concepto de trabajo fue elaborado ante la necesidad de comparar de manera cuantitativa la efi-
ciencia del trabajo muscular, humano o animal, con el de una máquina, y, más concretamente, con
el de las máquinas de vapor. La importancia económica y social que cobró la minería del carbón en
Inglaterra a principios del siglo XVIII, en los albores de la Revolución Industrial, creó las condiciones
favorables para el surgimiento de innovaciones mecánicas destinadas a resolver el problema de la
inundación de los socavones, que constituía una de las mayores dificultades que debía afrontar la
actividad minera. El problema era de tal magnitud que con frecuencia los mineros gastaban más
tiempo extrayendo agua que mineral, lo cual se hacía mediante bombas mecánicas, o con artilugios
poco eficientes como los tornillos de Arquímedes, accionados por un caballo que daba vueltas a una
noria (figura 7.1).
Con el fin de facilitar el proceso de extracción del agua de las minas, en 1698 el ingeniero inglés
Thomas Savery diseñó y patentó un aparato que utilizaba la potencia motriz del vapor generado por
la ebullición del agua, por una parte, y la acción de presión atmosférica, por la otra, para sacar el
agua del pozo de las minas. El aparato, bautizado por Savery “el amigo del minero”, constaba de un
recipiente con agua que se mantenía a alta temperatura, en el cual se generaba vapor por ebullición
(figura 7.2). El vapor era conducido a un segundo recipiente hasta expulsar el aire que se encontra-
ba en él. A continuación se cerraba la válvula de paso, y el recipiente a alta presión era refrigerado
mediante aspersión de agua a baja temperatura, gracias a lo cual el vapor se condensaba y la
presión interior se reducía de manera considerable. El recipiente a baja presión estaba comunicado
con un depósito de agua subterráneo mediante una tubería, a través de la cual el agua ascendía
Capítulo 7: Potencia motriz
A pesar de que la operación de “el amigo del minero” era en extremo compleja debido a la
necesidad de abrir y cerrar diferentes válvulas, tanto para permitir el paso del vapor como
para la refrigeración del recipiente presurizado, al comparar la cantidad de alimento que
consumía un caballo, la cantidad de agua que sacaba del pozo y el tiempo que necesitaba
para hacerlo, con el costo del carbón requerido por el ingenio térmico para realizar el mismo
trabajo, este último resultó ganador, y en poco tiempo el uso de este tipo de dispositivos se
generalizó en toda Inglaterra.
7.1 Potencia
Con el fin de disponer de un criterio objetivo con el cual comparar la capacidad de trabajo de
la fuerza muscular y la potencia motriz del calor, fue necesario definir una unidad de medida
que permitiera establecer un rasero común, y de allí resultaron el caballo de vapor, CV, y
el caballo de fuerza, o horsepower, HP, que, a pesar de lo que sugieren sus nombres, son
unidades de potencia y no de fuerza. Mientras que el CV corresponde al Sistema Interna-
cional de Unidades, el HP corresponde al sistema británico de unidades. La potencia, P, es
una magnitud asociada a la capacidad de transferir energía o realizar un trabajo sobre un
sistema, por unidad de tiempo, y se define como:
Física conceptual
Capítulo 7: Potencia motriz
P = ∆E/∆t (7.1)
P = mgv (7.2)
Torricelli observó que la columna de mercurio descendía hasta una altura de 0.76 m, y que
la relación entre las alturas de la columna de agua y de mercurio era 13.6, que es la misma
que hay entre las densidades del mercurio y del agua. En consecuencia, una columna de
agua de 10.33 m y una columna de mercurio de 0.76 m, del mismo diámetro, tienen el mis-
mo peso. Por todo lo anterior, Torricelli concluyó que el peso de la atmósfera ejerce presión
sobre la superficie de la Tierra, y que tanto la columna de agua como la de mercurio son
equilibradas por una columna de aire del mismo peso que las anteriores.
108
La presión es la fuerza por unidad de área que actúa sobre una superficie. La unidad de
presión, el pascal, Pa, se define como 1 Pa = N/m2 = J/m3. A la presión atmosférica a nivel
del mar se le asigna el valor de una atmósfera, 1 atm, que equivale a 101325 Pa. La atmós-
fera también se puede expresar en términos de la altura de la columna de mercurio como
1 atm = 76 mmHg.
Una aplicación directa del experimento de Torricelli es el barómetro, que permite determinar
la presión atmosférica en diferentes lugares y situaciones como función de la altura de una
columna de mercurio (figura 7.4).
Dado que el espesor de la capa atmosférica disminuye con la altura respecto al nivel del
mar, con la consiguiente reducción en el valor de la presión, el barómetro puede ser utiliza-
do como altímetro.
Física conceptual
Capítulo 7: Potencia motriz
Una notable aplicación del principio de los vasos comunicantes se puede apreciar en el
funcionamiento de los sistemas de esclusas en las vías de navegación que deben sortear
cambios de nivel (figura 7.6).
Los albañiles aprovechan el principio de los vasos comunicantes para determinar con gran
precisión que diferentes puntos de un terreno se encuentren a la misma altura utilizando
una manguera transparente llena de agua.
Presión atmosférica
pV = NkT (7.4)
pV = constante
p1
p2
V2
p1V1 = p2V2
p0V0 = pV (7.5)
Física conceptual
Capítulo 7: Potencia motriz
Si se hace una gráfica con diferentes valores de volumen y temperatura, el resultado es una
línea recta que se puede extrapolar hasta el valor cero del volumen, que corresponde al 111
valor cero de temperatura en la escala absoluta cuya unidad es el kelvin, K, que se define
como 1/273.16 de la temperatura de congelación del agua, a una atmósfera de presión.
En la vida cotidiana se utiliza la escala Celsius de temperatura, cuya unidad es el grado
Celsius, °C. Esta escala se define a partir de los puntos de congelación y de ebullición del
agua, a una atmósfera de presión, que corresponden a 0 °C y 100 °C, respectivamente. La
escala Celsius se conocía como escala centígrada, por ser una escala decimal.
7.5 Temperatura
Hasta ahora hemos utilizado la noción de temperatura de una manera intuitiva, pero la com-
prensión de este concepto amerita una discusión más detallada. El concepto temperatura
tiene su origen en el sentido del tacto y se asocia de manera empírica a las nociones de
frío y caliente, debido a lo cual adolece de subjetividad, pues diferentes personas pueden
asignar diferentes grados de “frigidez” o “calidez”, es decir, de temperatura, al mismo ob-
jeto, dependiendo de su percepción particular. Incluso, una misma persona puede asignar
diferentes grados de temperatura al mismo objeto, tal como se puede comprobar con un
sencillo experimento, que consiste en disponer tres recipientes en el primero de los cuales
se vierte agua helada, en el tercero agua caliente y en el intermedio una mezcla de las dos
(figura 7.8). Si una persona introduce la mano izquierda en el agua fría, y la mano derecha
en el agua caliente durante un minuto, y luego introduce ambas manos en el agua tibia, en
la mano izquierda percibe una sensación de calor, mientras que en la mano derecha percibe
una sensación de frío.
Antes
Después
T1 T2
T1 > T2
T T
T1 > T > T2
T = temperatura de equilibrio
Figura 7.10. Equilibrio térmico.
Física conceptual
Capítulo 7: Potencia motriz
En términos más técnicos, se establece la ley cero de la termodinámica según la cual dos
cuerpos que se encuentren en equilibrio térmico con un tercero, están en equilibrio térmico
entre sí.
No es mucho lo que podemos decir sobre el concepto temperatura en sí, excepto que es
una función que permite especificar el estado termodinámico de un sistema físico, y se 113
determina mediante la utilización de un termómetro. Con frecuencia, en el estudio y descrip-
ción de los fenómenos físicos se utilizan conceptos cuya relevancia depende de un proto-
colo o convención de medida, más que de una definición verbal explícita, tal como sucede
con el concepto temperatura. Por otra parte, expresiones coloquiales como “la temperatura
es una medida del grado de calor de un cuerpo” carecen de sentido físico, pues no están
sujetas a ninguna forma de verificación experimental ya que “el grado de calor” no es un
concepto bien definido.
7.7 Calor
Durante las primeras etapas del desarrollo de la termodinámica se consideraba que los
cambios de temperatura de los cuerpos se debían a la pérdida o absorción de un fluido
imponderable que recibió el nombre de calórico por parte de Antoine de Lavoisier. Si bien la
idea del calórico ha sido revaluada luego de la introducción del modelo cinético corpuscular,
su utilización como modelo heurístico hizo posibles considerables avances en el campo
de la termodinámica, que después habrían de ser reconceptualizados en el marco de la
teoría cinética. Luego de descartar el calórico como supuesto agente responsable de los
cambios de temperatura de los cuerpos, se estableció el concepto calor, entendido como
la interacción mediante la cual dos sistemas que se ponen en contacto experimentan una
transferencia de energía que depende de la diferencia de temperatura.
Mediante técnicas calorimétricas, Joseph Black encontró una expresión para la cantidad
de calor, Q, necesario para cambiar en ∆T la temperatura de un cuerpo de masa m. Esta
expresión, conocida como ley de Black, establece que
Q = mC∆T
del rediseño de la máquina de vapor de Newcomen por parte de James Watt. De por sí,
la máquina de Newcomen constituyó un avance notable respecto a la máquina de Savery
(figura 7.11). A diferencia de esta última, cuyo funcionamiento es puramente neumático, la
de Newcomen es un dispositivo mecánico que incluye un balancín y un pistón.
114
Uno de los brazos del balancín está unido a una bomba aspirante, en tanto que el otro es
accionado por la presión del vapor que se genera en una caldera. En la primera fase de la
operación de la máquina el pistón es desplazado a lo largo del cilindro por la presión del
vapor que ingresa en la cámara. Una vez completada la expansión, el vapor se condensa
mediante la inyección de agua fría, y el pistón regresa a la posición original gracias a la
presión atmosférica. A continuación se inicia un nuevo ciclo.
Por convención, se estableció que el calor específico del agua es 1 cal/g°C, y a partir de
este valor se define la unidad de medida del calor, la caloría, cal, como la cantidad de calor
necesaria para elevar la temperatura de un gramo de agua de 14.5 °C a 15.5 °C.
El alto valor del calor específico del agua, comparado con el de otras sustancias, es la ra-
zón por la cual se utiliza este líquido de manera generalizada en las máquinas que realizan
trabajo a partir de la fuerza motriz del calor. De igual manera, el poder refrigerante de la
evaporación del agua se debe a su alto calor específico. Por otra parte, la relativa estabili-
dad de la temperatura global de nuestro planeta, sin la cual sería imposible la biodiversidad
existente, se debe, en gran parte, a la extensa cantidad de agua que cubre una gran porción
de su superficie.
Física conceptual
Capítulo 7: Potencia motriz
Resumen
La posibilidad de hacer trabajo reemplazando el esfuerzo muscular por máquinas
cuyo funcionamiento depende de la presión generada por el vapor demandó el
estudio exhaustivo de los principios que rigen este tipo de procesos, y la definición 115
de magnitudes como energía, trabajo y potencia para mejorar su diseño, optimi-
zar su aprovechamiento y establecer parámetros objetivos de comparación entre
diferentes alternativas a partir de mediciones cuantitativas.
Potencia motriz
Cuestionario
1. ¿Qué sentido tiene la expresión “la fuerza del vacío”?
2. ¿Cuál es la fuerza responsable de realizar trabajo en la máquina de Savery?
3. ¿Por qué se llamaba “filosóficas” a las primeras máquinas térmicas, a pesar de
que su función era reemplazar el trabajo de los caballos?
4. ¿Cuál es la mayor objeción del sentido común respecto a la posible existencia del
vacío?
5. ¿Qué tienen en común la columna de mercurio de 76 cm en el tubo de Torricelli
y la limitación que encontró Galileo para elevar el agua a más de 10 metros me-
diante bombas de succión?
6. ¿Cómo se relacionan y en qué se diferencian los conceptos de peso y cantidad
de materia?
7. ¿Cuál de los dos conceptos anteriores es más afín al concepto físico de masa?
8. ¿Qué altura debe tener una columna de aire para balancear una columna de
mercurio como la del experimento de Torricelli? Nota: busque las respectivas
densidades del mercurio y del aire.
9. Averigüe hasta qué altura se extiende la atmósfera terrestre y explique la res-
puesta de la pregunta anterior.
10. ¿Cómo se podía conocer la densidad del aire antes de la existencia de Google?
11. ¿Por qué se puede utilizar el barómetro para determinar la altura a la que se
encuentra un lugar de la Tierra respecto al nivel del mar?
12. ¿A qué presión, en promedio, se encuentra la ciudad de Medellín?
Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.
Física conceptual
Capítulo 8 La mecánica del calor
Introducción
El funcionamiento de las bombas de succión y de las máquinas de vapor suscitó desde el inicio de
su historia grandes inquietudes sobre los principios que hacían posible su funcionamiento. En parti-
cular, el vacío fue objeto de grandes discusiones entre quienes afirmaban y negaban la posibilidad
de su existencia. Para algunos, el funcionamiento de las bombas de succión se fundamentaba en la
doctrina aristotélica del horror al vacío, y el ascenso del agua se debía al rechazo de la naturaleza a
permitir la existencia de espacios desprovistos de materia. Por el contrario, los defensores del ato-
mismo no veían ningún inconveniente para la existencia del vacío, que constituía una parte esencial
de su teoría sobre la constitución de la materia. Por todo lo anterior, las máquinas de vapor fueron
llamadas, en ocasiones, máquinas filosóficas.
De no menor importancia y magnitud fueron las discusiones en torno a la naturaleza del calor.
Mediante mediciones de gran precisión, Joseph Black estableció que cuando dos cuerpos que ini-
cialmente se encuentran a diferentes temperaturas alcanzan el equilibrio térmico el calor cedido por
uno de ellos es igual al calor absorbido por el otro, y llegó a la conclusión de que el calor es una
entidad que se conserva, lo cual constituye una de las bases fundamentales de la teoría del calórico,
de acuerdo con la cual el aumento de temperatura se debía a la incorporación del fluido. Por otra
parte, una serie de evidencias prácticas llevaron a algunos personajes, como Benjamin Thompson,
conde de Rumford, a relacionar el calor con el movimiento. Como director de una fábrica dedicada a
la construcción de cañones, observó que mucho tiempo después de que un taladro hubiera perdido
su filo y su capacidad de arañar el metal del alma de un cañón, seguía generando una gran cantidad
de calor, que no se podía explicar por la supuesta pérdida de calórico del material que estaba sujeto
a la acción del taladro. Rumford trató de establecer una relación entre el aumento de temperatura de
un depósito de agua que se calentaba por la fricción de dos piedras de molino y el trabajo realizado
por el caballo que las hacía mover, pero el deficiente diseño del montaje experimental no le permitió
llegar a conclusiones definitivas.
Otro notable experimento que contribuyó a desacreditar la teoría del calórico fue realizado a princi-
pios del siglo XIX por Humphry Davy, consistente en derretir un par de trozos de hielo sometidos a
fricción mutua.
Capítulo 8 : La mecánica el calor
mg
T1 h
T2
mg
T2 T1
Figura 8.1. El experimento de Joule.
El experimento de Joule mostró de manera concluyente que los motores de vapor de la épo-
ca eran más eficientes que los motores eléctricos. Pero el resultado verdaderamente impor-
tante para la ciencia fue la determinación, con un alto grado de precisión, del equivalente
mecánico del calor. Luego de utilizar diferentes sustancias como agua, mercurio y aceite
de ballena para realizar sus mediciones, Joule estableció que el trabajo efectuado por una
pesa que desciende a velocidad constante, agitando el líquido contenido en un recipiente,
se manifiesta en un aumento de la temperatura, que conduce a una estimación precisa
de la equivalencia de una unidad de calor y cierta cantidad de trabajo. El valor aceptado
actualmente para esta equivalencia es 1 cal = 4.18 J. El valor encontrado por Joule difiere
del actual en menos del 5%, lo cual se puede considerar un excelente resultado dadas las
limitaciones de los equipos de los que se disponía en su época.
Física conceptual
Capítulo 8: La mecánica del calor
Por otra parte, y de no menor importancia para la ciencia, el establecimiento del equivalente
mecánico del calor contribuyó al establecimiento de la ley de conservación de la energía
como el principio fundamental de la termodinámica. De acuerdo con este principio, la ener-
gía total de un sistema aislado permanece constante.
∆E = Q - W (8.1)
mv
_ mv
Física conceptual
Capítulo 8: La mecánica del calor
∆t = 2l/vx (8.3)
Puesto que hay N corpúsculos chocando contra las paredes, y teniendo en cuenta que la
presión es la fuerza aplicada sobre una superficie, que en este caso es l2, la presión será
p = Nmvx2/l3 (8.5)
Si tenemos en cuenta que v2 = vx2 + vy2 + vz2, pero que vx2 = vy2 = vz2, entonces v2 = 3vx2.
Además, puesto que el volumen del recipiente es V = l3, tenemos que
pV = (1/3)Nmv2 (8.6)
pV = (2/3)N[(1/2)mv2] (8.7)
Puesto que (1/2)mv2 es la energía cinética promedio de los corpúsculos, Ek, la energía total
del sistema será NEk, que es constante, de acuerdo con la primera ley de la termodinámica
que establece que la energía total de un sistema aislado no varía. En conclusión, hemos
llegado a la ecuación de estado de los gases ideales para el caso en que la temperatura
es constante:
pV = constante (8.8)
Resulta de mucho interés comparar los segundos miembros de la ecuación que acabamos
de encontrar con la ecuación de estado de los gases ideales, pV = NkT, de donde resulta
que:
Ek = (3/2)kT (8.9)
De acuerdo con esta expresión, la temperatura es una medida de la energía cinética media
de los corpúsculos que componen un gas. Esta expresión destaca el carácter estadístico
de la temperatura y aclara su significado más allá que la afirmación original, según la cual
temperatura es aquello que miden los termómetros. Esta forma de concebir la temperatura
se puede extender a otros sistemas termodinámicos diferentes a los gases, teniendo en
cuenta que la energía cinética de un corpúsculo que hace parte de un líquido o de un sólido
también depende de sus grados de movimientos vibracionales y rotacionales. Fenómenos
como el calentamiento y la dilatación de los materiales sólidos se pueden describir con
claridad y sencillez al considerar el aumento del grado de movimiento vibracional de sus
componentes moleculares.
122
La interpretación de los conceptos de la termodinámica en el marco del modelo cinético
corpuscular contribuyó de manera significativa a consolidar la teoría atómica y molecular
de la materia y a establecer relaciones entre la termodinámica y la electrodinámica para
la comprensión de los fenómenos de transferencia de energía y de equilibrio térmico. El
modelo cinético corpuscular hace parte de una nueva área de la ciencia, denominada física
estadística, que se desarrolló en la segunda mitad del siglo XIX, y que encuentra su campo
de aplicación en el estudio de sistemas conformados por un número de elementos tan
grande que hace imposible en la práctica su descripción a partir de la determinación de las
condiciones iniciales de cada uno de ellos. El orden de magnitud del número de elementos
que caracterizan a este tipo de sistemas es comparable al número de Avogadro, N0, que
es igual a 6.02 × 1023, y corresponde al número de corpúsculos de un gas que ocupan un
volumen de 22.4 litros en condiciones estándar de laboratorio.
Resumen
Gracias a la introducción del modelo cinético corpuscular, los fenómenos ter-
modinámicos se pueden describir en el marco de la mecánica newtoniana
prescindiendo de entidades físicas como el calórico cuya existencia había sido
imposible de comprobar. Por primera vez se puede definir el concepto de tem-
peratura en términos de magnitudes físicas concretas. El estudio de sistemas
físicos compuestos por un gran número de elementos, y la imposibilidad práctica
de establecer ecuaciones de movimiento individuales para cada uno de ellos,
condujo al tratamiento estadístico de las funciones de estado como la energía, la
presión y la temperatura.
Física conceptual
Capítulo 8: La mecánica del calor
Cuestionario
Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
124 Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Física conceptual
Capítulo 9 Entropía
Introducción
De acuerdo con la ley cero de la termodinámica, cuando dos cuerpos que inicialmente se encuen-
tran a diferentes temperaturas se ponen en contacto durante un tiempo suficientemente prolongado,
alcanzan el equilibrio térmico. Pero lo contrario nunca ocurre de manera espontánea, lo cual da
cuenta de la irreversibilidad de los procesos termodinámicos relacionados con transferencia de
energía entre sistemas que se encuentran a diferentes temperaturas, y constituye uno de los as-
pectos más característicos de la termodinámica. La existencia de procesos irreversibles plantea un
problema teórico de gran complejidad y no menor interés, puesto que si se analiza hasta las últimas
consecuencias, toda interacción entre sistemas conformados por un gran número de elementos es
una suma de procesos reversibles descritos por las leyes de la mecánica. La pregunta que surge
de inmediato es: ¿a qué se debe la irreversibilidad de procesos como nacer, crecer y morir, entre
muchos otros, que parecen estar signados por una cierta dirección del tiempo?
T1 T2 T1 T2
T T T1 T T2
T = temperatura de equilibrio
Si T1 > T > T2, se dice que la disminución de la temperatura del cuerpo 1 es debida a la pérdida de
una cantidad de energía Q1, y, de manera recíproca, que el aumento de temperatura del cuerpo 2
es debido a una transferencia de energía Q2. Asumiendo que la energía que perdió el cuerpo 1 es
la misma que ganó el cuerpo 2, Q2 = Q = - Q1, e introduciendo la expresión ∆S = Q/T, se llega a la
siguiente relación:
Unidad 9: Entropía
Esta ecuación nos dice que en una interacción térmica espontánea, la variación de la fun-
ción S siempre es mayor o igual que cero. La función S fue introducida por Rudolf Clausius,
126 quien la denominó entropía. Al igual que las funciones p, V y T, la entropía S es una función
de estado de los sistemas termodinámicos y permite establecer el carácter irreversible o
reversible de los procesos termodinámicos cuando su variación sea mayor o igual que cero,
respectivamente.
El estudio de los procesos irreversibles permite establecer una nueva ley, que se denomina
segunda ley de la termodinámica, la cual establece que los sistemas termodinámicos evo-
lucionan hacia un estado de máxima entropía.
La segunda ley de la termodinámica había sido anticipada por el ingeniero francés Sadí
Carnot en las primeras décadas del siglo XIX cuando descubrió que la eficiencia de los
motores de vapor depende de la diferencia entre la temperatura T1 de la fuente que sumi-
nistra el calor Q1 necesario para la operación del motor, y la temperatura T2 del entorno al
que se transfiere el calor que no fue utilizado para la realización del trabajo. El problema de
optimizar los procesos termodinámicos consiste en producir la máxima cantidad de trabajo
invirtiendo la mínima cantidad de combustible, que será directamente proporcional a la
cantidad de calor suministrado al sistema. Luego de la invención de la máquina de Savery,
y a lo largo de la Revolución Industrial, la historia de las máquinas de potencia es la historia
del mejoramiento de la eficiencia mediante la introducción de ingeniosas innovaciones. En
primer lugar, la máquina de Newcomen sobrepasó con mucho la eficiencia de la máquina
de Savery al introducir las bielas y los pistones para la realización del trabajo de una ma-
nera cíclica y mecanizada. La siguiente gran innovación fue llevada a cabo por James Watt
cuando introdujo el condensador, que evitaba el paso de enfriamiento del pistón, en el cual
se perdía una considerable cantidad de agua y de calor con el consecuente aumento de la
eficiencia del ingenio termodinámico (figura 9.2).
Pero aún la máquina de Watt, dotada de sistemas de control inercial y pistón de doble impul-
so, seguía siendo un dispositivo aparatoso que consumía una gran cantidad de combustible
debido a su tamaño y a las altas pérdidas de calor que generaba su operación. La siguiente
gran innovación fue la introducción de las máquinas de vapor que funcionaban a alta pre-
sión, gracias a lo cual fue posible disminuir su volumen sin sacrificar la potencia y disponer
de motores de vapor que se podían acoplar a un vehículo para construir una locomotora
(figura 9.3), o a un barco para navegar en grandes ríos.
Física conceptual
Unidad 9: Entropía
127
9.2 Eficiencia
Se define la eficiencia de un motor como la relación entre el trabajo realizado, W, y el calor
suministrado, Q1. Sadí Carnot demostró que no puede existir ningún motor cuya eficiencia
sea mayor que
Es importante anotar que la validez de esta relación es independiente del tipo de material
del que esté construido el motor, lo cual le confiere universalidad. El razonamiento que
condujo a Carnot a establecer esta relación parte de la suposición de que no existe ningún
proceso termodinámico espontáneo cuyo único resultado sea transferir calor de una fuente
de menor a una fuente de mayor temperatura. Esta última aseveración también constituye
una expresión de la segunda ley de la termodinámica.
Energía y potencia
cuya solución r(t) depende de las condiciones iniciales del sistema y especifica la posición
del cuerpo en cualquier instante del tiempo. Puesto que la ecuación de movimiento depen-
de del término t2, si se cambia t por -t la ecuación permanece inalterada, lo cual indica que el
movimiento del cuerpo es físicamente posible en cualquier dirección del tiempo, que es una
forma de decir que el proceso es reversible. Puesto que, como ya ha sido dicho, cualquier
interacción entre dos sistemas complejos es la suma de las interacciones elementales entre
los componentes del sistema, descritas por las ecuaciones de movimiento de Newton, no
hay cómo justificar a partir de las leyes de la mecánica el carácter irreversible de las interac-
ciones termodinámicas. Una forma de superar esta aparente contradicción fue planteada
por Ludwig Boltzmann, luego de expresar la entropía como una función estadística en el
marco del modelo cinético corpuscular.
S = k ln Ω (9.4)
Física conceptual
Unidad 9: Entropía
Con el fin de aclarar este concepto consideremos la situación de un gas compuesto por N
partículas confinadas en un recipiente de volumen V1, que a su vez se encuentra dentro de
un recipiente de volumen V2, mucho mayor que V1 (figura 9.4).
129
V1 V2
Pi = V1/V2 (9.5)
PT = (V1/V2)N (9.6)
Puesto que la relación V1/V2 es menor que uno, y considerando que el número N es del
orden de magnitud del número de Avogadro, la probabilidad PT es prácticamente igual a
cero, pero no es cero.
130
De acuerdo con lo anterior concluimos que la afirmación de que los sistemas físicos evolu-
cionan de manera espontánea hacia los estados de máxima entropía es una reiteración del
carácter probabilístico de esta magnitud física, y la aceptación del hecho empírico de que
cuando se examina un sistema que dispone de un gran número de estados accesibles, el
sistema se encontrará con mayor frecuencia en alguno de los estados de mayor probabili-
dad.
Física conceptual
Unidad 9: Entropía
Pero también es frecuente encontrar frases como “la entropía es una medida del desorden”.
El problema con esta expresión es que carece de significado, puesto que orden no está
definido en el contexto de la física. Sin embargo, si se interpreta la idea de orden como el
grado de información que se tiene del estado del sistema físico, la frase cobra sentido. En
este caso se podría decir que el aumento de la entropía es una medida de la pérdida de
información de un sistema, y la segunda ley de la termodinámica se podría expresar dicien-
do que cuando los sistemas termodinámicos evolucionan se pierde información detallada
sobre el estado de sus componentes. El análisis de un sistema como el del gas contenido
en un recipiente que a su vez se encuentra dentro de otro, que nos sirvió como ejemplo de
la evolución de un sistema termodinámico típico, ilustra esta última afirmación.
Resumen
La evidencia empírica de que los procesos termodinámicos espontáneos son
esencialmente irreversibles adquiere estatus físico con la segunda ley de la ter-
132 modinámica y la definición de entropía, como aquella magnitud cuya variación
determina el carácter reversible o irreversible de los procesos físicos.
Estropía
Cuestionario
Física conceptual
Unidad 9: Entropía
Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Física conceptual
Capítulo 10 Electricidad
Introducción
A diferencia de la astronomía y la mecánica, solo desde hace unos pocos siglos los fenómenos
electrostáticos han sido objeto de estudio sistemático, el cual condujo a la introducción de una
nueva magnitud física fundamental, la carga eléctrica, como agente responsable de la atracción y la
repulsión de los cuerpos en función de su presencia y distribución en ellos. Por su parte, el estudio
de los fenómenos magnéticos no demandó la introducción de nuevas magnitudes físicas para dar
cuenta de sus propiedades, gracias al descubrimiento de que el magnetismo es, esencialmente,
una manifestación dinámica de la carga eléctrica. Finalmente, la descripción unificada y comple-
mentaria de los fenómenos eléctricos y magnéticos dio lugar a la introducción al concepto de campo
electromagnético y a la predicción de la existencia de las ondas electromagnéticas, cuyo posterior
descubrimiento tuvo importantes repercusiones teóricas y múltiples aplicaciones tecnológicas que
sentaron las bases para el surgimiento de la física moderna y la comprensión de la estructura y
composición de la materia.
10.1 Elektron
Además de la gravedad, los fenómenos electromagnéticos son omnipresentes en la cotidianidad,
aunque no siempre seamos conscientes de su existencia, tal como sucede con la persistente ten-
dencia que exhiben las motas de lana y pequeños trozos de cabello de adherirse a un vidrio cuando
se lo quiere dejar inmaculadamente limpio; o los molestos choques que se producen luego de des-
cender de un vehículo y hacer contacto con otra persona o con un elemento de metal.
La electricidad recibe su nombre de la palabra griega ἤλεκτρον, o elektron, que quiere decir ámbar,
una resina fosilizada que en la antigüedad era considerada como una piedra semipreciosa y que
en épocas recientes ha adquirido protagonismo gracias a una película de ciencia ficción cuya trama
gira alrededor de la reproducción de dinosaurios a partir del ADN contenido en la sangre de mosqui-
tos prehistóricos conservados en ámbar. Una característica muy notable de objetos fabricados con
esta resina es que luego de ser frotados con un paño adquieren la propiedad de atraer polvo, lana
y pequeños objetos, al igual que sucede con los objetos de vidrio. En nuestro entorno encontramos
una gran cantidad de objetos fabricados de resinas sintéticas, para las más variadas aplicaciones,
que nos brindan la oportunidad de experimentar diversos tipos de fenómenos electrostáticos, desde
el erizamiento de los cabellos hasta el chisporroteo de una prenda de vestir que se saca por la ca-
beza rozando el cabello. Las descargas que se experimentan de manera ocasional al descender de
un automóvil luego de tocar un objeto en el exterior son debidas a la electrificación que produce el
rozamiento de la ropa con la tapicería de los asientos del vehículo.
Unidad 10: Electricidad
Con el fin de observar los fenómenos electrostáticos más elementales se puede tomar
una hoja de papel, rasgándola en trozos pequeños que se esparcen sobre una mesa, y a
continuación se toma un objeto de plástico, como un peine, y se lo pasa repetidamente por
el cabello, para luego acercarlo a los trozos de papel. Se podrá observar cómo aquellos
136 saltan y quedan adheridos al peine cuando este se acerca a suficiente distancia. No menos
espectacular resulta la experiencia de introducir la mano en una bolsa plástica llena de pe-
queñas esferas de espuma de polietileno, para luego retirarla con un gran número de ellas
adheridas a la piel (figura 10.1).
10.2 Polarización
Si bien la atracción electrostática era un fenómeno conocido de vieja data, solo hasta el
siglo XVIII se estudió de manera sistemática el fenómeno de repulsión electrostática, que
habría de conducir a la estructuración de una teoría más completa de la electricidad. Si
se suspenden dos esferas de vidrio con hilos y se las coloca muy cerca la una de la otra,
después de frotar ambas esferas con una pieza de lana experimentarán una fuerza de re-
pulsión. Si en lugar de las esferas de vidrio se utilizan esferas de ámbar, el resultado será
idéntico. Pero si se ponen una esfera de vidrio y otra de ámbar, ambas experimentan una
fuerza de atracción. También se puede apreciar la repulsión entre una varilla de plástico
previamente electrizada con una esfera metálica suspendida de un hilo después de que
entran en contacto (figura 10.2).
Física conceptual
Unidad 10: Electricidad
137
La atracción que un cuerpo cargado ejerce sobre un cuerpo neutro se puede explicar como
un fenómeno de polarización de las cargas del cuerpo neutro: el cuerpo cargado atrae hacia
sí las cargas del signo contrario del cuerpo neutro, mientras que repele las de su propio
signo. Aunque el cuerpo neutro no ha experimentado variación en la cantidad neta de carga
eléctrica que posee, esta se ha redistribuido de tal forma que aparecen dos polos claramen-
te definidos (figura 10.3). Puesto que el polo de signo contrario al cuerpo cargado está más
cerca que el de su propio signo, y debido a que la intensidad de la fuerza disminuye con la
distancia, prima la fuerza de atracción sobre la fuerza de repulsión.
138
Al dividir por la mitad un cuerpo que está eléctricamente polarizado, cada una de las dos
partes quedará cargada con la misma cantidad de electricidad pero de signo contrario. Es
importante anotar que la carga total de un sistema cerrado es una cantidad conservada, es
decir, la carga no se genera ni se destruye de manera espontánea.
Física conceptual
Unidad 10: Electricidad
rimentan repulsión. El grado de separación de las laminillas es una medida de la carga del
cuerpo externo.
poca distancia del extremo seco del cordel con el cual sostenía la cometa. Luego utilizó un
electroscopio para comprobar que la llave metálica se había cargado eléctricamente. Algu-
nos quisieron repetir la experiencia sin tomar la precaución de sostener la cometa desde un
extremo seco del cordel, pero no sobrevivieron para contar la experiencia.
140
F = k(qq')/r2 (10.1)
Aunque la ley de Coulomb tiene una forma muy similar a la ley de gravitación de Newton, es
importante destacar dos diferencias muy notables. En primer lugar, la fuerza de gravitación
siempre es atractiva, en tanto que la fuerza electrostática puede ser atractiva o repulsiva,
dependiendo del signo de las cargas: si las dos cargas tienen el mismo signo, sea positivo
o negativo, el signo de la fuerza es positivo, lo que corresponde a una fuerza de repulsión;
Física conceptual
Unidad 10: Electricidad
pero si las cargas son de signo contrario, el signo de la fuerza es negativo, lo que corres-
ponde a una fuerza de atracción. Por otra parte, la aceleración que experimenta un cuerpo
de masa m por la atracción gravitatoria que ejerce otro cuerpo de masa m' es independiente
de la masa m del cuerpo atraído, en tanto que la aceleración que experimenta un cuerpo
cargado depende de su masa.
141
I = ∆q/∆t (10.2)
Gracias a las corrientes continuas generadas por las baterías fue posible realizar progresos
notables tanto en el estudio de las propiedades químicas y la composición de la materia,
como en la naturaleza y en las propiedades de la electricidad y el magnetismo.
Cu
Al
Cu
Al
Cu
Al
Cu
Al
Cu
142 Al
Cu
Al
Cu
Al
Cu
Al
La experiencia nos muestra que la circulación de una corriente eléctrica a través de un con-
ductor genera un aumento de su temperatura, dando cuenta de una disipación de energía;
por tanto, para sostener la corriente eléctrica en un circuito es necesario suministrar energía
de manera continua, mediante alguna fuente donde la energía haya sido previamente alma-
cenada, o sea suministrada de manera continua. La energía necesaria para mantener una
corriente eléctrica se puede almacenar mediante la acumulación de carga en un dispositivo
como la botella de Leyden, la acción de un generador eléctrico, o a partir de una reacción
química.
Los estudios realizados por Joule sobre los efectos térmicos de las corrientes eléctricas
permitieron establecer que la energía disipada en los fenómenos eléctricos debe ser tenida
Física conceptual
Unidad 10: Electricidad
V
Figura 10.8. Circuito eléctrico.
V = RI (10.3)
F = qE (10.4)
De acuerdo con esta expresión, se puede interpretar la fuerza electrostática como la inte-
144 racción de una carga eléctrica con el campo eléctrico definido en la posición de la carga.
Una ventaja adicional que ofrece la definición de campo, que se podrá apreciar más ade-
lante cuando se considere estudie el modo de propagación de sus perturbaciones, es que
se substituye la idea de un par de cargas que interactúan mediante una fuerza invisible, a
distancia y de manera instantánea, por una interacción que es igualmente instantánea pero
local.
De igual manera, se puede decir que una carga eléctrica en reposo genera una condición
del espacio E(r), tal que una carga de prueba localizada a un distancia r experimenta una
fuerza F(r) = qpE(r). El conjunto de todas las posibles direcciones en las que apunta la
fuerza que experimenta la carga de prueba qp en cada punto del espacio constituye una
representación gráfica del campo eléctrico en términos de líneas de fuerza. En la figura
10.9 se pueden apreciar las líneas de campo de una carga positiva y una carga negativa,
respectivamente.
Q Q
Dado su carácter vectorial, el campo eléctrico debido a una distribución de carga correspon-
de a la suma vectorial de los campos generados por cada una de las cargas. En la figura
10.10 se puede apreciar el campo eléctrico generado por un dipolo eléctrico.
Física conceptual
Unidad 10: Electricidad
Resumen
La explicación de los fenómenos eléctricos hace necesario introducir una nueva
magnitud física, la carga eléctrica. El estudio de la electricidad aporta claves para
el conocimiento de la estructura y composición de la materia. A pesar la seme-
janza con la ley de gravitación universal, la ley de Coulomb permite fuerzas de
atracción y de repulsión. El hecho de que los fenómenos eléctricos estén sujetos
a la ley de conservación de la energía nos muestra que las teorías sobre la elec-
tricidad hacen parte de una descripción integral de la naturaleza, conjuntamente
con las demás teorías y leyes de la física.
Electricidad
Cuestionario
Física conceptual
Unidad 10: Electricidad
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Introducción
El fenómeno del magnetismo ha sido conocido a lo largo de la historia como la propiedad que tienen
los imanes naturales, que son minerales con alto contenido de magnetita, de atraer cuerpos ferrosos
y de interactuar entre sí, atrayéndose o repeliéndose, dependiendo de la orientación relativa de los
dos imanes. La primera aplicación práctica del magnetismo que se conoció fue la brújula, que sirvió
como instrumento de orientación para viajeros y navegantes. Descubierta originalmente por los
chinos, la brújula fue ampliamente utilizada en Europa desde la Edad Media. Al igual que la elec-
tricidad, el magnetismo se manifiesta como una acción entre dos cuerpos sin que, en apariencia,
medie ningún tipo de contacto. Sin embargo, gracias a la teoría de campos es posible elaborar un
modelo que explica de manera coherente los fenómenos eléctricos y magnéticos como propiedades
del campo electromagnético.
11.1 Imanes
El fenómeno del magnetismo se manifiesta tanto en la atracción y repulsión entre imanes, como en
la magnetización que experimentan objetos de material ferroso en presencia de imanes naturales o
de cuerpos magnetizados. La característica más notable de un imán es que se orienta en presencia
de otro imán y exhibe dos polos magnéticos bien definidos, que se denominan norte, o polo positivo,
y sur, o polo negativo, en analogía al comportamiento magnético de la Tierra, puesto que en las
cercanías de sus polos geográficos se detecta la presencia de polos magnéticos (figura 11.1).
Unidad 11: Electromagnetismo
150
De manera similar a los fenómenos de atracción y repulsión electrostática, los polos mag-
néticos se repelen o se atraen según sus signos sean iguales o contrarios, pero a diferencia
de las cargas eléctricas, es imposible aislar los polos magnéticos e identificar supuestas
cargas magnéticas puesto que los imanes siempre se presentan como dipolos, no importa
qué tan finamente hayan sido divididos. Un dipolo magnético se representa por una flecha
cuya punta corresponde al polo norte (figura 11.2).
N S
La imposibilidad de separar los polos magnéticos permite pensar que un imán grande se
compone de un gran número de imanes más pequeños, que, a su vez, se pueden dividir
en otros más pequeños, hasta llegar a un imán atómico. A partir de esta idea se puede
construir un modelo para explicar la magnetización y la desmagnetización de los objetos
ferrosos. Supongamos que un material ferroso está compuesto por una gran cantidad de
imanes microscópicos orientados de manera aleatoria, de tal modo que el efecto magnético
de cada uno se anula debido a la influencia de sus vecinos (figura 11.3). Cuando se acerca
un imán de suficiente potencia se produce una alineación de cada uno de los imanes mi-
croscópicos, y el magnetismo de cada uno se suma haciendo que el objeto macroscópico
se comporte como un imán de características similares al que produjo la magnetización.
Física conceptual
Unidad 11: Electromagnetismo
151
La eficacia de este modelo se puede corroborar observando cómo un trozo de hierro pre-
viamente magnetizado pierde su magnetismo al ser expuesto al calor o al ser golpeado. En
uno y otro caso es de suponer que al suministrar energía al sistema, bien sea como calor o
como vibraciones mecánicas, los imanes microscópicos pierden su orientación al aumentar
su energía cinética vibracional y rotacional, y el sistema pasa a una configuración aleatoria
(figura 11.4). Esta descripción es consistente con el aumento de la entropía del sistema y
la correspondiente pérdida de información sobre la orientación de cada uno de los imanes
microscópicos que lo componen.
Las líneas de fuerza magnética corresponden al conjunto de todas las posibles direcciones
en las que se puede orientar un imán microscópico, o imán de prueba, en presencia de un
imán de mayor tamaño. Al igual que todo instrumento de medición, un imán de prueba debe
ser suficientemente pequeño en comparación con el objeto que va a medir, con el fin de
que su influencia no perturbe la medida que se pretende realizar. Una manera práctica de
152 visualizar las líneas de fuerza del campo magnético es colocar una hoja de papel sobre un
imán y esparcir limadura de hierro muy fina sobre ella. Las diminutas partículas de hierro
adoptan una postura característica que delinea el contorno de las líneas de fuerza. Se pue-
de apreciar que las líneas se dirigen desde un polo hacia el otro y que la densidad de líneas
tiende al máximo en la proximidad de cada polo (figura 11.5). El conjunto de líneas de fuerza
constituye una representación del campo magnético del objeto, y la densidad de las líneas
de fuerza en una región del espacio es una medida de la intensidad del campo magnético.
Magnetismo
Física conceptual
Unidad 11: Electromagnetismo
bilidad de aislar polos magnéticos no permitió que se planteara la existencia de una entidad
análoga a la carga eléctrica para el magnetismo. No obstante, gracias al descubrimiento de
Hans Christian Oersted de que la presencia de una corriente eléctrica era capaz de alterar
la orientación de una brújula que se encontraba en las cercanías, tal como sucedía con un
imán, no fue necesario suponer la existencia de cargas magnéticas. Por su parte, Henry
Rowland demostró que la rotación de un disco electrizado genera un campo magnético (B), 153
similar al de un dipolo magnético colocado en el centro del disco, orientado en la dirección
del eje de rotación. En consecuencia, se puede decir que el magnetismo es una manifesta-
ción del desplazamiento de cargas eléctricas (figura 11.6).
Las líneas del campo magnético generadas por una corriente que circula en un alambre rec-
tilíneo se distribuyen circularmente a su alrededor, en planos perpendiculares a la dirección
de la corriente, y se orientan según la regla de la mano derecha, de acuerdo con la cual si
el dedo pulgar indica la dirección de la corriente, los dedos cerrados indican la dirección del
campo, tal como se muestra en la figura 11.7.
La intensidad del campo magnético generado por un alambre rectilíneo, por el que circula
una corriente I, a una distancia r del alambre, está dada por la expresión
B = μ0 I/2πr (11.1)
F = qv × B (11.2)
A partir de la observación de que una corriente eléctrica ejerce una fuerza magnética sobre
una brújula, Oersted llegó a la conclusión de que un imán debe ejercer una fuerza sobre una
corriente eléctrica, en correspondencia con el principio de acción y reacción que se deriva
de la tercera ley de Newton.
Por su parte, Ampère observó que dos conductores paralelos por los que circulan corrientes
eléctricas en la misma dirección experimentan una fuerza de atracción proporcional al pro-
ducto de las intensidades de las corrientes, y que en el caso de que las corrientes circulen
en sentidos contrarios, la fuerza tiene la misma intensidad pero es de repulsión (figura
11.8). Ampère interpretó estas fuerzas como la interacción de una corriente con el campo
magnético generado por la otra.
I1 I2 I1 I2
Física conceptual
Unidad 11: Electromagnetismo
Puesto que una corriente eléctrica corresponde al desplazamiento colectivo de cargas indi-
viduales, la fuerza que experimenta el conductor por acción del campo magnético generado
por la otra corriente es la suma de las fuerzas que experimenta cada una de las cargas en
movimiento, de acuerdo con la relación (11.2).
F 155
Es importante notar que el vector resultante del producto indicado es perpendicular al plano
que definen los vectores v y B. La operación se denomina producto vectorial (figura 11.9),
y el resultado no solo depende de la magnitud de los vectores involucrados, sino de su
dirección, de acuerdo con la relación
Los vectores v, B y F conforman una tripleta de mano derecha (figura 11.10), lo cual quiere
decir que si el dedo índice señala en la dirección de la velocidad, y el dedo del corazón en
la del campo magnético, el dedo pulgar indica la dirección de la fuerza resultante.
a xb
De la expresión (11.3) se puede deducir que la fuerza magnética se anula cuando la direc-
ción del campo es paralela a la trayectoria de la carga.
Física conceptual
Unidad 11: Electromagnetismo
157
La fuerza magnética que experimenta una corriente eléctrica se puede aprovechar para
generar movimiento de manera continua, disponiendo un embobinado toroidal en presencia
del campo magnético generado por un imán permanente, o un segundo embobinado dis-
puesto de la manera adecuada.
158
El mismo principio que hace posible el funcionamiento del motor eléctrico (figura 11.14)
permite construir un dispositivo denominado amperímetro, que se utiliza para medir la in-
tensidad de una corriente eléctrica. Un amperímetro consiste básicamente de un embobi-
nado que dispone de un eje de giro, sujeto por un resorte en espiral, y un par de imanes
permanentes dispuestos de tal forma que sus campos magnéticos son perpendiculares a
partes opuestas de los lados de la bobina. Cuando circula una corriente eléctrica se genera
una fuerza que produce una rotación y desvía una aguja que se mueve sobre una escala
graduada indicando la intensidad de la corriente, como se ilustra en la figura 11.15.
B B
Las fuerzas magnéticas sobre las cargas eléctricas en movimiento permiten que el campo
magnético de la Tierra se comporte como un escudo contra las partículas cargadas de la
radiación cósmica. Debido a la disposición del campo magnético terrestre, las partículas
que inciden perpendicularmente sobre las zonas tropicales y subtropicales experimentan
fuerzas de máxima intensidad puesto que el valor de θ, el ángulo entre el campo magnético
y la velocidad, tiene un valor cercano a los 90 grados y las partículas quedan atrapadas en
el campo magnético describiendo trayectorias en espiral hasta que pierden su energía o se
alejan de la Tierra. Por el contrario, las partículas que inciden sobre la región circumpolar
Física conceptual
Unidad 11: Electromagnetismo
experimentan fuerzas de poca intensidad puesto que los valores de θ están alrededor de
cero y debido a su alta energía producen una intensa ionización de la atmósfera, lo que
genera el fenómeno conocido como aurora boreal (figura 11.16).
159
I
A
Interruptor v
160 De igual manera que se definió el potencial eléctrico en términos de la energía que se debe
suministrar a una carga para que recorra un circuito, en el caso de la inducción eléctrica se
define la fuerza electromotriz, Vem, como una medida de la energía que se suministra a una
espira conductora para generar una corriente eléctrica. Es necesario aclarar que el apela-
tivo de “fuerza” que se le da a la fuerza electromotriz se debe a circunstancias históricas,
puesto que como magnitud física tiene dimensiones de potencial eléctrico, y no de fuerza.
Si se define el flujo del campo magnético φB como el campo magnético que atraviesa la
unidad de área, la Vem se puede expresar en términos de la variación φB como
El signo menos de esta expresión refleja el hecho de que las corrientes inducidas sobre una
espira tienen una dirección tal que la dirección del campo magnético que generan se opone
a la variación del campo magnético total sobre la espira. Este fenómeno es conocido como
ley de Lenz (figura 11.18).
Si el polo norte magnético de un imán se acerca al plano de una espira la corriente inducida
genera un campo magnético que apunta hacia el polo sur del imán. Por el contrario, si el
polo norte de un imán se aleja del plano de la espira el campo inducido tiene la misma di-
rección que el campo magnético del imán. La dirección de las corrientes inducidas se puede
determinar por la regla de la mano derecha, tal como se ilustra en la figura.
I I
Bi Bi
B v B v
B 0 B 0
Física conceptual
Unidad 11: Electromagnetismo
Si tenemos en cuenta que para establecer una corriente eléctrica en un conductor es ne-
cesario que haya un campo eléctrico en la dirección de la corriente en cada punto del con-
ductor, podemos decir que la variación del campo magnético genera un campo eléctrico.
La generación de campos eléctricos a partir de campos magnéticos se complementa con el
hecho de que los campos magnéticos se pueden generar a partir de corrientes eléctricas,
que, a su vez, son generadas por campos eléctricos. De manera más general se puede
decir que a la variación en el tiempo de un campo magnético se asocia una variación del
campo eléctrico, y que a la variación en el tiempo de un campo eléctrico se asocia una va-
riación del campo magnético. Un análisis cuidadoso muestra que los campos eléctricos que
se generan son perpendiculares a los campos magnéticos que los generan, y viceversa.
Podemos concluir que la electricidad y el magnetismo son aspectos complementarios de un
fenómeno más general que denominamos electromagnetismo.
Resumen
Los fenómenos magnéticos presentan características similares a las de los fenó-
menos eléctricos, tales como la repulsión entre polos del mismo tipo y la atracción
162 entre contrarios, a la vez que se diferencian en aspectos muy específicos, como en
la posibilidad de aislar cargas eléctricas y la imposibilidad de aislar un polo mag-
nético. La posibilidad de explicar los fenómenos magnéticos como el efecto del
desplazamiento de las cargas eléctricas hace que sea innecesaria la introducción
del concepto de carga magnética. La inducción electromagnética pone de presente
el hecho de que los fenómenos eléctricos y magnéticos corresponden a aspectos
complementarios de un fenómeno más fundamental.
Potencia electromotriz
Cuestionario
1. ¿En qué contribuye el conocimiento de que un imán está constituido de una in-
mensa colección de imanes microscópicos, para la comprensión de la naturaleza
del magnetismo?
2. ¿Cómo se podría estimar la entropía de un trozo de hierro magnetizado y la del
mismo trozo de hierro desmagnetizado?
3. ¿Por qué no es necesario suponer la existencia de cargas magnéticas para dar
cuenta de los fenómenos magnéticos?
4. Explique cómo es posible visualizar las líneas de campo magnético de un imán
mediante la aspersión de limadura de hierro.
5. De acuerdo con lo anterior, ¿cómo se podrían visualizar las líneas de campo
magnético que genera una corriente rectilínea?
6. ¿Cómo se puede cuantificar la potencia magnética de un imán a partir de las
líneas de campo?
7. ¿Por qué razón las especificaciones de la red eléctrica de nuestra ciudad son de
110 V CA?
Física conceptual
Unidad 11: Electromagnetismo
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Introducción
En 1865 James Clerck Maxwell publicó un compendio de los aportes que en materia de electri-
cidad y magnetismo habían realizado personajes tan notables como Michael Faraday, Carl Frie-
drich Gauss, Charles Coulomb y André-Marie Ampère, entre otros. El aporte más original del propio
Maxwell, además de la presentación coherente y estructurada del electromagnetismo en términos
de un conjunto de ecuaciones acopladas, fue la introducción de un término adicional en la ecua-
ción que describe la ley de Ampère, correspondiente a una derivada temporal del campo eléctrico
conocida como corriente de desplazamiento, que garantiza la conservación de la carga eléctrica.
Pero el resultado más notable de la síntesis de Maxwell fue la predicción de la existencia de ondas
electromagnéticas y el cálculo a partir de las constantes fundamentales del electromagnetismo de la
velocidad de la luz, que redujo la óptica a la categoría de fenómeno electromagnético.
E = E0 sen φ (12.1)
B = B0 sen φ (12.2)
Las ondas electromagnéticas, cuya existencia predice la teoría de Maxwell, corresponden a la pro-
pagación de perturbaciones de los campos eléctricos y magnéticos a la velocidad de la luz. Maxwell
calculó la velocidad de propagación de las ondas electromagnéticas en términos de las constantes
Unidad 12: Campos y ondas
ε0 y μ0, que expresan las propiedades eléctricas y magnéticas del vacío, y encontró que el
resultado coincidía con la velocidad de la luz que había sido determinada de manera expe-
rimental por Fizeau y Fresnel.
166
Física conceptual
Unidad 12: Campos y ondas
magnético de tal modo que el flujo magnético a través de una superficie cerrada siempre
es nulo, pues el número de líneas que salen es igual al número de líneas que entran (figura
12.3).
167
S N
B
168
Hertz dispuso un par de esferas metálicas muy cercanas entre sí, conectadas a las termi-
nales de un dispositivo que producía diferencias de potencial alterno con una frecuencia de
cien millones de oscilaciones por segundo, lo que en la actualidad se denomina 100 MHz
(figura 12.4). A continuación se desplazó por el laboratorio con un detector consistente en
una espira rota rematada por un par de esferas, y encontró que a ciertas distancias del
generador se producían descargas eléctricas en el detector. Luego de medir las distancias
involucradas y de realizar los cálculos pertinentes, Hertz llegó a la conclusión de que la
longitud de onda generada era de tres metros. De acuerdo con este resultado, y teniendo en
cuenta que la velocidad de propagación de una onda es igual al producto de la frecuencia f
por la longitud de onda, λf, la velocidad resultante es de 300 000 km/s:
v = λf (12.3)
A las ondas generadas por el dispositivo de Hertz se les dice ondas de radio por la gran
aplicación que tuvieron en la tecnología de las telecomunicaciones, posterior a su descubri-
miento. Por su parte, la radiación luminosa ocupa un rango de longitudes de onda entre 350
nm y 700 nm (1 nm = 10−9 m) (figura 12.5).
Física conceptual
Unidad 12: Campos y ondas
169
b
d
a
S1
S2
F
Figura 12.6. Experimento de doble rendija de Young.
Tomado de: http://bit.ly/2tH9jMi
Los trabajos de Young y Fresnel permitieron establecer que la luz es un fenómeno ondu-
latorio y rebatir la teoría corpuscular sugerida por Newton, quien, con el fin de explicar que
la luz blanca se descompone en los colores del arcoiris, y que luego, al recombinar todos
los colores, se obtiene de nuevo luz blanca, planteó la hipótesis de que a cada uno de los
siete colores básicos que él consideraba primarios –rojo, naranja, amarillo, verde, azul,
170 violeta e índigo– correspondían partículas microscópicas de un solo color. La teoría corpus-
cular de Newton podía explicar algunos fenómenos como la propagación de la luz en línea
recta, asociando el rayo de luz a la trayectoria de los corpúsculos. También podía explicar
la reflexión en una superficie como el resultado de choques elásticos de las partículas de
luz con una superficie plana, pero conducía a falsas conclusiones sobre la variación de la
velocidad de la luz al pasar de un medio a otro de diferente índice de refracción, y resultaba
completamente inútil para explicar fenómenos como la difracción y la birrefringencia. Sin
embargo, amparada en la autoridad de Newton, la teoría corpuscular gozó de amplia acep-
tación y credibilidad entre la comunidad científica hasta que las técnicas experimentales
desarrolladas por físicos como Dominique François Arago e Hippolyte Fizeau, además de
los ya mencionados Thomas Young y Agustín Fresnel, permitieron medir la velocidad de la
luz en diferentes medios y caracterizar otros fenómenos como la polarización y la difracción,
que solo se pueden explicar a partir de una teoría ondulatoria. Finalmente, gracias al aporte
de Maxwell, se pudo completar la teoría ondulatoria al establecer que la luz no solo es un
fenómeno ondulatorio sino que es una onda electromagnética.
Pero, a la vez que la cuestión de la naturaleza de la luz parecía haber sido esclarecida gra-
cias a los aportes realizados desde diferentes áreas de la física, quedó planteado un nuevo
y fundamental problema: si la luz es una onda, ¿qué es lo que ondula? En realidad no se
trataba de un nuevo problema, sino de la suposición inherente al modelo mecanicista que
prevalecía en la mentalidad de los físicos de la época de que debía existir un medio mecá-
nico que soportara las ondulaciones electromagnéticas en atención al origen del concepto
de onda, que se elaboró a partir de la observaciones de las oscilaciones periódicas de los
medios elásticos. Como suele suceder en la historia de las ideas cuando se da por sentada
la existencia de algo pero no hay manera de verificarlo, lo primero que se hace es darle
un nombre, que en este caso fue el de éter lumínico, que, luego de la síntesis de Maxwell,
tomaría el nombre de éter electromagnético, el cual fue objeto de profundas indagaciones
teóricas y de una exhaustiva búsqueda experimental mediante la cual se esperaba poder
detectar los efectos asociados al desplazamiento de la Tierra a través del éter, para lo cual
se elaboraron algunos de los más sofisticados y precisos montajes experimentales, que de
manera invariable y sistemática arrojaron resultados negativos, sumiendo a los físicos en
un estado de gran confusión.
Física conceptual
Unidad 12: Campos y ondas
Frente de onda
Rayo
Los rayos correspondientes a frentes de onda planos son paralelos entre sí (figura 12.10).
Física conceptual
Unidad 12: Campos y ondas
Frente de onda
Rayo
173
v = λf (12.3)
La velocidad con la que se propaga una perturbación mecánica depende de las característi-
cas del medio en el que se propaga, como su rigidez, si es un medio sólido, o de su tensión,
si es un medio elástico.
En una dimensión, todo par de puntos consecutivos que tengan el mismo grado de pertur-
bación estarán separados por una distancia igual a la longitud de onda.
A = A0 sen φ (12.4)
Física conceptual
Unidad 12: Campos y ondas
senφ
+1
π 2π φ
12.12 Interferencia
Se puede describir el pulso constitutivo de una onda como la propagación de una infor-
mación que le indica a cada punto del medio por el que atraviesa que debe realizar una
oscilación completa antes de retornar al punto de reposo.
Un tren de pulsos, es decir una onda, hace que, mientras pasa la onda, cada punto del
medio por el que atraviesa oscile con la misma frecuencia de la fuente que generó la onda.
A2
A1
A = A1 + A2
A2
A1
Cuando interfieren dos perturbaciones que están en la misma fase, se suman sus amplitu-
des, y el fenómeno se denomina interferencia constructiva (figura 12.16).
v v
176 t=0 x x
t=1 x + x = 2x
2x
t=2 v v
x x
Cuando dos perturbaciones que están en contrafase interfieren, se restan sus amplitudes,
y el fenómeno se denomina interferencia destructiva (figura 12.17).
t = 0:
v
x
_
x
t = 1:
x + ( _x) = 0 v
Máxima interferencia destructiva
t = 2: v
x
_
x
v
Figura 12.17. Interferencia destructiva.
Tomado de: http://bit.ly/2teH8Di
Cuando dos o más fuentes separadas y sincronizadas generan ondas con la misma fre-
cuencia se produce un patrón caracterizado por regiones donde las ondas siempre inter-
fieren en contrafase, y se denominan líneas nodales. De manera correspondiente, existen
regiones donde las ondas siempre interfieren en fase, y generan regiones denominadas
líneas antinodales.
Física conceptual
Unidad 12: Campos y ondas
177
12.13 Difracción
Cuando un frente de onda incide sobre un obstáculo de estructura periódica, como una
rejilla, cada abertura de la rejilla se comporta como el foco de una nueva onda. La superpo-
sición de todas las ondas generadas de esta manera produce un patrón característico de
líneas nodales y antinodales, que se denomina patrón de difracción (figura 12.19).
Cuando se ilumina con una fuente de luz monocromática un par de rendijas perforadas en
una placa, de ancho y separación conocidas, se produce un patrón de difracción que se
puede proyectar en una pantalla y en el cual se relacionan de manera muy precisa el ancho
y la separación de las rendijas con la longitud de onda, y la separación entre la placa y la
pantalla de proyección (figura 12.20).
Gracias a esta notable propiedad de la luz es posible obtener información sobre las caracte-
rísticas microscópicas de algunas estructuras, como las alas de las mariposas o la densidad
de los puntos de información grabados en un disco compacto (figura 12.21).
Física conceptual
Unidad 12: Campos y ondas
Resumen
Unos veinte años después de que Maxwell predijera que las perturbaciones del campo
electromagnético se propagan como ondas transversales a la velocidad de la luz, Hein-
rich Hertz verificó experimentalmente su existencia luego de detectar los puntos nodales 179
que se producían entre unos reflectores de aluminio convenientemente dispuestos en su
laboratorio, como consecuencia de la reflexión e interferencia de las ondas generadas por
un oscilador eléctrico.
Ondas electromagnéticas
Cuestionario
1. Describa un procedimiento para detectar el campo eléctrico en un punto del es-
pacio.
2. Describa un procedimiento para detectar el campo magnético en un punto del
espacio.
3. ¿Qué consideración sobre la producción de campos magnéticos puede hacer
suponer que se puedan generar campos eléctricos a partir del magnetismo?
4. Compare las dos primeras ecuaciones de Maxwell y explique su significado.
5. ¿Qué característica tienen las líneas de un campo que es generado por cargas?
6. ¿Qué característica tienen las líneas de un campo que no es generado por car-
gas?
7. Considere las líneas de un campo magnético generado por una corriente eléctri-
ca y compruebe que dicho campo varía punto a punto en el espacio.
8. Considere las líneas de un campo eléctrico generado en una espira de alambre
180 por la variación de un campo magnético y compruebe que dicho campo varía
punto a punto en el espacio.
9. ¿Qué consideraciones llevaron a Maxwell a proponer que la luz es una onda
electromagnética?
10. ¿Qué analogía se puede establecer entre las ondas que se producen al pulsar
una cuerda tensa y las ondas estacionarias que detectó Hertz en su laboratorio?
11. Calcule la frecuencia del generador de ondas de Hertz, teniendo en cuenta que
la longitud de onda de las ondas detectadas fue del orden de tres metros.
12. Compare la eficiencia de transmisión de las señales telegráficas con la de ondas
electromagnéticas.
13. ¿Qué ventajas y desventajas tienen las unas y las otras?
14. Explique qué es un pulso y dé algunos ejemplos que se puedan apreciar en el
entorno.
15. ¿Qué relación existe entre los pulsos y las ondas?
16. Explique cómo se puede producir una onda.
17. ¿Qué papel juega el concepto de frecuencia en la construcción de las ondas?
18. Dé tres posibles definiciones del concepto de longitud de onda.
19. Explique cómo se relacionan los conceptos de longitud de onda y frecuencia.
20. Explique en qué se diferencian las ondas longitudinales y las ondas transversa-
les.
21. Analice el comportamiento de una cuerda tensa sujeta a pulsaciones y explique
los cambios en la frecuencia que se aprecian al variar la tensión de la cuerda.
22. ¿Qué relación existe entre la frecuencia del sonido que emite la onda y la longi-
tud de onda de las pulsaciones?
23. ¿Qué se puede decir respecto a la velocidad a la que se propaga la onda en la
cuerda tensa?
24. Indique en qué consisten las ondas estacionarias y explique por qué no se pro-
duce este tipo de ondas en una cuerda con un extremo libre.
25. Considere una fuente de perturbación periódica que actúa sobre la superficie de
un cuerpo de agua y describa su forma de propagación.
26. Explique cómo se aplican los conceptos de frente de onda y rayo a la perturba-
ción descrita en la pregunta anterior.
27. Considere dos fuentes que generan pulsos de manera periódica y sincronizada
que perturban la superficie de un espejo de agua y explique la aparición de líneas
nodales.
28. Discuta por qué razón la descripción matemática de los fenómenos ondulatorios
se puede hacer en términos de las funciones trigonométricas seno y coseno.
29. Explique si es posible describir un pulso individual mediante las funciones seno
y coseno.
Física conceptual
Unidad 12: Campos y ondas
30. Explique por qué razón el experimento de Young de la doble rendija permitió
resolver la polémica entre los partidarios de la teoría ondulatoria de la luz y los
defensores de la teoría corpuscular.
31. ¿Qué consideraciones llevaron a plantear la hipótesis de la naturaleza electro-
magnética de la luz?
32. ¿Qué consideraciones llevaron a plantear la existencia del éter electromagnético? 181
33. ¿Qué características debe exhibir el éter para dar cuenta de la velocidad de la luz
y de su inapreciable interferencia con el movimiento de los planetas?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, una aventura del pensamiento. Losada.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). La historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Introducción
El descubrimiento de las ondas electromagnéticas, cuya existencia había sido predicha por James
Maxwell, hizo suponer la existencia de un medio ondulante como soporte de las oscilaciones del
campo electromagnético. Tal suposición se fundamentaba en el origen mecanicista del concepto de
onda, que es una abstracción construida a partir de la observación de la propagación de las per-
turbaciones periódicas en el aire, en el agua o en una cuerda tensa. El hipotético medio de propa-
gación de las ondas electromagnéticas recibió el nombre de éter electromagnético como extensión
del concepto de éter lumínico, que había sido acuñado para dar cuenta de la propagación de la luz.
Se puede decir que la existencia de materia y energía, como dos entidades independientes y bien
diferenciadas, constituye la base de la concepción clásica del mundo físico, siendo la materia el
sujeto de las interacciones físicas y la energía una medida del movimiento, actual o potencial, de la
materia. Por su parte, las ondas son una forma de transporte de energía, que no implica desplaza-
miento neto de materia.
Para la física del siglo XIX, una onda era la expresión de la perturbación periódica de un medio
elástico continuo, o el movimiento colectivo de un conjunto de corpúsculos, que se caracterizaba por
su frecuencia, su intensidad y la velocidad de su propagación. Esta última dependía de propiedades
del medio, como la densidad y la rigidez. Así, en los medios rígidos las ondas se propagan a velo-
cidades mucho mayores que en los medios elásticos, debido a lo cual la velocidad de la luz, que es
la mayor velocidad que se puede asignar a cualquier fenómeno físico, planteaba un serio problema
respecto a la constitución del éter, que tendría que tener una rigidez mucho mayor que la del acero,
y una densidad menor que la del aire, so pena de frenar el movimiento de los astros.
Capítulo 13: Teoría de la relatividad
Ante la imposibilidad de detectar el éter de manera directa, los físicos idearon una serie de
ingeniosas experiencias que habrían de dar cuenta de la existencia del éter mediante la
detección de efectos generados por el desplazamiento de fuentes y detectores de señales
electromagnéticas en este medio. Entre los múltiples experimentos que se diseñaron para
comprobar la existencia del éter sobresale el montaje interferométrico realizado por Albert
184 Michelson (figura 13.2), y, posteriormente, por Michael Morley, a finales del siglo XIX, me-
diante el cual se esperaba poder detectar minúsculas variaciones en la velocidad de la luz
asociadas a los cambios de dirección del movimiento de la Tierra respecto al éter (figura
13.3). A pesar de la extraordinaria precisión del interferómetro de Michelson y del sinnúmero
de veces que se repitieron los experimentos y las mediciones, en diferentes momentos y
locaciones, el resultado siempre fue negativo. Aparentemente la velocidad de la luz no es
afectada por el movimiento relativo de la fuente y el observador, lo cual constituía un de-
safío a la ley de adición de velocidades que satisface la relatividad galileana. De acuerdo
con esta ley, si un observador alcanza la velocidad de un proyectil disparado desde tierra,
este aparecerá en reposo para el observador en movimiento y a una velocidad diferente
respecto al lanzador.
Pantalla
Patrón de interferencia
Objetivo de
microscopio
L1
Divisor de haz
Láser
L2 Espejo plano 1
Espejo plano 2
Física conceptual
Capítulo 13: Teoría de la relatividad
185
F´= ma´
F = ma
Las transformaciones de Galileo (figura 13.5) son el conjunto de reglas que permiten que
dos observadores en movimiento relativo uniforme comparen sus mediciones y que verifi-
quen las leyes de la mecánica, de tal manera que si un observador O, que consideramos
Z Z'
V x ' = x _ vt
y' = y
VX
z' = z
O O' VX'
X X' t ' = t
y y'
Física conceptual
Capítulo 13: Teoría de la relatividad
De acuerdo con lo anterior, no tiene sentido físico hablar de movimiento o reposo absoluto.
Tampoco corresponde a la experiencia observable que los fenómenos electromagnéticos
sean diferentes en los sistemas que se encuentren en movimiento. Como consecuencia,
el principio de relatividad especial establece que “las leyes de la física son las mismas en
todos los sistemas inerciales de referencia”.
De acuerdo con el anterior postulado, los resultados negativos de los experimentos que pre-
tendían detectar el movimiento de la Tierra respecto al éter son compatibles con el nuevo
planteamiento de los principios fundamentales de la física. Por su parte, el debate sobre la
existencia del éter se torna irrelevante puesto que este concepto resulta innecesario para la
descripción de los fenómenos físicos y para la construcción de las leyes y teorías que dan
cuenta de ellos.
conjunto de reglas para comparar las mediciones asociadas a los fenómenos físicos reali-
zadas por dos sistemas inerciales de referencia que se encuentren en movimiento relativo,
denominadas transformaciones de Lorentz-Einstein, o, simplemente, transformaciones de
Lorentz, cuya más notable característica es que preservan la forma de las ecuaciones de
Maxwell del campo electromagnético, permiten derivar una nueva ley de adición de velo-
188 cidades, y, como era de esperarse, respetan la constancia de la velocidad de la luz (figura
13.6). Una notable consecuencia de las transformaciones de Lorentz es que ningún sistema
físico puede alcanzar o superar la velocidad de la luz.
x _ vt
x´ =
v
1_
2
c
2
y´ = y
z´ = z
vx
t _ c 2
t´ =
1_ v
2
c
2
El anterior ejemplo ilustra el hecho de que en todo proceso de medición que se utilice para
determinar la duración de un proceso es necesario establecer una comparación, por medio
Física conceptual
Capítulo 13: Teoría de la relatividad
de un conteo, con procesos idénticos de menor duración. Por ejemplo, para medir lo que
tarda una pequeña esfera en descender por un plano inclinado se pueden contar las pulsa-
ciones del corazón o las notas de una melodía de ritmo bien acentuado. De acuerdo con lo
anterior, un reloj (figura 13.7) es un sistema que realiza procesos periódicos, cuya duración
debe ser menor que la del proceso cuya duración se quiere medir. Así, la duración de un
año terrestre se puede medir en términos del día solar, que es un proceso periódico de me- 189
nor duración que el año. Para determinar la duración de procesos de muy corta duración,
como la caída de un cuerpo desde unos cuantos metros de altura, acudimos a procesos de
más corta duración, como, por ejemplo, las oscilaciones de un cristal de cuarzo.
Teniendo presente que todo sistema periódico puede ser utilizado como reloj, consideremos
un reloj conformado por dos espejos paralelos entre los cuales rebota un rayo de luz. Con
el fin de que nuestro reloj de luz tenga un periodo de un segundo, los espejos deben estar
separados una distancia de 150 000 km, aproximadamente (figura 13.8).
150.000 km
movimiento es mayor que un segundo puesto que la trayectoria que debe seguir el rayo de
luz para rebotar entre los dos espejos es mayor que la trayectoria de 300 000 km que debe
recorrer el rayo en el reloj que se encuentra en reposo. De manera recíproca, el observa-
dor que viaja con el reloj en movimiento se considera a sí mismo en reposo, afirma que el
periodo de su reloj es de un segundo y considera que el periodo del primer reloj es mayor
190 de un segundo (figura 13.9).
Se puede demostrar que la dilatación del tiempo para un reloj que se encuentra en movi-
miento respecto a un reloj que se considera en reposo está dada por la siguiente expresión:
En esta expresión, ∆t' es el tiempo medido en el reloj del observador que se encuentra en
movimiento, ∆t es el tiempo medido por el observador en reposo, v es la velocidad relativa
entre los dos observadores y c es la velocidad de la luz. Es importante anotar que los su-
cesos que determinan la duración ∆t' ocurren en el mismo punto del espacio para el obser-
vador en movimiento, y en diferentes puntos para el observador en reposo. ∆t' es el menor
tiempo posible que puede medir cualquier observador entre los sucesos que determinan el
intervalo en cuestión. Una importante consecuencia de las anteriores consideraciones es la
imposibilidad de sincronizar relojes que se encuentren en movimiento relativo.
Física conceptual
Capítulo 13: Teoría de la relatividad
Los efectos asociados a la dilatación del tiempo en los sistemas en movimiento han sido
verificados, con alto grado de precisión, en procesos como el decaimiento de partículas ele-
mentales que viajan a velocidades cercanas a la velocidad de la luz y en el funcionamiento
de los sistemas de posicionamiento global, o GPS (figura 13.10).
191
I D I D I D
Sin embargo, un observador que se encuentra al lado de la vía, para quien el vagón se des-
plaza con velocidad v, dirá que, de acuerdo con sus propios relojes, primero llegó un rayo
a la parte posterior del vagón y luego llegó el otro rayo a la parte anterior, y que, por tanto,
contrario a lo que afirma el observador interno, la llegada de los dos rayos a los extremos
del vagón no fue simultánea (figura 13.12).
192
I D I D I D
A continuación consideremos la situación en la que los dos rayos son reflejados por espejos
en los extremos del vagón y retornan al punto de partida (figura 13.13). En este caso, tanto
para el observador que se encuentra dentro del vagón, como para el que se encuentra
afuera y en movimiento relativo respecto al primero, la llegada de ambos rayos al sitio de
partida es simultánea. Llegamos a la conclusión de que la simultaneidad de sucesos que
se producen en diferentes puntos del espacio es relativa, pero la simultaneidad de sucesos
que se producen en el mismo punto del espacio es absoluta.
Figura 13.13. Pulsos reflejados en los extremos del vagón para los observadores interno y externo.
Física conceptual
Capítulo 13: Teoría de la relatividad
193
Supongamos que el observador que viaja dentro de un vagón que se desplaza a velocidad v
quiere medir la longitud del mismo, utilizando como referencia el tiempo ∆t que tarda el va-
gón en pasar al lado del observador que se encuentra parado en la vía. De manera recípro-
ca, el observador externo realiza sus propias mediciones de tiempo para calcular la longitud
del vagón, registrando el tiempo ∆t' que tarda el vagón en pasar al lado suyo (figura 13.15).
Puesto que los intervalos de tiempo que registran los observadores dentro del vagón y en la
vía fueron ∆t y ∆t', respectivamente, las correspondientes longitudes serán:
Puesto que ∆t' y ∆t se relacionan mediante la expresión para la dilatación del tiempo,
(13.1), y teniendo en cuenta que ∆t' fue medido en el mismo punto y que ∆t corresponde a
tiempos medidos en diferentes puntos del espacio, se concluye que:
L' ≤ L (13.4)
Física conceptual
Capítulo 13: Teoría de la relatividad
ct
Cono
de luz y
x
195
E(x, y, z, ct)
De igual manera que en el espacio euclidiano, la rotación de los ejes coordenados deja
invariante la distancia d entre dos puntos (figura 13.17), de acuerdo con la expresión:
y' y
P2
x x'
d
P1
x
x
Resumen
La imposibilidad de detectar el movimiento de un sistema de referencia inercial
desde su interior, o de detectar variaciones en la velocidad de la luz, asociadas al
movimiento relativo de la fuente y el observador, hizo necesario el replanteamiento
196 de la física a partir del principio de relatividad especial y la constancia de la veloci-
dad de la luz. La consecuencia inmediata fue la relativización de la simultaneidad
y la imposibilidad de realizar mediciones de longitud o de duración de manera
independiente.
Cuestionario
1. Establezca la diferencia entre el desplazamiento de una onda que se propaga en
un medio elástico y el de una partícula que viaja en el vacío, en términos de las
magnitudes físicas que se pueden asociar a una y a otra.
2. Establezca la diferencia entre el desplazamiento de un fotón y el de una partícula
que viajan en el vacío, en términos de las magnitudes físicas que se pueden
asociar a uno y a otra.
3. ¿Qué permite esperar, desde el punto de vista de la física newtoniana, que la
velocidad de la luz varíe dependiendo de la dirección de su propagación en un
laboratorio situado en la Tierra?
4. ¿Qué requisitos debe cumplir un sistema de referencia para que se pueda con-
siderar inercial?
5. ¿Qué tipo de sistema de referencia es la Tierra?
6. ¿Por qué es posible considerar a la Tierra como un sistema inercial durante la
observación de fenómenos de muy corta duración?
7. Teniendo en cuenta que en observaciones de tiempo extendido se manifiesta el
carácter no inercial de la Tierra como sistema de referencia, ¿a qué referencia
nos podemos remitir como sistema inercial de referencia?
8. ¿De qué manera pueden comparar los valores de la velocidad de un avión dos
observadores en tierra que se encuentran en movimiento relativo?
Física conceptual
Capítulo 13: Teoría de la relatividad
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Canales, J. (2015). The physicist and the philosopher. Kindle eBook.
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). La historia de la física. FCE.
198
Física conceptual
Capítulo 14 Materia y geometría
Introducción
La teoría de la relatividad condujo a una profunda revisión de los conceptos de espacio y tiempo,
una de cuyas más notables consecuencias fue el descubrimiento de que existe una indisoluble
relación entre las mediciones espaciales y temporales, lo cual queda plasmado con claridad en las
transformaciones de Lorentz y en la representación geométrica que hizo de ellas el matemático
Hermann Minkowsky. Pero las consecuencias de la teoría van mucho más allá, como se puede
apreciar cuando se aplican sus postulados al estudio de la interacción entre la materia y la radiación,
y a la gravitación.
De acuerdo con un observador en el interior del móvil, los rayos de luz emitidos tienen la misma
energía y la misma frecuencia y se desplazan con la misma velocidad en direcciones opuestas. Sin
embargo, los observadores externos detectan señales luminosas de mayor y menor frecuencia que
la emitida originalmente debido al efecto Doppler, que consiste en la variación de la frecuencia de
una onda debido al movimiento relativo entre la fuente y el observador, de tal forma que cuando la
fuente y el observador se acercan, la frecuencia de la onda aumenta, y en el caso contrario disminu-
ye. Es fácil apreciar el efecto Doppler en la variación del timbre del sonido del motor de un vehículo,
que parece ser más agudo cuando se acerca y más grave cuando se aleja.
Capítulo 14: Materia y geometría
Puesto que la radiación electromagnética no solo transporta energía sino, también, momen-
tum, resulta que la emisión de radiación tiene un efecto sobre la fuente emisora equivalente
al disparo de proyectiles. Por esta razón, un haz de luz ejerce presión sobre la superficie
de los objetos que ilumina, tal como lo haría un chorro de agua o de gas. La cantidad de
movimiento, p, asociada a la radiación electromagnética está dada por la expresión
200
p = E/c (14.1)
De acuerdo con el observador en reposo respecto al cuerpo que emite las señales lumino-
sas, este no experimenta cambio en su estado de movimiento porque la suma de la cantidad
de movimiento de los dos rayos que viajan en direcciones opuestas se anula (figura 14.2).
p2 = _ E p1 = E v
c c
Sin embargo, los observadores externos detectan una situación diferente. De acuerdo con
el observador hacia el cual se acerca la fuente de radiación, la frecuencia f1 de la radiación
emitida es mayor que la que declara el emisor, debido al efecto Doppler (figura 14.3). Por
su parte, el observador del cual se aleja la fuente de radiación detecta una onda de menor
frecuencia, f2.
f2 f1
v
Física conceptual
Capítulo 14: Materia y geometría
Con el fin de dar cuenta del efecto fotoeléctrico, por el cual ciertos metales generan corrien-
tes eléctricas al recibir radiación electromagnética, Einstein asumió que la energía de una
onda electromagnética es proporcional a la frecuencia, f, de acuerdo con la relación
E = hf (14.2)
201
donde h es la constante de Planck (h = 6.62 x 10−34 kg m2/s). En vista de lo anterior, y de
acuedo con (14.1), se obtiene:
p = hf/c (14.3)
p = h/λ (14.4)
Cuando se realiza el balance de la cantidad de movimiento por parte del observador externo
se encuentra que la diferencia entre la cantidad de movimiento de los dos rayos arroja un
resultado positivo en la dirección de desplazamiento del cuerpo:
Puesto que la velocidad del cuerpo no ha cambiado, y teniendo en cuenta que la cantidad
de movimiento de un sistema aislado permanece constante, tenemos que:
Se concluye que, luego de la pérdida de energía por emisión de radiación, la masa del
cuerpo radiante disminuye una cantidad Δm, con
∆E = ∆mc2 (14.8)
Las consecuencias para la física que se derivan de la anterior relación son de primordial im-
portancia. La clara distinción que existe en la física clásica entre materia y energía empieza
a difuminarse. La inercia, propiedad por excelencia de los cuerpos materiales, resulta ser,
también, una propiedad del campo electromagnético, que se puede apreciar en la emisión
Dos leyes, que hasta entonces se habían erigido como los soportes fundamentales de la
investigación científica, la ley de la conservación de la materia y la ley de la conservación
de la energía, se convierten en una sola ley, que podríamos llamar ley de conservación de
202 la masa-energía, de acuerdo con la cual, al hacer el balance de la transferencia de energía
en un proceso físico, es necesario tener en cuenta la variación de la masa, y viceversa.
14.2 El fotón
La suposición hecha por Einstein en 1905 −con el fin de dar cuenta del efecto fotoeléctrico− de
que una onda electromagnética posee una cantidad de energía proporcional a su frecuen-
cia, y que, por tanto, la materia absorbe luz en paquetes de energía cuantizados, le confiere
a la radiación electromagnética un carácter corpuscular, reviviendo el viejo debate sobre
la naturaleza de la luz. El éxito de la explicación de Einstein del efecto fotoeléctrico, y su
aceptación por parte de la comunidad científica, condujo a la introducción del concepto de
fotón, o partícula de luz. Es importante recordar que antes de que se enunciara esta teo-
ría, el carácter de corpúsculo solo se atribuía a los llamados cuerpos materiales, en tanto
que las ondas eran consideradas un fenómeno emergente asociado al movimiento de la
materia. En el caso de las ondas electromagnéticas, el supuesto medio material ondulante
era el éter. Una de las consecuencias más notables de la teoría de la relatividad es la de-
mostración de que el concepto de éter es innecesario en la descripción de los fenómenos
electromagnéticos, y que la diferencia entre materia y radiación no es solo cuestión de
materialidad, puesto que a esta última se le pueden asignar propiedades como momentum
y energía, que tradicionalmente se consideraban exclusivas de la materia.
Física conceptual
Capítulo 14: Materia y geometría
Electrón
rebotado
Electrón en
Fotón su posición
incidente inicial
203
Fotón
dispersado
e+ e+
204
_ _
e e
Figura 14.5. Creación y aniquilación de partículas y antipartículas.
Física conceptual
Capítulo 14: Materia y geometría
205
206
Ahora consideremos la trayectoria de un rayo de luz emitido por un láser orientado per-
pendicularmente respecto a las paredes del laboratorio cohete. Como es de esperarse, el
haz de luz se desvía hacia el piso debido a la aceleración constante que experimenta el
laboratorio (figura 14.9).
Física conceptual
Capítulo 14: Materia y geometría
207
Las predicciones de la teoría general de la relatividad han sido confirmadas con gran preci-
sión por una gran variedad de experimentos y observaciones realizados en los últimos cien
años, entre los cuales podemos destacar la desviación que exhibe la luz proveniente de
una estrella lejana al pasar por la cercanía de cuerpos celestes de gran masa, dando lugar
a efectos como el denominado lente gravitacional (figura 14.11).
B C
E
Sin embargo, al comparar la hora en sus respectivos relojes, los observadores B y C, que
se encuentran sobre la plataforma, detectan falta de sincronización. Puesto que ambos se
encuentran en reposo entre sí, no pueden atribuir el desfase de sus relojes al movimiento
relativo. Sin embargo, hay un elemento físico que establece una diferencia entre los dos
observadores, puesto que el observador B, que se encuentra en el borde, experimenta
la acción de una fuerza que apunta hacia el centro de la plataforma, en tanto que C no
Física conceptual
Capítulo 14: Materia y geometría
experimenta fuerza alguna. Puesto que esta es la única diferencia que hay entre los dos
observadores que se encuentran sobre la plataforma, se debe atribuir a ella la diferencia de
las mediciones temporales (figura 14.14).
209
B C
E
Figura 14.13. Dilatación del tiempo para relojes en movimiento relativo y en reposo.
Figura 14.14. Dilatación del tiempo para relojes sometidos a fuerzas de diferente magnitud.
210
Figura 14.16. Recreación de ondas gravitacionales generadas por la colisión de dos agujeros negros.
Tomado de: http://bit.ly/2seCztG
Física conceptual
Capítulo 14: Materia y geometría
Resumen
La equivalencia de inercia y gravitación, junto con la equivalencia de masa y ener-
gía, constituyen los más grandes aportes que la teoría de Einstein hizo a la física.
Luego del establecimiento de estas equivalencias la física se hizo más sencilla, 211
con mejor capacidad para predecir fenómenos físicos inobservados hasta enton-
ces, pero, en opinión de algunos, cada vez menos comprensible.
Materia y geometría
Cuestionario
1. Verifique que si un sistema inercial en movimiento uniforme no experimenta un
cambio de velocidad luego de disparar sendos proyectiles idénticos en direccio-
nes contrarias, su velocidad permanece invariante en todos los demás sistemas
inerciales de referencia.
2. Verifique que la cantidad de movimiento de un proyectil disparado desde un
sistema en movimiento depende de la dirección en la que se dispara.
3. La expresión relativista para el efecto Doppler es:
f = f0 √[(c + v)/(c ± v)]
donde v es la velocidad relativa y c es la velocidad de la luz, y los signos + o −
dependen de si la fuente y el observador se acercan o se alejan. Verifique que
en el primer caso f es mayor que f0, y en el segundo es lo contrario.
4. ¿A qué se puede atribuir el corrimiento al rojo que exhibe el espectro luminoso
de las galaxias distantes?
5. Calcule el corrimiento de la frecuencia de un láser de longitud de onda de 633
nm que viaja a una velocidad de 0.1 c, dependiendo de si se acerca o se aleja
del observador.
6. Compare el momentum de un fotón del láser del problema anterior dependiendo
de si se acerca o se aleja del observador.
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Canales, J. (2015). The physicist and the philosopher. Kindle eBook
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Holton, G. (1982). Ensayos sobre el pensamiento científico en la época de Einstein. Alian-
za Universidad.
Jeans, J. (1968). La historia de la física. FCE.
Russell, B. (1978). ABC de la relatividad. Ariel.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Física conceptual
Capítulo 15 Cosmología: el origen y el fin
Introducción
A veces nos formulamos preguntas de gran trascendencia como, por ejemplo, cuándo se originó y
hasta cuándo durará el universo. Y la humanidad, en sus intentos por responderlas, ha llevado hasta
el límite las posibilidades explicativas del conocimiento científico, con resultados tan sorprendentes
como el de la existencia de un supuesto origen en un evento cataclísmico y la predicción de un frío
y oscuro final.
El comportamiento del universo a gran escala es asimilable, hasta cierto punto, al de un gas que
inicialmente se encuentra confinado en un pequeño recipiente, cuyas paredes desaparecen de ma-
nera súbita. Supongamos que el gas está comprimido a la máxima densidad y a la máxima tem-
peratura posible, y que en el interior del recipiente no queda ningún espacio vacío. A continuación
supongamos que, por alguna misteriosa razón, las dimensiones del recipiente empiezan a crecer
gradualmente y las partículas del gas disponen cada vez de mayor movilidad (figura 15.1). Trece mil
setecientos millones de años más tarde el volumen del recipiente se ha expandido de tal manera
que el número de partículas de gas por metro cúbico ha descendido a una, y la temperatura del
sistema es de unos 2.7 K, muy cercana al cero absoluto, aunque, todavía, no lo suficiente.
Capítulo 15: Cosmología: el origen y el fin
214
Física conceptual
Capítulo 15: Cosmología: el origen y el fin
215
Puesto que los procesos termodinámicos requieren una diferencia de temperatura entre la
fuente térmica y el ambiente, una vez que el sistema haya alcanzado el equilibrio térmico
y todas sus partes se encuentren a la misma temperatura será imposible realizar ningún
tipo de trabajo. No obstante, la energía total permanece constante. Esta situación pone en
216 evidencia la imprecisión en la que se incurre cuando se define la energía como capacidad
de hacer trabajo.
Si consideramos el universo como un sistema cerrado, tal y como era concebido a media-
dos del siglo XIX, en algún momento alcanzará el equilibrio térmico y todo estará a la misma
temperatura como consecuencia inevitable de la segunda ley de la termodinámica. Bajo tal
condición la energía aprovechable se habrá agotado, y la vida, que es ante todo un perma-
nente intercambio de energía con el entorno, habrá dejado de ser viable.
Esta conclusión de la termodinámica se conoce como la muerte térmica del universo, y fue
la primera predicción apocalíptica que se formuló respecto al futuro de la vida a partir de
las leyes de la física. Un importante corolario que se deriva de la anterior conclusión es que
si el universo fuera infinito en el tiempo y no hubiera tenido un origen, la vida ya se habría
extinguido.
Física conceptual
Capítulo 15: Cosmología: el origen y el fin
217
Física conceptual
Capítulo 15: Cosmología: el origen y el fin
disciplina que recibió el nombre de física estadística. Boltzmann definió la entropía, función
que permite predecir la evolución en el tiempo de los sistemas termodinámicos, como una
cantidad proporcional al número W con los parámetros termodinámicos del sistema, tales
como la presión, el volumen y la temperatura, de acuerdo con la expresión
S = k ln W (15.2) 219
La definición de entropía en términos de los posibles estados en los que se podría encontrar
un sistema termodinámico permite expresar la segunda ley de la termodinámica en térmi-
nos de probabilidad (figura 15.8). Si se define la probabilidad Pi de que el sistema se en-
cuentre en el estado i como la relación entre el número de modos ni compatibles con dicho
estado y el número total de modos N en los que se puede encontrar el sistema, entonces
Pi será igual a
Pi = ni/N (15.3)
220
Figura 15.8. Dados y probabilidad.
A medida que continúa el proceso de expansión la entropía aumenta hacia su máximo valor
posible, el infinito (figura 15.9). Pero a medida que el volumen aumenta, la densidad de la
materia tiende a cero, y en el estado final solo quedará un recipiente vacío, que ha alcanza-
do el máximo valor de la entropía.
Física conceptual
Capítulo 15: Cosmología: el origen y el fin
Resumen
Para algunos podría ser un consuelo pensar que todavía deben transcurrir muchos
miles de millones de años antes de que la temperatura del universo descienda
hasta el cero absoluto, o, a lo que podríamos llamar, el estado final, denominación 221
tan arbitraria y convencional como la de origen que le asignamos al Big Bang. En
comparación con nuestros insignificantes periodos vitales, y el de la mayoría de
las especies que han habitado este planeta y ya se han extinguido, podemos con-
siderar que el universo, tal como luce en la actualidad, es, prácticamente, eterno.
Cuestionario
1. Suponga que en un aula donde hay 50 sillas numeradas y debidamente asigna-
das se sientan 50 estudiantes, cada uno en la silla que le corresponde. Suponga
que este es un sistema termodinámico y asigne un valor de su entropía.
2. Luego de seis meses de recibir clase en el mismo salón, los estudiantes del caso
anterior toman la silla que está disponible y a su gusto. Calcule la probabilidad de
que los estudiantes ocupen las sillas que se les asignaron al inicio del semestre.
3. Estime la entropía del sistema en el caso más probable de la pregunta anterior.
4. ¿Cómo se manifiesta la segunda ley de la termodinámica en la evolución del
sistema descrito en la anterior pregunta?
5. ¿Qué relación existe entre la segunda ley de la termodinámica y la dirección del
tiempo?
6. Considerando que todos los fenómenos físicos son, en último término, una in-
mensa colección de fenómenos reversibles, ¿qué sentido tiene hablar de la irre-
versibilidad de los fenómenos termodinámicos?
7. Considere un sistema conformado por una gran cantidad de subsistemas, cada
uno de los cuales se encuentra a diferente temperatura. Luego de transcurrir un
tiempo considerable se alcanza el equilibrio térmico. ¿Qué se puede decir sobre
la entropía del sistema?
8. ¿Qué se puede decir sobre la energía total del sistema del punto anterior?
9. ¿Cuál es la capacidad de realizar trabajo a partir de la energía almacenada en el
sistema al que se refiere la pregunta anterior?
10. Considere un sistema conformado por una caja cúbica de paredes rígidas que
contiene N partículas indeformables de masa m, en movimiento aleatorio, y en-
222 cuentre una expresión que relacione la presión, el volumen y la energía del sis-
tema.
11. Compare la expresión encontrada en la pregunta anterior con la ecuación de los
gases ideales y elabore una interpretación estadística del concepto temperatura.
12. ¿Cómo se modificaría la interpretación del concepto temperatura de la pregunta
anterior si los corpúsculos tuvieran estructura y elasticidad?
13. Suponga que el número de corpúsculos en la caja del problema anterior es tal
que la caja está llena. ¿Cuál sería la entropía del sistema?
14. ¿Cómo se puede interpretar en este caso un aumento de la temperatura del
sistema?
15. Si las paredes de la caja en cuestión tienen algún grado de elasticidad, ¿qué
sucederá si se produce un aumento significativo de la temperatura?
16. Suponga que las paredes de la caja inician un proceso de dilatación indefinido y
explique cuál será el máximo valor que puede alcanzar la entropía del sistema, y
bajo qué condiciones.
Bibliografía
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Ferreira, P. (2014). The perfect theory. Kindle Edition.
Sagan, C. (1992). Cosmos. Planeta.
Singh, J. (1979). Teorías de la cosmología moderna. Alianza Editorial.
Weinberg, S. (1978). Los tres primeros minutos del universo. Alianza Universidad.
Física conceptual
Capítulo 16 Materia y radiación
Introducción
Habrían de pasar más de veinte siglos luego de que Leucipo y Demócrito expusieran sus teorías
sobre la composición de la materia, antes de que sus ideas fueran tenidas nuevamente en cuenta a
principios del siglo XIX como resultado de los avances realizados en tres disciplinas estrechamente
entrelazadas: el electromagnetismo, la química y la termodinámica.
Durante siglos la práctica de la química fue una actividad empírica más cercana al esoterismo que
a las ciencias naturales, y tan solo asumió el carácter de ciencia moderna luego de que a finales
del siglo XVIII Antoine de Lavoisier (figura 16.1), uno de los padres del sistema métrico decimal,
estableciera el principio de conservación de la materia como guía certera para el estudio de las
transformaciones de los materiales e impusiera el uso de la balanza de precisión para controlar
los procesos, y de que John Dalton propusiera el modelo atómico fundamentado en la ley de las
proporciones múltiples.
De acuerdo con la ley establecida por Lavoisier, en toda reacción química la cantidad de materia
permanece constante a lo largo del proceso. En consecuencia, se puede decir que la materia ni se
crea ni se destruye sino que se transforma, tal como afirma una de las expresiones más conocidas
de la ley de conservación de la materia.
Capítulo 16 : Materia y radiación
Por su parte, la ley de Dalton estableció que cuando una cantidad fija de un elemento re-
acciona con diferentes cantidades de otro elemento para formar diversos compuestos, los
pesos del segundo elemento se relacionan entre sí en proporciones sencillas de números
enteros. Así, por ejemplo, una determinada cantidad de hidrógeno puede reaccionar con
cierta cantidad de oxígeno para formar agua común, o con el doble de la misma cantidad de
224 oxígeno para formar agua oxigenada.
A partir de esta ley se puede inferir que la mínima cantidad de un material capaz de producir
determinada reacción corresponde a un número entero de átomos de dicho material. La
adopción de este presupuesto contribuyó al rápido avance de la química en el siglo XIX,
cuyos significativos logros se vieron reflejados en la elaboración de la tabla periódica para
la clasificación de los elementos, cuyo número superaba, por mucho, los cuatro elementos
de la antigüedad, que, a la luz de los nuevos descubrimientos, ya no se podían considerar
elementales.
Física conceptual
Capítulo 16: Materia y radiación
La invención de la batería por Volta en 1800 fue el resultado de una serie de experimentos 225
y deducciones que se iniciaron con la observación hecha por Luigi Galvani de que una pata
de rana que descansaba sobre una plancha metálica experimentaba una súbita contracción
al ser pinchada con un cuchillo. Galvani creyó haber descubierto la fuerza vital con la que
soñaban muchos de los investigadores de la época, pero fue Volta quien dedujo, correc-
tamente, que el comportamiento del músculo del animal se debía al paso de una corriente
eléctrica.
Volta demostró que si en lugar de una pata de rana se utiliza un pedazo de cartón empapa-
do en solución salina para poner en contacto dos metales diferentes, también se generaba
una corriente eléctrica. Entonces quedó claro que los fluidos presentes en la pata de la
rana, al igual que la solución salina, se comportan como un medio conductor que se deno-
mina electrolito.
Puesto que las corrientes generadas de esta manera son de muy baja intensidad, Volta
apiló una sucesión alternada de cartones empapados en una solución de ácido sulfúrico
entre placas metálicas de cobre y zinc para obtener corrientes apreciables cuya intensidad
dependía del número total de láminas apiladas. De la peculiar disposición de los elementos
que conforman el dispositivo se deriva el nombre de pila (figura 16.3).
16.2 Electrólisis
Cuando en un medio líquido se introducen un par de electrodos conectados a los polos de
una pila voltaica, los elementos de un compuesto disuelto en el medio se separan gracias a
un proceso que recibe el nombre de electrólisis (figura 16.4). La electrólisis es una poderosa
226 herramienta para el estudio de la composición de los materiales y constituye un método
menos destructivo que la calcinación de las sustancias, o el ataque con ácidos y álcalis,
que eran anteriormente utilizados para separar e identificar los elementos de un compuesto.
El uso sistemático de la electrólisis para descomponer y analizar las soluciones condujo
al descubrimiento de un importante número de nuevos elementos a lo largo del siglo XIX.
Hidrógeno _
Oxígeno +
De acuerdo con lo anterior, los metales se clasifican como conductores, y ciertos materiales
como las resinas, las cerámicas y las maderas se denominan dieléctricos o aislantes. Pero
Física conceptual
Capítulo 16: Materia y radiación
dado que no todos los metales son igualmente buenos conductores, ni todos los dieléctricos
son igualmente buenos aislantes, la determinación precisa de su conductividad permite
caracterizar diferentes materiales y diferenciarlos con precisión.
Queda claro, entonces, que el estudio del comportamiento eléctrico de cuerpos sólidos y de
soluciones líquidas mediante la electricidad permite determinar, en buena medida, la com- 227
posición química y las propiedades eléctricas de los mismos. De igual manera, esta técnica
aplicada al estudio de los gases revela importante información no solo sobre la estructura y
las características de estos sino sobre la propia electricidad.
Con el fin de determinar las características eléctricas de los gases es necesario introducir
en un recipiente sellado una muestra de la sustancia que se quiere analizar y someterla a
una fuente de potencia eléctrica hasta lograr que circule una corriente, para lo cual el reci-
piente, que por lo general es un tubo o una ampolla de vidrio alargada, debe contar con un
par de electrodos en sus extremos. Un dispositivo con estas características fue diseñado
en el siglo XIX por William Crookes y para su operación es necesario aplicar diferencias de
potencial de varios miles de voltios.
Una de los fenómenos más notables que se observan cuando circula la corriente a través
del tubo es un resplandor característico en uno de los extremos del tubo, conocido como
fluorescencia. A pesar de que la fluorescencia era un fenómeno bien conocido en materiales
sólidos, nunca había sido observado en gases, o, al menos, identificado como tal, puesto
que las auroras boreales y australes también son manifestaciones del mismo fenómeno.
Pero aún más interesantes que la fluorescencia inducida por la corriente eléctrica en el gas
encerrado en un tubo de vidrio, resultaron los trazos dejados por la corriente eléctrica al
pasar por un gas enrarecido, es decir, un gas a muy baja presión. Luego de determinar que
la corriente responsable de las trazas en el gas provenía del cátodo, o electrodo negativo,
el agente responsable del fenómeno recibió el nombre de “rayos catódicos” (figura 16.5).
Cátodo
Ánodo
Alto voltaje
Fuente
de alimentación
16.4 Electrones
En su momento la naturaleza de los rayos catódicos fue objeto de un agitado debate. Algu-
nos físicos, como el alemán Philip Lenard, concluyeron que esta radiación era de carácter
ondulatorio, luego de observar que los rayos catódicos podían atravesar una delgada ven-
tana de aluminio colocada en el extremo cercano al ánodo en el tubo de descarga; otros,
como el inglés J. J. Thomson, asumían que se trataba de un haz de corpúsculos, puesto
que experimentaban una deflexión al ser sometidos a la influencia de campos eléctricos y
magnéticos. Finalmente, el asunto se resolvió a favor de los defensores del modelo cor-
puscular, gracias a los cuidadosos experimentos realizados por Thomson en el Laboratorio
Cavendish de la universidad de Cambridge. Sin embargo, un par de décadas más tarde la
cuestión volvería a ser objeto de un intenso debate con el advenimiento de la mecánica
cuántica.
Desde la época de Galileo la discusión sobre la posible existencia del vacío había sido
objeto de fuertes controversias, sobre todo por el rechazo que suscitaba esta idea entre
los filósofos escolásticos afectos a la doctrina aristotélica del horror al vacío y a la supues-
ta existencia de un medio continuo que todo lo llenaba. Sin embargo, los experimentos
relacionados con la presión atmosférica realizados por Evangelista Torricelli, un discípulo
de Galileo, confrontaban al experimentador con situaciones cuyas posibles explicaciones
se inclinaban por la hipótesis del vacío. En efecto, si se introduce el extremo abierto de un
tubo de cristal de 1 m de longitud, lleno de mercurio, en un recipiente que contiene el mismo
material, y se sostiene el tubo en posición vertical, la columna desciende hasta alcanzar una
altura de unos 76 cm, dejando en la parte superior un espacio en el cual aparentemente no
hay nada.
Los métodos utilizados por Torricelli constituyeron un importante aporte a las técnicas de
generación de vacío por bombeo mediante la utilización de mercurio. Doscientos años más
tarde, el refinamiento de las prácticas de Torricelli permitió construir los tubos de vacío y, en
particular, el tubo de Crookes, que le sirvió a J. J. Thomson (figura 16.6) para demostrar la
existencia de los electrones en 1897.
Física conceptual
Capítulo 16: Materia y radiación
229
Thomson demostró el carácter corpuscular de los rayos catódicos luego de medir la relación
entre la carga y la masa de los supuestos corpúsculos mediante la deflexión del haz sobre
el cual se aplicaron campos eléctricos y magnéticos en el vacío (figura 16.7). Una década
más tarde Robert Millikan midió con precisión la carga del electrón gracias a lo cual fue
posible establecer que la masa de esta partícula es unas dos mil veces más pequeña que
la de un átomo de hidrógeno, el más liviano de todos los elementos.
Por una paradoja de la historia, antes de que la existencia de los átomos −supuestos últi-
mos componentes de la materia− fuera un hecho comprobado y aceptado por la comunidad
científica, fue descubierto el electrón, que es una partícula subatómica.
Cuando unos años después del descubrimiento del electrón se pudo establecer el modelo
atómico, gracias a los trabajos de Einstein sobre el movimiento browniano y a los cálculos
y mediciones que realizó Jean Perrin sobre el tamaño de los átomos y el número de Avo-
gadro, ya se sabía que estos no son los constituyentes más elementales de la materia. En
estricto sentido, los componentes últimos de los elementos químicos no son los átomos
porque son divisibles.
230
Pero en contra de lo que se podría pensar, el descubrimiento del electrón no trajo aparejado
el del protón. Pasaron más de veinte años, luego de que Thomson descubriera el electrón,
antes de que Rutherford diera cuenta de la existencia del protón como resultado de investi-
gaciones subsecuentes al descubrimiento del núcleo atómico.
En 1928 Paul Dirac propuso la célebre ecuación que lleva su nombre, y dio cuenta del
comportamiento de los electrones sujetos a las restricciones que impone la teoría de la re-
latividad y a los postulados de la mecánica cuántica. Un sorprendente resultado que arroja
el examen de esta ecuación es la existencia de una partícula idéntica al electrón, pero de
carga eléctrica positiva. Cuatro años más tarde, el físico Carl Anderson descubrió eviden-
cias experimentales de la existencia de la partícula predicha por la ecuación de Dirac, luego
de estudiar trazos de trayectorias de partículas provenientes de la radiación cósmica. La
nueva partícula, denominada positrón, es la manifestación de una simetría fundamental de
la naturaleza por la cual a toda partícula elemental le corresponde otra partícula idéntica
pero de carga contraria que, por razones puramente técnicas, se denomina antipartícula
(figura 16.8).
Física conceptual
Capítulo 16: Materia y radiación
16.5 Radiación
Resulta sorprendente comprobar que los procedimientos que utiliza la física para estudiar
la estructura de la materia son, en el fondo, de una gran sencillez. En esencia, consisten
en introducir una sonda lo suficientemente fina en el interior de los cuerpos para dar cuenta
de su estructura. Los descubrimientos de los rayos X y de la radiactividad, ocurridos con 231
poca diferencia de tiempo a finales del siglo XIX, proveyeron a los investigadores con herra-
mientas de las características adecuadas para examinar el interior de átomos y moléculas.
Es muy notable que ambos descubrimientos, el primero realizado por Wilhelm Roentgen
en 1895 y el segundo por Henri Becquerel en 1896, hayan sido realizados en el marco de
investigaciones sobre la fluorescencia, fenómeno que, como ya ha sido mencionado, se
manifiesta de manera notable en tubos de rayos catódicos, como los que hicieron posible
el descubrimiento del electrón.
En primer lugar, Roentgen descubrió que cuando se produce una descarga eléctrica de alto
voltaje en un tubo de rayos catódicos se emite una radiación capaz de atravesar objetos
opacos y de producir la fluorescencia en materiales dispuestos a varios metros de distancia
de la fuente de emisión. Para verificar su descubrimiento, Roentgen expuso la mano de su
esposa a la recién descubierta radiación y registró en una placa fotográfica la imagen de
sus huesos. Se había tomado la primera radiografía (figura 16.9).
Dado el desconocimiento que se tenía del origen de esta misteriosa radiación, se le dio el
nombre de rayos X. Posteriores investigaciones demostraron que se trataba de radiación
electromagnética de una longitud de onda del orden de una diezmillonésima de milímetro,
que corresponde a las dimensiones estimadas para los átomos. Por su descubrimiento,
Por su parte, Henri Becquerel (figura 16.10) descubrió la radiactividad mientras trataba
de determinar si la exposición de cierto tipo de material de uranio al Sol era la causa de
su posterior luminiscencia. Becquerel observó que una muestra de mineral de uranio, que
232 había sido guardada en un cajón sobre una placa fotográfica, había impresionado la placa
a pesar de que esta estaba debidamente protegida. Subsecuentes investigaciones en torno
al descubrimiento de Becquerel permitieron identificar tres tipos de radiación con carga
eléctrica positiva, negativa o neutra, que recibieron el nombre de alfa, beta y gamma, res-
pectivamente.
La radiación alfa está compuesta por partículas con el doble de la carga eléctrica que un ion
de hidrógeno y unas cuatro veces su masa. Posteriormente se descubrió que se trataba de
átomos de helio doblemente ionizados. La radiación beta, por su parte, demostró tener el
mismo carácter de los electrones que Thomson había descubierto en los rayos catódicos.
Por último, la radiación gamma es radiación electromagnética de una longitud de onda aún
menor que la de los rayos X y, en consecuencia, con mayor capacidad de penetración en
los medios materiales.
Física conceptual
Capítulo 16: Materia y radiación
Resumen
El establecimiento de la química como una ciencia moderna, más allá de la prác-
tica empírica que la había caracterizado en ápocas anteriores, fue posible gracias
a la suma de los aportes de personajes como Lavoisier, Avogadro y Dalton, pero 233
fue la pila de Volta lo que brindó la capacidad operativa para comprender las re-
acciones químicas como combinación y disociación de los diferentes elementos
mediante la acción de la electricidad. El posterior descubrimiento del electrón, que
es una partícula subatómica, dio paso a la elaboración de modelos cada vez más
comprensivos de la estructura de la materia, que se fue refinando de manera gra-
dual tan pronto fue posible disponer de los rayos X, gamma y beta para sondear el
interior más recóndito de los átomos.
Radiación
Cuestionario
1. ¿Por qué tardó más de un siglo la aceptación del modelo atómico por parte de la
comunidad científica después de que Dalton realizara su propuesta?
2. ¿Por qué se puede decir que la antimateria es materia?
3. Discuta por qué la aceptación del modelo cinético corpuscular implica la acep-
tación de la supuesta existencia de corpúsculos microscópicos e invisibles que
componen la materia.
4. ¿Acaso pierde autoridad la física al renunciar a construir sus teorías exclusiva-
mente con objetos que se puedan ver?
5. ¿Qué significa, en último término, ver?
6. ¿Por qué son útiles como herramientas para conocer la estructura de la materia
los rayos X y las radiaciones emitidas por materiales como el radio, el uranio o el
polonio?
7. ¿A qué se debe que los rayos X puedan atravesar la materia ordinaria, y la luz
visible no?
8. ¿Qué característica de la radiación alfa permite, al igual que los rayos X, estudiar
la estructura de la materia?
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloomfield, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Física conceptual
Capítulo 17 La estructura de la materia
Introducción
Luego del descubrimiento de los electrones, que constituyó un fuerte respaldo a la teoría atómica,
Thomson supuso que las unidades básicas de la materia estaban constituidas por esferas de carga
positiva a las cuales correspondía casi toda la masa del átomo, en las que se encontraban embe-
bidos los electrones en número suficiente para hacer que el átomo fuera eléctricamente neutro. Sin
embargo, este modelo, que fue conocido como el buñuelo con pasas, fue descartado para dar paso
a uno nuevo que incorporaba un importante descubrimiento realizado gracias a la utilización de la
recientemente descubierta radiación alfa en el estudio de la estructura de la materia.
17.1 El núcleo
Durante la realización de una serie de experimentos propuestos por Ernest Rutherford (figura 17.1)
en los que una lámina de oro muy delgada era bombardeada con partículas alfa, se observó, con
gran sorpresa, que algunas pocas partículas experimentaban una fuerte desviación, y que otras,
todavía más pocas, llegaban incluso a rebotar. Luego de analizar la situación, Rutherford llegó a la
conclusión de que casi toda la masa del átomo se encuentra concentrada en una esfera de carga
eléctrica positiva, de dimensiones muy pequeñas comparadas con las del átomo, localizada en su
centro y rodeada por un enjambre de electrones.
El radio del núcleo resultó ser unas cien mil veces menor que el radio atómico, debido a lo cual el
átomo es una estructura prácticamente vacía puesto que casi toda su masa se concentra en una
milmillonésima de millonésima parte del volumen que delimitan las órbitas de sus electrones, que
son las que determinan el tamaño del átomo.
Tomando en cuenta lo anterior, habría que matizar el aforismo de los atomistas griegos
según el cual somos átomos y vacío, advirtiendo que somos más vacío que cualquier otra
cosa.
El protón debe su nombre a la idea propuesta por William Prout a principios del siglo XIX
según la cual todos los átomos serían agregados de átomos de hidrógeno, de modo que
este debería ser el elemento proteico o primordial. La propuesta de Prout se sustentaba en
que las relaciones de peso de algunos átomos respecto al hidrógeno eran números enteros,
hasta donde permitía establecer el error experimental de los datos disponibles en la época.
De este modo, si se asigna la unidad a la masa al hidrógeno, la masa del helio sería 4, la
del carbono 12 y la del oxígeno 16. Pero mediciones más detalladas, como la de la masa del
cloro, que resultó ser 35.5, dieron al traste con la idea. La cuestión no habría de resolverse
hasta principios del siglo XX luego del descubrimiento de los isótopos.
Sin embargo, el modelo de átomo nuclear (figura 17.2) adolecía de serias inconsistencias
teóricas respecto a la estabilidad de los electrones, que no se podía resolver en el marco
de la física clásica. De acuerdo con la electrodinámica de Maxwell, toda carga sujeta a una
fuerza, y que experimente una aceleración, debe radiar energía en forma de ondas electro-
magnéticas, en un proceso denominado radiación de sincrotrón. De hecho, el mecanismo
que se utiliza para emitir una señal de radio desde la antena de una emisora consiste en
someter la antena a una diferencia de potencial oscilante, que genera corrientes eléctricas
que alternan su dirección con la misma frecuencia que el potencial, emitiendo ondas elec-
tromagnéticas. De igual forma, un electrón que gira alrededor de un núcleo bajo la influencia
Física conceptual
Capítulo 17: La estructura de la materia
de la fuerza de Coulomb debería perder su energía cinética y caer al núcleo, cosa que no
sucede, para fortuna nuestra.
L = nh/2π (17.1)
Energía de órbitas
en aumento
n=3
n=2
n=1
Mediante este sencillo modelo, conformado por un único protón en el núcleo y un electrón
orbitando a su alrededor, Bohr pudo dar cuenta teóricamente del espectro del hidrógeno
con un buen grado de aproximación, basado en el supuesto de que la emisión de radiación
por parte de un átomo es el resultado de la transición de un electrón de una órbita de mayor
energía asociada al número ni a una de menor energía asociada al número nf. Gracias a
esto le fue posible reproducir la expresión matemática que describe la longitud de onda, λ,
de la radiación espectral del átomo de hidrógeno (ecuación 17.2), que había sido estableci-
da de manera empírica por Johan Balmer en el siglo XIX:
El conjunto de todos los fotones que puede emitir un átomo como consecuencia de las
transiciones de los electrones entre órbitas permitidas constituye su espectro, que, por ser
individual y característico de cada átomo, lo identifica de manera inequívoca (figura 17.4).
Durante el siglo XIX la espectroscopía empírica fue un valioso auxiliar de la química analíti-
ca. Luego de contar con el fundamento teórico de la mecánica cuántica, la espectroscopía
hizo aportes todavía mayores para el desarrollo de la química y de todas las ramas de la
física atómica.
Modelos atómicos
17.3 El neutrón
En vista de que el tamaño y las propiedades químicas del átomo dependen de sus electro-
nes orbitales, pero que el número de estos es menor que el número de supuestos protones
necesarios para dar cuenta de la masa atómica, y puesto que en su estado normal el átomo
es eléctricamente neutro, durante algún tiempo se pensó que en el núcleo se encontraba un
cierto número de electrones; sin embargo, una serie de inconsistencias relacionadas con el
momento angular nuclear de algunos átomos, y con la imposibilidad teórica de que los elec-
trones permanecieran en un espacio de dimensiones nucleares, condujo a postular la exis-
tencia de una nueva partícula, de masa semejante a la del protón pero sin carga eléctrica,
que diera cuenta de la masa y la estructura nuclear. Finalmente, en 1932, James Chadwick
descubrió una partícula con las características mencionadas y le dio el nombre de neutrón.
Física conceptual
Capítulo 17: La estructura de la materia
Gracias al neutrón, junto con el protón y el electrón, fue posible reconstruir toda la tabla
periódica en términos de las estructuras que, sujetas a ciertas condiciones de estabilidad,
se pueden conformar con tan solo estos tres tipos de partículas. En consecuencia, resulta
válido suponer que el núcleo está compuesto por un cierto número de protones, que definen
el número atómico y la identidad del átomo, y un cierto número de neutrones, que comple- 239
tan la masa del átomo, en tanto que la reactividad química depende de los electrones.
Gracias al neutrón fue posible resolver la incógnita del aparente valor fraccional de las ma-
sas atómicas de algunos elementos, que no se podía expresar como un número entero de
veces la masa del protón debido a la existencia de los isótopos. El nombre isótopo alude al
hecho de que un mismo elemento, cuya posición en la tabla periódica depende del número
de protones que alberga en el núcleo, puede presentarse con diferentes pesos atómicos
como resultado del diferente número de neutrones que posee, sin que esta situación altere
sus propiedades químicas. Así, el peso atómico del cloro que se encuentra en la naturaleza
es 35.5 unidades de masa atómica, u, que resultan de la presencia de un 75% de cloro de
35 u, 35Cl, y un 25% de cloro de 37 u, 37Cl.
La unidad de masa atómica, u, ha sido definida de tal manera que al isótopo más liviano del
carbono, el 12C, le corresponde una masa de 12 u.
17.4 Moléculas
Cuando dos átomos se acercan lo suficiente entre sí pueden intercambiar o compartir los
electrones más externos, estableciendo ligaduras que forman estructuras compuestas de-
nominadas moléculas (figura 17.5). Las ligaduras interatómicas que dan lugar a la forma-
ción de moléculas se caracterizan por la cantidad de energía necesaria para que se reali-
cen, o por la cantidad de energía necesaria para que se rompan, lo cual está directamente
asociado a la estabilidad de las estructuras que se forman.
240
Los agregados de moléculas pueden formar tejidos, y estos, a su vez, órganos, que com-
ponen los organismos en los que se manifiesta ese peculiar estado de la materia que se
denomina vida. La precariedad de las estructuras vivientes está directamente relacionada
con su alto grado de complejidad y con la fragilidad de los enlaces que participan en la
constitución de las moléculas que almacenan el código genético, que son los más débiles
entre todos los que se pueden constituir (figura 17.6).
G T A C
C A T G
ADN
Somos, pues, un agregado precario de protones, neutrones y electrones, pero con con-
ciencia.
La pregunta que surge es: ¿qué determina la estabilidad de un sistema físico, cualquiera
Física conceptual
Capítulo 17: La estructura de la materia
sea su dimensión y manifestación? Sin duda, se trata de una pregunta ambiciosa que no
admite una respuesta sencilla, pero gracias al estudio de las interacciones fundamentales
se pueden obtener claves para elaborar una respuesta coherente.
En términos estructurales, los seres vivos somos agregados de átomos que conforman
moléculas, de las cuales se forman tejidos y órganos, que dan lugar a sistemas relativa- 241
mente estables que interaccionan con el entorno y participan en ciclos permanentes de
crecimiento, reproducción y decadencia. Una de las características más notables de estos
ciclos es el cambio de las formas y la persistencia de la materia. Pero no es la cantidad de
materia lo único que permanece constante a través de los cambios. Un examen minucioso
de los procesos físicos revela la existencia de magnitudes como la carga, el momentum y la
energía que, además de la materia, satisfacen leyes de conservación de validez universal,
en las cuales se fundamentan los modelos y las teorías que hacen posible el análisis de los
fenómenos naturales.
En su inmensa mayoría, los fenómenos que se aprecian a nuestro alrededor son manifes-
taciones de la interacción electromagnética, en los que la extraordinaria movilidad e inter-
cambiabilidad de dos partículas elementales, el electrón y el fotón, dan cuenta de casi todos
los procesos. La vida es una manifestación de una continua reconversión molecular, que
se sustenta en la estabilidad de los átomos y en su capacidad de realizar un permanente
intercambio de electrones, a la vez que absorben y liberan energía en forma de fotones.
En algún momento, cuando solo se conocían el electrón y el protón, se pensó que los elec-
trones podrían servir de ligadura entre los protones, de manera similar al enlace que existe
entre los dos átomos que forman la molécula de hidrógeno ionizado, H2+, pero diversas con-
Una vez descartado el electrón como supuesto pegamento de los protones nucleares, fue
necesario proponer la existencia de algún tipo de fuerza de mayor intensidad que la fuerza
de Coulomb, que, además, pudiera actuar sobre una partícula sin carga eléctrica como el
neutrón, y fue así como apareció en escena la denominada fuerza nuclear fuerte, por ser
de mayor intensidad que la fuerza electromagnética, y para distinguirla de la otra interac-
ción nuclear que se denomina fuerza, o interacción, débil, responsable de los decaimientos
radiactivos.
Resumen
Gracias a la posibilidad de disponer de las sondas finas que aportó el descubri-
miento de la radiactividad para el estudio de la estructura de la materia se fue
configurando una nueva visión del mundo atómico y de sus componentes subató-
micos mediante la introducción de sorprendentes y novedosas propuestas respec-
to al comportamiento de los sistemas físicos más elementales, lo cual condujo a
nuevos descubrimientos y a la postulación de interacciones hasta entonces des-
conocidas, que dan cuenta de la estabilidad y de la inestabilidad de la materia y de
sus estructuras fundamentales.
Física conceptual
Capítulo 17: La estructura de la materia
Cuestionario
1. ¿Por qué fracasó la propuesta de Prout de considerar que todos los átomos son
agregados del hidrógeno, que es el átomo más liviano?
2. El descubrimiento del núcleo atómico fue un gran avance en el conocimiento de 243
la estructura del átomo, pero también supuso renunciar a la teoría electromag-
nética para explicar la estabilidad del sistema. ¿Significa lo anterior que la teoría
de Maxwell es incorrecta?
3. ¿Qué porcentaje de la masa de un átomo corresponde a sus partículas de carga
negativa?
4. ¿Por qué fue necesario suponer ad hoc la existencia de las supuestas órbitas
permitidas? (¿qué quiere decir ad hoc?).
5. ¿Por qué resulta novedosa, e, incluso, ilógica la propuesta de Bohr de la existen-
cia de “órbitas permitidas” en el átomo de hidrógeno?
6. ¿Qué relación existe entre la existencia de órbitas permitidas y el carácter discre-
to de los espectros que emiten los diferentes materiales?
7. ¿Qué es espectroscopía empírica?
8. ¿Por qué se puede estar seguro de que no hay dos átomos de elementos dife-
rentes que tengan el mismo espectro?
9. ¿Cuántas partículas elementales son necesarias para conformar un ser huma-
no?
10. ¿Cuál es el mínimo número de átomos que se necesitan para conformar una
estructura molecular que se pueda considerar viva?
11. ¿Cuál es la interacción física que juega un papel más preponderante en la exis-
tencia de la vida?
12. ¿Qué papel juegan las demás interacciones en la existencia de la vida?
13. ¿Por qué no es posible que un electrón permanezca en el núcleo de un átomo
durante suficiente tiempo como para hacer parte de su estructura?
14. ¿Por qué fue necesario postular la interacción nuclear fuerte?
15. Compare la energía de interacción de un núcleo con un electrón, y del mismo
núcleo con un protón, para hacerse a una idea de la magnitud de la energía de
la interacción fuerte.
Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloomfield, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
244 Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.
Física conceptual
Capítulo 18 Partículas
Introducción
De acuerdo con la ecuación elaborada por Paul Dirac en 1928 para dar cuenta del comportamiento
del electrón según los principios de la mecánica cuántica y la teoría de la relatividad, existe una
simetría fundamental de la naturaleza que se manifiesta en los procesos de creación y aniquilación
de partículas elementales, y sugiere la existencia de una forma de la materia compuesta exclu-
sivamente de antipartículas denominada antimateria. Sin embargo, es conveniente anotar que la
“antimateria” es tan materia como la materia ordinaria, puesto que está sujeta a las mismas leyes
físicas. En 1932, mientras realizaba estudios sobre la radiación cósmica, el físico Carl Anderson
verificó la existencia de la antipartícula del electrón predicha por la ecuación de Dirac. La nueva
partícula recibió el nombre de positrón.
Pero el análisis riguroso del decaimiento beta reveló una aparente violación de la conserva-
ción de la energía y del momento angular, lo que llevó a Wolfgang Pauli en 1930 a plantear
la existencia de una partícula inobservada hasta entonces, que diera cuenta de las diferen-
cias de masa, energía y momento angular observadas en el proceso. La partícula hipotética
debía tener una masa mucho menor que la masa del protón y carga eléctrica nula, por cuya
razón interactúa muy débilmente con la materia. Inicialmente Pauli la llamó neutrón, pero en
vista de que un par de años más tarde Chadwick le asignó el nombre de neutrón al nucleón
que junto con el protón participa en la conformación del núcleo, Enrico Fermi bautizó a la
nueva partícula con el nombre de neutrino, aunque, en estricto sentido, la partícula hipotéti-
ca que participa en el decaimiento beta no es un neutrino sino un antineutrino. Sin embargo,
existe otro decaimiento radiactivo denominado beta positivo en el que el núcleo emite un
positrón, la antipartícula del electrón predicha por la ecuación de Dirac, acompañado por la
emisión de un neutrino.
La aniquilación de los positrones emitidos por el decaimiento beta positivo con los electro-
Física conceptual
Capítulo 18: Partículas
nes que rodean el núcleo radiactivo tiene una aplicación práctica de gran valor en medicina
nuclear que se denomina tomografía por aniquilación de positrones y electrones, o PET, por
su sigla en inglés (figura 18.2).
FDG
OH 247
O
HO
HO
18
F
OH
18.3 Mesones
El estudio de la interacción electromagnética en el marco de la mecánica cuántica dio lugar
a la teoría cuántica de los campos. En el marco de esta teoría la interacción entre dos par-
tículas eléctricamente cargadas se concibe como un intercambio de fotones, que cumplen
el papel de mediadores de la interacción. De manera análoga, el análisis cuántico de la
fuerza nuclear sugiere la existencia de algún tipo de partícula mediadora en la interacción
fuerte entre los nucleones. Acorde con esta línea de pensamiento, en 1935 el físico japonés
Hideki Yukawa predijo la existencia de una partícula de carga eléctrica nula, mediadora de
la interacción fuerte, y estimó que debía tener una masa unas 200 veces mayor que la del
electrón.
La radiación cósmica está compuesta por partículas, principalmente protones, que viajan
a velocidades cercanas a la de la luz. Aunque su origen es incierto, es muy probable que
esta radiación se genere en eventos astronómicos cataclísmicos, como la explosión de las
supernovas. Eventos menos dramáticos como las tormentas solares también generan cho-
rros de partículas que al llegar a la Tierra se manifiestan en fenómenos tan espectaculares
como las auroras boreales y australes (figura 18.3).
Cuando una partícula de alta energía, como las que componen la radiación cósmica, choca
con el núcleo de un átomo su energía se manifiesta en la aparición de un sinnúmero de
nuevas partículas cuya presencia puede ser detectada gracias a los trazos que dejan sus
trayectorias en sistemas especialmente diseñados para este fin, como el material de los
balones meteorológicos, las cámaras de niebla y las cámaras de burbujas (figura 18.4).
Física conceptual
Capítulo 18: Partículas
249
El resultado a corto plazo del uso de los aceleradores fue el descubrimiento de un des-
proporcionado número de nuevas partículas, supuestamente elementales, cuya cantidad
amenazaba con agotar el alfabeto griego para su denominación, hasta el punto en que
alguien comentó, jocosamente, que si en el pasado se le otorgaba el Premio Nobel a quien
descubriera una nueva partícula elemental, ahora se le debería poner una multa.
18.5 Quarks
La proliferación de partículas elementales (figura 18.5) va en contravía con el ideal de sen-
cillez y simplicidad que sirve de guía a la física para la elaboración de teorías y modelos
que den cuenta de los fenómenos de la naturaleza. Por fortuna, un nuevo descubrimiento,
250 esta vez debido al bombardeo de núcleos atómicos con electrones de alta energía, en un
proceso denominado dispersión inelástica profunda, dejó entrever la posibilidad de que los
nucleones, es decir, protones y neutrones, no fueran partículas elementales y que, por el
contrario, estuvieran constituidos por unas partículas aún más fundamentales que recibie-
ron el pintoresco nombre de quarks.
Según la teoría de los quarks, propuesta inicialmente por Murray Gell-Mann y George
Zweig en 1964, los nucleones están compuestos por dos tipos de partículas elementales,
los quarks U y D. A diferencia de las partículas conocidas hasta entonces, cuyas cargas
eléctricas eran nula, igual o contraria a –e, la carga eléctrica del electrón, las nuevas partí-
culas poseen carga eléctrica (2/3)e para el quark U y –(1/3)e para el quark D. De acuerdo
con este esquema el protón estaría compuesto por dos quarks U y un D, y el neutrón por un
U y dos D. De manera correspondiente, el antiprotón está compuesto por dos anti-U y un
anti-D, y el antineutrón por un anti-U y dos anti-D. Por su parte, los piones, mediadores de
la interacción entre nucleones, se componen de parejas quark-antiquark de U y D.
Muy pronto se vio la necesidad de introducir un tercer quark, el S, para dar cuenta de la
estructura y del extraño comportamiento del tiempo de vida media de los mesones k, o
kaones. Adicionalmente, Sheldon Glashow propuso un cuarto quark, el C, con el fin de
Física conceptual
Capítulo 18: Partículas
18.6 Gluones
La pareja de quarks U y D, junto con el electrón, e, y el neutrino electrónico, n0, pertenecen
a una generación de partículas que dan cuenta de la materia de la que estamos formados,
y de la mayor parte de los procesos que percibimos a nuestro alrededor. Esto respondería,
en alguna medida, la pregunta respecto a qué somos.
Con el fin de explicar la interacción entre quarks que hace posible la existencia de estruc-
turas relativamente estables como protones, neutrones y mesones, es necesario introducir
una nueva fuerza que recibe el nombre de color. Como es de esperarse, el color de los
quarks no tiene nada que ver con la acepción corriente de la palabra, excepto porque la
combinación de tres colores, rojo, verde y azul, produce una tonalidad neutra que se deno-
252 mina blanco. Por una peculiaridad del modelo, todas las estructuras compuestas de quarks
deben ser blancas, es decir, no manifiestan un color dominante, lo cual se logra haciendo
que cada uno de los tres quarks que componen un nucleón tenga un color diferente al de
los otros dos. En el caso de las partículas formadas por dos quarks, como los mesones, el
color de cada quark es el complementario del color del otro. En la jerga de las partículas
elementales se dice que la suma de un color y su respectivo anticolor da blanco.
Una notable característica del modelo de quarks es que la fuerza que los une, a diferencia
de las demás fuerzas de la naturaleza, aumenta con la distancia, lo que explica la imposibi-
lidad de observar quarks aislados.
No debe sorprendernos, entonces, que el área de la física que estudia las interacciones
entre los quarks reciba el colorido nombre de cromodinámica cuántica.
El cuadro de partículas que hacen parte del modelo estándar se completa con una última
partícula predicha por la teoría, el bosón de Higgs, descubierto recientemente en el LHC
del CERN, el acelerador de partículas de mayor energía construido hasta el momento. El
Física conceptual
Capítulo 18: Partículas
De igual manera, asignarle volumen y forma esférica a una partícula, para dar cuenta de
magnitudes como el espín como un efecto debido a la rotación de la partícula, conduce a
contradicciones con los presupuestos básicos de la teoría de la relatividad y de la mecánica
cuántica.
En conclusión, el modelo de bolitas que chocan con bolitas o que giran alrededor de otras
bolitas de mayor tamaño no es más que un rezago de nuestra primera aproximación, clási-
ca, macroscópica y gráfica, al mundo que nos rodea.
De acuerdo con la mecánica de Newton, la acción de una fuerza sobre un cuerpo se ma-
nifiesta en la aceleración que experimenta el cuerpo sobre el cual actúa. La masa queda
determinada por la relación entre la fuerza aplicada y la aceleración resultante. En con-
secuencia, el concepto de masa se aplica, de manera exclusiva, a cuerpos que pueden
estar sujetos a fuerzas y, por tanto, experimentar aceleraciones, por lo que los fotones y los
gluones quedan excluidos de esta caracterización.
Según lo anterior, podemos decir que la masa de un electrón es la mitad de la energía nece-
saria para crear una pareja electrón-positrón, dividida por la velocidad de la luz al cuadrado.
Algo similar se puede decir de todas partículas consideradas elementales, e, incluso, de
algunas estructuras más complejas como el protón y el neutrón.
Una característica esencial de las partículas y, en general, de los cuerpos con masa, es que
existe por lo menos un sistema de referencia en el que el cuerpo se encuentra en reposo.
De nuevo, fotones y gluones, que siempre están viajando a la velocidad de la luz, quedan
excluidos.
Pero, independientemente de si se les puede, o no, asignar masa, todas las partículas
contribuyen a la inercia del sistema al que pertenecen por el hecho de tener momento y
energía.
De acuerdo con lo anterior, la inercia, el concepto más fundamental de la física, intuido por
Física conceptual
Capítulo 18: Partículas
Galileo y formulado con precisión por Newton, es la característica más universal que com-
parten las partículas elementales.
Resumen
255
Las sorprendentes predicciones que surgen de las teorías que aspiran a dar cuen-
ta del comportamiento de la materia al nivel más fundamental se ven, con fre-
cuencia, refrendadas por la experimentación, una vez que la tecnología alcanza
los parámetros de potencia y precisión exigidos por la situación. De esta manera,
la insuperable hazaña de reducir los más de cien elementos de la tabla periódica
a diversas configuraciones de tan solo tres partículas elementales, lograda por la
física teórica a principios del siglo XX, busca ser repetida en el caso de las más
de sesenta partículas que, hasta el momento, hacen parte del Modelo Estándar.
Partículas de luz
Cuestionario
1. ¿Dónde se encontraban antes del impacto las partículas que surgen luego de la
colisión de una partícula de alta energía con núcleos de átomos de la atmósfera
terrestre?
2. Se entiende que los rayos X pueden atravesar la materia debido a su corta longi-
tud de onda, pero ¿por qué la luz, que tiene una longitud de onda mucho mayor,
puede atravesar un cristal?
3. ¿Por qué resulta inconveniente la aparición de un alto número de partículas ele-
mentales?
4. ¿Por qué se puede comparar el descubrimiento de la partícula J/y con el cálculo
de Perrin del número de Avogadro?
5. Compare la masa de un protón con las de sus quarks componentes. ¿Cómo se
puede explicar la diferencia de los valores encontrados?
Bibliografía
Baggot, J. Quantum story (2011). Kindle eBook.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jayawardanha, R. (2013). The neutrino hunters. Kindle Edition.
Jeans, J. (1968). Historia de la física. FCE.
Lederman, L. (2004). Symmetry. Prometheus Books.
Randall, L. (2012). Higgs discovery. Kindle eBook.
Física conceptual
Capítulo 19 Comunicaciones
Introducción
La necesidad de las personas de comunicarse y la posibilidad de hacerlo mediante la elaboración de
códigos y el establecimiento de medios y canales de comunicación ha sido, a través de la historia,
una característica definitoria de la humanidad, que en los tiempos de la Revolución Industrial cobró
un auge inusitado y no solo sacó provecho de los desarrollos tecnológicos del momento, sino que
impulsó de manera significativa su evolución, tal como se puede apreciar en el caso del telégrafo y
del ferrocarril, dos innovaciones tecnológicas que, de manera literal, entrelazaron el mundo siguien-
do caminos paralelos.
El elemento central del telégrafo (figura 19.1) es el electroimán, consistente en un núcleo de hierro
rodeado por un embobinado de alambre, que se convierte en un imán cuando circula una corriente
eléctrica, dando la posibilidad de activar algún tipo de dispositivo mecánico, como un yunque que
genera una señal audible al golpear una campana. El timbre que anuncia la presencia de una per-
sona en la puerta de la casa es un ejemplo práctico del uso del telégrafo. Pero, para tener verdadera
utilidad como medio de comunicación, un telégrafo necesita algo más que dar golpes en una cam-
pana, pues es preciso que el golpeteo que indica la presencia de un emisor al otro extremo de la
línea posea una determinada secuencia en la cual sea posible leer un mensaje, es decir, un código.
De los muchos que se ensayaron en los inicios de la telegrafía, el de Samuel Morse resultó ser el de
mayor aceptación por sus características de sencillez y eficiencia. El código Morse consiste en una
secuencia de pulsos de diferente duración denominados puntos y rayas, (. , _), que permite asignar
a cada letra del alfabeto una única representación, de tal manera que cualquier palabra se puede
Capítulo 19: Comunicaciones
representar por la secuencia ordenada de las series de puntos y rayas asignadas a las
letras que la componen. Como un ejemplo de lo anterior se puede mencionar que la señal
internacional de auxilio, S. O. S., en código Morse es (… _ _ _ …).
258
Una vez reconocido el gran potencial del telégrafo como medio de comunicación, fue nece-
sario asumir el reto de extender tanto como fuera posible el alcance de sus señales, lo cual
significó superar una serie de dificultades técnicas que demandaron y propiciaron nuevos
desarrollos tecnológicos y un mayor conocimiento de los fenómenos electromagnéticos.
Con el fin de extender su alcance más allá y de manera más eficiente que el de los medios
convencionales de transmisión de información, tales como el correo a caballos, o los men-
sajes enviados mediante semáforos de banderas, el telégrafo debió resolver el problema
de la caída de la intensidad de la señal asociada al aumento de la resistencia eléctrica del
medio de transmisión, que depende de la longitud y del calibre del cable por el que circula la
señal, llegando al punto en que más allá de cierta distancia el sistema resultaba inoperante.
Uno de los recursos a los que se acudió de manera inicial fue al uso de fuentes de energía
de mayor potencia, lo cual, en muchos casos, generaba el recalentamiento y la posterior
ruptura del cable, tal como sucedió con el primer cable submarino que se instaló en el fondo
del océano Atlántico a mediados del siglo XIX para conectar a Inglaterra con Norteamérica,
uno de los más ambiciosos y costosos proyectos de innovación tecnológica de su época.
Los comerciantes que arriesgaron grandes sumas de dinero en la realización de esta em-
presa esperaban recuperar rápidamente su inversión gracias a las ventajas comerciales
que significaba tener información del arribo de sus barcos y mercancías a puerto seguro en
cuestión de horas, y no de semanas o de meses. Por esta razón, luego del fracaso inicial,
la empresa se reinició contando con la colaboración de algunos de los científicos más des-
tacados de la época, como William Thomson, quien más tarde sería conocido como Lord
Kelvin.
Física conceptual
Capítulo 19: Comunicaciones
19.2 El relé
En vista de que el aumento de la potencia de la fuente de alimentación del circuito a través
del cual se envía la señal telegráfica no siempre es una solución adecuada al problema del
decaimiento de la intensidad de la señal, se diseñó un ingenioso mecanismo de amplifica-
ción cuyo elemento central estaba constituido por un interruptor electromecánico llamado 259
relé (relay), o relevo, consistente en un obturador accionado por un electroimán, que per-
mite, o impide, el paso de una corriente eléctrica de mucha mayor intensidad que aquella
que determina su funcionamiento (figura 19.2). De esta manera la señal que llega al relé
es amplificada y puede continuar su camino a través de una serie de amplificadores hasta
llegar a su destino.
Como anécdota curiosa, se puede anotar que la famosa torre Eiffel, imagen de París y sím-
bolo de Francia, debe su existencia, en buena parte, a la telegrafía inalámbrica. Construida
en 1889 para la Exposición Mundial de París, en el centenario de la Revolución francesa,
debería ser desmontada veinte años más tarde al vencer la concesión que habían recibido
sus constructores para su explotación comercial. Sin embargo, gracias al uso que hicieron
de ella los ingenieros militares que lograron comunicarse con una localidad distante unos
Física conceptual
Capítulo 19: Comunicaciones
Además de cumplir con la función de amplificar señales, y debido a que por sus caracte-
rísticas estructurales los tubos de vacío solo permiten el paso de la corriente eléctrica en
una dirección, estos elementos se comportan como diodos, que son los equivalentes elec-
trónicos de las válvulas de seguridad que solo permiten la circulación de las corrientes de
agua en una dirección para impedir que, por ejemplo, se devuelva el flujo de suministro de
agua a un lugar elevado. Por esta razón los tubos de vacío también reciben el nombre de
válvulas de vacío. Gracias a esta característica, los tubos de vacío se pueden utilizar como
compuertas lógicas, esto es, como elementos de un circuito diseñado de tal manera que las
entradas y salidas de una señal, dependiendo de si se permite o se impide la circulación de
una corriente, corresponden a una operación matemática o a una expresión lógica, lo cual
constituye el elemento fundamental de los sistemas informáticos, que, junto con las tecno-
logías de las comunicaciones, son el soporte operativo de innumerables y vitales procesos
de la sociedad actual.
19.5 CRT
Otra notable aplicación del efecto de emisión termoiónica corresponde a los tubos de rayos
catódicos, o CRT por sus siglas en inglés, que hasta hace muy poco tiempo constituían el
elemento central de los voluminosos reproductores de televisión, que fueron reemplazados
por los monitores de pantalla plana que ahora constituyen el nuevo estándar. Los CRT son
una variación del tubo de rayos catódicos que le permitió a Thomson descubrir la existencia
de los electrones. Unos y otro están constituidos por un filamento que emite electrones por
calentamiento, correspondiente al cátodo, los cuales son acelerados por una diferencia de
potencial y proyectados a una pantalla fluorescente, que permite advertir su llegada. La
Física conceptual
Capítulo 19: Comunicaciones
19.6 Semiconductores
Gracias a la utilización de materiales semiconductores a mediados del siglo XX, fue posible
construir dispositivos de mucho menor tamaño y gasto de energía que reemplazan en una
gran variedad de funciones a los tubos de vacío, lo cual se tradujo en la miniaturización de
los dispositivos electrónicos luego de la invención del transistor, lo que les brindó un mayor
rango de aplicaciones debido a sus características de portabilidad y resistencia. Los semi-
conductores son materiales que en condiciones normales no conducen la electricidad, pero
que se pueden volver conductores debido a la aplicación de campos electromagnéticos o
a un incremento en la temperatura. De manera muy notable el silicio es uno de los mate-
riales más utilizados en la fabricación de dispositivos electrónicos, razón por la cual recibió
su nombre el Valle del Silicio, donde tienen su asiento algunas de las más importantes
empresas de tecnología del mundo. Debido a sus características particulares, mediante la
unión de diferentes tipos de semiconductores es posible construir transistores de tamaño
microscópico y albergar millones de ellos en superficies muy reducidas que se denominan
circuitos integrados, también conocidos como chips (figura 19.7).
264
Figura 19.7. Circuito integrado.
Tomado de: http://bit.ly/2tiR4wi
Una notable aplicación de los materiales semiconductores son los diodos emisores de luz,
o LED por sus siglas en inglés, que en la actualidad constituyen el elemento fundamental
de las pantallas de televisores, teléfonos y computadores. Otro dispositivo tecnológico que
se construye a partir de diodos emisores de luz es el láser de estado sólido, que juega un
papel de gran importancia en los sistemas de registro y lectura de información, además de
un sinnúmero de otras aplicaciones.
Resumen
Una de las más notables consecuencias de la Revolución Industrial, que vino de
la mano con la expansión global de la actividad comercial, fue la necesidad de
disponer de sistemas prácticos, rápidos y eficientes para compartir información
entre los diferentes puntos del planeta, lo cual generó un significativo impulso
a la investigación y a la innovación en la tecnología de las telecomunicaciones,
que a la vez que sacaba provecho de los avances en la teoría electromagnéti-
ca, planteaba nuevos problemas y ambiciosos retos, cuya solución fue posible
gracias al avance en el conocimiento de las estructuras y las propiedades de los
semiconductores.
Comunicación
Física conceptual
Capítulo 19: Comunicaciones
Cuestionario
1. Analice en qué consiste la comunicación y demuestre que tal proceso es imposi-
ble sin el consumo de alguna cantidad de energía.
2. La velocidad de arrastre de los electrones que se desplazan en un conductor me-
tálico como el cobre es del orden de centímetros por segundo. ¿Cómo es posible 265
que una señal de telégrafo llegue a miles de kilómetros de distancia en muy poco
tiempo?
3. ¿Por qué razón no es una buena idea utilizar baterías de alto voltaje y alta poten-
cia para enviar una señal telegráfica a gran distancia mediante un cable eléctri-
co?
4. ¿Qué alternativa se puede considerar para resolver el problema planteado en la
pregunta anterior?
5. Demuestre que la intensidad de una onda electromagnética decae como 1/r2.
6. Teniendo en cuenta el resultado del problema anterior, explique por qué razón se
utilizan con tanta frecuencia antenas parabólicas en los sistemas de comunica-
ciones.
7. ¿Cómo, y por qué, la electricidad estática afecta la transmisión de señales eléc-
tricas?
8. ¿Cuáles son las fuentes de ruido más frecuentes en la transmisión de señales de
radio?
9. Describa el principio de funcionamiento común a todo tipo de amplificador de
señales.
10. ¿Qué tienen en común un relé, un tubo de vacío y un transistor?
11. ¿Por qué se puede decir que un tubo de rayos catódicos es un diodo?
12. ¿Qué consideraciones se deben tener en cuenta para decidir si en un equipo
electrónico se deben utilizar relés, tubos de vacío o transistores?
Bibliografía
Baggot, J. (2011). Quantum story. Kindle eBook.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
266
Física conceptual
Capítulo 20 Información
Introducción
Se podría decir que si el combustible que alimentó la primera Revolución Industrial fue el carbón, y
el de la segunda fue el petróleo, el de la tercera es la información, que se ha convertido en uno de
los bienes más valiosos e indispensables de las sociedades modernas. Por otra parte, alrededor de
los problemas y situaciones que se generan en torno a procesar, transmitir, proteger y disponer la
información surge la demanda de urgentes y novedosas innovaciones tecnológicas que impulsan la
investigación hasta las fronteras del conocimiento científico.
20.1 Comunicaciones
Uno de los efectos más notorios de la Revolución Industrial en la segunda mitad del siglo XIX fue la
rápida interconexión del planeta mediante líneas telegráficas, que facilitaban el envío y la recepción
de información, así como el tendido de vías ferroviarias y el establecimiento de rutas marítimas y
fluviales, recorridas por trenes y barcos movidos por motores de vapor, que permitían movilizar con
inusitada rapidez personas y carga a grandes distancias, hechos que favorecieron la consolidación
de grandes imperios, entre los que sobresale el Británico, y la colonización de las grandes planicies
de Norteamérica, África y Asia, que hasta entonces permanecían casi deshabitadas puesto que
apenas contaban con la presencia de algunas tribus nómadas, integradas por un número muy re-
ducido de aborígenes que se vieron al borde de la extinción después de establecida la dominación
europea, particularmente en América.
El sistema de gobierno de las colonias de ultramar, como eran conocidas en Europa las tierras con-
quistadas, demandaba sistemas muy eficientes de transporte y comunicaciones, lo que incentivó la
realización de importantes desarrollos tecnológicos, fundamentados en la investigación científica, lo
cual resultó ser particularmente productivo en Inglaterra, donde el sistema de propiedad intelectual
permitía que quien tuviera una idea innovadora se beneficiara económicamente de su realización
mediante derechos exclusivos de explotación comercial. La máquina de Watt es un ejemplo notable
de la anterior afirmación, al igual que el telégrafo de Morse, y, posteriormente, el telégrafo sin hilos
de Marconi.
20.2 Ruido
Tal como ya se ha mencionado, uno de los problemas inherentes a la transmisión de información
mediante señales electromagnéticas, ya sea que viajen por cable o por el aire, es la necesidad de
Capítulo 20: Información
20.3 Criptología
Si bien la fidelidad es una característica muy deseable en un sistema para transmitir infor-
mación, en muchas ocasiones prima la necesidad de que esta no solo sea confiable sino
confidencial, para lo cual es necesario acudir a estrategias que restrinjan el acceso a ella
mediante métodos de encriptación, o, sencillamente, por medio de claves que transformen
un texto en algo ininteligible para quien no posea el recurso necesario para descifrar el
texto encriptado. En este caso se puede hablar de un “ruido bueno” que puede ser añadido
y eliminado a conveniencia de la información que se quiere proteger.
Uno de los rasgos más característicos de la Segunda Guerra Mundial fue el impresionante
despliegue de ciencia y tecnología que se dio en su transcurso, en el que se destaca la apa-
rición de la ciencia de la informática en cabeza de Claude Shannon y Alan Turing, gracias
a cuyo trabajo y al de lógicos y matemáticos fue posible descifrar el código de información
utilizado por las fuerzas armadas de la Alemania nazi, conocido como el Enigma. De igual
manera se diseñaron nuevos sistemas de encriptación para uso de los Aliados, para lo
cual fue necesario definir y precisar el concepto de información sentando las bases para
Física conceptual
Capítulo 20: Información
0 11 11 1 000 0
0 11 10 0 000 0
0 00 00 0 000 0
Figura 20.2. La máquina de Turing.
Con el fin de que el proceso de cómputo sea lo más sencillo posible, la información se
registra mediante un código binario, es decir, un conjunto de unos y ceros, que se pueden
representar de manera adecuada mediante el estado de abierto y cerrado de un relé, o
de un tubo de vacío. Es importante anotar que el uso de un código binario para el registro
y lectura de información se remonta a 1801 con las tarjetas perforadas de los telares de
Jacquard (figura 20.3), con los que se producían telas de diseños muy elaborados. Este
sistema sirvió de inspiración a Charles Babbage en el diseño de los primeros computadores
mecánicos, antecesores de nuestros modernos computadores digitales, que, al igual que la
máquina de Turing, utilizan códigos binarios, en los que el estado de prendido o apagado,
uno o cero, corresponde al estado de un transistor que, actuando como interruptor, permite
o impide el paso de una corriente eléctrica.
Física conceptual
Capítulo 20: Información
271
Uno de los problemas más relevantes que surgen en el diseño de sistemas de comuni-
caciones tiene que ver con la cantidad de mensajes que sea posible enviar de manera
simultánea a través de un dispositivo y la cantidad de información que puede contener cada
mensaje, para lo cual es necesario definir parámetros cuantificables. Con este fin, Claude
Shannon definió el concepto de entropía, H, como una medida de la información contenida
en un mensaje. Es necesario aclarar que la entropía H definida por Shannon es diferente
a la entropía S definida por Boltzmann en términos del número de estados accesibles de
un sistema, puesto que la importancia de esta última se manifiesta en la variación de su
magnitud, dependiendo de si los procesos que se examinan son reversibles o irreversibles.
Por el contrario, la relevancia de la entropía H de Shannon está directamente relacionada
con su valor absoluto. Sin embargo, la similitud entre las formulaciones matemáticas y el
carácter estadístico de ambas teorías condujo a Shannon a utilizar la palabra entropía para
designar la función que permite cuantificar la información.
Fuente
de información Transmisor Receptor Destino
272
Canal
Señal Señal
recibida
Fuente
de ruido
Figura 20.4. Esquema del proceso de información de Shannon.
ARN polimerasa
G T A C
ADN C A U T
C A T G
ADN
Física conceptual
Capítulo 20: Información
20.6 El bit
A partir de la definición de entropía de Shannon es posible definir la unidad de información
como aquella asociada a un sistema que solo tiene dos posibles estados, que se pueden
representar en código binario como uno o cero, razón por la cual se le dio el nombre de
bit, que es el acrónimo de las palabras inglesas binary digit. La entropía de un sistema que 273
contiene un bit de información es uno.
Por otra parte, cuando dos o más partículas hacen parte del mismo sistema físico, los valo-
res de las magnitudes físicas que describen sus respectivos estados están correlacionados,
independientemente de qué tan alejadas se puedan encontrar las partículas entre sí, de tal
manera que si sobre una de ellas se efectúa la medición de una variable, el valor de la mis-
ma variable queda determinado para la otra partícula. Einstein utilizó el análisis del fenóme-
no de entrelazamiento para demostrar que la mecánica cuántica era una teoría incompleta
de la naturaleza, y que conducía a resultados absurdos, como la posibilidad de transmitir
información de manera instantánea entre dos partículas entrelazadas, a lo cual denominó
una “espantosa acción a distancia”, en flagrante violación de los postulados de la teoría de
la relatividad y de la concepción de la realidad que él defendía. Posteriores análisis y evi-
dencias experimentales revelan que el fenómeno de entrelazamiento no viola los preceptos
relativistas, pero su innegable existencia nos obliga a abandonar la concepción de realidad
del mundo que defendía el padre de la teoría de la relatividad. De manera adicional, el en-
trelazamiento constituye uno de los recursos más valiosos con los que cuenta la criptografía
cuántica para garantizar la privacidad de la información, puesto que en el supuesto caso de
que un tercero pretenda interceptar un mensaje enviado mediante partículas entrelazadas,
la perturbación que causa la observación no autorizada revela de inmediato la presencia del
transgresor debido al fenómeno de reducción del paquete.
Física conceptual
Capítulo 20: Información
Resumen
De acuerdo con el físico John Wheeler, quien acuñó la expresión “it from bit”, el bit,
es decir, la mínima unidad de información, es también la partícula más elemental
que se puede concebir. Si llevamos esta afirmación hasta sus últimas consecuen- 275
cias se podría decir que todo es información. En consecuencia con lo anterior,
yendo más allá del modelo abstracto de la máquina de Turing, y teniendo en cuen-
ta que todo proceso informático demanda un consumo de energía para borrar
la información ya recibida y quedar en capacidad de recibir nueva información
−razón por la cual se dice que “olvidar cuesta trabajo”−, se puede decir que la
información es, ante todo, un fenómeno físico y cuántico, puesto que en todas sus
interacciones, excepto en la gravitación, la naturaleza es un fenómeno cuántico.
Información
Cuestionario
1. ¿Qué diferencia una señal sonora de un simple ruido en cuanto a la información
se refiere?
2. ¿De qué manera se puede utilizar el ruido para proteger la privacidad de la infor-
mación? Dé un ejemplo.
3. Discuta algunos casos en los que sea evidente la ventaja de disponer de infor-
mación suficiente, oportuna y confiable.
4. Investigue el origen de la palabra encriptación y dé un ejemplo del uso de este
tipo de práctica en la tecnología actual.
5. Compare los sistemas de almacenamiento de información que ofrecen un disco
de acetato, un disco magnético y un disco óptico, desde el punto de vista de los
mecanismos asociados a cada tecnología y de la capacidad de almacenamiento
de datos de cada uno de ellos.
6. Escriba la fecha de su nacimiento en código binario.
7. Investigue cómo funciona una proteína y establezca una analogía con la cinta
que alimenta una máquina de Turing.
8. Si la información se puede relacionar con la entropía, ¿con qué concepto asocia-
do a la informática se puede relacionar la energía?
Bibliografía
Aczel, A. (2002). Entrelazamiento. Editorial Crítica.
Baggot, J. (2011). Quantum story. Kindle eBook.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Gleick, J. (2012). Chaos. Kindle Edition.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Musser, J. (2015). Spooky action at a distance. Kindle eBook.
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
Sagan, C. (1992). Cosmos. Planeta.
Stewart, I. (2011). The mathematics of life. Kindle eBook.
Física conceptual
Epílogo
La evolución de la física
En el segundo párrafo del prólogo de La evolución de la física, el libro escrito por Albert Einstein y
Leopold Infelf pocos años antes de que estallara la Segunda Guerra Mundial, se advierte al lector
que la obra que tiene en sus manos no es un libro de texto, sino una obra que pretende describir,
a grandes rasgos, los esfuerzos que los hombres de ciencia han realizado tratando de establecer
una conexión entre el mundo de las ideas y el mundo de los fenómenos. Sin embargo, a pesar de
la declaración, o de la intención, de los autores, el texto en cuestión −publicado originalmente por la
editorial de la Universidad de Cambridge en 1938 y reeditado por Editorial Losada con el nombre de
La física: una aventura del pensamiento−, además de ser un excelente texto de divulgación, tiene
un extraordinario valor didáctico de gran utilidad en cursos introductorios de física y de historia y
filosofía de la ciencia, como primera aproximación al pensamiento científico.
El libro fue escrito entre 1934 y 1936, durante una pasantía que realizó Leopold Infeld en el Instituto
de Estudios Avanzados de Princeton, invitado por Einstein, como una forma de solidaridad con un
colega que, al igual que él, había escapado de la persecución nazi en Europa. En el texto los autores
exponen su concepción del mundo, de la ciencia y de la realidad de manera sencilla, en un lenguaje
claro y accesible a cualquier lector medianamente culto. Pero quien esté al tanto de la situación po-
drá percibir la tensión subyacente en el discurso, generada por el choque de la concepción clásica
del mundo, suscrita por Einstein e Infeld, y la aparición de una nueva conceptualización de la física,
fruto del desarrollo de la mecánica cuántica y de los, por entonces, novedosos descubrimientos
sobre la estructura de la materia y las interacciones fundamentales, realizados, en parte, por el
mismo Einstein.
Desde el principio del libro los autores manifiestan su intención de describir la conexión existente
entre el mundo de las ideas y el mundo de los fenómenos, empezando por señalar las claves que
condujeron al establecimiento del punto de vista mecanicista de la naturaleza y el papel que desem-
peñaron en la postulación del principio de inercia, por parte de Galileo y Newton, las experiencias
idealizadas, también conocidas como experimentos mentales, las cuales se hacen necesarias ante
la imposibilidad de verificar de manera experimental que, por ejemplo, al no estar sujeto a la acción
de ninguna fuerza, un cuerpo conserva su estado de movimiento de manera indefinida, o que en el
vacío todos los cuerpos caen con igual aceleración, independientemente de su peso.
La experiencia sugiere, con frecuencia la intuición confunde y, a veces, la razón corrige, pero será
la experimentación la que, en último término, valide lo indemostrable. De esta perspectiva sur-
gen apreciaciones que, a primera vista, pueden resultar sorprendentes: “Los conceptos físicos son
creaciones libres del espíritu humano y no están, por más que parezca, únicamente determinados
Epílogo
por el mundo exterior”, nos dicen Einstein e Infeld. El reconocimiento del carácter artificial
de los conceptos con los que la física describe el mundo parece chocar con la aproxima-
ción ingenua a la lectura del libro de la naturaleza que prescribe Galileo, pues, más que
ser descubierto, el mundo de los fenómenos también debe ser inventado, respetando, por
supuesto, las restricciones que impone la experiencia. El papel de la verdad absoluta, al
278 menos en lo que a la ciencia se refiere, empieza a ser desdibujado –o, mejor, relegado− a
otras áreas del conocimiento, mientras que el objeto de la ciencia se define en sus propios
términos a partir de la práctica.
La importancia de los logros obtenidos por las teorías del campo que se desarrollaron en
la segunda mitad del siglo XIX se puede apreciar en toda su magnitud al compararlos con
los descubrimientos astronómicos obtenidos gracias al modelo mecanicista desarrollado
según los lineamientos de la física de Newton. Aplicado al estudio de los fenómenos que
suceden en nuestro entorno, el modelo mecánico traduce la cotidianidad en términos de
corpúsculos y de fuerzas que actúan a lo largo de la línea de acción y que dependen de la
distancia entre los cuerpos interactuantes. Hermann von Helmholtz, el notable físico alemán
que estableció las bases teóricas de la ley de la conservación de la energía a mediados del
siglo XIX, expresó con toda claridad los alcances del ideal reduccionista de la concepción
mecánica del mundo al sentenciar que todos los fenómenos se podían explicar en términos
de fuerza y materia: “La función de la ciencia habrá terminado tan pronto se cumpla la
reducción de todos los fenómenos naturales a simples fuerzas y se demuestre que esta
es la única reducción posible”. Bajo el auspicio de esta concepción fue posible incorporar
la termodinámica a la mecánica gracias a la interpretación del calor como un proceso de
transmisión de movimiento microscópico entre los corpúsculos que componen la materia; y
de la temperatura, como una medida del promedio de ese grado de movimiento. Luego de
eliminar algunos conceptos innecesarios como el calórico y el flogisto mediante el uso de
conceptos más elementales como materia y movimiento, la física se hizo más sencilla y su
Epílogo
El paraíso perdido
280
Pero no todo habría de ser la obtención de logros notables y la realización de grandes
descubrimientos en el paraíso mecanicista. Objeciones teóricas de mucha seriedad y apa-
rentes contradicciones en los modelos mecánicos generaban el rechazo de un sector sig-
nificativo de la comunidad científica. Por una parte, la imposibilidad de dar cuenta, a partir
de primeros principios, de la irreversibilidad de procesos como la vida y la muerte, cuya
evidencia choca con el carácter reversible de los procesos fundamentales −constituidos por
colisiones entre partículas o interacciones mediante fuerzas electromagnéticas−, que gozan
de una perfecta invariancia temporal, esto es, que las ecuaciones que describen su compor-
tamiento no pierden su validez física si se invierte el sentido del tiempo. En consecuencia,
al no estar incorporada en el marco teórico de la física, la dirección del tiempo parecía ser
tan solo una ilusión.
¿Cómo dar cuenta de un universo cuyos procesos evolucionan de manera irreversible me-
diante leyes que son, por principio, reversibles? El problema planteado es equivalente al
de encontrar una interpretación física de la entropía, concepto acuñado por Rudolf Clau-
sius para explicar la irreversibilidad de los procesos termodinámicos, como la transferencia
espontánea de calor entre dos cuerpos que se ponen en contacto y que inicialmente se
encuentran a diferente temperatura.
Pero, contrario a las aspiraciones de Helmholtz, los avances de la física en la segunda mitad
del siglo XIX mostraron la insuficiencia de los conceptos de fuerza y materia para explicar
los fenómenos electromagnéticos desde una perspectiva mecanicista. La fenomenología
del electromagnetismo demandaba una nueva conceptualización para ser incorporada en
el marco de la física teórica. La teoría de los fluidos eléctricos y magnéticos, último intento
reduccionista para dar cuenta de la electricidad y el magnetismo, se mostró tan ineficaz y
Epílogo
engorrosa como en su momento lo había sido la teoría del flogisto y el calórico para explicar
los fenómenos termodinámicos.
El campo
“Una nueva realidad fue creada”, nos dicen Einstein e Infeld al referirse a las condiciones
en la que emergió el concepto de campo. Luego de ser concebido como un recurso heu-
rístico con el fin de dar cuenta de los fenómenos electromagnéticos desde una perspectiva
operacional, el campo alcanzó el máximo estatus dentro de los conceptos de la física, y
su grado de “realidad” se encuentra a la par que el de materia. Pero no habría de ser fácil
la aceptación de esta nueva forma de conceptualización de los fenómenos físicos, puesto
que la tradición mecanicista habría de seguir pasando factura a la física teórica por un largo
tiempo. Inicialmente fue el fantasma del éter, supuesto medio de propagación de las ondas
electromagnéticas, el que intrigó a los físicos, que debieron afinar los análisis para predecir
los sutiles efectos que el movimiento de la Tierra debería producir al desplazarse en el hi-
potético elemento. Luego vendría el problema de detectar dichos efectos con una precisión
nunca antes alcanzada por la experimentación. Sin embargo, contrariando las expectativas,
la renuencia de la naturaleza a exhibir pruebas del movimiento de la Tierra respecto al éter,
y, de manera indirecta, de su existencia, condujo a la postulación de la teoría de la relativi-
dad, que transformó lo que parecía ser una contradicción teórica y un fracaso experimental
en el más notable logro de la física desde que Newton publicara los Principia. Como con-
secuencia directa de la nueva teoría resulta la equivalencia de la masa y la energía. Dos
conceptos que en la mecánica de Newton estaban perfectamente diferenciados, emergen
en el contexto relativista como aspectos complementarios de una entidad más general,
poniendo de manifiesto una relación profunda entre el campo y la materia, que se aprecia
con toda claridad en la creación y aniquilación de materia y antimateria.
El triunfo del concepto de campo significó el final de la concepción mecanicista del mundo
físico, junto con sus sencillos modelos de fuerzas y corpúsculos. La capacidad de la físi-
ca para dar cuenta de los fenómenos y predecir nuevas situaciones aumentó de manera
notable, pero a la par que su horizonte fenomenológico se expandía, sus dificultades con-
ceptuales se ponían de manifiesto, ligadas, en ocasiones, a la concepción mecanicista en
la que fueron formados la mayoría de los físicos que construyeron las nuevas teorías, a
veces a pesar de sí mismos, ante la exigencia de armonizar la evidencia experimental con
la coherencia teórica. Los aspectos básicos de la interacción entre el campo y la materia,
o, si se prefiere, de la interacción entre la materia y la radiación, que se manifiestan en el
Epílogo
Energía y utopía