Você está na página 1de 284

Física conceptual

"Una aproximación al desarrollo de la física


y su relación con la tecnología"

Tercera edición

Guillermo Pineda Gaviria


Rector de la Universidad de Antioquia
John Jairo Arboleda Céspedes

Vicerrectora de Docencia
Lina María Grisales Franco

Decano de la Facultad de Ingeniería


Jesús Francisco Vargas Bonilla

Coordinador de Proyectos Especiales


Guillermo León Ospina Gómez

Autor
Guillermo Pineda Gaviria

Jefe del Departamento de Recursos de Apoyo e Informática (DRAI)


Juan Diego Vélez Serna

Coordinadora de Producción
Lyda Yaneth Contreras Olivares

Asesora pedagógica
Lyda Yaneth Contreras Olivares

Corrector de estilo
Daniel Aldana Estrada

Diagramación y diseño
Juan Felipe Vargas Martínez

Ilustrador
Sebastián García
Isabel Echeverri
Alejandra Vélez

Tercera edición

Esta publicación es un producto del Programa Vamos para la Universidad. Reservados todos los dere-
chos. No se permite la reproducción, archivo o transmisión total o parcial de este texto mediante ningún
medio, ya sea electrónico, mecánico, óptico, de fotorreproducción, memoria o cualquier otro tipo sin per-
miso de los editores del Programa Vamos para la Universidad.

ISBN: 978-958-5413-84-9

Impreso en Medellín (Colombia) 2019


Dedicatoria

Para Isabel.

Agradecimientos
A mis estudiantes, a mis colegas y a mis amigos, cuyas preguntas y comentarios me han
ayudado a resolver muchas dudas y a generar otras tantas.
Prólogo
La ciencia en general, y la física en particular, se ocupan de indagar, modelar y predecir los fenóme-
nos del entorno, del mundo microscópico y del cosmos a gran escala, lo que constituye una de las
más grandes hazañas del conocimiento humano.

En este texto introductorio a los conceptos de la física haremos un recorrido panorámico y con-
ceptual que nos permitirá establecer relaciones entre los fenómenos más inmediatos y cotidianos,
incluso aquellos que a veces pasan desapercibidos, y las teorías que se han elaborado para dar
cuenta de ellos, gracias a las cuales ha sido posible predecir nuevas y apasionantes experiencias
que descubren un universo insospechado de fenómenos y relaciones, y que sugieren respuestas
a algunas de las preguntas más fundamentales que se ha planteado la humanidad respecto al ori-
gen, la constitución y la evolución del universo en el corto y en el largo plazo, a la vez que definen
nuestro papel en todo este proceso. No en vano se ha calificado a la física como “una aventura del
pensamiento”.

Con el fin de lograr la máxima claridad posible en la presentación de los conceptos y teorías con
los que la física elabora sus enunciados sobre el mundo y la fenomenología, se hace énfasis en
las situaciones históricas, los aspectos sociales y las necesidades prácticas que determinaron las
condiciones que hicieron posible elaborar modelos y teorías sobre el mundo y los fenómenos, que
se tradujeron en desarrollos tecnológicos, innovaciones y avances en las técnicas de producción
y en la solución de diferentes problemas prácticos. De esta manera, se relacionan los inicios de la
astronomía a partir de la observación sistemática del movimiento de los astros asociado al estableci-
miento de un calendario de gran utilidad práctica en la planeación y ejecución de actividades comu-
nitarias de interés vital como la agricultura y la guerra, y se destaca cómo la necesidad de efectuar
observaciones con la máxima precisión posible para hacer predicciones suficientemente acertadas
condujo a la introducción de modelos astronómicos que desafiaban el sentido común y rompían con
las más antiguas tradiciones y convicciones sobre la constitución del mundo y el orden del universo.

Puesto que el primer y más evidente resultado de la interacción entre la ciencia y la tecnología en
la época moderna fue la emergencia de la Revolución Industrial, se presta particular atención a la
emergencia de los conceptos y principios de la termodinámica y a las teorías sobre la constitución
y estructura de la materia. Así, al examinar los antecedentes de dos artefactos tan aparentemente
disímiles como una cafetera moka y una central nuclear —en tanto que ambas son, en último tér-
mino, máquinas de vapor—, es posible presentar las leyes de los gases y de la termodinámica de
manera coherente y comprensible para aquellos lectores que tengan una especial afinidad con los
temas de generación y consumo de energía y manejo eficiente y sostenible de los recursos natura-
les. También mostraremos cómo la necesidad de identificar, clasificar y conocer las propiedades de
los materiales, según el uso que se les quisiera dar, condujo a una larga indagación que se inició a
finales de la antigüedad, continuó a lo largo de la Edad Media y se concretó en la época moderna
en una teoría de la estructura atómica y corpuscular de la materia, que habría de llevarnos al descu-
brimiento de las más insospechadas leyes de su comportamiento, cuyas consecuencias no solo se
podrían apreciar en el mundo microscópico, sino que su alcance se habría de extender al universo
en su totalidad, dando cuenta de su evolución y estructura en el marco de teorías como la relatividad
y la mecánica cuántica, cuyos rasgos más sobresalientes serán enunciados en el transcurso de
nuestras reflexiones.

En la selección y presentación de los temas que se discuten en este texto se ha tenido muy presente
que la mayoría de los lectores a quienes está dirigido no tienen dentro de las expectativas de su
futura actividad la realización de cálculos o la elaboración de artículos técnicos que demanden un
manejo de los formalismos propios de las teorías científicas, sin que por esta razón resulten excusa-
dos de tener una mínima comprensión de los fenómenos físicos que suceden a su alrededor o que
median su relación con el entorno, y de comprender razonablemente la información sobre asuntos
de ciencia y tecnología que proveen de manera frecuente y profusa los medios de comunicación.
Por esta razón, el tono didáctico y divulgativo del texto convierte su estudio en un ejercicio de lecto-
escritura, que se refuerza con la propuesta de preguntas abiertas y ejercicios sencillos que se pro-
ponen al final de cada capítulo, cuyo objetivo fundamental es generar la reflexión en un ambiente de
discusión racional y objetiva en consonancia con el carácter controversial, y en ocasiones precario,
del conocimiento científico que, no por estar fundamentado en serios razonamientos y contrastado
por la experimentación rigurosa, adquiere el carácter de verdad absoluta o de artículo de fe, sino
que, muy por el contrario, cobra importancia y genera beneficios, en tanto se realiza como un pro-
ceso dinámico, de permanente controversia, renovación y descubrimiento.

Introducción Descubriendo la Física


Tabla de contenido
Prólogo 7

Capítulo 1
El nacimiento de la astronomía 11

Capítulo 2
La revolución copernicana 29

Capítulo 3
Inercia 53

Capítulo 4
La mecánica de Newton 71

Capítulo 5
Gravitación 81

Capítulo 6
Trabajo 93

Capítulo 7
Potencia motriz 105

Capítulo 8
La mecánica del calor 117

Capítulo 9
Entropía 125

Capítulo 10
Electricidad 135

Capítulo 11
Electromagnetismo 149

Capítulo 12
Campos y ondas
165

Capítulo 13
Teoría de la relatividad 183

Capítulo 14
Materia y geometría 201

Capítulo 15
Cosmología: el origen y el fin 215

Capítulo 16
Materia y radiación 225

Capítulo 17
La estructura de la materia 237

Capítulo 18
Partículas 247

Capítulo 19
Comunicaciones 259

Capítulo 20
Información 269

Epílogo 279
Capítulo 1 El nacimiento de la astronomía

Introducción
El nacimiento de la astronomía es también el nacimiento de la ciencia, y por eso resulta de gran
interés examinar detalladamente las circunstancias que condujeron a la humanidad a la observa-
ción sistemática del movimiento de los astros y a establecer una correlación entre las regularidades
de tal movimiento y la periodicidad de fenómenos como los ciclos estacionales. El resultado más
tangible de este primitivo interés por la búsqueda de relaciones entre los sucesos terrestres y los
acontecimientos de los cielos fue el calendario, que habría de convertirse en la referencia obliga-
da para realizar las actividades más importantes de la sociedad. Sin embargo, las imprecisiones
acumuladas a lo largo de los años demandaban revisiones continuas y la elaboración de modelos
capaces de predecir los eventos astronómicos con más exactitud, lo cual condujo al planteamiento
de problemas cuya solución sirvió de estímulo al estudio y desarrollo de disciplinas como las mate-
máticas y la geometría.

La amalgama de creencias, supersticiones y conocimiento objetivo de los fenómenos quedó refleja-


da en los modelos astronómicos primitivos, que poco a poco fueron ganando en complejidad y ca-
pacidad predictiva en la medida en que se hacían observaciones astronómicas de mayor precisión,
lo cual hizo necesario plantear modelos a partir de propuestas novedosas, e incluso revolucionarias,
que habrían de cambiar el panorama intelectual de la humanidad y abrir nuevos horizontes al cono-
cimiento. A la postre, esto conduciría al advenimiento de la ciencia moderna.

La confluencia de coyunturas económicas, sociales y culturales en el Renacimiento, caracterizadas


por la inquietud intelectual y la crítica sistemática a las concepciones filosóficas tradicionales que
hasta entonces determinaban la visión del mundo y la explicación de los fenómenos naturales, y la
demanda de soluciones eficaces a problemas prácticos de interés inmediato, relacionados con la
reforma del calendario y con el problema de la orientación en alta mar, centraron en la astronomía
el interés de los sabios de la época, generando una inusitada actividad que habría de desembocar
en la propuesta del sistema heliocéntrico de Nicolás Copérnico y en los extraordinarios aportes que
en su defensa hicieron Johannes Kepler y Galileo Galilei.

1.1 El movimiento de los astros


Como ya se ha mencionado, el nacimiento de la astronomía está asociado históricamente a la
elaboración del calendario, el cual es esencial para planear y realizar diversos tipos de actividades
de gran importancia social. La efectividad del calendario como instrumento para determinar con
precisión los días notables del año condujo a la necesidad de elaborar modelos de la Tierra y del
Capítulo 1: El nacimiento de la astronomía

universo, y sistemas de orientación y de localización, a partir de la astronomía. Cuando el


hombre prehistórico abandonó la vida nómada y estableció los primeros asentamientos per-
manentes sustentados en la agricultura y el pastoreo, es muy posible que haya empezado a
mirar a los cielos con un nuevo interés y haya encontrado en la regularidad del movimiento
astronómico un elemento fundamental para su subsistencia. Luego de establecer una rela-
ción entre el movimiento del Sol respecto a las estrellas fijas y la sucesión de las estaciones
12 (primavera, verano, otoño e invierno), comprendió que conocer el movimiento de los astros
le permitiría anticipar la aparición de los fenómenos climáticos de los que dependían even-
tos tan importantes para la comunidad como la siembra de las semillas y la cosecha de los
cultivos, o hacer la guerra con las poblaciones vecinas.

La primera regularidad que nos brinda el movimiento astronómico es la sucesión del día y la
noche. Aunque dos días sucesivos son casi iguales, la observación prolongada nos permite
apreciar una diferencia que se va haciendo cada vez mayor: el día dura cada vez más y la
noche dura menos, hasta llegar a un día que es el más largo del año, lo cual marca el inicio
del verano. A partir de este día la diferencia en duración con la noche se va haciendo menor
hasta que se igualan en el día del equinoccio, que señala el inicio del otoño; a continuación
la noche empieza a alargarse y el día a reducirse hasta llegar a la noche más larga del
año, que determina el inicio del invierno; finalmente, el día empieza a alargarse y la noche
a reducirse hasta llegar a un nuevo equinoccio que marca el inicio de la primavera, que se
habrá de prolongar hasta que de nuevo llegue al día más largo del año. El ciclo completo,
que comprende las cuatro estaciones, tiene una duración aproximada de 365 días.

La diferencia entre el día y la noche es muy apreciable en las zonas situadas en las latitudes
medias y altas del planeta, donde en el verano, por ejemplo, se puede tener luz del Sol has-
ta altas horas de la noche, y en el invierno se invierte completamente la situación; pero en
las zonas tropicales tales diferencias no son tan evidentes, aunque pueden ser observadas
si se presta atención a algunos fenómenos como el comportamiento de la sombra que pro-
yecta el Sol en un patio lleno de materas con flores delicadas, que deben ser cambiadas de
lugar periódicamente para evitar que se resequen por el exceso de luz solar. Por otra parte,
quienes deben madrugar para empezar a estudiar o a trabajar a las seis de la mañana en-
cuentran familiar el hecho de que en unas épocas del año amanece más temprano que en
otras, y lo propio ocurre con el atardecer.

La variación periódica en la duración del día y la noche está acompañada de una variación
sistemática del punto por donde sale y se pone el Sol sobre el horizonte cada día, obser-
vado siempre desde un mismo lugar; pero también es posible hacer una observación del
movimiento del Sol que no depende del lugar de la Tierra desde donde se realice, y es su
desplazamiento respecto a las estrellas fijas.

1.2 Las estrellas fijas


En una noche despejada, y con una atmósfera poco contaminada, es posible apreciar un
sinnúmero de estrellas de diferente brillo o magnitud. Posiblemente el hecho más notable

Física conceptual
Capítulo 1: El nacimiento de la astronomía

es que la mayoría de las estrellas que se aprecian con el ojo desnudo conservan sus posi-
ciones relativas cuando se mueven en conjunto a través del firmamento, excepto por cinco
astros que reciben el nombre de planetas. Con el fin de ser identificadas y clasificadas, las
estrellas se agrupan en constelaciones, que fueron bautizadas de acuerdo con las figuras
que sugirieron a la imaginación de los astrónomos de la antigüedad, tales como Leo, Cán-
cer, Virgo, Piscis, Ursa o Hércules. La observación atenta a lo largo de varias horas en no-
ches sucesivas permite apreciar el hecho de que las estrellas parecen girar alrededor de un
13
eje que atraviesa la Tierra y pasa por dos puntos opuestos en el firmamento: los polos norte
y sur celestes. Los puntos sobre la Tierra por donde pasa el eje definen los polos norte y
sur terrestres. Muy cerca de donde se ubica el polo norte celeste hay una estrella particular-
mente brillante, la estrella Polar, que tradicionalmente ha servido para la orientación de los
navegantes en el hemisferio norte. En el polo sur celeste no hay una estrella tan conspicua
como sucede en el polo norte.

A lo largo del periodo de 365 días que hemos denominado un año, el Sol se va desplazando
respecto a las estrellas fijas y recorre una trayectoria que se denomina eclíptica, o línea de
los eclipses, por ser a lo largo de esta línea que se producen estos fenómenos. El Sol apa-
rece todos los días con cinco minutos de retraso respecto a las estrellas que lo precedieron
el día anterior, como si se desplazara hacia el este (figura 1.1).

Figura 1.1. Salida del Sol en solsticios y equinoccios.

Es importante destacar el hecho de que la observación astronómica proporciona una ma-


nera precisa para orientarse en cualquier lugar de la Tierra, y que a partir de diferentes
observaciones astronómicas se puede elaborar un sistema de marcadores para determinar
la ubicación geográfica de cualquier lugar sobre ella.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

1.3 Planetas
Además de las estrellas fijas en el firmamento, es posible apreciar cinco astros que se
desplazan respecto a ellas sin la regularidad del movimiento del Sol, de la Luna o de las
mismas estrellas, razón por la que se les dio el nombre de planetas, que significa errantes o
14 vagabundos, los cuales fueron denominados con los nombres de algunos de los dioses del
Olimpo: Mercurio, Venus, Marte, Júpiter y Saturno. Posiblemente el aspecto más notable
del movimiento planetario es la denominada retrogradación, que consiste en que, en un mo-
mento dado, el planeta invierte la dirección de su desplazamiento y retrocede, para luego
detenerse, e invertir nuevamente su dirección y continuar en su trayectoria original (figura
1.2). Este comportamiento de los planetas constituyó uno de los más difíciles retos para
los astrónomos que pretendían elaborar modelos que tuvieran la capacidad de describir y
predecir el movimiento de todos los astros.

Figura 1.2. Retrogradación planetaria.

1.4 El axioma de circularidad


La idea que surge de manera más espontánea al observar el movimiento de los astros es
que todo el firmamento gira alrededor de la Tierra, y que las estrellas están adosadas a una
esfera gigantesca cuyas dimensiones hacen que las de la Tierra sean insignificantes. Muy
probablemente a partir de esta idea surgió el axioma de circularidad, que establece una
relación entre el movimiento de los cuerpos celestes y su carácter de tales; por el hecho de
serlo, los cuerpos celestes se mueven en trayectorias circulares. Esta idea fue la guía de la
astronomía durante más de dos mil años, y a la vez que propició su desarrollo también se
convirtió en un serio escollo, por lo cual fue necesario que los astrónomos buscaran nuevos
fundamentos para realizar su labor. La creencia en la validez del axioma de circularidad era
tan grande que, según se dice, Platón invitaba a sus discípulos a estudiar el movimiento
de los planetas para descubrir en el movimiento aparentemente errático de estos astros el
movimiento circular, propio de los cuerpos celestes que eran.

Física conceptual
Capítulo 1: El nacimiento de la astronomía

La posibilidad de correlacionar el movimiento del Sol respecto a las estrellas, la duración


del día y la noche, y el lugar por donde sale y se pone diariamente permiten elaborar el
calendario. Podemos suponer, por ejemplo, que el año se inicia cuando el día es más corto
y la noche es más larga en el hemisferio norte, en el día del solsticio invernal. Ese día el Sol
sale por el lugar más cercano de su trayectoria al polo sur en la constelación de Capricornio.
Paulatinamente, la duración del día va aumentando y la de la noche va disminuyendo, hasta
que, unos ochenta y nueve días después, se produce el equinoccio de primavera. El día de
15
este equinoccio el Sol cruza el ecuador celeste, sale exactamente por el oriente y se pone
por occidente, para quien observa desde el ecuador terrestre. Noventa y dos días después
del equinoccio de primavera, en el solsticio de verano, el Sol alcanza su máxima posición
hacia el norte sobre la constelación de Cáncer. Noventa y tres días después del solsticio de
verano se llega al equinoccio de otoño y el Sol se encuentra nuevamente sobre el ecuador.
Después de otros ochenta y nueve días el Sol ha llegado de nuevo a la constelación de
Capricornio, es el solsticio de invierno, han pasado unos 365 días aproximadamente, y el
ciclo vuelve a comenzar.

El hecho de que el periodo del ciclo solar no dure un número exacto de días obligó a los
astrónomos a elaborar modelos que fueran capaces de dar cuenta precisa de los eventos
astronómicos y a recurrir a métodos de ajuste periódico de las fechas, como la introducción
de un día adicional cada cuatro años, en los llamados años bisiestos, excepto en los cen-
tenarios.

Es evidente que los sistemas numéricos elaborados por los asirios y los babilonios, como el
sistema sexagesimal, los sistemas de medición del tiempo en periodos de 12 y 24 horas y
las correspondientes subdivisiones de las horas en 60 minutos y los minutos en 60 segun-
dos, están directamente relacionados con la duración del año de 365 días y la división de
la circunferencia en 360 grados, de los grados en 60 minutos y de estos en 60 segundos.
También tiene un origen astronómico la división del Zodiaco en doce constelaciones, que
corresponde de manera gruesa al número de ciclos lunares de treinta días que tiene un año.
De igual forma, la duración del mes, de alrededor de treinta días, está relacionada con la
duración del ciclo de las fases de la Luna. Finalmente, los siete días de la semana tienen
que ver con los siete cuerpos celestes que se mueven respecto a las estrellas fijas: el Sol,
la Luna y los cinco planetas que se pueden ver con el ojo desnudo.

En conclusión: desde el principio de la historia, la medición del tiempo ha estado asociada a


la observación astronómica y al descubrimiento de regularidades en la naturaleza.

1.5 Coordenadas y sistemas de referencia


La forma esférica de la Tierra fue inferida desde muy pronto en la antigüedad a partir de
diversas observaciones, como la diferencia en la duración del día y la noche según la dis-
tancia al ecuador del punto de observación, o, lo que es equivalente, la elevación sobre el
horizonte de la estrella Polar. Otras observaciones, como la aparición gradual del mástil de

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

un barco sobre el horizonte, permitieron corroborar la idea. Una vez establecido el hecho
de que la Tierra tiene forma esférica es necesario disponer de un sistema de coordenadas
para ubicar la posición de cualquier lugar sobre ella, lo que da lugar a la definición de los
conceptos de latitud y longitud, con la ayuda de la observación astronómica y del uso del
calendario.
16 La aparente rotación de los astros define un eje que determina los polos norte y sur sobre
la bóveda celeste, los cuales se proyectan sobre la Tierra para definir los correspondientes
polos geográficos. De igual manera, se puede definir el ecuador celeste como el lugar de
todas las estrellas que describen la trayectoria de máxima circunferencia alrededor de la
Tierra. El ecuador terrestre resulta de la proyección del ecuador celeste sobre ella (figura
1.3).

Figura 1.3. Eje y paralelos celestes.

También es posible definir el ecuador terrestre como el lugar de la Tierra de todos los pun-
tos donde el día y la noche siempre tienen la misma duración. Adicionalmente, el ecuador
terrestre corresponde al lugar de todos los puntos sobre la Tierra donde el Sol cae perpen-
dicularmente durante los equinoccios.

1.5.1 Latitud

Se define la latitud como la mínima distancia de cualquier punto de la Tierra al ecuador, y


se denomina latitud norte o latitud sur según el hemisferio donde se encuentre el punto en
cuestión. La latitud se mide en grados, de tal manera que la del ecuador es cero, y a los
polos les corresponden 90 grados de latitud norte y sur, respectivamente.

Todos los puntos que tienen la misma latitud definen un paralelo, llamado así porque resulta

Física conceptual
Capítulo 1: El nacimiento de la astronomía

de la intersección de la Tierra con un plano que es paralelo al plano que define el ecuador.
La observación de la posición del Sol y la proyección de su sombra a mediodía permite
definir otros lugares notables sobre la Tierra. El día del solsticio de verano en el hemisferio
norte el Sol alcanza su máximo desplazamiento hacia el norte respecto al ecuador. Ese día
el Sol cae perpendicularmente sobre el lugar que define el trópico de Cáncer. Seis meses
más tarde alcanza su máximo desplazamiento hacia el sur y cae perpendicularmente sobre
un lugar denominado trópico de Capricornio. Los trópicos de Cáncer y Capricornio definen
17
planos paralelos al ecuador que cortan la Tierra a 23° 27’ de latitud norte y sur, respectiva-
mente.

Durante el solsticio de verano el Sol es visible durante 24 horas dentro de un casquete al-
rededor del polo norte que está limitado por un paralelo denominado círculo polar ártico. El
mismo día, de manera correspondiente, alrededor del polo sur se define un casquete donde
el Sol está oculto las 24 horas del día, limitado por un paralelo denominado círculo polar
antártico. Seis meses más tarde, durante el solsticio de invierno en el hemisferio norte, la
situación se invierte. Por esta razón se dice que los días y las noches polares duran seis
meses, aunque lo correcto sería decir que durante seis meses los días polares duran 24
horas, y durante los siguientes seis meses las noches duran 24 horas (figura 1.4).

Figura 1.4. Posiciones relativas del Sol y la Tierra en solsticios y equinoccios.

1.5.2 Longitud

Para determinar de manera precisa la ubicación de un sitio sobre la Tierra es necesario


definir una segunda coordenada, que recibe el nombre de longitud. Para definir la longitud
es necesario establecer como referencia un meridiano, que corresponde al círculo máximo
que pasa por los polos. Por razones históricas, el meridiano que define la longitud cero
recibe el nombre de Greenwich, debido a la localidad inglesa cerca a Londres por la que

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

atraviesa. De igual manera, cualquier punto sobre la Tierra es atravesado por un meridiano
que define la longitud del lugar. La longitud se mide entre 0 y 180 grados hacia el este o el
oeste del meridiano 0 (figura 1.5).

La longitud de un lugar se puede medir comparando la hora local con la hora de Greenwich,
lo cual solo se podía hacer mediante observaciones astronómicas antes del siglo XVIII,
18 cuando fue posible disponer de relojes que permitían transportar la hora de referencia para
compararla con la hora local. Antes de que esto sucediera, la determinación de la longitud
constituyó uno de los problemas prácticos más importantes que debía resolver la astrono-
mía para la orientación en alta mar y en los viajes a través de estepas y desiertos.

El meridiano 180 define la línea del cambio de fecha, un curioso lugar donde dos puntos
tan cercanos como se quiera, cada uno en diferente lado de la línea, tienen una diferencia
horaria de 24 horas.

Figura 1.5. Meridianos.

1.6 Primeros modelos del universo


En la antigüedad se registraban las observaciones del movimiento y la disposición de los
astros en tablas astronómicas que contenían la información básica sobre el lugar del firma-
mento, la hora y la fecha en la que un determinado astro fue observado. La acumulación de
información hizo posible el estudio sistemático y la búsqueda de regularidades a partir de
las cuales se podían establecer patrones del movimiento de los astros que hacían posible
determinar su posición futura, para, por ejemplo, predecir un eclipse solar o una conjunción
planetaria, además de poder mantener una estrecha relación entre las fechas del calenda-
rio y los eventos astronómicos asociados a las efemérides. Sin embargo, la imprecisión de
las observaciones y la falta de modelos astronómicos confiables en la antigüedad hacían
necesaria la permanente realización de ajustes y correcciones, y demandaban la elabora-
ción de modelos más precisos y con mejor capacidad de predicción, que, adicionalmente,
pudieran explicar fenómenos como la retrogradación planetaria.

Física conceptual
Capítulo 1: El nacimiento de la astronomía

Los primeros modelos del universo reflejan una visión bastante directa e ingenua de la natu-
raleza. Los babilonios suponían que el universo era como una especie de cajón que tenía la
Tierra por piso, mientras que el cielo, que era sostenido por las montañas, servía de techo.
Alrededor de la Tierra había un foso que era recorrido diariamente por el Sol. Los egipcios,
siguiendo la influencia babilonia, situaron a El Cairo en la mitad de la Tierra, que se hallaba
rodeada por el río Nilo. Pero en el siglo IV a. C., los griegos empezaron a elaborar modelos
menos simplistas. Tales de Mileto consideró que la Tierra era un disco que flotaba en el
19
agua. Por su parte, Anaximandro asumió que las estrellas estaban fijas a una gran bóveda
que rotaba alrededor de la Tierra, mientras que esta se mantenía suspendida en el centro.
Gracias a este modelo se podía explicar la sucesión del día y la noche por el paso del Sol
debajo de la Tierra, aunque Anaximandro supuso un mecanismo un poco más complicado
para tal fenómeno.

Particularmente interesante resulta el modelo atribuido al pitagórico Filolao, en el siglo V


a. C. Según este modelo, la Tierra no se encuentra inmóvil en el centro del universo, tal y
como sugiere la intuición y lo acepta la mayoría de los modelos primitivos, sino que al igual
que los planetas, las estrellas fijas, el Sol y la Luna, la Tierra gira alrededor de un gran fuego
que es el verdadero centro del universo. Supuestamente este modelo está fundamentado
en la idea de que los cuerpos celestes, incluyendo la Tierra, completan el mágico número
diez, el número perfecto de acuerdo con la doctrina pitagórica y la larga tradición que des-
ciende de ella. Para completar diez cuerpos celestes, Filolao introdujo una anti-Tierra que
se encontraba en oposición a la Tierra, al otro lado del fuego central (figura 1.6). Ni el fuego
central, ni, mucho menos, la anti-Tierra se podían ver desde la Tierra porque Grecia se en-
contraba en la parte del mundo que daba su espalda a dichos cuerpos. Este modelo nunca
gozó de popularidad y fue una especie de curiosidad conocida por pocos y compartida por
más pocos todavía; sin embargo, es importante resaltar el hecho de que acogiendo como
principio rector la perfección del mundo se llegó a la idea, contraria al sentido común, de
que la Tierra no estaba en reposo, ni era el centro del universo.

También se atribuye a los pitagóricos la idea de que los cuerpos celestes deben estar
dispuestos en órbitas que satisfacen relaciones numéricas sencillas, tal y como lo hacen
las cuerdas de una lira para poder emitir sus sonidos armónicos, y que, por tanto, el uni-
verso en su conjunto debía producir una música celeste, “la armonía de las esferas”, que
algún día habría de servir de inspiración a Johannes Kepler para realizar algunos de sus
descubrimientos astronómicos. Los pitagóricos tuvieron conocimiento de que una cuerda
tensa produce sonidos armónicos cuando es pulsada y su longitud corresponde a fraccio-
nes sencillas de la longitud fundamental; así, la nota fundamental corresponde a la cuerda
al aire, y la octava, a la mitad de la cuerda. Si se asigna la longitud de 1 a la cuerda, y la
nota fundamental corresponde a la nota do, entonces una longitud de 8/9 corresponde a
re, una longitud de 3/4 a fa, una longitud de 2/3 a sol y una longitud de 16/27 a la. Estas
cinco notas corresponden a la escala pentatónica, o sin semitonos, que fue característica
de la cultura griega y de muchos pueblos primitivos. La relación entre la música y las ma-
temáticas sugirió a los pitagóricos la idea de que la estructura del universo corresponde a
un plan matemático, y que quien lo descifre estará en poder del conocimiento del mundo,
de ahí su gran interés por las proporciones matemáticas y geométricas, lo que, de alguna

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

manera, constituye el origen más remoto de la idea, base para la ciencia moderna, de que
los fenómenos naturales están regidos por leyes matemáticas que se pueden conocer.

20

Figura 1.6. Modelo de Filolao.

El primer modelo del universo que pretendía dar una descripción y una explicación mecá-
nica del movimiento astronómico se atribuye a un pitagórico, Eudoxio de Cnido, en el siglo
IV a. C. Se trata de un modelo mecánico que parte de la suposición de que la Tierra se
encuentra suspendida e inmóvil en el centro del universo. Alrededor de la Tierra, adosados
a esferas cristalinas, giran los planetas, el Sol y la Luna, y más allá de todos ellos gira la
esfera de las estrellas fijas (figura 1.7). La característica más sobresaliente de este modelo
es que todas las esferas se encuentran engranadas entre sí, de modo que el movimiento
de cada una depende del movimiento de las demás. Por otra parte, los ejes de rotación
de cada esfera apuntan en diferente dirección, lo que puede explicar, entre otras cosas, el
cambio en la posición del Sol respecto a la Tierra a lo largo del año, que es responsable del
ciclo de las estaciones. La combinación del movimiento simultáneo de varias esferas podía
reproducir con cierto grado de aproximación el movimiento retrógrado de los planetas, aun-
que para poder lograrlo era necesario introducir esferas adicionales.

Física conceptual
Capítulo 1: El nacimiento de la astronomía

21

Figura 1.7. Modelo de Eudoxio.

Aunque bastante complicado y de muy poca precisión al momento de realizar cálculos


astronómicos con él, el modelo de Eudoxio tenía la cualidad de salvar el axioma de circula-
ridad en la explicación del movimiento planetario, pero era incapaz de explicar los cambios
de tamaño relativo del Sol y la Luna que se pueden apreciar durante los eclipses de sol que
a veces son totales, y a veces anulares, cuando la Luna no cubre por completo el disco
solar a pesar de encontrarse perfectamente alineada respecto a la Tierra. Para explicar este
hecho hay que suponer que las distancias relativas de la Tierra, el Sol y la Luna pueden
cambiar, pero el modelo de Eudoxio no daba esta posibilidad. Con este modelo tampoco
se podía explicar el cambio de brillo de Marte y Venus como una variación de la distancia
a la Tierra.

El modelo de Eudoxio, que llegó a tener hasta 55 esferas, no tuvo una larga vida en la
práctica de la astronomía debido a su imprecisión y a la dificultad de utilizarlo como instru-
mento de cálculo, pero introdujo un elemento clave que habría de definir la forma de trabajo
astronómico durante los siguientes dos mil años: la idea de reproducir cualquier tipo de
movimiento astronómico a partir de la superposición de movimientos circulares.

1.7 Los epiciclos y el modelo de Ptolomeo


La idea de reproducir el movimiento de los astros a partir de una superposición de movi-
mientos circulares se materializó en el modelo de los epiciclos introducido en el siglo II a. C.
en Alejandría por el astrónomo Hiparco de Nicea. De acuerdo con este modelo, la trayecto-
ria que describen los cuerpos celestes (P) corresponde al movimiento circular alrededor de
un punto (A) que, a su vez, gira alrededor de un centro que puede ser la Tierra (O), y de ahí
el nombre de epiciclo (figura 1.8).

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

22

Figura 1.8. Epiciclo y deferente.

La trayectoria circular que describe el centro del epiciclo alrededor de la Tierra se deno-
mina deferente. Mediante los epiciclos fue posible hacer una descripción del movimiento
retrógrado de los planetas y explicar los cambios en los tamaños relativos del Sol y la Luna
situando a estos últimos en órbitas excéntricas respecto a la Tierra, lo cual explicaba el
hecho observado de que el Sol recorre más de la mitad de su trayectoria en tan solo medio
año. El modelo de epiciclos (figura 1.9) fue adoptado en el siglo II por Ptolomeo, el más
notable astrónomo de la antigüedad, quien en su Almagesto compendió el conocimiento
astronómico de su tiempo y sentó las bases para la práctica de la astronomía durante casi
mil quinientos años.

El modelo astronómico de Ptolomeo gozó de gran aceptación en el ámbito de la cultura


europea desde la antigüedad hasta la Edad Media, y se fundamentaba en los siguientes
principios:

1. L a Tierra está inmóvil en el centro del universo.


2. El cielo es una gran esfera que rota alrededor de la Tierra.
3. La Tierra tiene forma esférica.
4. Por sus dimensiones, la Tierra es a la esfera de las estrellas fijas como un punto a
una esfera.

Física conceptual
Capítulo 1: El nacimiento de la astronomía

23

Figura 1.9. Modelo de Ptolomeo.

De acuerdo con el modelo de Ptolomeo, los planetas se movían en epiciclos alrededor de la


Tierra, pero se hacía la distinción entre planetas interiores (Mercurio y Venus) y exteriores
(Marte, Júpiter y Saturno). Lo que establecía la diferencia era el hecho de que Mercurio y
Venus siempre acompañan al Sol, esto es, la máxima separación angular de Venus respec-
to a este es de 46 grados, y para Mercurio es menor aun. Ptolomeo explicaba este hecho
suponiendo que los epiciclos de estos dos planetas se hallan en la recta que une a la Tierra
y al Sol, de tal manera que nunca se encuentran en oposición respecto a este, contrario a
lo que sucede con los restantes planetas, cuyas órbitas están más allá de la órbita solar.

1.8 Dimensiones relativas del Sol, la Tierra y la Luna


La afirmación de que el tamaño de la Tierra es despreciable en comparación con el radio de
la bóveda celeste corresponde a la ausencia de paralaje de las estrellas al ser observadas
desde puntos diferentes de la Tierra. Si este no fuera el caso, la distancia entre las estrellas
debería cambiar dependiendo de la posición del observador terrestre, lo que permitiría esti-
mar la distancia de la Tierra a la bóveda celeste.

Es notable que en el modelo de Ptolomeo no se tengan en cuenta aspectos como la forma


de la Tierra y sus dimensiones relativas a otros astros, que ya habían sido determinadas por
Aristarco y Eratóstenes en el siglo III a. C., el primero de los cuales llegó a proponer la idea
de que la Tierra giraba alrededor del Sol en vista de que este era más grande que aquella.
Sin embargo, en su tiempo tal idea no tuvo acogida, en particular por parte de Ptolomeo,

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

pues se argumentaba que los cuerpos celestes eran de una naturaleza y de una materia
diferente a la de la Tierra, por lo que no tenían ninguna dificultad para girar alrededor de
ella aunque fueran mucho más grandes. De la obra de Aristarco se tiene noticia por las
referencias que hace de ella Arquímedes. Según este, Aristarco determinó la posición del
Sol en el momento en que la Luna se encontraba en cuarto creciente, es decir que desde
la Tierra se apreciaba como media Luna, de modo que la relación entre la distancia de la
24 Tierra a la Luna, TL, y la distancia de la Tierra al Sol, TS, es el coseno del ángulo α formado
por las líneas TL y TS (figura 1.10).

Figura 1.10. Cuadratura lunar.

De acuerdo con las mediciones hechas por Aristarco, TL/TS = 1/20, siendo un valor más
aproximado 1/400. Si bien el error es de apreciable magnitud, pues la determinación pre-
cisa del ángulo en cuestión implica tener en cuenta la refracción de la luz por la atmósfera
terrestre, algo imposible para la época, se rescata el ingenio de la medición y el resultado
puramente cualitativo de que el Sol está mucho más lejos de la Tierra que la Luna. También
se atribuye a Aristarco el haber determinado la relación entre el radio de la Tierra y el radio
de la Luna durante un eclipse lunar. Aristarco estimó que el radio terrestre era unas dos
veces el de la Luna, aunque un valor más aproximado es de unas cuatro veces. A partir
de esta medición y teniendo en cuenta el hecho de que el Sol y la Luna se ven aproxima-
damente del mismo tamaño, es decir que sus diámetros subtienden el mismo ángulo, se
puede concluir que, de acuerdo con las mediciones de Aristarco, el radio del Sol es unas
veinte veces mayor que el de la Luna y unas diez veces mayor que el de la Tierra. De nuevo
tenemos un error de medida considerable, pero sigue siendo importante el hecho de haber
podido determinar que el Sol es mucho más grande que la Tierra, lo que, aparentemente,
llevó a Aristarco a proponer que era esta la que giraba alrededor de aquel, y no lo contrario,
como predicaban los modelos de la época.

Física conceptual
Capítulo 1: El nacimiento de la astronomía

1.9 La circunferencia terrestre


La determinación del valor de la circunferencia terrestre se atribuye a Eratóstenes unos tres
siglos antes de nuestra era, en la ciudad de Alejandría. Eratóstenes utilizó el hecho cono-
cido de que el día del solsticio de verano el Sol cae perpendicularmente a mediodía sobre
la ciudad de Siena, hoy Asuán. De hecho, en esta ciudad se había construido un santuario 25
solar. Eratóstenes determinó el ángulo de incidencia de los rayos del Sol, α, el mismo día
y a la misma hora, sobre la ciudad de Alejandría, situada unos 800 kilómetros al norte de
Siena. Gracias al apoyo del rey, un destacamento de infantería midió la distancia entre las
dos ciudades, que vamos a denominar AS; de esta manera se pudo determinar el radio de
la Tierra, R, a partir de la siguiente relación (figura 1.11):

Rα = 800 km

Figura 1.11. Mediciones de Eratóstenes.

No hay un acuerdo bien establecido entre los historiadores respecto al valor que obtuvo,
pues lo expresó en estadios, pero no especificó si eran estadios griegos o romanos, que
tienen diferente longitud, además del hecho de que Asuán y Alejandría no se encuentran
exactamente sobre el mismo meridiano, lo que introduce un factor de error considerable.
En el mejor de los casos se podría estimar el valor obtenido para el radio de la Tierra por
Eratóstenes en 6840 kilómetros, mientras que el valor real es de 6370, lo que constituye
una excelente aproximación teniendo en cuenta el método de medición utilizado. Indepen-
dientemente del valor obtenido, lo importante es saber que casi mil ochocientos años antes
de Colón se tenía conocimiento de que la Tierra era redonda y se disponía de un método,
con errores, pero susceptible de ser perfeccionado, para determinar sus dimensiones.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 1: El nacimiento de la astronomía

Resumen
Gracias a la observación astronómica, ingenua y a ojo desnudo, el hombre pri-
mitivo empezó a descubrir regularidades y a establecer una correlación con pro-
26 cesos cíclicos que afectaban su vida cotidiana y mejoraban sus posibilidades de
supervivencia. En primer lugar, el movimiento concertado de las estrellas fijas,
como si giraran alrededor de un eje, permitió definir los polos celestes y disponer
de un valioso recurso para la orientación; y, en segundo lugar, la agrupación de
estrellas de acuerdo a su brillo y a las figuras que suscitaban en la imaginación del
observador, así como el comportamiento aparentemente errático de los planetas,
permitió hacer una primera clasificación de los objetos celestes. Posteriormente
se definió el año a partir de la observación de la regularidad y de la periodicidad
del movimiento del Sol respecto a las estrellas a lo largo de la eclíptica para
completar un ciclo en 365 días, que corresponde, aproximadamente, a unos doce
ciclos lunares, y se establecieron las bases para la elaboración del calendario,
que habría de constituirse en la guía de los eventos comunitarios de mayor im-
portancia. Adicionalmente, la necesidad de predecir eventos astronómicos como
los eclipses y las conjunciones planetarias condujo a la elaboración de modelos
astronómicos, a partir de la idea de que el circular era el único movimiento posible
para los astros.

La necesidad de ajustar el calendario a los eventos astronómicos que le sirven de


referencia, y de poder predecir eclipses y otros sucesos celestes, determinaron
la necesidad de elaborar modelos astronómicos, de hacer suposiciones sobre
la forma de la Tierra y de la órbitas celestes, y sobre la disposición de los astros
alrededor de la Tierra. El resultado fue una mezcla de observaciones y conjeturas
basadas en el axioma del movimiento circular, que dio lugar a la elaboración,
primero, de modelos mecánicos de esferas concéntricas, y después a modelos
puramente cinemáticos que usaban deferentes, ecuantes y epiciclos.

Nacimiento de la Astronomía

Física conceptual
Capítulo 1: El nacimiento de la astronomía

Cuestionario

1. ¿Qué situaciones de tipo social y comunitario determinaron la elaboración del calen-


dario? 27
2. ¿Cuáles son las características del movimiento astronómico que pueden servir como
referencia para medir largos periodos?
3. ¿Qué característica del movimiento colectivo de los astros permite establecer refe-
rentes de orientación geográfica?
5. ¿Cómo se puede establecer un calendario en un país como Colombia, donde no
existen ciclos estacionales tan marcados como en los países de altas latitudes?
6. ¿Qué tiene de ventajoso un calendario solar respecto a un calendario lunar?
7. ¿Qué ventajas ofrece el sistema numérico sexagesimal para la observación astronó-
mica?
8. ¿Qué relación se puede establecer entre la observación de los astros y los sistemas
horarios con los que se miden pequeños intervalos de tiempo?
9. ¿Por qué razón las manecillas del reloj giran en sentido contrario a la dirección de
aumento positivo de los ángulos en un plano cartesiano?
10. ¿Qué hora es en el polo norte en este momento?
11. ¿Cuál es la principal característica de los cuerpos celestes que se pueden percibir a
simple vista, denominados planetas?
12. ¿Qué relación existe entre la posición del Sol respecto a las estrellas y los días de
solsticio y equinoccio?
13. ¿Qué fenómeno solar se manifiesta en la Tierra en los días de solsticio y equinoccio?
14. Demuestre que aunque la duración del día y de la noche cambia continuamente a lo
largo del año en todo el planeta, en el ecuador siempre duran lo mismo.
15. ¿Qué característica geográfica comparten los puntos de un paralelo?
16. ¿Qué característica geográfica comparten los puntos de un meridiano?
17. ¿Qué causas de error pudieron haber afectado las mediciones y los cálculos de Era-
tóstenes de la circunferencia terrestre?
18. ¿Cómo se puede determinar la latitud local a partir de observaciones solares y astro-
nómicas?
19. ¿A partir de qué observación directa se puede asegurar que el Sol es mayor que la
Luna, y que está más lejos que ella de la Tierra?
20. ¿Cómo se puede explicar el movimiento retrógrado de los planetas a partir de un
modelo geocéntrico con epiciclos?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas. 
Bernal, J. (1975). Historia de la física clásica. Siglo Veintiuno.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press. 
Jeans, J. (1968). Historia de la física. FCE. 
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia. 
Capítulo 2 La revolución copernicana

Introducción

Durante un periodo de casi mil quinientos años comprendido entre los siglos II y XVI, la práctica de
la astronomía hizo pocos progresos en cuanto a sus técnicas y modelos, aunque gracias a los ára-
bes después del siglo VII conservó una vigorosa actividad en aspectos como la observación de los
astros y la elaboración de tablas y manuales astronómicos. En el transcurso de este periodo había
estado vigente el calendario juliano, pero hacia mediados del siglo XVI se presentaba un desfase de
cerca de catorce días entre los días de equinoccio y solsticio y las fechas correspondientes. El papa
Gregorio XIII ordenó a los astrónomos de la cristiandad la elaboración de un nuevo calendario que
restaurara el equinoccio vernal, y en 1582 se adelantó la fecha haciendo que el día siguiente al 4
de octubre fuera el 15 de octubre. El nuevo calendario fue adoptado inmediatamente por los países
de influencia católica, y con el transcurso del tiempo todos los demás fueron adoptándolo, con la
excepción de los países islámicos que todavía utilizan su propio calendario. En particular, Inglaterra
y sus colonias solo adoptaron el nuevo calendario en el año 1752.

El desfase que se presentaba entre las fechas del calendario y la ocurrencia de los fenómenos
astronómicos que le sirven de referencia se debía a que el calendario juliano se basaba en años de
365.25 días, pero el verdadero valor del año solar es de 365 días 5 horas 48 minutos y 46 segundos,
o sea 365.2425 días, lo que causa un retraso de casi un día por siglo. A diferencia del calendario
juliano, el gregoriano está concebido para que haya una adecuada correspondencia entre las fechas
y los eventos astronómicos durante 20.000 años debido a que elimina los años bisiestos en todos
los finales de siglo, excepto si son divisibles por 400 o por 4000.

La necesidad de reformar el calendario conllevó una revisión a fondo de las tablas astronómicas y
del modelo y los artificios de cálculo astronómicos vigentes para la época, lo que permitió evidenciar,
una vez más, lo extraordinariamente complicado que resultaba la realización de un cálculo al tener
que manipular de manera simultánea un gran número de epiciclos, dificultad que se veía agravada
cuando, como sucedía con frecuencia, los cálculos y las observaciones no concordaban y se hacía
necesario introducir correcciones. Los astrónomos clamaban por modelos más sencillos que simpli-
ficaran e hicieran más fácil su trabajo, y se empezó a contemplar la idea de que un modelo diferente
al de Ptolomeo podría satisfacer estas aspiraciones, lo cual encontró condiciones favorables en el
ambiente intelectual del Renacimiento.

El renovado interés por la cultura griega, que se generalizó en Europa a finales de la Edad Media,
puso en contacto a los estudiosos de la época con los grandes desarrollos científicos, matemáticos
y astronómicos que habían hecho los griegos, particularmente en Alejandría, lo cual fomentó una
Capítulo 2 : La revolución copernicana

actitud crítica a la filosofía de Aristóteles, que era el soporte de la doctrina de la Iglesia cató-
lica, y, por el contrario, a la exaltación de la filosofía de Platón y de las doctrinas pitagóricas
referentes a la perfección matemática del universo y la posibilidad de descubrir sus leyes a
partir del estudio de las matemáticas y la geometría, disciplinas que en la época tenían muy
bajo estatus intelectual frente a otras como la teología, la retórica o la filosofía, que gozaban
30 del máximo reconocimiento.

2.1 El sistema de Copérnico


Un factor de gran importancia para la revisión de la astronomía y de los modelos esta-
blecidos sobre el universo fue la necesidad de disponer de tablas astronómicas de gran
exactitud como elementos auxiliares para la orientación y la navegación en alta mar. Una
de las consecuencias del descubrimiento de América fue un considerable incremento en
la importancia económica y social de la navegación, hasta el punto de que algunas de
las más importantes cortes europeas ofrecieron recompensas a quien pudiera resolver el
problema de la determinación de la longitud, o distancia al meridiano cero, hoy meridiano
de Greenwich. La solución de este problema exige la comparación de la hora local con una
hora universal de referencia, que a la postre sería la del meridiano de Greenwich, pero en
la época no se disponía de relojes que pudieran transportar de manera confiable la hora de
un lugar de referencia, de modo que la única opción disponible era tratar de determinar la
hora mediante tablas de posiciones de la Luna, lo que demandaba una gran exactitud en la
predicción de la posición del astro en cuestión, pero era prácticamente imposible de realizar
a bordo de un barco en alta mar.

Fue en este ambiente intelectual que la obra del astrónomo polaco Nicolás Copérnico
(1473-1543) surgió como una alternativa esperanzadora. Copérnico estudió astronomía en
Italia con el famoso astrónomo Francisco María Novaro, y se familiarizó con el Almagesto,
la monumental obra astronómica de Ptolomeo, base fundamental de la astronomía oficial.
Pero Copérnico también conoció la dura crítica que hizo Pico de la Mirandola a la astrono-
mía de la época en su obra Crítica a la astrología adivinatoria, en la que descalificaba la
pretensión de los astrólogos de adivinar el futuro a partir de la interpretación de los astros,
cuando ni siquiera podían ponerse de acuerdo en la posición de los planetas. En efecto, el
modelo de Ptolomeo afirmaba que Venus estaba más cerca del Sol que Mercurio, y este
más cerca de la Luna, y que los dos recorrían órbitas en epiciclos entre la Tierra y el Sol,
por lo cual se denominaban planetas interiores; no obstante, otros afirmaban que los dos
planetas se hallaban más allá de la órbita del Sol, lo que daba cuenta de la incertidumbre
en la que se encontraba la astronomía de la época, y esto imponía, por tanto, la necesidad
de hacer reformas, tales como la que Copérnico estaba a punto de proponer. Es importante
tener en cuenta que en la época de Copérnico las profesiones de astrónomo, astrólogo y
matemático se confundían entre sí.

Física conceptual
Capítulo 2: La revolución copernicana

La obra magna de Copérnico, Sobre las revoluciones de las esferas celestes, se publicó en
1543 (el mismo año de la muerte de su autor) gracias al empeño del astrónomo protestante
Cornelio Rético, quien alentó a Copérnico a que publicara el texto y realizó gran parte de
los trámites necesarios para su impresión. Sin embargo, antes de salir a la luz pública, la
Iglesia protestante condenó el libro al considerar que defender el movimiento de la Tierra 31
y la inmovilidad del Sol era ponerse en contra de las Sagradas Escrituras, donde se afirma
explícitamente lo contrario. Por esta razón el impresor Andreas Ossiander, con el fin de
no perder la cuantiosa inversión que ya se había hecho, decidió publicarlo añadiendo un
prólogo apócrifo en el que, supuestamente, el autor afirmaba que las ideas expuestas en el
texto se debían tomar como meras hipótesis cuya única finalidad era facilitar la realización
de cálculos astronómicos, sin ninguna pretensión de verdad. Por su parte, la Iglesia católica
puso a la obra de Copérnico en el Índice de libros prohibidos en 1616, hasta 1822 cuando
se permitió a los fieles estudiar lo que para entonces ya era el modelo oficial de la astrono-
mía en la mayor parte del mundo civilizado (figura 2.1).

Figura 2.1. El modelo de Copérnico.

El modelo de Copérnico se fundamenta en siete postulados básicos:

1. No existe un único centro de todas las esferas celestes.


2. El centro de la Tierra no es el centro del universo sino el centro de la gravedad y de
la esfera lunar.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

3. Todas las esferas giran alrededor del Sol, que es el centro del universo.
4. La relación entre la distancia de la Tierra al Sol y la distancia al firmamento es tan
inferior a la relación entre el radio de la Tierra y su distancia al Sol, que la distancia
de la Tierra al Sol es imperceptible comparada con la distancia al firmamento.
5. Todos los movimientos que parece hacer el firmamento no provienen del firma-
mento mismo sino del movimiento de la Tierra, que, junto con todo lo que la rodea,
32 realiza una rotación completa sobre sí misma diariamente, mientras el firmamento
permanece inmóvil.
6. Lo que se nos presenta como movimiento del Sol no proviene de su movimiento
sino del movimiento de la Tierra y de su esfera, con la que gira alrededor del Sol
como cualquier planeta; por tanto, la Tierra tiene más de un movimiento.
7. Los movimientos retrógrados y directos de los planetas no provienen de sus mo-
vimientos sino del de la Tierra. El movimiento de la Tierra por sí solo es suficiente
para explicar los movimientos de los cielos.

Copérnico asigna a la Tierra tres tipos de movimientos: el de rotación sobre su eje con una
duración de 24 horas, que explica la sucesión del día y la noche; uno de traslación alrededor
del Sol a lo largo de una órbita excéntrica, que dura un año sideral; y un movimiento de
declinación del eje de rotación, que explica la precesión de los equinoccios, que había sido
descubierta por Hiparco de Nicea en la época de oro de la astronomía en Alejandría. Fiel
a la tradición, Copérnico preserva la circularidad del movimiento astronómico y continúa
utilizando los epiciclos como artificio para reproducir las órbitas planetarias y para construir
órbitas excéntricas como la de la Tierra alrededor del Sol, o la de la Luna alrededor de la
Tierra, de tal forma que se puedan explicar las variaciones en las distancias relativas de
los astros, que se manifiestan en los cambios de brillo de los planetas o en la ocurrencia
de eclipses parciales o totales de sol. Pero a diferencia de Ptolomeo, Copérnico prescinde
del uso del ecuante, una construcción introducida por Ptolomeo con el fin de recuperar la
regularidad del movimiento astronómico mediante la definición de un punto desde el que el
planeta parece describir un movimiento angular uniforme. El punto ecuante fue introducido
por Ptolomeo para subsanar la aparente irregularidad del movimiento de los planetas que
cambian continuamente de velocidad a lo largo de su trayectoria cuando son vistos desde
la Tierra.

Inicialmente Copérnico utilizó 34 círculos para reproducir el movimiento astronómico, asig-


nando 7 a Mercurio, 5 a Venus, 3 a la Tierra, 4 a la Luna, 5 a Marte, 5 a Júpiter y 5 a Saturno.
Mediante su modelo era posible salvar las apariencias y dar una explicación cualitativamen-
te más sencilla del movimiento astronómico, en particular de las retrogradaciones plane-
tarias, que ocurren en periodos un poco mayores que un año sideral como consecuencia
del cambio de perspectiva asociado al movimiento relativo entre la Tierra y el planeta que
ejecuta la retrogradación (figura 2.2).

Física conceptual
Capítulo 2: La revolución copernicana

33

Figura 2.2. Retrogradación planetaria.

El acompañamiento de Venus y Mercurio al Sol se explica de manera más sencilla con el


modelo de Copérnico que con el de su predecesor (figura 2.3). El cambio de brillo de los
planetas constituía un aspecto crítico dada la diferencia en la explicación del fenómeno que
hacían los dos modelos; una vez que Galileo introdujo la observación telescópica en la as-
tronomía, la determinación visual de las fases de Venus constituyó un argumento decisivo
para descartar el modelo de Ptolomeo, aunque no haya sido un argumento concluyente
para validar el de Copérnico (figura 2.4).

Figura 2.3. Planetas interiores.

Una diferencia importante entre los modelos de Ptolomeo y de Copérnico es la distribución


de los planetas. Según el modelo de Ptolomeo, Mercurio está más cerca de la Tierra que

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

Venus, en tanto que en el de Copérnico sucede a la inversa y los planetas se distribuyen


a partir del Sol de acuerdo con el periodo de su órbita en la siguiente sucesión: Mercurio,
Venus, Tierra, Marte, Júpiter y Saturno; la Luna gira alrededor de la Tierra y la esfera de
estrellas fijas permanece inmóvil más allá de todos los planetas. Finalmente el modelo llegó
a tener 48 círculos para tratar de describir con la mayor precisión el movimiento astronómi-
34 co, lo que determinó que, desde el punto de vista del cálculo y la predicción astronómica,
el modelo fuera tan complicado como aquel que pretendía reemplazar, o aun más. El reto
para los seguidores de Copérnico era demostrar que su modelo tenía la suficiente precisión
como para justificar el esfuerzo adicional que significaba su uso, dada su mayor compleji-
dad, para poder aprovechar su relativa simplicidad conceptual.

Figura 2.4. Las fases de Venus según Ptolomeo y Copérnico.

2.2 Objeciones al modelo copernicano


A pesar de que en ciertos círculos letrados el ambiente era favorable a la introducción de un
cambio radical en la astronomía, no era, ni mucho menos, una actitud generalizada: no se
puede pretender cambiar de un día para otro creencias arraigadas que se han mantenido
durante miles de años sin causar una gran conmoción, tal como la que provocó la obra de
Copérnico, de la cual surgió la acepción política de la palabra revolución. Los puntos de
mayor polémica eran la supuesta movilidad de la Tierra y que ya no ocupara el centro del
universo puesto que la filosofía escolástica daba mucha importancia a la idea de que el
hombre, situado en el centro del universo, era el centro de la creación. La posibilidad del
movimiento de la Tierra se había planteado en varias ocasiones a lo largo de la historia, y
siempre había tropezado con la misma objeción: ¿cómo es posible que si la Tierra se mue-
ve el movimiento no se sienta? Este argumento, sólidamente aferrado al sentido común,

Física conceptual
Capítulo 2: La revolución copernicana

constituía una clara manifestación de la concepción del movimiento dominante en la época,


que se puede resumir en la siguiente frase: las cosas no se mueven solas. Si la Tierra se
mueve, ¿qué la mueve? ¿Qué, o quién, tiene la inmensa fuerza necesaria para mover la
Tierra? Si la Tierra gira hacia el este, ¿por qué no se siente un viento huracanado hacia
el oeste? ¿Cómo es posible que la Tierra rote sobre sí misma y que no se despedace al
hacerlo? 35

Copérnico pretende responder a estas objeciones dentro del mismo esquema conceptual,
al afirmar que la Tierra es el centro de la gravedad, es decir, de la caída de los cuerpos, y
del movimiento de la Luna, y que todas las cosas que hay en la Tierra y alrededor de ella la
acompañan solidariamente en su viaje. Explica el movimiento de rotación y de traslación en
una órbita circular por ser lo más apropiado para un cuerpo que, como la Tierra, tiene forma
esférica. Además replica al argumento de que la Tierra se debería despedazar al rotar sobre
sí misma diciendo que, al ser mucho más grande que la Tierra, la esfera de las estrellas
fijas tendría una mayor razón para despedazarse, cosa que no sucede. En el caso de este
último contraargumento, Copérnico incurre en una omisión, pues aparentemente no tiene
en cuenta que los cuerpos celestes se suponían compuestos por un material de diferente
naturaleza al que compone la Tierra, y, por tanto, sujeto a diferentes condiciones.

Algunos historiadores, como Thomas Kuhn, afirman que, más que un revolucionario de la
astronomía, Copérnico fue el último astrónomo clásico, y que su modelo fue el último intento
por salvar la astronomía y sus conceptos de base tal y como se habían mantenido durante
más de dos mil años. Las radicales innovaciones que habrían de realizar los sucesores de
Copérnico para poner a punto su sistema y lograr su aceptación demostrando su sencillez
y eficacia respaldan esta posición.

Pero, independientemente de las objeciones planteadas contra el sistema y las respuestas


de Copérnico en defensa de su obra, queda claro que la aceptación del sistema coperni-
cano tiene como costo el cambio de la doctrina con la que la humanidad ha conocido y,
supuestamente, comprendido los fenómenos asociados al movimiento de los cuerpos, o
cambio local, como se lo denomina en la física de Aristóteles.

2.3 Las leyes de Kepler


La obra de Copérnico no fue acogida inmediatamente por toda la comunidad de astróno-
mos, sino que tuvo una asimilación lenta, y en ocasiones tortuosa, por el gran esfuerzo que
suponía cambiar toda una tradición de pensamiento, arraigada durante milenios y aceptada
por las autoridades de la época. Sin embargo, las ideas de Copérnico se fueron abriendo
paso y paulatinamente fue creciendo el número de sus defensores, entre los que se encon-

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

traba quien llegaría a ser el astrónomo más importante de su época, el alemán Johannes
Kepler (1571-1630). Formado en la tradición pitagórica, lo que muy probablemente lo llevó
a adoptar la causa de Copérnico, pues los pitagóricos rendían culto al Sol como la máxima
deidad, Kepler se dio a la tarea de encontrar en el universo, a través del modelo de Copér-
nico, las armonías matemáticas y geométricas que, supuestamente, regían sus movimien-
36 tos. Dotado de una imaginación tan grande como sus capacidades de matemático, Kepler
creyó haber descubierto en los cinco sólidos perfectos la razón de que solo hubiera los seis
planetas que se conocían en su época. Buscando relaciones geométricas entre las órbitas
planetarias, Kepler inscribió los cinco sólidos regulares en las seis esferas planetarias, pero
como no pudo conseguir el acuerdo perfecto entre el cálculo matemático, el modelo geomé-
trico y los valores entonces conocidos de los radios de las órbitas, decidió que las esferas
planetarias debían tener un cierto espesor, de tal manera que forzando un poco los datos
pudo llegar a lo que para él fue un gran descubrimiento, aunque el resultado obtenido no
fue exactamente como se esperaba, pues en lugar de una única armonía celeste o música
celestial emitida por las esferas planetarias en su movimiento, se obtenía una melodía
que alternaba de tonalidad en notas altas y bajas. Al igual que en el caso de las órbitas y
los sólidos regulares, Kepler “descubrió” otras supuestas regularidades matemáticas en el
universo, que no resistieron la prueba del tiempo, como aquella que pretendía explicar por
qué Júpiter tenía cuatro satélites y la Tierra solo uno, pero en medio de la confusa maraña
de seudodescubrimientos y supuestas regularidades matemáticas, también encontró las
tres primeras leyes universales del movimiento astronómico, gracias, en gran parte, a las
tablas de observaciones astronómicas del astrónomo danés Tycho Brahe (1546-1601), cu-
yos datos tenían la mejor precisión que se podía lograr con los instrumentos de la época.

2.4 El modelo de Tycho Brahe


Tycho Brahe fue un personaje singular en la historia de la astronomía. A diferencia de la
mayoría de los astrónomos, que eran gentes de condición humilde que accedían al conoci-
miento entrando a los monasterios o mientras estaban al servicio de la iglesia, Tycho era de
noble cuna, y se dice que se dedicó a la astronomía indignado porque los astrónomos de
su época habían sido incapaces de predecir con precisión la fecha de un eclipse. Gracias
al patrocinio real, Tycho dispuso de un importante observatorio donde se dedicó a la ob-
servación y al registro sistemático del movimiento de los cuerpos celestes, por lo cual pudo
reunir el mejor y más preciso catálogo de observaciones astronómicas de su época, con
una precisión del orden de un minuto de arco.

A pesar de conocer el modelo de Copérnico, Tycho no lo acogió por considerarlo contrario a


las Sagradas Escrituras y a las leyes físicas, argumentando que el alcance de los cañones
no se veía afectado por la dirección en la que disparaban sus balas. Si la Tierra rota hacia

Física conceptual
Capítulo 2: La revolución copernicana

el este, argumentaba Tycho, una bala de cañón debería avanzar más cuando es disparada
hacia el oeste, pues el blanco se mueve hacia el lugar desde donde disparó el cañón, que
cuando es disparada hacia el este, pues en el último caso el blanco se aleja de donde fue
disparada la bala. Aunque no hay indicios de que Tycho hubiera realizado ningún tipo de ex-
perimento con cañones, los de su época no le habrían permitido llegar a ninguna conclusión
definitiva en vista del muy corto alcance que poseían, de tan solo unos cientos de metros. 37
No deja de ser paradójico que cuando a principios del siglo XX los barcos dispusieron de
cañones con un alcance de hasta veinte kilómetros, los artilleros se vieron en la necesidad
de tener en cuenta la rotación de la Tierra para acertar en el blanco.

Una notable observación que realizó Tycho fue la de una estrella nova. Anotando su posi-
ción con mucho cuidado durante varios días consecutivos en los que la estrella iba cam-
biando de brillo, Tycho pudo determinar que se trataba de un cuerpo celeste y no de un
cometa o de otro supuesto fenómeno sublunar, pues no cambiaba de posición respeto a
las estrellas fijas. Esta observación contradecía claramente la doctrina aristotélica de la
perfección e inmutabilidad del mundo celeste.

Consciente de las dificultades que presentaba el modelo de Ptolomeo y de la necesidad


de buscar alternativas que facilitaran los procesos de cálculo y la labor de los astrónomos,
Tycho propuso un modelo que resultaba ser un compromiso entre el de Ptolomeo y el de
Copérnico. La Tierra seguía siendo el centro del universo, pero todos los planetas giraban
en círculos alrededor del Sol, que, a su vez, giraba alrededor de la Tierra. El modelo de
Tycho (figura 2.5) representaba un avance respecto al de Ptolomeo al considerar la posi-
bilidad de que la Tierra no fuera el único centro del movimiento astronómico, y al asignarle
al Sol un papel de gran importancia; también tenía la ventaja de ser equivalente al de
Copérnico desde el punto de vista cinemático, de tal suerte que ambos modelos hacían las
mismas predicciones sobre las fases de los planetas. Sin embargo, Tycho no lograba que
sus precisas observaciones se adecuaran a las predicciones hechas a partir de su modelo;
entonces buscó la colaboración del astrónomo alemán Johannes Kepler.

Las relaciones entre Tycho y Kepler fueron tormentosas debido a que el primero era un cor-
tesano amante de los placeres mundanos, mientras que el alemán era un individuo retraído
y poco sociable, y no fue sino hasta después de la muerte de Tycho que tuvo Kepler pleno
acceso a los datos astronómicos de gran precisión con los que trató de demostrar la validez
del modelo copernicano.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

38

Figura 2.5. El modelo de Tycho.

2.5 Primera ley de Kepler


Kepler se dedicó a la predicción del movimiento de Marte a partir del modelo teórico procu-
rando que hubiera concordancia con los datos observacionales de los que se disponía; sin
embargo, pese a todos los esfuerzos que hizo, se encontraba en algunos casos que había
una diferencia sistemática del orden de seis minutos de arco, que no se podía atribuir a
errores de medición puesto que la precisión de los datos de Tycho era muy superior a ese
valor. En vista de lo anterior, y poniendo por encima la precisión de los datos astronómi-
cos sobre los prejuicios platónicos respecto a la perfección del movimiento circular, Kepler
arriesgó la posibilidad de que la órbita marciana tuviera forma ovoide, con lo cual logró una
mejor concordancia entre los datos y el modelo. Luego descubrió que la órbita que mejor
se acomodaba a los datos era una elipse con el Sol situado en uno de los focos, y muy
pronto extendió su descubrimiento a los demás planetas, lo que permitió establecer la que
se considera es la primera ley universal que se haya propuesto en la historia (figura 2.6):

“Todos los planetas describen órbitas elípticas con el Sol situado en uno de los focos”.

Física conceptual
Capítulo 2: La revolución copernicana

39

Figura 2.6. Primera ley de Kepler.

La primera ley de Kepler supone un sacrificio conceptual de igual o mayor valor que el
realizado por Copérnico al ceder el privilegiado centro del universo a un cuerpo diferente
a la Tierra, puesto que el axioma de circularidad, íntimamente asociado a la perfección del
mundo celeste, era la más antigua y venerada de las ideas de la astronomía; sin embargo,
Kepler renunció a él ante la evidencia de los datos astronómicos de Tycho. Se puede decir
que este es uno de los más importantes aportes metodológicos que Kepler hizo a la cons-
trucción de la ciencia moderna.

2.6 Las cónicas


La elipse hace parte de una familia de curvas que resultan de la intersección de un cono con
un plano, por lo que se las denomina “cónicas” (figura 2.7). Las cónicas fueron estudiadas
extensamente en Alejandría por el matemático Menecmo. A diferencia de los matemáticos
griegos que consideraban que la circunferencia era la única curva digna de atención por
su perfección y la posibilidad de construirla con un simple compás, las curvas mecánicas,
como se denominaba a otras figuras como la elipse, eran consideradas de inferior catego-
ría. El calificativo de mecánicas que se asignaba a las cónicas proviene del hecho de que
se pueden construir mediante diferentes artificios. Como ejemplo podemos considerar la
elipse, que se puede dibujar fijando los dos extremos de un hilo y recorriendo con un lápiz
todos los puntos que permite el hilo tensado. Los puntos de fijación se denominan focos de
la elipse. También pertenecen a la familia de las cónicas la circunferencia, la parábola y la
hipérbola.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

40

Figura 2.7. Las cónicas.

Consideremos las posibles intersecciones de un plano y un cono, teniendo en cuenta que


el cono es la figura doble que resulta al hacer rotar una línea denominada generatriz alre-
dedor de un eje que se cruza con ella y con el cual hace un ángulo α. Cuando el plano es
perpendicular al eje del cono, la figura de intersección es la circunferencia; cuando el plano
secante es paralelo a la generatriz, resulta la parábola; cuando el ángulo que hace el plano
es menor que 90 grados pero mayor que α, corta completamente el cono y genera la elipse;
y cuando el ángulo que hace el plano con el eje del cono es menor que α y mayor o igual
que cero, se forman las dos ramas de la hipérbola. Es importante anotar que para un cono
dado solo existe una inclinación del plano respecto al eje para obtener la circunferencia, y
una para la parábola; en cambio existe un número infinito de ángulos de inclinación, dentro
de un rango definido de valores posibles, para las elipses y las hipérbolas. Este notable
hecho cobrará importancia cuando, al resolver las ecuaciones del movimiento de un cuerpo
sometido a fuerzas gravitacionales, Newton se reencuentre con la familia de las cónicas
como solución al problema que estaba estudiando.

2.7 Segunda ley de Kepler


Ptolomeo había introducido el punto ecuante con el fin de disponer de un medio de cálculo
que permitiera definir la posición de un planeta en su órbita. El ecuante correspondía al
punto, fuera del centro de la órbita o del centro de la deferente, respecto al cual el planeta se
movía con una velocidad angular constante, esto es, barriendo ángulos iguales en tiempos
iguales. Aparte de ser un artificio de cálculo, el punto ecuante reestablecía la uniformidad
perdida en el movimiento del planeta cuya velocidad cambiaba a lo largo de la trayectoria,
en aparente contradicción con la uniformidad del movimiento circular, propio de los cuerpos
celestes. Aunque Copérnico eliminó el punto ecuante de su modelo, Kepler lo utilizó repeti-

Física conceptual
Capítulo 2: La revolución copernicana

damente tratando de llegar a la mejor concordancia posible entre el modelo que pretendía
verificar y los datos astronómicos de los que disponía, y de esta manera descubrió que “el
radio que va del Sol al planeta barre áreas iguales en tiempos iguales”, lo que constituye su
segunda ley del movimiento planetario (figura 2.8). Tal como sucedía con el punto ecuante,
esta ley permite recuperar la regularidad donde aparentemente hay una falta de uniformi-
dad. De acuerdo con esta ley, cuando un planeta está más alejado del Sol y su radio vector 41
es mayor, barre un área determinada en un lapso de tiempo T. Posteriormente, cuando el
planeta se encuentra en la posición opuesta, su radio vector es menor y en el mismo lapso
de tiempo T debe recorrer una distancia mayor para barrer la misma área, como conse-
cuencia de lo cual resulta que cuando el planeta se encuentra más cerca al Sol su velocidad
es mayor. La ley de áreas permite conocer la velocidad de desplazamiento del planeta en
cualquier punto de su órbita.

Figura 2.8. Ley de áreas.

Kepler interpretó el hecho de que la velocidad del planeta aumentara cuando estaba más
cerca al Sol suponiendo que el Sol era responsable del movimiento planetario y trabajó
arduamente tratando de encontrar la forma matemática de la ley de fuerzas que gobierna
este movimiento. Aunque no logró su objetivo dejó planteado el problema que, al ser re-
suelto por Newton, habría de poner a la astronomía sobre sólidas bases físico-matemáticas.
También anticipó que dos cuerpos suspendidos en el espacio e inicialmente en reposo se
debían atraer hasta chocar en un punto tal que la distancia recorrida por cada cuerpo debía
ser inversamente proporcional a su masa. Actualmente este punto se denomina centro de
masas del sistema.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

2.8 Tercera ley de Kepler


La tercera ley de Kepler es el resultado de su búsqueda de la armonía celeste o música de
las esferas, enmarcada en la más acendrada tradición pitagórica. Al igual que Filolao cuan-
do concibió su modelo perfecto compuesto por diez cuerpos celestes, distribuidos de tal
42 manera que al moverse en su conjunto producirían la armonía celeste, Kepler buscó hasta
encontrar una relación entre los radios medios de las órbitas planetarias y sus periodos de
revolución. La tercera ley de Kepler para el movimiento planetario establece que el cuadra-
do del periodo de las órbitas es proporcional al cubo de los radios medios (figura 2.9):

T2 α R3 (2.1)

Aunque las órbitas planetarias son elípticas, su excentricidad es muy pequeña, y en algu-
nos casos, como en este, se pueden considerar aproximadamente circulares, con un radio
igual a su radio promedio. Si se miden las distancias astronómicas en términos del radio
medio de la órbita de la Tierra, RT, y los periodos orbitales en años, lo que constituye las de-
nominadas unidades astronómicas, UA, la tercera ley de Kepler se puede expresar como:

T2 = R3 (2.2)

Valiéndose de la tercera ley de Kepler es posible determinar los radios de las órbitas plane-
tarias a partir de sus periodos. También es posible calcular la velocidad orbital

V = 2πR/T (2.3)

de modo que

V2 = 4πR2/T2 (2.4)

Utilizando (2.2) en (2.4) se obtiene que

V2 = 4π2/R en UA (2.5)

De la ecuación (2.5) se deduce que la velocidad del planeta es inversamente proporcional


a la raíz cuadrada del radio de su órbita, de donde Kepler concluyó que la fuerza con la que
el Sol mueve a los planetas disminuye con la distancia. También llegó a una sorprendente
conclusión respecto al movimiento del Sol. Para explicar la forma en que el Sol movía a
los planetas, Kepler utilizó las ideas expuestas por el inglés William Gilbert en su célebre
tratado sobre la electricidad y el magnetismo, De magnete, publicado en 1600, en el que
se afirma que la Tierra, la Luna y el Sol interactúan mediante fuerzas magnéticas. Kepler
suponía que una fuerza magnética conectaba a cada planeta con el Sol y que este, al rotar,

Física conceptual
Capítulo 2: La revolución copernicana

hacía que los planetas se movieran en sus órbitas, como si se tratara de un inmenso carru-
sel. Sin embargo, la rotación del Sol, descubierta por Galileo al observar el desplazamiento
de las manchas solares mediante el telescopio, no tiene relación directa con la suposición
de Kepler.

Aunque Kepler no hizo ningún avance positivo en la solución del problema del movimien- 43
to astronómico, dado que seguía aferrado a la concepción aristotélica del movimiento, al
sugerir la posible existencia de una ley matemática que describe las fuerzas que rigen el
movimiento de los astros contribuyó a plantear con más precisión el problema que habría
de ser resuelto con base en la dinámica elaborada por Galileo y Newton.

Figura 2.9. Relación entre el radio y el periodo orbital.

2.9 Astronomía telescópica


Gracias a las innovaciones introducidas en el telescopio y a su utilización en la observación
del movimiento de los astros se hicieron importantes descubrimientos y el estudio de la as-
tronomía experimentó un gran avance, favorable a la aceptación del sistema copernicano.
La concepción tradicional del movimiento, asociada a la filosofía aristotélica y al sentido
común, representaba un serio obstáculo para asimilar la idea del movimiento de la Tierra,
lo que hizo necesario el desarrollo de una nueva mecánica por parte de Galileo y ocasionó
serios enfrentamientos entre este y los filósofos escolásticos.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

44

Figura 2.10. El telescopio de Galileo.


Tomado de: http://bit.ly/1UDwrgw

2.10 Primeras observaciones elescópicas


La aceptación del modelo copernicano recibió un espaldarazo gracias a los descubrimien-
tos hechos por Galileo Galilei (1564-1642) por medio del telescopio (figura 2.10). Aunque no
fue su inventor, Galileo introdujo mejoras sustanciales a lo que, al parecer, era un invento
conocido y utilizado en Holanda principalmente para avistar los navíos de carga mucho
antes de que llegaran al muelle, lo que confería ventajas comerciales a quien pudiese esta-
blecer el tipo de mercancía que estaba a punto de llegar a puerto. Cuando Galileo utilizó su
telescopio para mirar a los cielos comprobó que sus observaciones contradecían la doctrina
escolástica sobre la perfección del mundo celeste. La Luna estaba muy lejos de ser una
esfera de plata pulida y, por el contrario, mostraba el aspecto de un desierto terrestre, con
cráteres y montañas, cuya altura Galileo pudo calcular a partir de la sombra que proyecta-
ban. La Vía Láctea en realidad era un conglomerado de estrellas que a simple vista daban
la impresión de ser una nube. Venus presentaba fases, como la Luna, cuyo aspecto no se
podía explicar a partir del modelo de Ptolomeo, aunque sí con el modelo de Copérnico, pero
también con el de Tycho (figura 2.11).

Física conceptual
Capítulo 2: La revolución copernicana

45

Figura 2.11. Fases de Venus.

Es importante notar que si bien la observación de las fases de Venus no constituye de por
sí una verificación del modelo de Copérnico, puesto que el de Tycho también puede prede-
cirlas, sí es un poderoso argumento en contra del modelo de Ptolomeo, lo que contribuyó
poderosamente a que Galileo se convirtiera en un ardiente defensor del heliocentrismo.

Pero el argumento definitivo que inclinó a Galileo hacia el modelo de Copérnico fue el
descubrimiento de los satélites de Júpiter. El hecho de que Júpiter poseyera cuatro cuerpos
celestes que giraban a su alrededor en órbitas definidas y en periodos bien establecidos,
conformando un sistema copernicano en miniatura, demostraba que la Tierra no era el
único centro de los movimientos celestes, al tiempo que sugería la posibilidad de que girara
alrededor del Sol sin perder su propia luna.

Aunque Galileo también observó los anillos de Saturno, la poca resolución de su telescopio
lo hizo pensar que se trataba de un par de satélites que siempre aparecían a su lado. Gali-
leo publicó sus descubrimientos en una obra titulada Sidereus nuntius, o El enviado de los
cielos, en 1610, un año después de la aparición de la obra de Kepler Astronomia nova, y en
1613 publicó Cartas sobre las manchas solares, donde no solo anuncia el descubrimiento
de la existencia de manchas sobre la superficie del Sol, una nueva refutación de la supuesta
perfección de los cuerpos celestes, sino que permite determinar la rotación del Sol sobre
su propio eje a partir del seguimiento de las manchas a lo largo de varios días consecutivos
(figura 2.12).

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

46

Figura 2.12. Manchas solares.


Adaptado de: http://bit.ly/2urlaLR

Esta última publicación tuvo unos efectos indeseados desde el punto de vista de la acepta-
ción del modelo de Copérnico, pues dio lugar a una agria disputa respecto a la paternidad
del descubrimiento con el padre Christoph Scheiner, el astrónomo principal de la Compañía
de Jesús. La disputa, que llegó a alcanzar gran virulencia, fue particularmente desafortu-
nada pues los jesuitas, la avanzada intelectual de la Iglesia católica, se habían mostrado
inicialmente favorables al modelo de Copérnico, pero después del enfrentamiento de Gali-
leo con el Sagrado Colegio se inclinaron por el modelo de Tycho y pronto llegaron a ser los
grandes contradictores de aquel.

2.11 Los Diálogos


Aunque desde el momento de su aparición la obra de Copérnico había suscitado rechazos
por parte de los líderes protestantes que la consideraban herética por contradecir afirma-
ciones explícitas de la Biblia donde se dice que es el Sol, y no la Tierra, el que se mueve,
la jerarquía católica mantuvo una actitud tolerante con la obra de Copérnico, siempre que
se discutiera a modo de hipótesis y no como una verdad aceptada. Pero muy pronto esta
actitud habría de cambiar hacia la intolerancia radical.

En 1616 Galileo fue denunciado ante la Santa Inquisición por la supuesta herejía de pre-
dicar el movimiento de la Tierra, y llamado a dar explicaciones, con el grave riesgo de ser
amonestado públicamente, e incluso procesado, en caso de sostenerse en su afirmación.
Pero esto no sucedió, pues Galileo, sabiamente aconsejado, adoptó una actitud diplomática
y declaró que sus consideraciones copernicanas no constituían una declaración de fe sino

Física conceptual
Capítulo 2: La revolución copernicana

que tenían un carácter puramente hipotético, lo que lo salvó, en esa ocasión, de una amo-
nestación que conllevaba serias consecuencias penales, y el expediente fue archivado sin
mayores consecuencias, luego de lo cual Galileo asumió una posición discreta respecto a
sus convicciones copernicanas. La situación habría de cambiar cuando el cardenal Maffeo
Barberini fue elegido papa, con el nombre de Urbano VIII, en 1623. Barberini, un intelectual
florentino de reconocido prestigio, e importante figura de la corte vaticana, había desem- 47
peñado un papel importante en su defensa cuando Galileo fue llamado a la Inquisición en
1616.

Luego de una visita al Vaticano, en la que sostuvo una larga conversación con el nuevo
papa sobre sus trabajos en astronomía, Galileo se sintió alentado para hacer públicas sus
convicciones copernicanas y los avances que había hecho al respecto, y en 1632 publicó,
con el beneplácito de la Inquisición de Florencia y la aprobación del Vaticano, su obra mag-
na, Diálogos sobre los dos máximos sistemas del mundo: el de Copérnico y el de Ptolomeo.
Pero tan pronto salió a la luz pública, el texto fue recogido por orden de la Inquisición y su
autor fue llamado a rendir cuentas.

Los Diálogos, como es conocida la obra de Galileo, se plantean como una cordial discusión
entre dos personajes. Simplicio y Salviati, que representan, respectivamente, el pensamien-
to escolástico de corte aristotélico, que se identificaba con el de la Iglesia, y el pensamiento
de Galileo, que se identificaba con los planteamientos de Copérnico. Un tercer personaje,
supuestamente imparcial, llamado Sagredo, escuchaba los argumentos de uno y otro y
terminaba siempre por darle la razón a Galileo en la persona de Salviati. Si bien la obra su-
puestamente cumplía con el formalismo de discutir en tono hipotético las dos teorías rivales
sobre el mundo, su sesgo copernicano era evidente para cualquier lector medianamente
informado. Pero la piedra de escándalo que permitió a los jesuitas acudir al Papa y acusar
a Galileo de ridiculizarlo fue que la teoría sobre la influencia de la Luna en las mareas, que
era defendida por el Papa, aparecía en la obra en boca de Simplicio. Por el contrario, el muy
brillante Salviati exponía la teoría de Galileo, en la que se explicaban las mareas como un
efecto del movimiento combinado de la traslación y la rotación de la Tierra, algo que hoy en
día se considera como el mayor fiasco intelectual del astrónomo italiano. El Papa se sintió
asaltado en su buena fe y traicionado por quien había considerado su amigo, y de inme-
diato ordenó a la Inquisición que procediera contra Galileo, quien fue convocado a Roma a
responder por el cargo de desobedecer la admonición de 1616 de no defender ni enseñar
la teoría copernicana, a pesar de que esta nunca se había concretado.

Desoyendo el consejo de algunos de sus amigos de escapar de Italia lejos del alcance del
Vaticano y la Inquisición, Galileo se presentó a Roma en pleno invierno a pesar de su preca-
rio estado de salud, seguro de convencer a sus contradictores con poderosos argumentos
de la veracidad de sus proposiciones y la bondad de sus intenciones, pero no tenía idea de
que su causa era perdida y la condena ya había sido sentenciada.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

Luego de un penoso y prolongado proceso en el que el reo no tuvo posibilidad alguna de


defensa, y consciente de que en los enfrentamientos entre la autoridad y la razón siempre
triunfa el más fuerte, al menos de momento, Galileo abjuró públicamente de sus conviccio-
nes copernicanas y fue condenado al silencio y a la prisión domiciliaria por el resto de su
48 vida.

Tanto la obra de Galileo como la de Copérnico ingresaron al Índice, que era el nombre con
el que se conocía la lista de libros prohibidos para el catolicismo.

2.12 Los Discursos


Después de ser condenado por la Inquisición a la pena de prisión domiciliaria y de que
le fuera prohibido cualquier tipo de tratamiento o discusión sobre el tema de los sistemas
astronómicos, Galileo fue recluido en la Villa de Arcetri, cerca de Florencia, donde elaboró
lo que habría de ser su gran legado para la humanidad: Discursos y demostraciones ma-
temáticas sobre dos nuevas ciencias. En esta obra Galileo sienta las bases sobre las que
Newton habría de fundamentar la ciencia moderna de la mecánica. Imposibilitado de hablar
sobre astronomía, Galileo se dedicó a demoler de manera sistemática la concepción aristo-
télica del movimiento, que constituía el mayor obstáculo epistemológico para poder aceptar
el movimiento de la Tierra.

La concepción aristotélica del movimiento, al igual que el resto de la filosofía de Aristóteles,


era parte integral del pensamiento de la Iglesia católica gracias a la adaptación de la filoso-
fía peripatética que hiciera en el siglo XIII santo Tomás de Aquino, el máximo exponente de
la filosofía escolástica.

La identificación entre el pensamiento católico y el aristotélico llegó a ser tan estrecha que
se consideraba que cuestionar al uno era como cuestionar a los dos. Sin embargo, Galileo,
consciente de las grandes debilidades que presentaba la concepción aristotélica del movi-
miento, ideó una serie de ingeniosas refutaciones lógicas y prácticas de las premisas funda-
mentales de esta doctrina, y de paso estableció las bases metodológicas de la experimenta-
ción como instrumento de investigación científica y de verificación de teorías y postulados.

Física conceptual
Capítulo 2: La revolución copernicana

Resumen
La elaboración de modelos astronómicos geocéntricos que usaban en forma siste-
mática ecuantes y epiciclos permitió salvar hasta cierto punto las apariencias de los
eventos astronómicos, a costa de una considerable dificultad para la elaboración 49
de los cálculos; sin embargo, la limitada precisión de los modelos y la inexactitud
de sus predicciones, que se reflejaba en el desfase de más de diez días que tenía
el calendario a finales de la Edad Media, demandaba una permanente revisión de
los cálculos y la introducción reiterada de ajustes y modificaciones, lo que hizo de la
práctica astronómica una actividad extraordinariamente complicada. La importancia
creciente de la astronomía como auxiliar de la navegación en alta mar después del
descubrimiento de América, y la determinación papal de actualizar el calendario,
contribuyeron a la revisión de los fundamentos de la astronomía y a la elaboración
de modelos revolucionarios como el propuesto por Copérnico, que suscitó todo tipo
de polémicas debido a las fuertes implicaciones que tenía su aceptación respecto a
las creencias ancestrales sobre la posición del hombre y de la Tierra en el universo.

Las intensas polémicas que suscitó la propuesta de un modelo heliocéntrico para


el sistema solar hicieron que la opinión de los astrónomos se dividiera y que mu-
chos siguieran aferrados al modelo tradicional, en tanto otros, como Tycho Brahe,
elaboraran modelos de compromiso, a medio camino entre el de Ptolomeo y el de
Copérnico. Kepler, gran defensor del modelo heliocéntrico, se vio obligado a eliminar
el axioma de circularidad ante la imposibilidad de hacer coincidir las predicciones
basadas en la propuesta original de Copérnico y las observaciones astronómicas de
gran precisión para la época realizadas por Tycho Brahe. En lugar de las órbitas cir-
culares, Kepler prescribió trayectorias elípticas para los planetas y descubrió nuevas
regularidades en su movimiento, como la ley de áreas y la relación entre el periodo y
el radio orbital, que habrían de simplificar los cálculos astronómicos. Adicionalmente,
Kepler dejó planteado el problema de descubrir la fuerza responsable del movimien-
to planetario.

El uso del telescopio aportó nuevos elementos para el desarrollo de la astronomía,


favorables al modelo de Copérnico, pero las dificultades para aceptar el movimiento
de la Tierra a partir de la filosofía escolástica y el sentido común hicieron necesaria
la elaboración de una nueva concepción del movimiento y de una nueva teoría de
la mecánica por parte de Galileo, que debió enfrentarse con una seria oposición por
parte de las autoridades de la época.

La Revolución Copernicana

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 2 : La revolución copernicana

Cuestionario
1. ¿Qué circunstancia determinó la necesidad de reformar el calendario a media-
dos del siglo XVI?
50 2. ¿Por qué no es suficiente con añadir un día al calendario cada cuatro años para
que las efemérides concuerden con los solsticios y los equinoccios?
3. ¿Cómo se puede explicar el movimiento retrógrado de los planetas a partir de
un modelo heliocéntrico con epiciclos?
4. ¿Qué ventajas, y qué inconvenientes, se le pueden reconocer al modelo astro-
nómico de Copérnico frente al de Ptolomeo?
5. Compare las fases de Venus tal como son predichas por los modelos de Ptolo-
meo y Copérnico.
6. Explique cuál es la diferencia más notable entre el modelo astronómico propues-
to inicialmente por Copérnico y el modelo de Kepler.
7. Demuestre que dados un cono y un plano secante, solo hay un ángulo entre los
dos que permite obtener una circunferencia o una parábola, en tanto que hay
una cantidad infinita de posibilidades de obtener elipses o hipérbolas.
8. ¿Cómo se puede explicar que los eclipses de sol y de luna no se produzcan de
manera regular por lo menos una vez al mes, sino con una frecuencia mucho
menor y una regularidad difícil de apreciar?
9. Calcule la velocidad a la que se desplaza un planeta en cualquier punto de su
órbita, suponiendo que se conoce su velocidad en el perihelio.
10. Calcule la distancia de la Tierra a un planeta cuyo periodo orbital es de doce
años, aproximadamente.
11. Calcule el periodo orbital de un cuerpo astronómico que ha sido observado orbi-
tando el Sol a una distancia de unas treinta veces el radio de la órbita terrestre.
12. ¿Cómo se puede calcular la altura de una montaña de la Luna vista desde la
Tierra?
13. ¿Cómo se puede utilizar la observación de las fases de Venus para verificar o
descartar el modelo astronómico de Ptolomeo o el de Copérnico?
14. ¿Cómo se podía saber que las manchas solares son fenómenos que ocurren
en la superficie del Sol, y no el tránsito de algún satélite o planeta, con la única
ayuda del telescopio de Galileo?
15. ¿Por qué se puede decir que la existencia de los satélites de Júpiter favorece la
aceptación del modelo copernicano?

Física conceptual
Capítulo 2: La revolución copernicana

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bernal, J. (1975). Historia de la física clásica. Siglo Veintiuno.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
De Santillana, G. (1976). El crimen de Galileo. Universidad de Chicago.  51
Drake, S. (1983). Galileo. Alianza Editorial.
Galilei, G. (1967). Diálogos sobre los dos máximos sistemas del mundo. Universidad de
California. 
Geymonat, L. (1998). Historia de la filosofía y de la ciencia. Grijalbo.
Jeans, J. (1968). Historia de la física. FCE.  
Koyré, A. (1973). Estudios de historia del pensamiento científico. Siglo Veintiuno.
Kunh, T. (1978). La revolución copernicana. Ariel. 
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia. 

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3 Inercia

Introducción
La aparición de la obra de Copérnico, Sobre las revoluciones de las esferas celestes, no solamente
conmocionó el ambiente intelectual de la época por las discusiones filosóficas y teológicas a las
que dio lugar, sino por los problemas relacionados con el movimiento de los cuerpos que surgían al
analizar la propuesta copernicana a la luz de las doctrinas aristotélicas del movimiento, que deman-
daban la manifestación de efectos asociados al movimiento de la Tierra, cuya ausencia era tomaba
como prueba de la falsedad del modelo heliocéntrico. La respuesta de Galileo consistió en aceptar,
por principio, que el movimiento no se siente, y en elaborar experimentos mentales y reales, inge-
niosamente concebidos y hábilmente ejecutados, cuyos resultados habrían de trastocar el orden
establecido por la filosofía escolástica sobre el carácter natural o violento del movimiento, y de sus
causas y efectos, gracias a lo cual se sentaron las bases de una nueva dinámica en cuyo marco
el modelo de Copérnico era viable. Los descubrimientos de Kepler de regularidades inobservadas
hasta entonces en el movimiento planetario, y su no menos revolucionaria abolición del axioma
de la circularidad en favor de las trayectorias elípticas ante la contundencia de la precisión de las
observaciones astronómicas de Tycho Brahe, constituyen, junto con la obra de Galileo, las bases
sobre las cuales Newton construyó una teoría de carácter universal y matemático, de gran capaci-
dad predictiva, que no solo resolvió el problema del movimiento de los cuerpos, sino que definió los
parámetros metodológicos para la práctica de la actividad científica de las posteriores generaciones.

3.1 La caída de los cuerpos


Con el fin de desvirtuar la críticas al modelo copernicano por parte de los adeptos a la doctrina
aristotélica del movimiento, Galileo planteó una serie de experimentos, tanto ideales como reales,
basados en la concepción del movimiento inercial, y sentó las bases metodológicas de la física
como una ciencia en la que la teoría y la experimentación se refuerzan y complementan. Una parte
importante de la estrategia de Galileo consistió en demostrar la ineficacia de los principios aristoté-
licos a partir de las contradicciones en las que se incurría cuando se apelaba a ellos para estudiar
fenómenos como la caída de los cuerpos.

Galileo obtuvo la primera clave sobre el movimiento de caída de los cuerpos del movimiento pen-
dular luego de observar que dos péndulos idénticos tienen el mismo periodo de oscilación inde-
pendientemente de la amplitud del movimiento, por lo menos hasta donde se puede verificar con el
primitivo reloj utilizado por Galileo, que no era otro que su propio pulso. Pero la clave que lo condujo
a establecer la ley de caída de los cuerpos resulta de observar que el periodo de oscilación de los
Capítulo 3: Inercia

péndulos es independiente del peso, y que péndulos de igual longitud y diferentes pesos
realizan sus oscilaciones con la misma frecuencia.

Detalladas observaciones le permitieron a Galileo establecer que el periodo de un péndulo


es proporcional a la raíz cuadrada de la longitud de la cuerda que sostiene el peso. Como
54 una consecuencia de lo anterior, se puede decir que para dos péndulos de longitudes di-
ferentes l1 y l2, sus respectivos periodos de oscilación se relacionan con sus longitudes de
acuerdo con la expresión

l1/l2 = (T1/T2)2 (3.1)

En razón de lo anterior, Galileo estableció que “todos los cuerpos caen en el mismo tiempo
desde la misma altura, independientemente de su peso”.

Esta afirmación contradice el sentido común, según el cual la velocidad a la que caen los
cuerpos debería ser proporcional a su peso. En términos aristotélicos se podría decir que
el efecto es proporcional a la causa, y puesto que la causa de la caída es la pesantez, el
cuerpo más pesado tiende a caer con mayor rapidez hacia el centro de la Tierra. Pero el
ingenioso Galileo demostró que este razonamiento conduce a una contradicción, mediante
la reducción al absurdo.

Supongamos que de manera simultánea y desde la misma altura se dejan caer dos cuerpos
cuyos pesos se encuentran en relación 10/1. De acuerdo con Aristóteles, cuando el cuerpo
más pesado llegue al suelo el cuerpo más liviano solo habrá recorrido la décima parte de la
trayectoria total, y cuando llegue al suelo habrá tardado diez veces más que el cuerpo de
mayor peso. Pero ¿qué pasa si los dos cuerpos se unen y se dejan caer? Es de esperarse
que el cuerpo más pesado arrastre al más liviano y este caiga con una mayor velocidad que
la que tendría en el caso de caer solo. Recíprocamente, el cuerpo más liviano frena al más
pesado, por lo que este habrá de caer con una velocidad menor que la que tendría si cayera
solo, de modo que el sistema combinado cae con una velocidad mayor que la del más livia-
no, pero menor que la del más pesado, cuando cada uno cae por separado. De esta manera
se contradice el principio de que la velocidad es proporcional al peso del cuerpo, pues el
sistema en su conjunto pesa más que el más pesado considerado de manera individual.
Esta contradicción deja como única opción la ley de caída de Galileo.

Galileo fue célebre por plantear experimentos mentales en los que partiendo de situaciones
reales se descubre una tendencia que permite llegar a la ley, una vez establecidas las con-
diciones ideales. Veamos cómo se da esta situación en el caso de la caída de los cuerpos.

Consideremos dos esferas macizas de igual diámetro, la una de hierro y la otra de madera,
y dejémoslas caer en diferentes medios para estudiar el efecto de la viscosidad sobre la

Física conceptual
Capítulo 3: Inercia

velocidad de caída. Si las esferas se dejan caer de manera simultánea en aceite, se podrá
apreciar que la bola de hierro cae más rápidamente que la de madera. Si se repite la expe-
riencia en agua, se podrá observar que la bola de hierro todavía cae más rápido que la de
madera, pero la diferencia se ha reducido. Luego se realiza la experiencia en el aire y se
podrá constatar que, aunque persiste una diferencia, es casi imperceptible.
55
Finalmente se plantea el experimento que, aunque Galileo no podía realizar por limitaciones
prácticas, es el que conduce a la ley deseada: la caída de los cuerpos en el vacío. Es de es-
perarse que, si la tendencia se mantiene, a medida que disminuye la viscosidad del medio
disminuye la diferencia entre los tiempos de caída asociada al peso del cuerpo, de tal modo
que en el vacío, donde la resistencia del medio es nula, la diferencia entre los tiempos de
caída también lo sea, de modo que se puede establecer, nuevamente, la ley de caída de
los cuerpos de Galileo en su forma cualitativa: “En el vacío todos los cuerpos caen con la
misma velocidad, independientemente de su peso” (figura 3.1).

Figura 3.1. Caída de cuerpos en medios de diferente viscosidad.

3.2 Inercia
El estudio del péndulo provee de importantes claves sobre el movimiento de caída y de
ascenso de los cuerpos, que posteriormente Galileo habría de estudiar detalladamente uti-
lizando planos inclinados para establecer relaciones cuantitativas, algo que en el péndulo
estaba más allá de sus posibilidades.

Consideremos el movimiento de un péndulo al que se le ha colocado un obstáculo (O)


debajo de su punto de sujeción (figura 3.2). La trayectoria del péndulo carece de la simetría
original del péndulo simple: a la izquierda describe un arco de circunferencia de radio R0 y a
la derecha describe un arco de circunferencia de radio R1; sin embargo, la altura h desde la
que desciende es igual a la altura h a la que asciende. Si a continuación se alarga la cuerda
del péndulo, el punto de sujeción es P2. La trayectoria de la izquierda es la misma de radio

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

R0, descendiendo desde la altura h, pero ahora la trayectoria de la derecha tiene radio R2, a
pesar de lo cual la masa del péndulo siempre alcanza a la derecha la misma altura h. Este
procedimiento se puede continuar hasta donde permitan las condiciones experimentales y
se podrá observar que el cuerpo que desciende desde la altura h siempre tiende a alcan-
zar la misma altura, aunque tenga que recorrer trayectorias cada vez más prolongadas,en
56 tanto se pueda despreciar el efecto de la fricción del aire que tiende a frenar el movimiento
pendular.

R1 = R 0 + P1 O
P2 R2 = R 0 + P2 O

R2
P1 R1

h h h
R0

R ∞
Figura 3.2. Péndulo con obstáculo.

Consideremos ahora el comportamiento del péndulo cuando la longitud de la cuerda se


hace tan larga como se quiera, o, en términos matemáticos, cuando R tiende a infinito.
Como en todos los casos anteriores, la masa del péndulo desciende desde una altura h,
pero por más que se desplaza hacia la derecha nunca alcanza dicha altura. En tal caso se
pueden formular dos preguntas: ¿con qué velocidad se desplaza la masa del péndulo? y
¿qué mueve al péndulo a lo largo de su trayectoria?

Consideremos la primera pregunta. El péndulo parte del reposo y alcanza su máxima ve-
locidad en el punto más bajo de su trayectoria; a partir de este punto el péndulo empieza
a ascender y su velocidad disminuye gradualmente hasta que la masa alcanza la altura h
y se detiene, antes de reiniciar el ciclo. Galileo hace la siguiente consideración: cuando el
péndulo desciende, su velocidad aumenta; cuando asciende, su velocidad disminuye; pero
cuando la masa del péndulo ni asciende ni desciende, su velocidad permanece constante.
En consecuencia, Galileo propone que la velocidad de un cuerpo que se desplaza horizon-
talmente sin ningún tipo de fricción permanece constante.

Ahora consideremos la segunda pregunta: ¿qué mueve al cuerpo sobre la trayectoria ho-
rizontal? Si bien podemos considerar que hay un agente, al que le damos el nombre de

Física conceptual
Capítulo 3: Inercia

gravedad, responsable de que la velocidad del cuerpo aumente durante la caída y de que
disminuya durante la subida, no hay ningún agente responsable del movimiento horizontal;
se puede decir que el cuerpo se mueve sin que ningún agente actúe sobre él, o que:

“En ausencia de obstáculos los cuerpos conservan su estado de movimiento”.


57
Esta afirmación constituye la esencia del principio de movimiento inercial. Contraria a la
idea aristotélica de que un cuerpo pesado solo se puede mover horizontalmente bajo la ac-
ción de una fuerza, Galileo propone que en ausencia de fuerzas los cuerpos conservan su
estado de movimiento. Su propuesta consiste en abandonar la idea de que el movimiento
es el efecto de una causa, natural o violenta, y asumir que el movimiento es un estado, que
permanece invariable en tanto no exista la acción de un elemento externo al móvil.

3.3 Experimentos en el plano inclinado


Para pasar del planteamiento cualitativo de la ley de caída de los cuerpos a un planteamien-
to cuantitativo es necesario determinar la forma en la que cambia la velocidad del cuerpo
durante la caída, lo que para Galileo implicaba serias dificultades si se tiene en cuenta que
un cuerpo cae en un segundo desde una altura de cinco metros y él no disponía de relojes
que pudieran medir el tiempo con la precisión necesaria, razón por la cual optó por alargar
el tiempo de caída estudiando el movimiento de un cuerpo que se desliza por un plano
inclinado. Esto es posible gracias a los trabajos previos de Nicolás de Oresme y de Simón
Stevin. El primero estableció la manera de determinar la velocidad final con la que se mueve
un cuerpo que está sometido a una aceleración uniforme a partir de su velocidad media.
El segundo determinó la forma como se relacionan los pesos de dos cuerpos en equilibrio
sobre una cuña rectangular. Esto permitió a Galileo estudiar la caída de un cuerpo como
caso límite del movimiento sobre el plano inclinado. La ventaja de trabajar en el plano incli-
nado consistía en poder aumentar el tiempo de descenso del cuerpo a lo largo de un plano
de varios metros con poca inclinación. Para medir el tiempo, Galileo utilizó un dispositivo
llamado clepsidra, que dejaba caer agua en un recipiente durante el recorrido del cuerpo.

La clepsidra está conformada por un recipiente esférico con pequeños agujeros en la base,
rematado por un tubo que se puede tapar o abrir para que salga el agua contenida en su
interior. El agua vertida durante el recorrido del móvil se pesaba, y se estimaba que su peso
era proporcional al tiempo transcurrido. En resumen, podemos decir que Galileo pesaba el
tiempo (figura 3.3).

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

58

Figura 3.3. La clepsidra.

3.4 La cuña rectangular


Simón Stevin observó que una cadena colocada sobre una cuña rectangular cuya base está
en posición horizontal permanece en reposo. Si se elimina la parte inferior de la cadena, la
porción restante permanece en equilibrio, de modo que cada tramo de la cadena sostiene
al otro. El peso de cada tramo de cadena es proporcional a su longitud. Si la cadena es re-
emplazada por un par de cuerpos unidos por una cuerda, estos se mantendrán en equilibrio
siempre que la relación de sus pesos sea igual a la relación entre las longitudes de las caras
sobre las que descansan (figura 3.4).

Figura 3.4. Cuña rectangular y cadena.

Si consideramos una cuña rectangular que reposa sobre uno de los catetos (figura 3.5) se
puede determinar que la relación entre el peso P de la sección que cuelga perpendicular-
mente y el peso P de la sección que descansa sobre el lado h es

Pa/Ph = a/h (3.2)

Física conceptual
Capítulo 3: Inercia

F = P sen α

Pa h
a
59
α

Figura 3.5. Cadena en equilibrio en una cuña rectangular.

De esta manera se puede establecer que el peso necesario para equilibrar a un cuerpo de
peso P sobre un plano inclinado en un ángulo α es

F = P sen a (3.3)

Esta relación garantiza que a partir del análisis del movimiento en el plano inclinado se
puede establecer el comportamiento de un cuerpo en caída libre, teniendo en cuenta que
sen 90° = 1. De igual manera se puede determinar la aceleración de caída libre g a partir de
la aceleración a del móvil sobre el plano inclinado, a partir de la relación

a = g sen a (3.4)

Para determinar a qué tipo de movimiento acelerado corresponde la caída de los cuerpos,
Galileo utilizó la regla de Oresme, que discutiremos en detalle más adelante, para el mo-
vimiento uniformemente acelerado. Aunque no había manera de saber “a priori” a qué tipo
de movimiento correspondía el de caída, Galileo apeló a un principio de sencillez e hizo la
suposición de que se trataba del más simple de los movimientos acelerados posible. La
experimentación con el plano inclinado y la paciente recolección de datos, tomados del nú-
mero de veces necesario para reducir el margen de error, le permitió verificar que efectiva-
mente la caída libre de un cuerpo corresponde a un movimiento uniformemente acelerado.

3.5 Cinemática
El aporte metodológico de Galileo a la construcción de la ciencia como una actividad teórica
se puede verificar experimentalmente a partir de la cuidadosa preparación de sus montajes,
la selección de las variables que se quieren determinar y la definición clara de las magnitu-
des que intervienen en el modelo teórico.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

Antes de proceder a analizar los experimentos de Galileo en el plano inclinado es necesario


definir con claridad los términos que se van a utilizar. En primer lugar está el movimiento
uniforme de un cuerpo. Decimos que un cuerpo realiza un movimiento uniforme, o a velo-
cidad constante, si en intervalos de tiempo idénticos recorre espacios iguales, por lo que el
espacio total recorrido es proporcional al tiempo de recorrido. Se define velocidad como la
60 relación entre el espacio recorrido y el tiempo del recorrido.

Si ∆x = x - x0 y ∆t = t -t0, entonces

v = ∆x/∆t (3.5)

De donde se deduce que, para t0 = 0

x = x0 + vt (3.6)

Si la velocidad de desplazamiento de un cuerpo cambia, decimos que el movimiento es


acelerado. El caso más sencillo de movimiento acelerado es el uniformemente acelerado.
La aceleración está definida como la relación entre la variación de la velocidad, ∆v, y el
tiempo, ∆t, en el que se produjo el cambio.

Si ∆v = v - v0, entonces

a = ∆v/∆t (3.7)

En el movimiento uniformemente acelerado a es constante. De (3.7) se sigue que

v = v0 + at (3.8)

Si se hace una gráfica de v contra t se puede demostrar la regla de Oresme, que establece
que el espacio recorrido en un movimiento acelerado que se inicia con la velocidad v0 y
aumenta hasta la velocidad v en el tiempo t es igual al espacio que se habría recorrido en
el mismo tiempo con una velocidad igual al promedio de las velocidades entre v y v0 (figura
3.6):

x = (v + v0 )t/2 (3.9)

Física conceptual
Capítulo 3: Inercia

v
v

vo
61
t
0 t
Figura 3.6. Gráfica de velocidad contra tiempo.

De (3.9) se puede concluir que el promedio de las velocidades inicial y final es igual a la
velocidad media, vM, que es igual al espacio total sobre el tiempo total del recorrido:

vM = (v + v0)/2 (3.10)

A partir de (3.10) es posible conocer la velocidad final de un cuerpo que parte del reposo
en un movimiento uniformemente acelerado, en función del espacio total y el tiempo total
de recorrido:

v = 2x/t (3.11)

De (3.8) y (3.9) encontramos que

x = v0t + at2/2 (3.12)

De acuerdo con (3.12), el espacio total recorrido en el movimiento uniformemente acelera-


do es proporcional al cuadrado del tiempo. Este resultado será la clave para concluir que
la caída de los cuerpos es un movimiento uniformemente acelerado a partir de los datos
obtenidos en el plano inclinado.

3.6 El plano inclinado


Con el fin de comprobar sus hipótesis sobre la caída de los cuerpos, y apoyándose en las
consideraciones de Stevin sobre la composición de fuerzas en una cuña rectangular, Gali-
leo dispuso de un listón de madera acanalado, muy bien pulido y forrado en papel encerado
para reducir la fricción sobre los cuerpos que se dejaban rodar sobre él. Posiblemente haya
utilizado la clepsidra para medir los tiempos que tardaban los móviles en recorrer determi-
nada distancia sobre el plano.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

También es posible que, como afirma el historiador Stillmann Drake, Galileo haya aprove-
chado sus dotes musicales para medir el tiempo cantando, pues cualquier persona con el
oído musicalmente educado es capaz de medir con las notas de una canción intervalos de
tiempo del orden de décimas de segundo. Pero independientemente del método que haya
62 utilizado, obtuvo la suficiente cantidad de datos como para poder concluir que el movimiento
de caída de los cuerpos es un movimiento uniformemente acelerado, viéndose obligado
a descartar su hipótesis inicial de que la velocidad de caída era proporcional al espacio
recorrido, pues los datos indicaban que la velocidad era proporcional al tiempo de recorri-
do, que es lo que caracteriza al movimiento uniformemente acelerado. Para llegar a esta
conclusión, Galileo determinó las distancias recorridas por el móvil en intervalos sucesivos
de tiempo y al analizarlas encontró que si el tiempo aumentaba según la secuencia de los
números naturales 1, 2, 3..., los correspondientes espacios aumentaban como los números
impares 1, 3, 5, 7…, así (tabla 3.1):

Tabla 3.1
Tiempo Distancia recorrida Recorrido total
1 1 1
2 3 4
3 5 9
4 7 16
5 9 25
n 2n + 1 n2

El análisis de los datos indica que el espacio total recorrido es proporcional al cuadrado del
tiempo de recorrido, es decir:

s a t2 (3.13)

La anterior expresión es compatible con la ecuación (3.12): x = v0 t + at2/2.

Galileo encontró que los cuerpos que rodaban por el plano inclinado satisfacían esta rela-
ción independientemente de su peso, por lo que la ley de caída se puede establecer en los
siguientes términos:

“En el vacío todos los cuerpos caen con la misma aceleración, independientemente
de su peso”.

Física conceptual
Capítulo 3: Inercia

3.7 Movimiento inercial


Tal y como se hizo a partir del estudio del movimiento de un péndulo que tiene un obstá-
culo en su recorrido y cuya cuerda se va haciendo paulatinamente más larga, tendiendo al
infinito, el estudio del movimiento de los cuerpos en planos de inclinación variable también
permite hacer una aproximación al movimiento inercial (figura 3.7). 63

Consideremos inicialmente dos planos enfrentados con la misma inclinación. Si desde uno
de ellos se deja descender un cuerpo se podrá observar que asciende por el plano opuesto
hasta una altura aproximadamente igual a aquella desde la que descendió. Si se pudiera
eliminar por completo la fricción se podría esperar que la altura que alcanza el móvil en el
plano opuesto sea exactamente igual a la altura desde la que descendió.

h h

Figura 3.7. Planos simétricos.

Consideremos nuevamente los dos planos enfrentados, pero ahora disminuyamos la in-
clinación del segundo de ellos (figura 3.8). Se puede observar que, siempre que se pueda
despreciar la fricción, el cuerpo alcanza la misma altura desde la que descendió, aunque
ahora su recorrido es mayor. Podemos continuar en el proceso de disminuir la inclinación
del segundo plano y se podrá observar que se mantiene la tendencia del cuerpo a subir
hasta la misma altura desde la que descendió, siempre que se desprecie el efecto de la
fricción. Puesto que el cuerpo alcanza su máxima velocidad cuando llega a la parte inferior
del plano, esto quiere decir que siempre tiene la misma velocidad inicial antes de ascender
por el plano opuesto para alcanzar la altura h desde la que descendió.

Figura 3.8. Planos asimétricos.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

Se puede concluir que la altura que alcanza un cuerpo impulsado hacia arriba sobre un
plano inclinado solo depende de la velocidad inicial.

Si se deja descender el cuerpo desde el segundo plano, siempre desde la misma altura h,
64 para varias inclinaciones posibles, se podrá observar que alcanza la altura h en el plano
inicial. De lo anterior se puede llegar a una importante conclusión: la velocidad que alcanza
un cuerpo que desciende sin fricción por un plano inclinado depende exclusivamente de la
altura inicial.

Ahora podemos plantearnos la siguiente pregunta: ¿Qué sucede con el cuerpo después de
descender del primer plano si el plano opuesto está en posición horizontal y se prolonga
indefinidamente? (figura 3.9).

v = cte
h

Figura 3.9. Plano inclinado y plano horizontal.

Podemos asumir que en tanto el cuerpo se desplace horizontalmente su velocidad per-


manecerá constante. Al igual que en el caso del péndulo cuya cuerda tiende a infinito, el
movimiento horizontal de un cuerpo sobre un plano sin fricción es un movimiento inercial.
En este tipo de situación el cuerpo conserva su estado de movimiento en tanto no cambien
las condiciones de su desplazamiento, o se presenten obstáculos. La característica más
importante del movimiento inercial es su autonomía, puesto que puede mantenerse de ma-
nera indefinida mientras no actúen elementos externos –razón por la cual se habla de un
“estado de movimiento”–, con lo que se establece una clara diferencia con la concepción
aristotélica para la cual todo movimiento debe tener una causa.

3.8 Proyectiles
Consideremos el movimiento de un cuerpo que es lanzado horizontalmente. Supongamos
que el cuerpo en cuestión inicialmente desciende por un plano inclinado hasta alcanzar
una velocidad v sobre la horizontal y que luego cae al vacío. Si en lugar de caer al vacío el
cuerpo hubiera continuado su trayectoria horizontal sobre un plano su movimiento habría

Física conceptual
Capítulo 3: Inercia

sido uniforme, de tal modo que en iguales intervalos de tiempo habría efectuado iguales
desplazamientos, que vamos a registrar como puntos igualmente espaciados sobre una
línea horizontal.

Ahora consideremos el movimiento de un cuerpo que se deja caer desde el punto donde
termina el plano horizontal. De acuerdo con la ley de caída de Galileo, el cuerpo recorre en 65
intervalos consecutivos de tiempo espacios proporcionales a los números impares.

El movimiento de un proyectil lanzado horizontalmente se puede descomponer en dos mo-


vimientos independientes: el movimiento horizontal con velocidad uniforme y el movimien-
to vertical uniformemente acelerado. Si describimos el movimiento horizontal mediante la
coordenada x, y el movimiento vertical por la coordenada y, entonces el espacio recorrido
a partir del punto O será:

x = vt (3.14)

y = (1/2)gt2 (3.15)

donde g es la aceleración en caída libre. Si despejamos la variable t en (3.14) y la introdu-


cimos en (3.15), obtenemos que

y = (g/2v2)x2 (3.16)

La ecuación (3.16) corresponde a una trayectoria parabólica.

De nuevo una de las cónicas desempeña un papel clave en la descripción del movimiento
de los cuerpos. Antes de Galileo, y de acuerdo con la concepción aristotélica del movimien-
to, se creía que la trayectoria de un proyectil era inicialmente rectilínea, correspondiente al
movimiento violento sustentado por el aire, y posteriormente, una vez el aire se “cansaba”
de impulsar al proyectil, este caía verticalmente hacia el centro de la Tierra, lo que no resul-
taba de mucha ayuda para los artilleros de la época a la hora de acertar a un blanco que se
encontraba a considerable distancia.

3.9 Relatividad galileana


El estudio de Galileo sobre el movimiento de los proyectiles tenía como objetivo demostrar
que existía la posibilidad de que la Tierra estuviera en movimiento sin que este se hiciera
evidente, por ser un movimiento inercial que no precisaba de la acción de ninguna fuerza.
Durante mucho tiempo se había discutido si el movimiento de la Tierra se debía manifestar

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

o no a través del comportamiento de los cuerpos en caída libre y de los proyectiles. Tycho
Brahe sostenía que si la Tierra tuviera un movimiento de rotación hacia el este las balas de
un cañón deberían tener mayor alcance al ser disparadas hacia el oeste, y que como tal
efecto no se apreciaba se podía concluir que la Tierra estaba inmóvil. También se argumen-
taba que debido a la rotación de la Tierra los cocos no deberían caer al pie de las palmas,
66 puesto que durante la caída el piso se habría desplazado una distancia considerable. Si
tenemos en cuenta que un coco cae desde una altura de unos cinco metros en poco más
de un segundo y que la velocidad con la que supuestamente se desplaza un punto del
ecuador debido a la rotación de la Tierra es de unos 460 m/s, los cocos deberían caer desde
las palmas de más de cinco metros a una distancia de casi medio kilómetro de la base de
la palmera. De nuevo, el hecho de que tal fenómeno no se aprecie se tomaba como una
prueba irrefutable de que la Tierra estaba en reposo. La respuesta de Galileo ante la falta
de evidencia del movimiento terrestre se podría parafrasear en los siguientes términos: “El
movimiento de la Tierra no se siente porque el movimiento inercial no se siente”. La ante-
rior afirmación constituye una forma de enunciar lo que se ha dado en llamar “principio de
relatividad galileana”, que establece la imposibilidad de detectar el estado de movimiento
de un sistema inercial dentro del propio sistema”. Las anteriores consideraciones permiten
establecer que la mecánica de Galileo y, en consecuencia, la física que se construye a partir
de sus conceptos parten de un principio de relatividad.

A partir del principio de relatividad galileana y del estudio del movimiento de los proyectiles
se puede analizar un viejo problema directamente relacionado con la posibilidad de detectar
el movimiento de la Tierra que se había planteado mucho antes de que Galileo publicara
sus trabajos. Se trataba de determinar dónde caería una bala de cañón soltada desde lo
alto del mástil de un barco que se desliza suavemente con la corriente del río (figura 3.10).

Figura 3.10. Relatividad galileana.

Física conceptual
Capítulo 3: Inercia

De acuerdo con los aristotélicos, al soltar la bala cesa la acción violenta que la mantenía
en un movimiento horizontal solidario con el barco y, siguiendo su naturaleza, caería hacia
el centro de la Tierra de manera vertical, mientras el barco continúa su desplazamiento
horizontal. En consecuencia, la bala debería caer alejada del pie del mástil. Si el barco
estuviera envuelto en una densa capa de niebla, supuestamente se podría utilizar la caída 67
de balas desde lo alto del mástil para saber si se encuentra en reposo o en movimiento, e,
incluso, se podría saber qué tan rápido se desplaza.

Como alternativa a la percepción aristotélica se plantea que el barco y todos los elementos
que hay en su interior hacen parte de un mismo sistema de referencia y comparten de ma-
nera solidaria el desplazamiento, por lo cual es imposible detectar el movimiento mediante
observaciones internas. Probablemente este haya sido el origen del concepto de sistema
de referencia y está asociado al pensamiento de Giordano Bruno.

Al analizar el mismo problema desde la perspectiva del movimiento de los proyectiles ela-
borada por Galileo, se concluye que mientras el barco se desliza suavemente por el río a
velocidad uniforme es imposible detectar su estado de movimiento mediante la observación
de la caída de balas desde lo alto del mástil, puesto que en el momento de ser soltada la
bala adquiere un movimiento vertical acelerado, pero conserva su estado de movimiento
horizontal, solidario con el barco, y caería al pie del mástil. Para un observador en tierra la
bala habría descrito un movimiento parabólico, en tanto que para un observador dentro del
barco el movimiento habría sido vertical y rectilíneo.

3.10 Inercia circular


En el prólogo que escribió Albert Einstein para la edición inglesa de los Diálogos de Galileo
dice que solo una imaginación tan audaz como la del italiano permitía saltar la inmensa
brecha que había entre los datos experimentales y las conclusiones a las que llegó. Einstein
hacía referencia a que la exactitud de las medidas realizadas por Galileo no era suficiente
para verificar sus hipótesis, pero que su convicción era tal que logró elaborar una estructura
bastante coherente para sustentar las ideas que defendía.

De esta manera es posible entender que al establecer el movimiento inercial como la ley
fundamental de la mecánica, Galileo estaba pensando en una inercia de tipo circular, apro-
piada para describir el movimiento de la Tierra y de los demás planetas como un movimiento
exento de fuerzas y de manifestaciones internas, tal como proponía el sistema copernicano
y exigían las objeciones de sus detractores. La prolongación del plano horizontal opuesto
al plano inclinado desde donde se deja rodar un cuerpo corresponde a la circunferencia

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

terrestre, y el movimiento inercial del cuerpo que se desplaza sin ningún obstáculo con
velocidad uniforme es un movimiento circular.

Se especula que el compromiso de Galileo con el movimiento circular podría haber sido la
razón por la que nunca manifestó demasiado interés o reconocimiento por la obra de Kepler
68 y sus órbitas elípticas; aunque también es igualmente probable que la oscuridad de los
escritos del alemán y su innumerable cantidad de seudodescubrimientos le hayan ocultado
el verdadero valor de su obra.

La primera persona que estableció con toda claridad el movimiento inercial como una ley
de movimiento rectilíneo y uniforme fue René Descartes, como parte fundamental de su
sistema del mundo, cuya idea central era que el universo estaba completamente lleno de
materia que giraba en vórtices o remolinos, de tal modo que la Tierra giraba en el remolino
del Sol, y la Luna en el de la Tierra. Descartes consideraba que de no ser por la fuerza que
el medio ejercía sobre los cuerpos al girar, estos se moverían rectilínea y uniformemente.
El modelo de Descartes pretendía dar una explicación mecánica a la fuerza de gravedad y
reprochaba a Galileo que al estudiar la caída de los cuerpos solo llegara a una descripción
matemática del fenómeno, sin explicar su causa.

Resumen
Con el fin de determinar a qué tipo de movimiento corresponde la caída de los
cuerpos, Galileo concibió los experimentos en el plano inclinado, lo que le per-
mitió eliminar la influencia de la fricción en el movimiento de los cuerpos que se
deslizan, prolongar el tiempo del desplazamiento para poder medirlo con sus
métodos rudimentarios, obtener resultados que le permitieron concluir que el
movimiento de caída es uniformemente acelerado y establecer que todos los
cuerpos caen en el vacío con la misma aceleración, independientemente de su
peso. Posteriores consideraciones sobre las causas de la aceleración lo llevaron
a afirmar que un cuerpo sobre el que no actúa ninguna fuerza conserva su esta-
do de movimiento, lo que constituye un primer enunciado del principio de inercia,
aunque restringido a trayectorias circulares, tales como las que él suponía que
describe la Tierra en su órbita alrededor del Sol.

Movimiento Inercial

Física conceptual
Capítulo 3: Inercia

Cuestionario
1. Si la velocidad de caída de los cuerpos dependiera de su peso, ¿qué se podría
esperar del periodo de oscilación de un péndulo en función de su peso?
2. ¿Hasta qué punto son equivalentes los movimientos de un péndulo y de una 69
esfera que se mueve entre dos planos inclinados opuestos?
3. Demuestre que la suposición de que "la velocidad de caída de los cuerpos
depende del peso" conduce a una contradicción cuando se considera la caída
desde la misma altura de dos cuerpos de diferente peso, primero por separado,
y después unidos.
4. ¿Qué ventaja sobre el péndulo ofrece el plano inclinado para el estudio de la
caída de los cuerpos?
5. Analice la relación entre el tiempo de caída de un cuerpo desde determinada al-
tura y las características del medio en el que cae (aire, agua, aceite), y extrapole
sus consideraciones para una supuesta caída en el vacío. ¿A qué conclusión se
puede llegar?
6. ¿Qué tienen en común, y en qué se diferencian, las formulaciones del principio
de inercia de Galileo y Newton?
7. ¿Por qué se puede concluir, a partir del estudio de los datos obtenidos en un
plano inclinado, que la caída de los cuerpos es un movimiento uniformemente
acelerado?
8. Determine experimentalmente el tiempo que tarda en caer un objeto, como una
piedra, una tiza, o una bola de cristal, desde una altura de cinco metros.
9. Calcule la velocidad a la que llega a tierra el objeto de la pregunta anterior.
10. Estime la aceleración que experimentó el cuerpo al que se refiere la pregunta
anterior.
11. Calcule la velocidad a la que debe ser lanzado un objeto para que alcance una
altura de cinco metros.
12. Si la fuerza no es lo que genera el movimiento, ¿por qué razón los automóviles
se detienen cuando el motor se apaga?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 3: Inercia

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.  
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Drake, S. (1983). Galileo. Alianza Editorial. 
70 Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.    
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.  
Sepúlveda, A. (2003.) Los conceptos de la física. Evolución histórica. Universidad de An-
tioquia.

Física conceptual
Capítulo 4 La mecánica de Newton

Introducción
En 1687 se publicó en Londres la obra que habría de constituirse en la piedra angular y punto de
partida para la ciencia moderna, Los principios matemáticos de la filosofía natural, escrita por Isaac
Newton, nacido el 25 de diciembre de 1642, año de la muerte de Galileo. Algunos de los aspectos
más destacados de esta obra son la solución matemática del problema del movimiento astronómico
y la extensión de las leyes naturales a todo el universo, aboliendo la división entre el mundo celeste
y el mundo sublunar que consideraba la filosofía escolástica.

Newton publicó su obra luego de que los astrónomos Edmund Halley y Chistopher Wren solicitaran
su ayuda para resolver el problema de calcular la trayectoria de un cuerpo sujeto a una fuerza cen-
tral, como la que supuestamente ejerce el Sol sobre los planetas, y, de manera particular, sobre el
cometa que hoy lleva el nombre de Halley.

Es importante destacar que cuando Newton apareció en la escena científica, la rotación de la Tierra
sobre su eje y su desplazamiento alrededor del Sol ya no eran objeto de discusión, sino que se da-
ban por hecho, excepto en los países que se encontraban bajo la influencia de la Santa Inquisición,
de modo que el trabajo de Newton consistió en resolver un problema de física matemática, lo cual
hizo con precisión y elegancia.

En 1666, el año en que un incendio devastador destruyó a Londres, y mientras se refugiaba en


el campo de la peste que asolaba la ciudad, Newton vislumbró la solución del problema del movi-
miento planetario luego de suponer que la misma fuerza que hace caer a una manzana también
es responsable de que la Luna sea un satélite de la Tierra. Sin embargo, luego de que los cálculos
que realizó para verificar su teoría no dieron los resultados esperados, Newton se desentendió del
problema, hasta que Edmund Halley y Christopher Wren volvieron a llamar su atención sobre el
tema, unos veinte años más tarde. Al rehacer los cálculos en los que comparaba la relación entre la
aceleración de caída de un cuerpo sobre la superficie de la Tierra y la aceleración centrípeta de la
Luna, con la relación entre los cuadrados de la distancia Tierra-Luna y el radio de la Tierra, Newton
comprobó que sus suposiciones eran acertadas. El problema con el cálculo inicial provenía de una
estimación incorrecta del radio de la Tierra, pero una vez que dicho radio fue determinado con ma-
yor precisión, pudo comprobar que su suposición inicial era acertada.

Newton desarrolló un nuevo campo de las matemáticas, que denominó “cálculo de fluxiones” y que
hoy en día conocemos como cálculo infinitesimal, para expresar sus conceptos sobre la mecánica
y encontrar soluciones a los problemas del movimiento de los cuerpos, aunque las demostraciones
Capítulo 4 : La mecánica de Newton

que desarrolló en los Principia se realizaron en términos de geometría. De manera inde-


pendiente, el filósofo alemán Wilhelm Leibniz desarrolló y publicó un método matemático
equivalente al cálculo infinitesimal, el cálculo diferencial, lo cual fue motivo de una agria
polémica con Newton por cuestiones de prioridad.

72
4.1 Espacio y tiempo absolutos
En el inicio de su obra, Newton establece con toda claridad los términos y los conceptos
que va a utilizar, pues, aunque los supone ampliamente conocidos, considera necesario
establecer precisiones sobre los conceptos de espacio y tiempo, luego de plantear lo que,
de acuerdo con su criterio, son las reglas que deben guiar el razonamiento de la filosofía
natural, que era el término genérico que identificaba por entonces a la actividad que ahora
llamamos ciencia. Es importante destacar dos de sus reglas; en primer lugar, la que hace
alusión a la no proliferación de las causas: “no se debe atribuir a muchas causas lo que se
puede explicar con una sola”; y, en segundo término, la que se refiere a la certeza de las
afirmaciones: “si no se tiene certeza sobre algo, es mejor no hacer hipótesis”. A continua-
ción, Newton expresa su concepción del espacio y establece la distinción entre el espacio
absoluto y el espacio relativo. El espacio absoluto es infinito, homogéneo e isotrópico, exis-
te por siempre y es independiente de su contenido, y posee las características que le asigna
la geometría de Euclides. El espacio relativo, nos dice Newton, son las medidas sensibles
que hacemos para establecer la distancia entre dos puntos.

Respecto al tiempo absoluto, Newton afirma que fluye de manera uniforme, independien-
temente de los fenómenos, tal como lo ha hecho desde siempre y lo hará por siempre. El
tiempo relativo, que también se llama duración, son las medidas sensibles de tiempo que
hacemos entre dos fenómenos.

Los conceptos de espacio y tiempo que Newton establece son necesarios para instituir las
leyes del movimiento que se plantearán a continuación, aparte del profundo significado
filosófico y teológico que les asignaba su autor.

4.2 Ley de inercia


“Todo cuerpo permanece en su estado de movimiento uniforme y rectilíneo en tanto
no sea sometido a la acción de una fuerza”.

La ley del movimiento de los cuerpos que adopta Newton es equivalente a la que había pro-
puesto Descartes, y se distingue de la que había propuesto Galileo por el carácter rectilíneo

Física conceptual
Capítulo 4: La mecánica de Newton

del movimiento y por la posibilidad de que este se prolongue de una manera indefinida.

La ley de inercia introduce el concepto de estado de movimiento en la física y descarta


aquellas concepciones filosóficas para las cuales el movimiento es un efecto producido por
causas naturales o violentas.
73

4.3 Momentum
Del planteamiento de la ley de inercia se concluye que la fuerza es lo que cambia el esta-
do del movimiento, y, por tanto, se precisa una definición de estado de movimiento y una
magnitud física que lo describa. A dicha magnitud se le dará el nombre de “momentum”, o
momento lineal, que se designa por la letra p.

El estado de movimiento debe ser proporcional a la velocidad con la que se desplaza el


cuerpo, pero es razonable suponer que, a pesar de tener la misma velocidad, diversos
cuerpos puedan estar en diferentes estados de movimiento debido a que poseen una carac-
terística física que los diferencia y que vamos a denominar m, por masa, sin que, por ahora,
podamos asignarle un sentido específico puesto que su significado físico solo se aprecia de
manera contextual en el marco de la teoría. En consecuencia, se define el momento lineal
de un cuerpo como

p = mv (4.1)

A partir de la definición de momentum se puede expresar la ley de inercia en los siguientes


términos: “Todo cuerpo conserva su cantidad de movimiento p en tanto no actúen fuerzas
sobre él”.

4.4 Centro de masa


Al considerar un sistema físico constituido por un conjunto de partículas es conveniente en-
contrar propiedades que caractericen al sistema como un todo; por esta razón se define el
concepto de centro de masa, Rcm (figura 4.1). Para un sistema constituido por n partículas,
cada una de ellas caracterizadas por una masa mi, y un vector de posición ri, y teniendo en
cuenta que

M = ∑i mi (4.2)

el centro de masa del sistema está dado por la expresión

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 4 : La mecánica de Newton

Rcm = (1/M)∑i mi ri (4.3)

y, por tanto,

74 MRcm = ∑i mi ri (4.4)

y
m1 m2
r2
r1

M
R
m3
r3
r4 m4
x

Figura 4.1. Centro de masa de un sistema de partículas.

Si cada una de las partículas realiza un desplazamiento ∆ri en un tiempo ∆t, el centro de
masa del sistema habrá realizado un desplazamiento ∆Rcm dado por la expresión

M∆Rcm = ∑i mi ∆ri (4.5)

Dividiendo a ambos lados de la ecuación por ∆t, se obtiene

MVcm = ∑i mi vi (4.6)

Puesto que el momentum de cada una de las partículas está dado por la expresión pi = mvi,
el momento total está dado por

P = ∑i pi (4.7)

A partir de esta expresión se puede concluir que un sistema de partículas se comporta como
una sola partícula cuya masa es igual a la masa total del sistema localizada en el centro
de masa.

Física conceptual
Capítulo 4: La mecánica de Newton

4.5 Conservación de la cantidad de movimiento para un sistema de partículas


Al igual que se conserva la cantidad de movimiento de una partícula individual sobre la cual
no actúa ninguna fuerza, el sistema en su conjunto debe cumplir la misma condición en
tanto se pueda considerar aislado, esto es, que no hay fuerzas externas actuando sobre él
y que las únicas fuerzas presentes son las que ejercen las partículas entre sí. 75

4.6 Segunda ley de Newton


A partir de la ley de inercia se concluye que si los cuerpos conservan su estado de movi-
miento en ausencia de fuerzas, la fuerza es lo que cambia el estado de movimiento, y se
define como

F = ∆p/∆t (4.8)

Si la masa del cuerpo no cambia durante la interacción, la expresión para la fuerza se


escribe como

F = m∆v/∆t (4.9)

Puesto que ∆v/∆t es la aceleración a que experimenta el cuerpo sujeto a la fuerza F, esta
se puede expresar como

F = ma (4.10)

4.7 El concepto de masa


La expresión anterior aclara el significado de la magnitud que hasta ahora hemos deno-
minado masa. Consideremos una situación en la que diferentes cuerpos experimentan la
misma fuerza, por ejemplo cuerpos sobre un plano horizontal sin fricción que experimentan
la tracción de una cuerda que pasa por una polea de la que pende un peso fijo (figura 4.2).
Puesto que la fuerza que actúa sobre cada cuerpo es la misma, dos cuerpos diferentes de
masas m1 y m2 experimentan las aceleraciones a1 y a2, respectivamente.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 4 : La mecánica de Newton

p
76

Figura 4.2. Fuerza horizontal.

Puesto que

F1 = m1a1, F2 = m2a2 y F1 = F2

tenemos que

m1a1= m2a2 (4.11)

Esta expresión se puede reescribir así:

m1/m2 = a2/a1 (4.12)

donde se puede ver que la aceleración experimentada por un cuerpo bajo la acción de una
fuerza es inversamente proporcional a su masa. Resulta evidente que el concepto de masa
está directamente relacionado con el de inercia, pues mientras mayor es la masa de un
cuerpo, mayor es la fuerza que se debe aplicar para que su velocidad varíe en una cantidad
determinada.

Es importante tener en cuenta que la inercia es una propiedad de todos los cuerpos, mien-
tras que la masa es una magnitud física propia de cada cuerpo, que se puede determinar a
partir de sus propiedades inerciales.

4.8 Tercera ley de Newton


Consideremos un sistema compuesto por dos cuerpos de masas m1 y m2, que solo interac-
túan entre sí. Si los cuerpos tienen velocidades iniciales u1 y u2, la cantidad de movimiento
del sistema será

P = m1u1 + m2u2 (4.13)

Física conceptual
Capítulo 4: La mecánica de Newton

Después de una colisión las velocidades de los cuerpos serán v1 y v2, respectivamente, y la
cantidad de movimiento del sistema será

P = m1v1 + m2v2 (4.14)

Puesto que el sistema es aislado, el momentum total se conserva y podemos escribir lo 77


siguiente:

m1u1 + m2u2 - m1v1 + m2v2 (4.15)

Esta expresión se puede reescribir así:

m1v1 - m1u1 = -(m2v2 - m2u2) (4.16)

El lado izquierdo de la expresión (4.16) corresponde al cambio de momentum del cuerpo de


masa m1, que resulta ser igual al negativo del cambio de momentum del cuerpo de masa
m2. Esto nos dice que cuando dos cuerpos chocan intercambian momentum, o, de manera
equivalente, que el momentum que gana un cuerpo lo pierde el otro:

∆P1 = -∆P2 (4.17)

Si dividimos ambos miembros de esta expresión por ∆t, el tiempo que duró la colisión, la
ecuación se puede escribir como

∆P1 /∆t = - ∆P2 /∆t (4.18)

Y puesto que F = ∆P/∆t

F1 = -F2 (4.19)

Es decir, la fuerza que experimenta el cuerpo 1 al chocar con el cuerpo 2 es igual y de


sentido contrario a la fuerza que experimenta el cuerpo 2 al chocar con el cuerpo 1. Esta
expresión también es conocida como ley de “acción y reacción”, porque de ella se deduce
que a toda acción corresponde una reacción igual y de sentido contrario. Esta ley es una
consecuencia directa de la conservación de la cantidad de movimiento de un sistema ais-
lado, para lo cual se debe cumplir que las fuerzas internas del sistema se anulen entre sí.

Es importante anotar que en toda interacción por contacto entre dos cuerpos se genera un
par de fuerzas de acción y reacción, de igual magnitud y sentido contrario, y que cada una
de ellas actúa sobre un cuerpo diferente.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 4 : La mecánica de Newton

4.9 Medición de la masa


Un aspecto esencial de la definición de una magnitud física es el procedimiento que se debe
seguir para su medición. En el caso de la masa, la ley de acción y reacción es de particular
78 utilidad. Consideremos la interacción de dos cuerpos de masas m y ms. Supongamos que
inicialmente los dos cuerpos se encuentran en reposo, que comprimen un resorte y que
están atados por una cuerda. Si la cuerda se rompe, cada uno de ellos experimenta una
fuerza que le produce una aceleración, de tal modo que se cumple la relación

ma = msas (4.20)

En la relación anterior solo nos interesa la magnitud de las aceleraciones, de modo que
podemos prescindir del signo menos que indica que tienen sentidos opuestos. Si decidi-
mos, de manera arbitraria y conveniente, que la masa ms sea el patrón de referencia para
la medición de la masa, entonces la masa desconocida m se puede determinar en términos
de ms, as y a, así:

m = msas/a (4.21)

La proporcionalidad inversa entre la masa y la aceleración que experimenta el cuerpo bajo


la acción de una fuerza resalta el carácter inercial de la masa.

Física conceptual
Capítulo 4: La mecánica de Newton

Resumen
La mecánica de Newton se construye a partir del concepto de inercia. Una vez
establecida la inercia como la condición fundamental del movimiento, se define
el concepto de fuerza, a partir de la cual se pueden medir las magnitudes físicas
79
involucradas en la mecánica. La conservación de la cantidad de movimiento es-
pecifica los criterios para establecer cuándo un sistema físico se puede considerar
aislado. El concepto de masa adquiere pleno significado físico como medida de la
inercia de los cuerpos a partir del concepto de fuerza y de la tercera ley de Newton.

Unidades
De acuerdo con el Sistema Internacional de Unidades, SI, las unidades corres-
pondientes a las magnitudes fundamentales longitud, tiempo y masa son el metro,
m, el segundo, s, y el kilogramo, kg. La unidad correspondiente a la fuerza es el
newton, N, y se define como la magnitud de una fuerza que al ser aplicada a una
masa de 1 kg le produce una aceleración de 1 m/s2: 1 N = 1 kgm/s2.

La Mecánica de Newton (VPU)

Cuestionario

1. Explique cómo se puede medir la cantidad de materia de un cuerpo sin necesi-


dad de pesarlo.
2. Explique cómo se pueden utilizar las características de una balanza romana para
determinar la masa de un cuerpo a partir de una masa conocida, sin involucrar la
fuerza de gravedad en el proceso. Nota: considere la posibilidad de que la balan-
za rote horizontalmente alrededor de un eje que pasa por el punto de equilibrio.
3. Considere a la Tierra y la Luna como un sistema aislado compuesto por dos
cuerpos de masa mT y mL que solo interactúan entre sí, y encuentre el punto
alrededor del cual giran los dos cuerpos.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 4 : La mecánica de Newton

4. Demuestre que la velocidad angular de la Tierra y la Luna alrededor de su centro


de giro común es la misma, y encuentre las respectivas velocidades lineales
alrededor de dicho punto.
5. ¿Cómo se define el sistema de medición angular que utiliza el concepto de ra-
80 dián?
6. Exprese en términos de radianes los valores correspondientes a 360°, 180°, 90°,
60°, 45°, 30° y 0°.
7. ¿Por qué se puede decir que la ley de acción y reacción es una consecuencia del
principio de inercia y no una ley independiente?
8. Demuestre que la suma de todas las fuerzas internas de un sistema suman cero.
Analice lo que sucedería en caso contrario.
9. Demuestre que el peso de un cuerpo que descansa sobre el suelo y la fuerza
que ejerce el suelo sobre el cuerpo no son una pareja de fuerzas de acción y
reacción.
10. Considere un carrusel de feria sobre el cual están paradas varias personas, a
diferentes distancias del centro. Explique la diferencia en los efectos que ex-
perimentan las personas cuando el carrusel empieza a girar, en términos de la
relación entre la velocidad angular y la velocidad lineal.
11. Estime el orden de magnitud del cambio de velocidad de la Tierra luego del im-
pacto de un asteroide de unos 10 kilómetros de diámetro que viaja a una veloci-
dad de 30 000 km/h.
12. Analice los posibles efectos sobre la estabilidad de la órbita terrestre por el im-
pacto descrito en la pregunta anterior.

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.  
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.  

Física conceptual
Capítulo 5 Gravitación

Introducción
Las leyes de Newton permiten plantear ecuaciones de movimiento para los cuerpos siempre que
las fuerzas que actúan sobre ellos se puedan expresar en términos matemáticos apropiados. La
solución a la ecuación de movimiento se denomina trayectoria y expresa la posición del cuerpo
en función del tiempo. Para determinar las posibles trayectorias de un cuerpo sujeto a la fuerza de
gravitación es necesario determinar la forma matemática de la fuerza y resolver la ecuación de mo-
vimiento que resulta. Los resultados obtenidos deben ser compatibles con resultados previamente
validados de las teorías y los modelos anteriores.

5.1 Descomposición de fuerzas


Analicemos la trayectoria de un cuerpo sujeto a la acción de una fuerza (figura 5.1). Debido a su
carácter vectorial, la fuerza se puede descomponer de manera conveniente en dos componentes
perpendiculares entre sí, una de las cuales es paralela a la trayectoria del móvil y la otra es perpen-
dicular a la misma, de modo que si designamos por F la fuerza que actúa sobre el cuerpo, por Ft la
fuerza tangencial a la trayectoria, y por Fp la fuerza perpendicular, se cumple que

F = Ft + Fp (5.1)

Y
FT
m

Fc
F

Figura 5.1. Diagrama de fuerzas y trayectoria.

La componente de la fuerza paralela al desplazamiento del cuerpo cambia la magnitud de la veloci-


dad, pero no afecta la dirección del movimiento (figura 5.2).
Capítulo 5: Gravitación

V1 V2
FT :
m m
V1 V2
82 :
FT
m m

Figura 5.2. Acción de una fuerza paralela a la dirección del movimiento.

Por su parte, la componente de la fuerza perpendicular a la trayectoria del móvil, Fp, cambia
la dirección del movimiento pero no afecta la magnitud de la velocidad (figura 5.3).

Fc

v v
Fc Fc

Fc

v = constante
v

Figura 5.3. Acción de una fuerza perpendicular a la dirección del movimiento.

Consideremos ahora dos puntos A y B de una trayectoria circular, muy próximos entre sí,
que definen el arco ∆s que es recorrido por el móvil en el tiempo ∆t (figura 5.4), de modo
que la magnitud de la velocidad es

v = ∆s/∆t (5.2)

Física conceptual
Capítulo 5: Gravitación

A
vA

RA
vB
RB
83
v
C

Figura 5.4. Velocidad tangencial en trayectoria circular.

Si la única fuerza que actúa sobre el móvil es perpendicular a la trayectoria, la magnitud


de la velocidad permanece constante y el movimiento se denomina circular uniforme. La
aceleración que experimenta el móvil es la relación entre la diferencia vectorial entre las
velocidades en A y en B y el tiempo ∆t (figura 5.5).

A
v
A

B
v
A

RA α

RB v
B
v
α

vA = vB
Figura 5.5. Aceleración centrípeta en el movimiento circular.

Observemos que los dos vectores velocidad, va y vb, subtienden un ángulo α igual al ángulo
entre los radios Ra y Rb. Si el intervalo de tiempo ∆t se hace tan corto como se quiera,
llamado infinitesimal, el arco AB se aproxima a una línea recta y el sector circular ABO
corresponde a un triángulo semejante al triángulo formado por las velocidades va y vb, y su
diferencia ∆v.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 5: Gravitación

Teniendo en cuenta la semejanza de los triángulos se puede establecer la siguiente rela-


ción:

∆v/v = ∆s/R (5.3)

84 Pero ∆s = v∆t, luego:

∆v/v = v∆t/R (5.4)

Esta ecuación se puede reescribir en los siguientes términos:

∆v/∆t = v2/R (5.5)

Puesto que a = ∆v/∆t, se tiene que



a = v2/R (5.6)

La expresión (5.6) corresponde a la aceleración centrípeta. En el límite en que ∆t se hace


infinitesimal y α tiende a cero, el vector ∆v es perpendicular a la velocidad y paralelo al ra-
dio. En consecuencia podemos decir que si un cuerpo de masa m describe un movimiento
circular uniforme, la fuerza centrípeta que actúa sobre él tiene la magnitud

Fc = mv2/R (5.7)

5.2 Gravitación universal


Newton estableció que la misma fuerza que hace caer una manzana también es respon-
sable de que la Luna se comporte como un satélite de la Tierra, y luego extendió su plan-
teamiento al resto del sistema solar. Newton llegó a esta conclusión luego de considerar
el lanzamiento horizontal de proyectiles desde la cima de una montaña muy alta (figura
5.6). Puesto que el alcance del disparo depende del impulso inicial, a bajas velocidades el
proyectil realizará una trayectoria aproximadamente parabólica, tal como había demostrado
Galileo. Pero si la velocidad aumenta de una manera considerable, de modo que el proyectil
avance varios kilómetros antes de caer a tierra, la trayectoria será una especie de espiral.
Si la velocidad continúa aumentando, el alcance del proyectil aumentará de manera corres-
pondiente hasta llegar el momento en que regresará al punto de partida sin caer a tierra.
Puesto que la fuerza que actuó sobre el proyectil siempre fue perpendicular a su trayectoria,
la magnitud de la velocidad no habrá cambiado y podrá continuar orbitando a la Tierra en
círculos, en tanto no sea detenido por la fricción de la atmósfera o por la acción de alguna
otra fuerza. Una consideración adicional que desempeñó un papel muy importante en la

Física conceptual
Capítulo 5: Gravitación

deducción de la forma de la ley de gravitación universal fue la demostración que realizó


Newton de que dos cuerpos extensos como la Tierra y la Luna se atraen como si sus masas
estuvieran concentradas en sus respectivos centros de masa.

85

Figura 5.6. Lanzamiento horizontal de proyectiles.

Aunque Kepler había demostrado que el movimiento planetario correspondía a trayectorias


elípticas, también era cierto que la mayoría de las elipses planetarias tenían poca excentri-
cidad, como en el caso de la Tierra, y que en ciertos casos se podían considerar circulares.
De acuerdo con esta aproximación se puede decir que el movimiento de la Tierra es circular
y uniforme (figura 5.7), de modo que la fuerza que actúa sobre ella es una fuerza centrípeta
como la que describe la ecuación (5.7).

Figura 5.7. Trayectoria circular de la Tierra alrededor del Sol.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 5: Gravitación

Puesto que en el movimiento circular uniforme la velocidad instantánea siempre es la mis-


ma y constante, y teniendo en cuenta que en un tiempo igual al periodo orbital T se recorre
una circunferencia 2πR, donde R es el radio de la órbita terrestre, se puede expresar la
velocidad de la Tierra como

86 v = 2πR/T (5.8)

En consecuencia, si m es la masa de la Tierra, la fuerza que experimenta en su órbita alre-


dedor del Sol de acuerdo con la ecuación (5.5) es

F = 4π2mR/T2 (5.9)

En la ecuación (5.9) podemos ver que la fuerza depende del inverso del cuadrado del pe-
riodo, pero si tenemos en cuenta la tercera ley de Kepler, que en unidades astronómicas
se expresa como

T2 = R3 (5.10)

la ecuación queda así:

F = 4π2m/R2 (5.11)

La ecuación (5.11) está expresada en unidades astronómicas. En un sistema arbitrario de


unidades podríamos escribirla como una proporcionalidad de la siguiente manera:

F α mT/R2 (5.12)

Puesto que la fuerza con la que el Sol atrae a la Tierra es igual y de sentido contrario a la
fuerza con la que la Tierra atrae al Sol, esta última tiene que ser proporcional a la masa del
Sol mS, así como la primera es proporcional a la masa de la Tierra mT, y, por tanto, la fuerza
debe ser proporcional al producto de las masas del Sol y de la Tierra, por lo que la ley de
fuerza se debe poder escribir así:

F α mTmS/R2 (5.13)

La proporción (5.13) se puede escribir como una ecuación introduciendo una constante de
proporcionalidad llamada constante de gravitación universal G:

F = GmTmS/R2 (5.14)

Física conceptual
Capítulo 5: Gravitación

La ecuación (5.14) es la expresión matemática de la ley de gravitación universal. Su ca-


rácter de universal implica que cualquier par de cuerpos separados una distancia R, en
cualquier lugar del universo, se atraen mutuamente con una fuerza cuya magnitud está
dada por esta ecuación.

87
5.3 Ecuaciones de movimiento para fuerzas gravitacionales
Una vez conocida la forma de la ley de fuerzas para la atracción gravitatoria, Newton proce-
dió a plantear y a resolver la respectiva ecuación de movimiento. Teniendo en cuenta que la
aceleración está dada por la relación a = ∆v/∆t, y que la velocidad se puede expresar como
∆r/∆t, donde r es el vector posición del cuerpo que está sujeto a la acción de la fuerza gravi-
tacional, si el intervalo de tiempo se vuelve infinitesimal y lo expresamos como dt podemos
escribir las expresiones para la velocidad y la aceleración así: v = dr/dt. De acuerdo con lo
anterior, la aceleración se puede expresar como

a = d2r/dt2 (5.15)

y la ecuación de movimiento para un cuerpo de masa m, que experimenta la fuerza gravita-


cional de otro cuerpo de masa m' situado a una distancia r, queda así:

md2r/dt2 = Gmm'/r2 (5.16)

Para escribir la ecuación (5.16) se ha partido del supuesto de que la masa m' se encuentra
en el origen del sistema de coordenadas y que es mucho mayor que la masa m (figura 5.8).

m’ >> m

Figura 5.8. Centro de masa de dos cuerpos de masas muy diferentes.

La solución más general de la ecuación (5.16) corresponde a la ecuación de una cónica.


Para encontrar una solución específica es necesario conocer la posición y la velocidad
inicial del cuerpo de masa m, y dependiendo de estos dos valores la solución puede ser
una cualquiera de las cuatro curvas cónicas. Recordemos que las cónicas son las figuras
que resultan cuando un plano interseca a un cono, y que dependiendo del ángulo entre el

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 5: Gravitación

eje del cono y la normal al plano y del ángulo entre el eje y la generatriz del cono se obtiene
una de las cuatro cónicas: circunferencia, elipse, parábola o hipérbola. Notemos que en la
ecuación (5.16) hay dos parámetros ajustables, la posición y la velocidad inicial, así como
en la ecuación de una cónica se pueden variar el ángulo entre el eje y la generatriz, y el
ángulo entre el plano secante y el eje del cono.
88
Consideremos de nuevo el lanzamiento horizontal de proyectiles desde un sitio suficiente-
mente alto para ilustrar de qué modo resulta cada una de las posibles trayectorias al variar
la magnitud de la velocidad de lanzamiento, dejando fija la posición inicial (figura 5.9).

Hipérbola
Circunferencia vh vp

vc
Parábola

Elipse

vp ve vc vp

Figura 5.9. Trayectorias cónicas bajo fuerzas gravitacionales.

El primer caso de interés resulta cuando la velocidad inicial tiene el valor mínimo vc nece-
sario para que el cuerpo describa una trayectoria cerrada y regrese al punto de partida; en
este caso la trayectoria es una circunferencia.

El segundo caso a considerar corresponde al lanzamiento del proyectil con la mínima velo-
cidad necesaria vp para escapar del centro de fuerza y alejarse indefinidamente; la trayec-
toria que resulta es una parábola.

En el tercer caso consideremos un proyectil que parte con una velocidad ve mayor que vc y
menor que vp; la trayectoria resultante es una elipse.

Por último consideremos el caso en el que la velocidad inicial es mayor que vp; la trayectoria
que resulta es una hipérbola.

Física conceptual
Capítulo 5: Gravitación

Es importante observar que para una posición inicial dada solo hay un modo de obtener una
circunferencia o una parábola, en tanto que existe un número infinito de posibles elipses
o de hipérbolas para cada una de las velocidades que se encuentren en los rangos asig-
nados, lo que explica por qué es tan poco frecuente encontrar en el movimiento planetario
trayectorias perfectamente circulares y en cambio son tan comunes las elípticas y las hi-
perbólicas. 89

5.4 La ley de caída de los cuerpos y el movimiento pendular


La gran potencia de la ley de gravitación universal se puede apreciar al comprobar su com-
patibilidad con todos los hechos y leyes conocidos previamente asociados al fenómeno de
la gravedad, tanto del movimiento astronómico como del movimiento de los proyectiles y de
los cuerpos graves.

Consideremos inicialmente los descubrimientos de Galileo sobre la caída de los cuerpos y


el movimiento pendular. De acuerdo con la ley de gravitación universal, un cuerpo de masa
m sobre la superficie de la Tierra experimenta una fuerza que se denomina peso, dada por
la expresión:

F = GMm/R2 (5.17)

donde M es la masa de la Tierra y R es la distancia del cuerpo al centro de la Tierra. Puesto


que la fuerza que actúa sobre el cuerpo se puede expresar como F = mg, donde g es la
aceleración de caída de los cuerpos, la ecuación (5.17) se puede escribir así:

mg = GmM/R2 (5.18)

Dividiendo a ambos lados de la ecuación (5.18) por m se obtiene la expresión para la ace-
leración que experimenta el cuerpo que cae sobre la superficie de la Tierra:

g = GM/R2 (5.19)

Observemos que la magnitud g no depende de la masa del cuerpo que cae, lo cual con-
cuerda con el resultado obtenido por Galileo según el cual la aceleración de caída de los
cuerpos es independiente de la masa. Para llegar a este resultado se hizo la suposición
implícita de que la masa gravitatoria de un cuerpo es igual a su masa inercial, consideración
que inicialmente pasa casi desapercibida pero que posteriormente va a cobrar un importan-
te significado físico.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 5: Gravitación

Pero Galileo también afirmó que la aceleración de caída de los cuerpos no depende de la
altura desde la que se dejen caer. Sin embargo, la ecuación (5.19) nos dice que la ace-
leración depende de la distancia al centro de la Tierra, dato que fue clave para comparar
la aceleración centrípeta de la Luna con la aceleración de caída de los cuerpos sobre la
superficie terrestre. El resultado de Galileo es aceptable si se tiene en cuenta que el radio
90 terrestre mide unos 6369 kilómetros y que variaciones de altura de unos cientos de metros
no producen variaciones perceptibles en el valor de la aceleración de caída, de donde
resulta que la ley de la caída de los cuerpos de Galileo es una aproximación compatible
con la ley de gravitación de Newton. Mediciones realizadas con instrumentos de suficiente
precisión permiten comprobar que la aceleración de caída en los polos es mayor que en el
ecuador debido al achatamiento de la Tierra.

Otro de los grandes descubrimientos de Galileo fue que el periodo de oscilación de un


péndulo no depende del peso ni de la amplitud. La independencia respecto al peso está di-
rectamente relacionada con la ley de caída libre y todas las consideraciones que se hicieron
se aplican en este caso. Pero la independencia del periodo respecto a la amplitud resulta
ser una aproximación válida solo para el caso de pequeñas amplitudes de oscilación, en las
que sea válida la aproximación de que el ángulo α que hace la cuerda del péndulo con la
vertical cumpla la relación sen α, cuando α se expresa en radianes.

Resumen
A partir de las leyes del movimiento y de las características conocidas del mo-
vimiento planetario, Newton encontró la expresión matemática de la fuerza de
gravitación y estableció la ley de gravitación universal, con lo que pudo plantear,
y resolver, la ecuación de movimiento para un cuerpo sujeto a este tipo de fuerza.
La solución más general a la ecuación de movimiento de un cuerpo sujeto a la
fuerza gravitacional es una trayectoria cónica, que toma una forma específica
según los valores de la posición inicial y la velocidad inicial. Los descubrimientos
de Galileo sobre la caída libre y el movimiento pendular son casos particulares de
la ley de gravitación universal.

Gravitación

Física conceptual
Capítulo 5: Gravitación

Cuestionario

1. Si luego de separarse de una palmera de diez metros de altura, un coco cayera


directamente hacia el centro de la Tierra en algún lugar cercano al ecuador 91
terrestre, ¿a qué distancia de la base de la palmera debería golpear contra el
suelo?
2. Si, como afirma Copérnico, la Tierra rota sobre su eje una vez cada 24 horas, ¿a
qué velocidad debería soplar el viento sobre el ecuador, a menos que comparta
el movimiento de la Tierra?
3. ¿Cómo se explica que el efecto al que se refiere la pregunta anterior no se
manifieste?
4. ¿Qué observación respecto al comportamiento de los huracanes en las latitudes
medias de los hemisferios norte y sur, como en el golfo de México y las islas Fiyi,
permitiría corroborar el movimiento de la Tierra?
5. Suponga que usted se encuentra en el interior de un vehículo que se desplaza,
sin vibraciones apreciables, en línea recta y a velocidad constante, y trate de
suponer qué tipo de observaciones puede hacer en el interior del vehículo para
determinar su velocidad.
6. ¿Por qué es importante poder expresar la ecuación de movimiento de un cuer-
po?
7. Demuestre que la ley de caída de los cuerpos que Galileo encontró de manera
empírica se puede obtener a partir de la ecuación de movimiento de un cuerpo
sujeto a la acción de la gravedad.
8. Demuestre que la ley de áreas de Kepler para el movimiento planetario es una
consecuencia de la conservación del movimiento rotacional para un sistema
aislado.
9. Calcule la masa de la Tierra a partir del valor experimental de la aceleración de
caída de los cuerpos. Debe averiguar el valor de la constante de Cavendish y
del radio de la Tierra.
10. Calcule la masa del Sol a partir del valor de la masa de la Tierra que calculó en
la pregunta anterior.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 5: Gravitación

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Arons. Trillas.  
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Hewitt, P. G. (2007). Física conceptual. Pearson.
92 Hobson, A. (2010). Physics, concepts and connections. Pearson.
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.  

Física conceptual
Capítulo 6 Trabajo

Introducción
Al igual que con otros conceptos de la física, el de trabajo ha sido bautizado con un nombre que tie-
ne diversas acepciones en el lenguaje cotidiano, y casi ninguna de ellas da cuenta de su significado
y utilidad en el contexto de la física. Por esta razón, es necesario precisar su significado y definir
su relación con otras magnitudes más fundamentales de la física mediante el establecimiento de
procedimientos que permitan determinar de manera cuantitativa el valor que se le debe asignar a
los procesos físicos descritos por esta función.

6.1 Energía cinética y energía potencial


En su acepción más sencilla, el trabajo es el resultado de la aplicación de una fuerza sobre un
cuerpo para cambiar su posición o su estado de movimiento. Si un cuerpo se encuentra en reposo
y se requiere que cambie de posición, es necesario aplicar una fuerza sobre él. Si la fuerza aplicada
es la única que actúa sobre el cuerpo, el trabajo realizado será igual al producto de la fuerza por el
desplazamiento realizado bajo la acción de la fuerza. Cuando la fuerza F actúa sobre el cuerpo de
masa m a lo largo del desplazamiento ∆x, decimos que el trabajo realizado, W, es:

W = F∆x (6.1)

Puesto que una fuerza F que actúa sobre un cuerpo de masa m produce una aceleración a, pode-
mos expresar el trabajo W como

W = ma∆x (6.2)

De acuerdo con la cinemática del movimiento uniformemente acelerado, la expresión a∆x se puede
expresar en términos de la velocidad inicial y de la velocidad final del móvil, así:

a∆x = (1/2)(v2 -v02) (6.3)

Por tanto, el trabajo realizado por la fuerza que actúa sobre un cuerpo a lo largo del desplazamiento
se puede expresar como

W = (1/2)mv2 - (1/2)mv02 (6.4)


Capítulo 6 : Trabajo

Dado que la expresión ½mv2 aparece de manera recurrente en los cálculos relacionados
con los sistemas dinámicos, se consideró apropiado darle el nombre de energía cinética,
o Ek. Por esta razón, el trabajo realizado sobe un sistema físico se puede definir como el
cambio de la energía cinética del sistema:

94 W = ∆Ek (6.5)

6.2 El trabajo de la gravedad


Consideremos la situación de un cuerpo que desciende de la altura h1 a la altura h2, mien-
tras su velocidad pasa de v1 a v2 (figura 6.1). Siendo -g la aceleración debida a la fuerza
de gravedad, se puede expresar el trabajo realizado en términos del desplazamiento y del
cambio de la energía cinética como

W = - mg(h2 - h1) (6.6)

m h1 v1

F = _ mg

m h2 v2

Figura 6.1. Posiciones y velocidades en caída libre.

De acuerdo con (6.4) la expresión anterior se puede escribir así:

W = (1/2)mv22 - (1/2)mv12 (6.7)

Igualando las dos ecuaciones y agrupando términos se obtiene la siguiente expresión:

mgh1 +(1/2)mv12 = mgh2 + (1/2)mv22 (6.8)

Notemos que los términos del lado izquierdo de la ecuación solo dependen de h1 y de v1, y

Física conceptual
Capítulo 6: Trabajo

que los términos del lado derecho solo dependen de h2, y de v2, de donde se concluye que
la cantidad

E = mgh + (1/2)mv2 (6.9)

tiene el mismo valor en cualquier punto de la trayectoria. En consecuencia, E es una cons- 95


tante de movimiento bajo la acción de fuerzas gravitacionales, y corresponde a la energía
total del sistema. El término mgh se denomina energía potencial gravitatoria, Ep, y corres-
ponde al trabajo que puede realizar la fuerza de gravedad sobre un cuerpo de masa m que
cae desde una altura h.

Es conveniente notar que el trabajo realizado por la gravedad sobre un cuerpo que descien-
de desde la altura h1 hasta la altura h2 se puede expresar en términos de la variación de la
energía potencial, así:

W = - mg(h2 - h1) (6.10)

W = - (mgh2 - mgh1) (6.11)

W = - (Ep2 - Ep1) (6.12)

W = - ∆Ep (6.13)

De acuerdo con lo anterior, y teniendo en cuenta la ecuación (6.5), tenemos que:

∆Ek = - ∆Ep (6.14)

y, por tanto,

∆Ek + ∆Ep = 0 (6.15)

∆(Ek + Ep) = ∆E = 0 (6.16)

En consecuencia, la energía total E de un sistema físico sujeto a la acción de la gravedad


es una cantidad que se conserva, y es igual a la suma de las energías cinética y potencial.

La expresión ∆E = 0 es otra forma de expresar que la energía total de un sistema sujeto a


fuerzas gravitacionales se conserva.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 6 : Trabajo

Con el fin de lograr una mejor comprensión de lo que significa el concepto físico de trabajo
resulta esclarecedor reflexionar sobre la definición dada por Josiah Willard Gibbs, uno de
los padres de la física estadística, de acuerdo con la cual “trabajo es cualquier interacción
entre un sistema y su entorno cuyo único efecto sea, o pueda ser, la elevación de un peso,
dentro del sistema o en el entorno”.
96

Nota sobre unidades

En el Sistema Internacional la unidad de energía es el joule, o julio, J, que se define como


el trabajo realizado por una fuerza de 1 N que actúa sobre un cuerpo a lo largo de un des-
plazamiento de 1 m: 1 J = 1 Nm.

6.3 Equilibrio
Consideremos la situación de un cuerpo de masa m suspendido por una cuerda. Para que
el cuerpo se encuentre en equilibrio es necesario que la tensión de la cuerda sea igual a la
fuerza que ejerce la gravedad, que se denomina peso, o mg. En tanto la suma de fuerzas
que actúan sobre el peso sea nula, el cuerpo se podrá desplazar inercialmente en cualquier
dirección. De acuerdo con lo anterior, para subir un cuerpo de masa m hasta una altura h
solo se necesita equilibrar las fuerzas y darle un leve impulso para que se desplace por
inercia. En tanto el desplazamiento del cuerpo se realice a velocidad constante, su energía
cinética no varía y, por consiguiente, el trabajo neto realizado por las fuerzas que actúan
sobre el cuerpo es nulo. Sin embargo, es importante notar que tanto la fuerza de gravedad
como la tensión de la cuerda realizan trabajo sobre el cuerpo, pero puesto que las fuerzas
son iguales pero de sentido contrario, y el desplazamiento es el mismo para las dos, la
suma de los trabajos realizados es nula.

Un sencillo ejemplo del trabajo realizado por fuerzas balanceadas sobre un sistema en
equilibrio es la máquina de Atwood (figura 6.2), un dispositivo en el que dos cuerpos de igual
peso cuelgan de los extremos de una cuerda. Luego de un leve impulso cada uno de los
cuerpos se puede desplazar con velocidad constante, en un movimiento inercial.

Física conceptual
Capítulo 6: Trabajo

97

Figura 6.2. Máquina de Atwood.

La condición del equilibrio de un sistema físico permite determinar la masa de los cuerpos
mediante un proceso de comparación gracias a la balanza. En una balanza de brazos igua-
les el sistema se encuentra balanceado cuando los pesos de los cuerpos que reposan en
los platos de ambos brazos son iguales (figura 6.3). De acuerdo con esto, es posible deter-
minar el peso de un cuerpo desconocido que se coloca en uno de los platos de la balanza
depositando un determinado número de elementos de peso mucho menor en el otro plato
hasta alcanzar el equilibrio. De esta manera el pesaje de un cuerpo, como todo proceso de
medición, es, en último término, un proceso de conteo.

Figura 6.3. Balanza de brazos iguales.

Puesto que no siempre es posible equilibrar el peso desconocido de un cuerpo con un


número exacto de unidades de peso conocido, se puede recurrir a un dispositivo conocido
como balanza romana, que consiste en una balanza de brazos desiguales, en el más corto
de los cuales se cuelga el cuerpo cuyo peso se quiere conocer, y en el otro se desplaza un
cuerpo de peso conocido hasta alcanzar el equilibrio (figura 6.4). De manera empírica se
puede establecer una relación entre los pesos y las longitudes de los brazos de la balanza
que permite encontrar el peso deseado. Dicha relación está dada por la expresión

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 6 : Trabajo

l1/l2 = m2 g/m1g (6.17)

Luego:

l1/l2 = m2/m1 (6.18)


98

Figura 6.4. Balanza romana.

Una notable ventaja de la balanza romana sobre la balanza de brazos iguales es la posi-
bilidad de determinar la masa de cuerpos mucho más grandes y pesados que las pesas
calibradas de la balanza.

El punto sobre el cual se apoyan los brazos de la balanza en equilibrio corresponde al


centro de masa del sistema compuesto por los brazos y los pesos (figura 6.5). Un sistema
equilibrado puede rotar libremente alrededor de su centro de masa, gracias a lo cual es po-
sible determinar la masa de un cuerpo en función de una masa patrón ms, sin intervención
de fuerzas gravitacionales, lo cual puede resultar de utilidad cuando la medición se hace en
condiciones de ingravidez, como en una estación espacial.

Figura 6.5. Grúa de construcción.

Física conceptual
Capítulo 6: Trabajo

Consideremos el sistema conformado por un cuerpo de masa conocida ms y otro cuerpo


cuya masa m se quiere determinar, unidos por una cuerda (figura 6.6). Cuando el sistema
se pone en rotación, cada uno de los cuerpos rota con la misma frecuencia angular ω
alrededor del centro de masa, describiendo un círculo de radio rs y r, respectivamente. La
frecuencia angular ω es el número de ciclos por unidad de tiempo que realiza el cuerpo
rotante, multiplicado por 2π. 99

Figura 6.6. Boleadoras.

Las fuerzas centrípetas que actúan sobre los cuerpos forman un par de acción y reacción;
por tanto, tienen la misma magnitud y opuesta dirección y se pueden expresar en términos
del radio de giro y de la velocidad angular, así:

mω2/r = msω2/rs (6.19)

Y, por consiguiente, se llega a la expresión

m/r = ms/rs (6.20)

de donde se puede obtener el valor de la masa desconocida, como:

m = msr/rs (6.21)

6.4 Inercia rotacional y momento angular


Es importante destacar que las fuerzas que actúan sobre los cuerpos que rotan unidos
por una ligadura son perpendiculares a sus trayectorias y no alteran la magnitud de la ve-
locidad, y, por tanto, no se realiza trabajo sobre los cuerpos. Como consecuencia de esta
situación la energía cinética del sistema se conserva y su estado de movimiento permanece
inalterado.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 6 : Trabajo

Con el fin de describir el estado de movimiento de un sistema rotante en términos de la ve-


locidad instantánea de cada una de las partes del sistema, y su respectivo radio de giro, se
define el concepto de momento angular. El momento angular, L, es una cantidad vectorial
que se define como el producto vectorial del radio vector por el momentum lineal (figura
6.7). La dirección del momento angular es perpendicular al plano definido por el momento
100 lineal y el vector de posición, de acuerdo con la convención de signos de la mano derecha.

L = r × p (6.22)

uxv
v
0
u

Figura 6.7. Producto vectorial.

La magnitud del momento angular (figura 6.8) es

L = mrv sen Θ (6.23)

r p

Figura 6.8. Magnitud del momento angular.

En el caso de un cuerpo de masa m, que rota con frecuencia angular ω describiendo un


círculo de radio r, el momento angular está dado por la expresión

Física conceptual
Capítulo 6: Trabajo

L = mr2ω (6.24)

que se puede escribir como

L = Iω (6.25)
101
donde la cantidad I, que se denomina momento de inercia, es una magnitud que depende
de la distribución de masa del cuerpo rotante y juega un papel análogo al de la masa en la
expresión para el momento lineal.

De manera análoga a la expresión para la energía cinética de un cuerpo en función de su


velocidad lineal, la energía cinética de un sistema rotante se puede expresar en términos
del momento de inercia como:

Ek = (1/2)Iω2 (6.26)

Al igual que para un cuerpo que se desplaza inercialmente, donde la cantidad de movi-
miento y la energía total se conservan, se puede establecer que cuando un sistema físico
rota libremente su energía total se conserva y su momento angular permanece invariante,
debido a la inercia rotacional. El concepto de inercia rotacional es una consecuencia directa
del principio de inercia, y, por tanto, es compatible con la afirmación de que todo sistema en
el que las fuerzas actuantes se encuentren balanceadas conserva su estado de movimiento
lineal y rotacional.

6.5 Trompos
Un ejemplo ilustrativo del caso de un sistema rotante en el cual todas las fuerzas que actúan
se encuentran balanceadas es el de un trompo que no se desplaza del punto de apoyo y
rota con su eje de simetría perpendicular al plano horizontal, en tanto se puedan considerar
despreciables las fuerzas de fricción, lo cual puede ser válido si la observación se hace
durante un breve periodo (figura 6.9).

Figura 6.9. Trompos.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 6 : Trabajo

Otro ejemplo notable es la Tierra, cuyo eje de rotación apunta siempre en la misma direc-
ción mientras se desplaza a lo largo de su órbita alrededor del Sol. Como en el caso del
trompo, la Tierra parece conservar su estado de movimiento rotacional, siempre que la
observación se realice durante un periodo suficientemente corto, que, en este caso, puede
102 ser de cientos de años antes de que sea posible apreciar un desplazamiento notable de la
estrella Polar respecto al polo norte astronómico (figura 6.10).

Figura 6.10. Giro aparente de las estrellas alrededor del eje polar.
Tomado de: http://bit.ly/2tNGBZE

Resumen
La acción de una fuerza sobre un sistema físico no solo se puede caracterizar
por la aceleración, sino por las variaciones de una nueva magnitud física que se
deriva de la definición de trabajo, llamada energía, que se define en términos de la
velocidad, lo cual corresponde a la energía cinética, y la configuración del sistema,
que corresponde a la energía potencial.

El estado de rotación de un sistema físico se describe mediante el momento an-


gular, y, al igual que sucede con el momento lineal, en el caso de los sistemas
aislados, el momento angular de un sistema es una cantidad que se conserva, y se
expresa en términos de la velocidad angular y del momento de inercia, que es el
equivalente rotacional de la masa.

Trabajo y equilibrio

Física conceptual
Capítulo 6: Trabajo

Cuestionario
1. Elabore por lo menos cinco frases en las que la palabra trabajo tenga diferentes
significados.
2. ¿En cuál de las frases que elaboró el significado de la palabra trabajo se acerca
más al significado que este concepto tiene en la física? 103
3. Defina el concepto de trabajo en términos cuantitativos, de tal forma que no dé
lugar a interpretaciones equívocas.
4. ¿Con qué criterios se puede definir un patrón para determinar el peso de los
cuerpos?
5. ¿En qué principio se fundamenta el funcionamiento de la balanza romana?
6. ¿Qué ventaja tiene el uso de la balanza romana respecto a la balanza de brazos
iguales?
7. ¿Qué papel desempeña el sistema de contrapesos de un ascensor?
8. Explique por qué los dos brazos de una grúa de construcción no son iguales, e
indique qué caracteriza a cada uno de ellos.
9. Utilice el principio de conservación de la energía mecánica bajo fuerzas gravita-
cionales para demostrar la ley de caída de los cuerpos de Galileo.
10. ¿Qué conclusión se puede sacar de la aplicación del principio de conservación de
la energía mecánica al estudio del movimiento pendular respecto a la caída de los
cuerpos?
11. ¿Qué conclusión se puede sacar de la aplicación del principio de conservación de
la energía mecánica respecto a un cuerpo que luego de descender por un plano
inclinado se desplaza por un plano horizontal que se prolonga indefinidamente?
12. ¿A qué componente de la energía total de un sistema físico contribuye la energía
rotacional?
13. ¿A qué conclusión respecto a la rotación de un sistema libre de fuerzas externas
se puede llegar mediante la aplicación del principio de conservación de la energía
mecánica?
14. ¿En qué se diferencia la rotación de un trompo en caída libre con la rotación de
un trompo que se apoya en el piso?
15. ¿A cuál de los dos casos anteriores pertenece la Tierra?
16. ¿Qué tipo de observación pudo haber conducido al hombre prehistórico a la in-
vención de la rueda?
17. ¿Qué tiene que ver una rueda con un canto rodado?
18. ¿Qué ventaja posee un vehículo que se desplaza sobre ruedas en comparación
con uno que se desliza sobre una superficie?
19. ¿En qué sentido se puede decir que la rotación de una rueda es un caso repre-
sentativo de movimiento inercial?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 6 : Trabajo

20. Cuando un cuerpo rota alrededor de un eje cada uno de los puntos del cuerpo
debe estar sujeto a una fuerza dirigida hacia el eje. ¿Por qué es posible hablar de
movimiento inercial en el caso de una rueda que rota alrededor de su eje a una
frecuencia constante?
21. ¿Por qué se dice que las fuerzas centrípetas que aparecen sobre cada uno de los
104 puntos de un cuerpo rotante no realizan trabajo?
22. Demuestre que la suma de fuerzas que actúan sobre un trompo que rota con
frecuencia constante es cero.
23. Compare las definiciones de momento lineal y momento angular e interprete el
factor que acompaña a la velocidad angular en el momento angular en términos
del factor que acompaña a la velocidad lineal en el momento lineal.
24. Demuestre que la fuerza de gravedad que actúa sobre un trompo y la fuerza que
la superficie en la que se apoya ejerce sobre la punta del trompo no son una
pareja de acción y reacción.
25. Considere una rueda y un disco del mismo radio y de la misma masa y mues-
tre, sin acudir al cálculo diferencial, que sus momentos de inercia son diferentes.
¿Qué se podría decir de una esfera maciza y de una esfera hueca que tienen la
misma masa y el mismo radio?
26. ¿En qué se fundamenta el funcionamiento de un giróscopo, y cuál sería su venta-
ja sobre una brújula magnética?
27. ¿Cómo se puede explicar que el movimiento aparente de los astros tenga un eje
de rotación que pasa a través de los polos terrestres, y qué tiene de particular la
estrella Polar respecto a las demás estrellas?
28. ¿Qué tan confiable es la tierra como auxiliar de navegación?
29. ¿Por qué se utilizan volantes como sistemas de almacenamiento de energía ciné-
tica en lugar de utilizar esferas que con la misma masa ocuparían un espacio más
reducido?

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.  
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.   
Drake, S. (1983). Galileo. Alianza Editorial.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.    
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.  
Sepúlveda, A. (2003). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.  

Física conceptual
Capítulo 7 Potencia motriz

Introducción
El concepto de trabajo fue elaborado ante la necesidad de comparar de manera cuantitativa la efi-
ciencia del trabajo muscular, humano o animal, con el de una máquina, y, más concretamente, con
el de las máquinas de vapor. La importancia económica y social que cobró la minería del carbón en
Inglaterra a principios del siglo XVIII, en los albores de la Revolución Industrial, creó las condiciones
favorables para el surgimiento de innovaciones mecánicas destinadas a resolver el problema de la
inundación de los socavones, que constituía una de las mayores dificultades que debía afrontar la
actividad minera. El problema era de tal magnitud que con frecuencia los mineros gastaban más
tiempo extrayendo agua que mineral, lo cual se hacía mediante bombas mecánicas, o con artilugios
poco eficientes como los tornillos de Arquímedes, accionados por un caballo que daba vueltas a una
noria (figura 7.1).

Figura 7.1. Noria.


Tomado de: http://bit.ly/2srEwiu

Con el fin de facilitar el proceso de extracción del agua de las minas, en 1698 el ingeniero inglés
Thomas Savery diseñó y patentó un aparato que utilizaba la potencia motriz del vapor generado por
la ebullición del agua, por una parte, y la acción de presión atmosférica, por la otra, para sacar el
agua del pozo de las minas. El aparato, bautizado por Savery “el amigo del minero”, constaba de un
recipiente con agua que se mantenía a alta temperatura, en el cual se generaba vapor por ebullición
(figura 7.2). El vapor era conducido a un segundo recipiente hasta expulsar el aire que se encontra-
ba en él. A continuación se cerraba la válvula de paso, y el recipiente a alta presión era refrigerado
mediante aspersión de agua a baja temperatura, gracias a lo cual el vapor se condensaba y la
presión interior se reducía de manera considerable. El recipiente a baja presión estaba comunicado
con un depósito de agua subterráneo mediante una tubería, a través de la cual el agua ascendía
Capítulo 7: Potencia motriz

por efecto de la presión atmosférica. A continuación se permitía nuevamente el acceso del


vapor al recipiente, y el agua era impulsada hacia arriba por una segunda tubería que ex-
pulsaba el agua de la mina. Tanto la tubería que conducía al depósito subterráneo de agua,
como la que permitía elevar el agua para sacarla del pozo, disponía de válvulas de paso,
que solo permitían el flujo de agua en una dirección.
106

Figura 7.2. Esquema de la máquina de Savery.


Tomado de: http://bit.ly/2wDD7di

A pesar de que la operación de “el amigo del minero” era en extremo compleja debido a la
necesidad de abrir y cerrar diferentes válvulas, tanto para permitir el paso del vapor como
para la refrigeración del recipiente presurizado, al comparar la cantidad de alimento que
consumía un caballo, la cantidad de agua que sacaba del pozo y el tiempo que necesitaba
para hacerlo, con el costo del carbón requerido por el ingenio térmico para realizar el mismo
trabajo, este último resultó ganador, y en poco tiempo el uso de este tipo de dispositivos se
generalizó en toda Inglaterra.

7.1 Potencia
Con el fin de disponer de un criterio objetivo con el cual comparar la capacidad de trabajo de
la fuerza muscular y la potencia motriz del calor, fue necesario definir una unidad de medida
que permitiera establecer un rasero común, y de allí resultaron el caballo de vapor, CV, y
el caballo de fuerza, o horsepower, HP, que, a pesar de lo que sugieren sus nombres, son
unidades de potencia y no de fuerza. Mientras que el CV corresponde al Sistema Interna-
cional de Unidades, el HP corresponde al sistema británico de unidades. La potencia, P, es
una magnitud asociada a la capacidad de transferir energía o realizar un trabajo sobre un
sistema, por unidad de tiempo, y se define como:

Física conceptual
Capítulo 7: Potencia motriz

P = ∆E/∆t (7.1)

La unidad de potencia es el watt, o vatio, W, y se define como la potencia requerida para


transferir un joule de energía por segundo: 1 W = 1 J/s.
107
De manera equivalente, se puede medir la potencia de un motor como el producto del peso
de un cuerpo por la velocidad a la que se lo hace ascender:

P = mgv (7.2)

7.2 Presión atmosférica


Con el fin de mejorar la eficiencia de dispositivos como la máquina de Savery, y de otros,
como la máquina de Newcomen y la máquina de Watt, que muy pronto entraron a competir
con la primera, era necesario conocer las leyes que regulan los fenómenos de transferencia
de calor y la consiguiente expansión y compresión de los gases, y, de manera particular, el
papel que desempeña la presión atmosférica en la generación de trabajo mecánico.

A lo largo de la historia, la tarea de proveer de agua a instalaciones como las fortalezas y


los castillos feudales, situados a una altura mucho mayor que la de las fuentes disponibles,
dependía de recursos como las bombas mecánicas y los tornillos de Arquímedes, además
del acarreo, dispendiosos y muy poco eficaces. Los ingenieros medievales descubrieron
que las bombas de succión son incapaces de elevar el agua a una altura mayor de 10.33 m,
y, por su parte, los tornillos de Arquímedes resultan poco prácticos para elevar el agua a una
altura mayor que un par de metros, so pena de multiplicar su número y operación de mane-
ra inconveniente. Galileo buscó una explicación para esta situación, pero fue un discípulo
suyo, Evangelista Torricelli, quien llegó a la conclusión de que la altura que puede alcanzar
una columna de agua está determinada por el peso del aire. Con el fin de corroborar su in-
tuición, Torricelli realizó un experimento consistente en llenar con mercurio un tubo de vidrio
de un metro e introducirlo invertido en un recipiente lleno del mismo elemento (figura 7.3).

Torricelli observó que la columna de mercurio descendía hasta una altura de 0.76 m, y que
la relación entre las alturas de la columna de agua y de mercurio era 13.6, que es la misma
que hay entre las densidades del mercurio y del agua. En consecuencia, una columna de
agua de 10.33 m y una columna de mercurio de 0.76 m, del mismo diámetro, tienen el mis-
mo peso. Por todo lo anterior, Torricelli concluyó que el peso de la atmósfera ejerce presión
sobre la superficie de la Tierra, y que tanto la columna de agua como la de mercurio son
equilibradas por una columna de aire del mismo peso que las anteriores.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 7: Potencia motriz

108

Figura 7.3. Experimento de Torricelli.

La presión es la fuerza por unidad de área que actúa sobre una superficie. La unidad de
presión, el pascal, Pa, se define como 1 Pa = N/m2 = J/m3. A la presión atmosférica a nivel
del mar se le asigna el valor de una atmósfera, 1 atm, que equivale a 101325 Pa. La atmós-
fera también se puede expresar en términos de la altura de la columna de mercurio como
1 atm = 76 mmHg.

Una aplicación directa del experimento de Torricelli es el barómetro, que permite determinar
la presión atmosférica en diferentes lugares y situaciones como función de la altura de una
columna de mercurio (figura 7.4).

Figura 7.4. Barómetro.


Tomado de: http://bit.ly/2sOjqud

Dado que el espesor de la capa atmosférica disminuye con la altura respecto al nivel del
mar, con la consiguiente reducción en el valor de la presión, el barómetro puede ser utiliza-
do como altímetro.

Física conceptual
Capítulo 7: Potencia motriz

7.3 Vasos comunicantes


La acción de la presión atmosférica sobre un cuerpo de agua se manifiesta en el llamado
principio de los vasos comunicantes, de acuerdo con el cual si se dispone un conjunto de
recipientes comunicados que contienen un líquido homogéneo, la altura de la superficie del
líquido será la misma en todos los recipientes, puesto que en todos los casos la presión 109
atmosférica es igual (figura 7.5).

Figura 7.5. Principio de vasos comunicantes.

Una notable aplicación del principio de los vasos comunicantes se puede apreciar en el
funcionamiento de los sistemas de esclusas en las vías de navegación que deben sortear
cambios de nivel (figura 7.6).

Figura 7.6. Canal de Panamá.

Los albañiles aprovechan el principio de los vasos comunicantes para determinar con gran
precisión que diferentes puntos de un terreno se encuentren a la misma altura utilizando
una manguera transparente llena de agua.

Presión atmosférica

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 7: Potencia motriz

7.4 Gases ideales


Gracias a los trabajos realizados por Robert Boyle y Robert Hooke en el siglo XVII, y por
Jacques Charles y Joseph Louis Guy-Lussac en el siglo XVIII, fue posible establecer una
ecuación empírica que relaciona los parámetros termodinámicos presión, p, volumen, V, y
110 temperatura absoluta, T. Esta relación se conoce como ecuación de estado de los gases
ideales porque su validez está restringida a un rango reducido de valores en torno a las
llamadas condiciones de laboratorio, que corresponden a una atmósfera de presión y a una
temperatura de 20 °C. Además se requiere que el volumen ocupado por las partículas que
componen el gas sea despreciable en comparación con el volumen del recipiente en el que
se encuentra confinado. La ecuación de estado está dada por la expresión

pV/T = constante (7.3)

A pesar de su limitado rango de validez, la ecuación de estado permite avanzar de manera


significativa en el estudio y comprensión de los fenómenos termodinámicos. Consideremos
de manera inicial una cierta cantidad de un gas contenido en un recipiente cilíndrico, que
dispone de una tapa móvil, como el que muestra la figura 7.7. Si la cantidad de gas es pro-
porcional al número N, y k es la constante de Boltzmann, la ecuación de estado se puede
escribir así:

pV = NkT (7.4)

pV = constante

p1

p2

V2

p1V1 = p2V2

Figura 7.7. Cilindro con pistón.

Si se mantiene constante la temperatura del sistema, y se varía el peso sobre el pistón, se


puede apreciar una variación del volumen que satisface la relación

p0V0 = pV (7.5)

Si se mantiene constante la presión y se varía la temperatura del sistema, se produce una

Física conceptual
Capítulo 7: Potencia motriz

variación del volumen que satisface la relación

V0/T0 = V/T (7.6)

Si se hace una gráfica con diferentes valores de volumen y temperatura, el resultado es una
línea recta que se puede extrapolar hasta el valor cero del volumen, que corresponde al 111
valor cero de temperatura en la escala absoluta cuya unidad es el kelvin, K, que se define
como 1/273.16 de la temperatura de congelación del agua, a una atmósfera de presión.
En la vida cotidiana se utiliza la escala Celsius de temperatura, cuya unidad es el grado
Celsius, °C. Esta escala se define a partir de los puntos de congelación y de ebullición del
agua, a una atmósfera de presión, que corresponden a 0 °C y 100 °C, respectivamente. La
escala Celsius se conocía como escala centígrada, por ser una escala decimal.

7.5 Temperatura
Hasta ahora hemos utilizado la noción de temperatura de una manera intuitiva, pero la com-
prensión de este concepto amerita una discusión más detallada. El concepto temperatura
tiene su origen en el sentido del tacto y se asocia de manera empírica a las nociones de
frío y caliente, debido a lo cual adolece de subjetividad, pues diferentes personas pueden
asignar diferentes grados de “frigidez” o “calidez”, es decir, de temperatura, al mismo ob-
jeto, dependiendo de su percepción particular. Incluso, una misma persona puede asignar
diferentes grados de temperatura al mismo objeto, tal como se puede comprobar con un
sencillo experimento, que consiste en disponer tres recipientes en el primero de los cuales
se vierte agua helada, en el tercero agua caliente y en el intermedio una mezcla de las dos
(figura 7.8). Si una persona introduce la mano izquierda en el agua fría, y la mano derecha
en el agua caliente durante un minuto, y luego introduce ambas manos en el agua tibia, en
la mano izquierda percibe una sensación de calor, mientras que en la mano derecha percibe
una sensación de frío.

Antes

Frío Tibio Caliente

Después

Frío Tibio Caliente

Figura 7.8. Diferencias de temperatura.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 7: Potencia motriz

Con el fin de efectuar una medición de la temperatura de manera objetiva se utiliza el


termómetro, que es cualquier dispositivo cuya configuración varíe en correlación con las
variaciones de la temperatura, haciendo posible establecer una graduación. Un notable
ejemplo del comportamiento termométrico es la dilatación de ciertos materiales en función
de la temperatura, tal como sucede con una determinada cantidad de mercurio depositada
112 en un pequeño recipiente de vidrio unido a un tubo capilar (figura 7.9). El mercurio respon-
de de manera rápida a los cambios de temperatura, los cuales se manifiestan de manera
clara como una variación del tamaño de la columna del fluido en el capilar, sobre el cual es
posible fijar una escala para realizar las correspondientes mediciones.

Figura 7.9. Termómetro de mercurio.

7.6 Equilibrio térmico


El uso de los termómetros presupone aceptar, por principio, que dos o más cuerpos que
permanecen en contacto durante un tiempo suficientemente prolongado alcanzan el mismo
grado de temperatura. Es necesario enfatizar que el principio de funcionamiento del termó-
metro debe ser postulado puesto que proviene de una observación empírica, y no se puede
deducir a partir de principios más fundamentales. El principio del equilibrio térmico, también
llamado ley cero de la termodinámica, establece que todos los cuerpos que permanecen en
contacto tienden al equilibrio térmico (figura 7.10).

T1 T2

T1 > T2

T T

T1 > T > T2
T = temperatura de equilibrio
Figura 7.10. Equilibrio térmico.

Física conceptual
Capítulo 7: Potencia motriz

En términos más técnicos, se establece la ley cero de la termodinámica según la cual dos
cuerpos que se encuentren en equilibrio térmico con un tercero, están en equilibrio térmico
entre sí.

No es mucho lo que podemos decir sobre el concepto temperatura en sí, excepto que es
una función que permite especificar el estado termodinámico de un sistema físico, y se 113
determina mediante la utilización de un termómetro. Con frecuencia, en el estudio y descrip-
ción de los fenómenos físicos se utilizan conceptos cuya relevancia depende de un proto-
colo o convención de medida, más que de una definición verbal explícita, tal como sucede
con el concepto temperatura. Por otra parte, expresiones coloquiales como “la temperatura
es una medida del grado de calor de un cuerpo” carecen de sentido físico, pues no están
sujetas a ninguna forma de verificación experimental ya que “el grado de calor” no es un
concepto bien definido.

7.7 Calor
Durante las primeras etapas del desarrollo de la termodinámica se consideraba que los
cambios de temperatura de los cuerpos se debían a la pérdida o absorción de un fluido
imponderable que recibió el nombre de calórico por parte de Antoine de Lavoisier. Si bien la
idea del calórico ha sido revaluada luego de la introducción del modelo cinético corpuscular,
su utilización como modelo heurístico hizo posibles considerables avances en el campo
de la termodinámica, que después habrían de ser reconceptualizados en el marco de la
teoría cinética. Luego de descartar el calórico como supuesto agente responsable de los
cambios de temperatura de los cuerpos, se estableció el concepto calor, entendido como
la interacción mediante la cual dos sistemas que se ponen en contacto experimentan una
transferencia de energía que depende de la diferencia de temperatura.

Mediante técnicas calorimétricas, Joseph Black encontró una expresión para la cantidad
de calor, Q, necesario para cambiar en ∆T la temperatura de un cuerpo de masa m. Esta
expresión, conocida como ley de Black, establece que

Q = mC∆T

El término C, que se denomina calor específico, corresponde a una característica particular


y distintiva de la substancia constituyente del cuerpo. Por tratarse de una particularidad de
cada material, la determinación del calor específico de una substancia es de gran ayuda en
su identificación y caracterización, que es una de las tareas más fundamentales que afronta
la química. El trabajo de Black fue de gran importancia para la comprensión del funciona-
miento de las máquinas de vapor y para el mejoramiento de su eficiencia, como en el caso

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 7: Potencia motriz

del rediseño de la máquina de vapor de Newcomen por parte de James Watt. De por sí,
la máquina de Newcomen constituyó un avance notable respecto a la máquina de Savery
(figura 7.11). A diferencia de esta última, cuyo funcionamiento es puramente neumático, la
de Newcomen es un dispositivo mecánico que incluye un balancín y un pistón.

114

Figura 7.11. Máquina de vapor de Newcomen.

Uno de los brazos del balancín está unido a una bomba aspirante, en tanto que el otro es
accionado por la presión del vapor que se genera en una caldera. En la primera fase de la
operación de la máquina el pistón es desplazado a lo largo del cilindro por la presión del
vapor que ingresa en la cámara. Una vez completada la expansión, el vapor se condensa
mediante la inyección de agua fría, y el pistón regresa a la posición original gracias a la
presión atmosférica. A continuación se inicia un nuevo ciclo.

Por convención, se estableció que el calor específico del agua es 1 cal/g°C, y a partir de
este valor se define la unidad de medida del calor, la caloría, cal, como la cantidad de calor
necesaria para elevar la temperatura de un gramo de agua de 14.5 °C a 15.5 °C.

El alto valor del calor específico del agua, comparado con el de otras sustancias, es la ra-
zón por la cual se utiliza este líquido de manera generalizada en las máquinas que realizan
trabajo a partir de la fuerza motriz del calor. De igual manera, el poder refrigerante de la
evaporación del agua se debe a su alto calor específico. Por otra parte, la relativa estabili-
dad de la temperatura global de nuestro planeta, sin la cual sería imposible la biodiversidad
existente, se debe, en gran parte, a la extensa cantidad de agua que cubre una gran porción
de su superficie.

Física conceptual
Capítulo 7: Potencia motriz

Resumen
La posibilidad de hacer trabajo reemplazando el esfuerzo muscular por máquinas
cuyo funcionamiento depende de la presión generada por el vapor demandó el
estudio exhaustivo de los principios que rigen este tipo de procesos, y la definición 115
de magnitudes como energía, trabajo y potencia para mejorar su diseño, optimi-
zar su aprovechamiento y establecer parámetros objetivos de comparación entre
diferentes alternativas a partir de mediciones cuantitativas.

Potencia motriz

Cuestionario
1. ¿Qué sentido tiene la expresión “la fuerza del vacío”?
2. ¿Cuál es la fuerza responsable de realizar trabajo en la máquina de Savery?
3. ¿Por qué se llamaba “filosóficas” a las primeras máquinas térmicas, a pesar de
que su función era reemplazar el trabajo de los caballos?
4. ¿Cuál es la mayor objeción del sentido común respecto a la posible existencia del
vacío?
5. ¿Qué tienen en común la columna de mercurio de 76 cm en el tubo de Torricelli
y la limitación que encontró Galileo para elevar el agua a más de 10 metros me-
diante bombas de succión?
6. ¿Cómo se relacionan y en qué se diferencian los conceptos de peso y cantidad
de materia?
7. ¿Cuál de los dos conceptos anteriores es más afín al concepto físico de masa?
8. ¿Qué altura debe tener una columna de aire para balancear una columna de
mercurio como la del experimento de Torricelli? Nota: busque las respectivas
densidades del mercurio y del aire.
9. Averigüe hasta qué altura se extiende la atmósfera terrestre y explique la res-
puesta de la pregunta anterior.
10. ¿Cómo se podía conocer la densidad del aire antes de la existencia de Google?
11. ¿Por qué se puede utilizar el barómetro para determinar la altura a la que se
encuentra un lugar de la Tierra respecto al nivel del mar?
12. ¿A qué presión, en promedio, se encuentra la ciudad de Medellín?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 7: Potencia motriz

13. ¿A qué temperatura hierve el agua en la ciudad de Medellín?


14. Estime el valor de la presión en el interior de una olla doméstica a presión en el
momento en que empieza a “pitar”.
15. Utilice la respuesta del punto anterior para estimar la temperatura en el interior de
la olla a presión en el momento en que empieza a “pitar”.
116 16. ¿De qué otra manera se puede definir el concepto de temperatura, que no sea
como aquello que miden los termómetros?
17. ¿Cómo se puede medir la temperatura de un cuerpo cuando excede en varios
órdenes de magnitud la escala en la que están graduados los termómetros de
laboratorio?
18. ¿Cuáles fueron las motivaciones prácticas que llevaron a la definición de los
conceptos de trabajo, potencia y eficiencia?
19. ¿Cómo se manifiesta la potencia del motor de un vehículo? Compare la potencia
estimada de un caballo, una bicicleta, una motocicleta y un bus.
20. Haga una comparación entre vehículos de diferentes tamaños y diferentes cilin-
dradas en términos de potencia y eficiencia.

Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas. 
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press. 
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Fenn, J. (2003). Engines, energy, and entropy. Global View.  
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.  
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de Antioquia. 

Física conceptual
Capítulo 8 La mecánica del calor

Introducción
El funcionamiento de las bombas de succión y de las máquinas de vapor suscitó desde el inicio de
su historia grandes inquietudes sobre los principios que hacían posible su funcionamiento. En parti-
cular, el vacío fue objeto de grandes discusiones entre quienes afirmaban y negaban la posibilidad
de su existencia. Para algunos, el funcionamiento de las bombas de succión se fundamentaba en la
doctrina aristotélica del horror al vacío, y el ascenso del agua se debía al rechazo de la naturaleza a
permitir la existencia de espacios desprovistos de materia. Por el contrario, los defensores del ato-
mismo no veían ningún inconveniente para la existencia del vacío, que constituía una parte esencial
de su teoría sobre la constitución de la materia. Por todo lo anterior, las máquinas de vapor fueron
llamadas, en ocasiones, máquinas filosóficas.

De no menor importancia y magnitud fueron las discusiones en torno a la naturaleza del calor.
Mediante mediciones de gran precisión, Joseph Black estableció que cuando dos cuerpos que ini-
cialmente se encuentran a diferentes temperaturas alcanzan el equilibrio térmico el calor cedido por
uno de ellos es igual al calor absorbido por el otro, y llegó a la conclusión de que el calor es una
entidad que se conserva, lo cual constituye una de las bases fundamentales de la teoría del calórico,
de acuerdo con la cual el aumento de temperatura se debía a la incorporación del fluido. Por otra
parte, una serie de evidencias prácticas llevaron a algunos personajes, como Benjamin Thompson,
conde de Rumford, a relacionar el calor con el movimiento. Como director de una fábrica dedicada a
la construcción de cañones, observó que mucho tiempo después de que un taladro hubiera perdido
su filo y su capacidad de arañar el metal del alma de un cañón, seguía generando una gran cantidad
de calor, que no se podía explicar por la supuesta pérdida de calórico del material que estaba sujeto
a la acción del taladro. Rumford trató de establecer una relación entre el aumento de temperatura de
un depósito de agua que se calentaba por la fricción de dos piedras de molino y el trabajo realizado
por el caballo que las hacía mover, pero el deficiente diseño del montaje experimental no le permitió
llegar a conclusiones definitivas.

Otro notable experimento que contribuyó a desacreditar la teoría del calórico fue realizado a princi-
pios del siglo XIX por Humphry Davy, consistente en derretir un par de trozos de hielo sometidos a
fricción mutua.
Capítulo 8 : La mecánica el calor

8.1 Equivalente mecánico del calor


La equivalencia de calor y movimiento fue establecida por James Prescott Joule a media-
dos del siglo XIX gracias a una serie de refinadas mediciones. Joule era un industrial de la
cervecería, interesado en comparar la eficiencia de los motores eléctricos y los motores de
118 vapor, para lo cual realizó un cuidadoso experimento cuyo elemento central era un calorí-
metro lleno de agua que disponía de un agitador de paletas, accionado por un rotor externo,
al cual se le podía acoplar un motor eléctrico, un motor de vapor o una cuerda de la que
colgaba un peso (figura 8.1). El objeto del calorímetro de Joule era comparar el trabajo
realizado por cada uno de los diferentes motores en términos del aumento de temperatura
que experimentaba el agua agitada dentro del calorímetro.

mg
T1 h

T2
mg

T2 T1
Figura 8.1. El experimento de Joule.

El experimento de Joule mostró de manera concluyente que los motores de vapor de la épo-
ca eran más eficientes que los motores eléctricos. Pero el resultado verdaderamente impor-
tante para la ciencia fue la determinación, con un alto grado de precisión, del equivalente
mecánico del calor. Luego de utilizar diferentes sustancias como agua, mercurio y aceite
de ballena para realizar sus mediciones, Joule estableció que el trabajo efectuado por una
pesa que desciende a velocidad constante, agitando el líquido contenido en un recipiente,
se manifiesta en un aumento de la temperatura, que conduce a una estimación precisa
de la equivalencia de una unidad de calor y cierta cantidad de trabajo. El valor aceptado
actualmente para esta equivalencia es 1 cal = 4.18 J. El valor encontrado por Joule difiere
del actual en menos del 5%, lo cual se puede considerar un excelente resultado dadas las
limitaciones de los equipos de los que se disponía en su época.

Física conceptual
Capítulo 8: La mecánica del calor

8.2 Primera ley de la termodinámica


La aceptación de los resultados del experimento de Joule condujo al abandono de la teoría
del calórico y creó condiciones favorables para el establecimiento de una teoría atomista
de la composición de la materia, tal como la que había sido propuesta por el químico John
Dalton a principios del siglo XIX. De acuerdo con lo anterior, los cambios de temperatura 119
de un sistema están asociados a variaciones en el grado de movimiento de los corpúsculos
que componen dicho sistema, mientras que el calor es una medida de la energía ganada
o perdida durante una interacción térmica, es decir, una interacción mediante la cual dos
sistemas que se ponen en contacto intercambian energía en función de sus diferencias de
temperatura. Para saber cuándo una interacción es térmica se puede aplicar como criterio
la separación de los dos sistemas interactuantes mediante un aislante térmico, de tal modo
que si se interrumpe la transferencia de energía, será claro que la interacción es térmica;
en caso contrario, la interacción será de tipo trabajo.

Por otra parte, y de no menor importancia para la ciencia, el establecimiento del equivalente
mecánico del calor contribuyó al establecimiento de la ley de conservación de la energía
como el principio fundamental de la termodinámica. De acuerdo con este principio, la ener-
gía total de un sistema aislado permanece constante.

Según lo anterior, la variación de la energía ΔE de un sistema es el resultado de interaccio-


nes que pueden ser de tipo térmico, en el que la energía transferida al sistema se denomina
calor, Q, o de tipo mecánico, en cuyo caso la energía transferida se denomina trabajo, W.
Según esto, se puede expresar la primera ley de la termodinámica en los siguientes térmi-
nos:

∆E = Q - W (8.1)

donde W es el trabajo realizado por el sistema y su magnitud se define positiva. El signo


menos significa que cuando el sistema realiza un trabajo sobre su entorno, su energía dis-
minuye. Por el contrario, el trabajo que realiza el entorno sobre el sistema es negativo y la
energía del sistema aumenta.

8.3 Modelo cinético corpuscular


A mediados del siglo XIX Rudolf Clausius logró un notable avance en el establecimiento de
la teoría corpuscular de la materia y de la ley de la conservación de la energía al obtener
la ecuación de estado de los gases ideales a partir de los principios de la mecánica, en
plena concordancia con el trabajo de Joule. Clausius utilizó un modelo según el cual un gas

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 8 : La mecánica el calor

está compuesto por partículas microscópicas que se desplazan de manera aleatoria, de


tal manera que la presión que ejerce el gas sobre la pared del recipiente en el cual el gas
se encuentra confinado es el resultado de los choques elásticos de las partículas contra
la superficie en cuestión. La condición de que los choques sean elásticos garantiza que el
único efecto de la interacción de una partícula con la pared del recipiente es el cambio de
120 la dirección de su movimiento, sin que haya variación de la energía cinética (figura 8.2).

Figura 8.2. Modelo cinético corpuscular.

Consideremos un recipiente cúbico de arista l que contiene N corpúsculos de un gas ideal,


donde N es un número que suponemos muy grande. Puesto que es un imposible práctico
conocer las posiciones y las velocidades iniciales de cada uno de los N corpúsculos apela-
mos a las leyes de la estadística y suponemos que en promedio las partículas tienen una
energía cinética (1/2)mv2. La cantidad v2 corresponde al promedio de los cuadrados de las
velocidades de los N corpúsculos. Si consideramos el desplazamiento de un corpúsculo en
la dirección x, podemos calcular la fuerza que ejerce sobre la cara yz del recipiente cada
que choca con ella (figura 8.3). El cambio de momentum en cada choque será

∆px = 2mvx (8.2)

mv

_ mv

Figura 8.3. Choques y cambio de momentum.

Física conceptual
Capítulo 8: La mecánica del calor

El tiempo que tarda la partícula entre dos choques sucesivos será

∆t = 2l/vx (8.3)

Por tanto, la fuerza que ejerce en un choque será


121
Fx = mvx2/l (8.4)

Puesto que hay N corpúsculos chocando contra las paredes, y teniendo en cuenta que la
presión es la fuerza aplicada sobre una superficie, que en este caso es l2, la presión será

p = Nmvx2/l3 (8.5)

Si tenemos en cuenta que v2 = vx2 + vy2 + vz2, pero que vx2 = vy2 = vz2, entonces v2 = 3vx2.
Además, puesto que el volumen del recipiente es V = l3, tenemos que

pV = (1/3)Nmv2 (8.6)

Podemos reescribir esta ecuación en términos de una expresión más familiar:

pV = (2/3)N[(1/2)mv2] (8.7)

Puesto que (1/2)mv2 es la energía cinética promedio de los corpúsculos, Ek, la energía total
del sistema será NEk, que es constante, de acuerdo con la primera ley de la termodinámica
que establece que la energía total de un sistema aislado no varía. En conclusión, hemos
llegado a la ecuación de estado de los gases ideales para el caso en que la temperatura
es constante:

pV = constante (8.8)

Resulta de mucho interés comparar los segundos miembros de la ecuación que acabamos
de encontrar con la ecuación de estado de los gases ideales, pV = NkT, de donde resulta
que:

Ek = (3/2)kT (8.9)

De acuerdo con esta expresión, la temperatura es una medida de la energía cinética media
de los corpúsculos que componen un gas. Esta expresión destaca el carácter estadístico
de la temperatura y aclara su significado más allá que la afirmación original, según la cual
temperatura es aquello que miden los termómetros. Esta forma de concebir la temperatura
se puede extender a otros sistemas termodinámicos diferentes a los gases, teniendo en

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 8 : La mecánica el calor

cuenta que la energía cinética de un corpúsculo que hace parte de un líquido o de un sólido
también depende de sus grados de movimientos vibracionales y rotacionales. Fenómenos
como el calentamiento y la dilatación de los materiales sólidos se pueden describir con
claridad y sencillez al considerar el aumento del grado de movimiento vibracional de sus
componentes moleculares.
122
La interpretación de los conceptos de la termodinámica en el marco del modelo cinético
corpuscular contribuyó de manera significativa a consolidar la teoría atómica y molecular
de la materia y a establecer relaciones entre la termodinámica y la electrodinámica para
la comprensión de los fenómenos de transferencia de energía y de equilibrio térmico. El
modelo cinético corpuscular hace parte de una nueva área de la ciencia, denominada física
estadística, que se desarrolló en la segunda mitad del siglo XIX, y que encuentra su campo
de aplicación en el estudio de sistemas conformados por un número de elementos tan
grande que hace imposible en la práctica su descripción a partir de la determinación de las
condiciones iniciales de cada uno de ellos. El orden de magnitud del número de elementos
que caracterizan a este tipo de sistemas es comparable al número de Avogadro, N0, que
es igual a 6.02 × 1023, y corresponde al número de corpúsculos de un gas que ocupan un
volumen de 22.4 litros en condiciones estándar de laboratorio.

Resumen
Gracias a la introducción del modelo cinético corpuscular, los fenómenos ter-
modinámicos se pueden describir en el marco de la mecánica newtoniana
prescindiendo de entidades físicas como el calórico cuya existencia había sido
imposible de comprobar. Por primera vez se puede definir el concepto de tem-
peratura en términos de magnitudes físicas concretas. El estudio de sistemas
físicos compuestos por un gran número de elementos, y la imposibilidad práctica
de establecer ecuaciones de movimiento individuales para cada uno de ellos,
condujo al tratamiento estadístico de las funciones de estado como la energía, la
presión y la temperatura.

Mecánica del calor

Física conceptual
Capítulo 8: La mecánica del calor

Cuestionario

1. ¿Qué pretendía determinar Rumford al medir el calentamiento de un estanque de


agua asociado al movimiento de una piedra de molino impulsada por un caballo?
2. ¿Por qué resulta más relevante respecto al establecimiento del equivalente me- 123
cánico del calor el experimento de Joule que el de Rumford?
3. ¿Cómo se puede garantizar que el calentamiento del agua en el calorímetro de
Joule se debe a la agitación de las paletas y no a alguna otra causa?
4. ¿Por qué es importante que en el experimento de Joule la pesa que acciona el
agitador de paletas descienda a velocidad constante?
5. A partir de la definición de caloría exprese el valor del calor específico del agua
y compárelo con el de algunos de los materiales que se encuentran con mayor
frecuencia en el entorno.
6. Explique por qué razón en las playas el agua del mar es más fría que la arena en
la mañana, pero en la tarde sucede lo contrario.
7. ¿Se puede utilizar la misma explicación del caso anterior para la brisa marina que
se manifiesta cerca de la costa?
8. ¿Cuánto vale la cantidad de movimiento total de un recipiente cerrado que se
encuentra en reposo y contiene un gas a temperatura ambiente?
9. Suponiendo que todos los corpúsculos que conforman un gas son idénticos, y
que el recipiente que los contiene está en reposo, calcule el promedio de veloci-
dad de dichos corpúsculos.
10. Demuestre que la velocidad cuadrática media de las partículas de un gas a tem-
peratura ambiente es mayor que cero.
11. ¿Qué otra interpretación física se puede dar al concepto de temperatura a falta
del modelo cinético corpuscular?
12. ¿Qué implicaciones tiene la interpretación estadística del concepto de tempera-
tura respecto a las posibles velocidades que pueden tener las moléculas de un
gas?
13. Proponga un experimento que permita verificar la relación entre la temperatura
de un gas y la velocidad media de sus moléculas.
14. Construya una caja de cartón que contenga el número de Avogadro de moléculas
de aire.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 8 : La mecánica el calor

Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
124 Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press. 
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.  
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.  

Física conceptual
Capítulo 9 Entropía

Introducción
De acuerdo con la ley cero de la termodinámica, cuando dos cuerpos que inicialmente se encuen-
tran a diferentes temperaturas se ponen en contacto durante un tiempo suficientemente prolongado,
alcanzan el equilibrio térmico. Pero lo contrario nunca ocurre de manera espontánea, lo cual da
cuenta de la irreversibilidad de los procesos termodinámicos relacionados con transferencia de
energía entre sistemas que se encuentran a diferentes temperaturas, y constituye uno de los as-
pectos más característicos de la termodinámica. La existencia de procesos irreversibles plantea un
problema teórico de gran complejidad y no menor interés, puesto que si se analiza hasta las últimas
consecuencias, toda interacción entre sistemas conformados por un gran número de elementos es
una suma de procesos reversibles descritos por las leyes de la mecánica. La pregunta que surge
de inmediato es: ¿a qué se debe la irreversibilidad de procesos como nacer, crecer y morir, entre
muchos otros, que parecen estar signados por una cierta dirección del tiempo?

9.1 Procesos irreversibles


Consideremos el típico proceso irreversible que se presenta en la interacción de dos cuerpos de
igual masa, e igual material, que se encuentran a diferentes temperaturas, T1 y T2, y permanecen en
contacto hasta que alcanzan el equilibrio a la temperatura T (figura 9.1).

T1 T2 T1 T2

T T T1 T T2

T = temperatura de equilibrio

Figura 9.1. Cuerpos a diferentes temperaturas.

Si T1 > T > T2, se dice que la disminución de la temperatura del cuerpo 1 es debida a la pérdida de
una cantidad de energía Q1, y, de manera recíproca, que el aumento de temperatura del cuerpo 2
es debido a una transferencia de energía Q2. Asumiendo que la energía que perdió el cuerpo 1 es
la misma que ganó el cuerpo 2, Q2 = Q = - Q1, e introduciendo la expresión ∆S = Q/T, se llega a la
siguiente relación:
Unidad 9: Entropía

∆S = Q1/T1 +Q2/T2 = Q(1/T2 - 1/T1) ≥ 0 (9.1)

Esta ecuación nos dice que en una interacción térmica espontánea, la variación de la fun-
ción S siempre es mayor o igual que cero. La función S fue introducida por Rudolf Clausius,
126 quien la denominó entropía. Al igual que las funciones p, V y T, la entropía S es una función
de estado de los sistemas termodinámicos y permite establecer el carácter irreversible o
reversible de los procesos termodinámicos cuando su variación sea mayor o igual que cero,
respectivamente.

El estudio de los procesos irreversibles permite establecer una nueva ley, que se denomina
segunda ley de la termodinámica, la cual establece que los sistemas termodinámicos evo-
lucionan hacia un estado de máxima entropía.

La segunda ley de la termodinámica había sido anticipada por el ingeniero francés Sadí
Carnot en las primeras décadas del siglo XIX cuando descubrió que la eficiencia de los
motores de vapor depende de la diferencia entre la temperatura T1 de la fuente que sumi-
nistra el calor Q1 necesario para la operación del motor, y la temperatura T2 del entorno al
que se transfiere el calor que no fue utilizado para la realización del trabajo. El problema de
optimizar los procesos termodinámicos consiste en producir la máxima cantidad de trabajo
invirtiendo la mínima cantidad de combustible, que será directamente proporcional a la
cantidad de calor suministrado al sistema. Luego de la invención de la máquina de Savery,
y a lo largo de la Revolución Industrial, la historia de las máquinas de potencia es la historia
del mejoramiento de la eficiencia mediante la introducción de ingeniosas innovaciones. En
primer lugar, la máquina de Newcomen sobrepasó con mucho la eficiencia de la máquina
de Savery al introducir las bielas y los pistones para la realización del trabajo de una ma-
nera cíclica y mecanizada. La siguiente gran innovación fue llevada a cabo por James Watt
cuando introdujo el condensador, que evitaba el paso de enfriamiento del pistón, en el cual
se perdía una considerable cantidad de agua y de calor con el consecuente aumento de la
eficiencia del ingenio termodinámico (figura 9.2).

Pero aún la máquina de Watt, dotada de sistemas de control inercial y pistón de doble impul-
so, seguía siendo un dispositivo aparatoso que consumía una gran cantidad de combustible
debido a su tamaño y a las altas pérdidas de calor que generaba su operación. La siguiente
gran innovación fue la introducción de las máquinas de vapor que funcionaban a alta pre-
sión, gracias a lo cual fue posible disminuir su volumen sin sacrificar la potencia y disponer
de motores de vapor que se podían acoplar a un vehículo para construir una locomotora
(figura 9.3), o a un barco para navegar en grandes ríos.

Física conceptual
Unidad 9: Entropía

127

Figura 9.2. Máquina de Watt.

Figura 9.3. Primera locomotora.

9.2 Eficiencia
Se define la eficiencia de un motor como la relación entre el trabajo realizado, W, y el calor
suministrado, Q1. Sadí Carnot demostró que no puede existir ningún motor cuya eficiencia
sea mayor que

W/Q1 = 1 - T2/T1 (9.2)

Es importante anotar que la validez de esta relación es independiente del tipo de material
del que esté construido el motor, lo cual le confiere universalidad. El razonamiento que
condujo a Carnot a establecer esta relación parte de la suposición de que no existe ningún
proceso termodinámico espontáneo cuyo único resultado sea transferir calor de una fuente
de menor a una fuente de mayor temperatura. Esta última aseveración también constituye
una expresión de la segunda ley de la termodinámica.

Energía y potencia

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 9: Entropía

9.3 Entropía y probabilidad


La ley del aumento de la entropía es coherente con la evidencia empírica de que el calor
“fluye” de lo caliente a lo frío, y nunca de manera contraria, pero sigue siendo un desafío
para los fundamentos de la mecánica clásica, cuya expresión fundamental es la ecuación
128 newtoniana de movimiento que establece que todo cuerpo sobre el cual actúa una fuerza
experimenta una aceleración, dada por la expresión a = F/m. Esta ecuación se puede es-
cribir como

d2r/dt2 - F/m = 0 (9.3)

cuya solución r(t) depende de las condiciones iniciales del sistema y especifica la posición
del cuerpo en cualquier instante del tiempo. Puesto que la ecuación de movimiento depen-
de del término t2, si se cambia t por -t la ecuación permanece inalterada, lo cual indica que el
movimiento del cuerpo es físicamente posible en cualquier dirección del tiempo, que es una
forma de decir que el proceso es reversible. Puesto que, como ya ha sido dicho, cualquier
interacción entre dos sistemas complejos es la suma de las interacciones elementales entre
los componentes del sistema, descritas por las ecuaciones de movimiento de Newton, no
hay cómo justificar a partir de las leyes de la mecánica el carácter irreversible de las interac-
ciones termodinámicas. Una forma de superar esta aparente contradicción fue planteada
por Ludwig Boltzmann, luego de expresar la entropía como una función estadística en el
marco del modelo cinético corpuscular.

Consideremos un sistema termodinámico típico, tal como un gas contenido en un recipien-


te. Cada una de las moléculas del gas puede encontrarse en cualquier parte del recipiente,
y el conjunto de todas las posiciones de las moléculas conforma algo que vamos a llamar
un estado accesible del sistema. Claramente, dada la intercambiabilidad de posiciones en-
tre las moléculas que conforman el sistema, existe un gran número de estados accesibles
que son compatibles con los parámetros termodinámicos presión, volumen y temperatura,
que describen el sistema. De acuerdo con la propuesta de Boltzmann, la entropía es una
cantidad proporcional al número Ω de los estados accesibles de un sistema, de acuerdo
con la relación

S = k ln Ω (9.4)

donde k es la constante de Boltzmann. De acuerdo con esto, la descripción de la evolución


de un sistema termodinámico es un juego estadístico, en el que se apuesta a que luego
de un tiempo, y a partir de unas condiciones iniciales dadas, el sistema se encontrará en
alguno de los estados de mayor probabilidad, puesto que la probabilidad de que el sistema
se encuentre en cierto estado es proporcional al número de modos compatibles con dicho
estado.

Física conceptual
Unidad 9: Entropía

Con el fin de aclarar este concepto consideremos la situación de un gas compuesto por N
partículas confinadas en un recipiente de volumen V1, que a su vez se encuentra dentro de
un recipiente de volumen V2, mucho mayor que V1 (figura 9.4).

129

V1 V2

Figura 9.4. Recipiente dentro de recipiente.

En tanto que las moléculas se encuentren confinadas al recipiente menor, la probabilidad


de encontrar una de ellas por fuera de este es cero, y la probabilidad de encontrarla dentro
es uno. A continuación consideremos la situación que se presenta luego de destapar el
recipiente pequeño. Luego de un tiempo cada una de las moléculas se puede encontrar
en cualquier parte del recipiente mayor, incluso dentro del recipiente menor (figura 9.5).
Podemos calcular la probabilidad de encontrar una molécula en alguna parte del recipiente
mayor a partir de la definición de la probabilidad en términos del número de modos posibles
en los que se puede dar cierta configuración y el número de casos compatibles con una
determinada condición. Por ejemplo, podemos calcular la probabilidad de que la partícula
se encuentre dentro del recipiente menor. Si el número de modos N en los que se puede
localizar la partícula en el recipiente mayor es proporcional al volumen V2, y el número de
modos n en los que se puede localizar la partícula en el recipiente menor es proporcional al
volumen V1, la probabilidad Pi de encontrar una partícula dentro del recipiente menor será

Pi = V1/V2 (9.5)

A partir de esta expresión podemos calcular la probabilidad PT de que luego de un tiempo


después de haberlo destapado, todas las partículas se encuentren en el recipiente menor,
y encontraremos que

PT = (V1/V2)N (9.6)

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 9: Entropía

Puesto que la relación V1/V2 es menor que uno, y considerando que el número N es del
orden de magnitud del número de Avogadro, la probabilidad PT es prácticamente igual a
cero, pero no es cero.

130

Figura 9.5. Partículas distribuidas de manera aleatoria.

De manera recíproca, podemos calcular la probabilidad de que las partículas se encuentren


distribuidas de manera homogénea en el interior del recipiente mayor y encontraremos un
valor muy cercano a uno.

Puesto que la entropía es proporcional al número de modos en que se puede encontrar el


sistema en un estado determinado, la entropía es proporcional a la probabilidad de encon-
trar el sistema en dicho estado. Según esto, cuando el sistema evoluciona desde el estado
en el que todas las partículas se encuentran confinadas en el recipiente pequeño hasta
que se encuentran distribuidas de manera aleatoria dentro del recipiente mayor, se puede
decir que el sistema pasó de un estado inicial de baja entropía a un estado final de máxima
entropía.

De acuerdo con lo anterior concluimos que la afirmación de que los sistemas físicos evolu-
cionan de manera espontánea hacia los estados de máxima entropía es una reiteración del
carácter probabilístico de esta magnitud física, y la aceptación del hecho empírico de que
cuando se examina un sistema que dispone de un gran número de estados accesibles, el
sistema se encontrará con mayor frecuencia en alguno de los estados de mayor probabili-
dad.

9.4 Entropía como desinformación


Es frecuente escuchar expresiones de fácil recordación y poco o nulo significado, como
“energía es la capacidad de hacer trabajo”. En atención a las consecuencias de la segunda

Física conceptual
Unidad 9: Entropía

ley de la termodinámica, y a la irreversibilidad de los procesos termodinámicos de trans-


ferencia de energía y realización de trabajo, podemos decir que la anterior afirmación no
es correcta. Consideremos el caso de un sistema compuesto por un péndulo que oscila en
el interior de un recipiente térmica y mecánicamente aislado. Si el péndulo se encuentra
en movimiento, luego de cierto tiempo se habrá detenido, sin embargo la energía total
del sistema se habrá conservado por tratarse de un sistema aislado y no habrá ninguna 131
posibilidad de realizar un trabajo a partir de esta energía. Lo anterior es coherente con el
descubrimiento de Carnot de que la eficiencia de los sistemas termodinámicos siempre es
menor que uno, y que, por tanto, en la operación de cualquier motor se pierde de manera
irreversible cierta cantidad de energía, cuyo efecto neto es elevar la temperatura del am-
biente, sin poder ser recuperada como fuente de trabajo. Por esta razón se puede decir que
el aumento de la entropía es una medida de la pérdida de energía disponible para realizar
trabajo. La imposibilidad de convertir en trabajo el ciento por ciento de la energía transferida
a un sistema en forma de calor contrasta con la posibilidad de que el ciento por ciento de la
energía aplicada a la realización de un trabajo se traduzca en un aumento de la temperatura
del sistema. En un sentido puramente probabilístico, la ley del aumento de la entropía da
cuenta de esta asimetría, que está asociada a la existencia de una dirección o flecha del
tiempo: el tiempo avanza en la dirección del aumento de la entropía.

Pero también es frecuente encontrar frases como “la entropía es una medida del desorden”.
El problema con esta expresión es que carece de significado, puesto que orden no está
definido en el contexto de la física. Sin embargo, si se interpreta la idea de orden como el
grado de información que se tiene del estado del sistema físico, la frase cobra sentido. En
este caso se podría decir que el aumento de la entropía es una medida de la pérdida de
información de un sistema, y la segunda ley de la termodinámica se podría expresar dicien-
do que cuando los sistemas termodinámicos evolucionan se pierde información detallada
sobre el estado de sus componentes. El análisis de un sistema como el del gas contenido
en un recipiente que a su vez se encuentra dentro de otro, que nos sirvió como ejemplo de
la evolución de un sistema termodinámico típico, ilustra esta última afirmación.

Nota: independientemente de la interpretación determinista de la mecánica newtoniana,


que no prohíbe la reversibilidad de ningún proceso mecánico, o de la descripción esta-
dística de Boltzmann sobre la evolución de los sistemas físicos, de acuerdo con la cual la
reversibilidad de los procesos termodinámicos no es imposible sino, tan solo, altamente
improbable, se puede decir que en estricto sentido no existen procesos físicos irreversi-
bles. Esta conclusión, que tiene fuertes repercusiones sobre la realidad del tiempo y su
direccionalidad esencial, se sustenta en el análisis de las interacciones fundamentales a las
que se puede reducir todo proceso macroscópico, tales como el decaimiento de sistemas
compuestos por partículas elementales, como el decaimiento beta radiactivo.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 9: Entropía

Resumen
La evidencia empírica de que los procesos termodinámicos espontáneos son
esencialmente irreversibles adquiere estatus físico con la segunda ley de la ter-
132 modinámica y la definición de entropía, como aquella magnitud cuya variación
determina el carácter reversible o irreversible de los procesos físicos.

Estropía

Cuestionario

1. ¿Por qué no es necesario introducir un concepto físico, como el calórico, adi-


cional a los de masa, espacio y tiempo, para el tratamiento de los fenómenos
termodinámicos?
2. ¿Qué condiciones se cumplen, de manera inexorable, en toda interacción entre
sistemas físicos, ya sean corpúsculos, partículas elementales o estructuras com-
plejas?
3. ¿Por qué resulta paradójico que los sistemas termodinámicos evolucionen en
el tiempo de manera irreversible, si, en último término, sus interacciones a nivel
microscópico son choques entre corpúsculos, que tienen carácter reversible?
4. ¿Cuál es la diferencia entre causalidad y casualidad, y qué relevancia tiene en la
descripción de los procesos físicos?
5. Demuestre que de acuerdo con la ley de conservación de la energía es imposible
construir máquinas que trabajen de manera indefinida sin consumir ningún tipo
de combustible.
6. ¿Qué condición debe cumplir un buen termómetro para realizar una medida con-
fiable de la temperatura de un cuerpo?
7. ¿Qué suposición se hace de manera implícita cuando se dice que el calor que
pierde un cuerpo cuando se pone en contacto con otro cuerpo, que se encuentra
a menor temperatura, es igual al calor que gana este último?
8. ¿Qué validez tiene utilizar en el análisis de los procesos termodinámicos una
magnitud física, como la entropía, que no ha sido definida literalmente de manera
precisa?

Física conceptual
Unidad 9: Entropía

9. ¿Qué predice la ley del aumento de la entropía respecto a la posibilidad de que


se realice de manera espontánea un proceso cuyo resultado sea la transferencia
de calor de un cuerpo de menor temperatura a un cuerpo de mayor temperatura?
10. ¿En qué caso sería posible transferir calor de un cuerpo de menor temperatura a
un cuerpo de mayor temperatura? Nota: analice el funcionamiento de una neve- 133
ra.
11. ¿Por qué se dice que la transformación de energía mecánica en calor es una
forma de degradación de la energía?
12. ¿Qué es el logaritmo de un número y cuál es su utilidad?
13. ¿Qué relación hay, desde el punto de vista de la teoría de probabilidades, entre
los conceptos de orden, probabilidad e información?
14. Encuentre ejemplos del lenguaje cotidiano, por el estilo de “tanto va el cántaro al
agua, que al fin se rompe”, en los que esté implícito el uso de la teoría de proba-
bilidades.
15. Calcule la probabilidad de que, luego de ser barajada sin ningún truco, la baraja
quede completamente ordenada, por número y palo. Nota: la baraja española
tiene cuarenta cartas y cuatro palos.
16. Suponga que en el primer día de clase los cincuenta estudiantes de un salón se
sientan en orden alfabético, y asigne un valor a la entropía del sistema en ese
momento. Estime la distribución más probable en la que los estudiantes se aco-
modarán al final del semestre y calcule la entropía en ese momento.
17. Utilice el anterior caso para expresar la segunda ley de la termodinámica.
18. Considere un recipiente de volumen V1, que se encuentra dentro de otro recipien-
te cerrado de volumen V2, mucho mayor que V1. Calcule la probabilidad de que
una molécula de gas se encuentre dentro del recipiente menor.
19. Si en los recipientes del caso anterior hay una mol de un gas, que contiene el
número de Avogadro de partículas, calcule la probabilidad de que todas las par-
tículas se encuentren en un momento dado concentradas en el recipiente de
volumen menor.
20. Calcule la entropía del sistema del caso anterior en el caso en que todas las par-
tículas se encuentren en el interior del recipiente de menor volumen y en el caso
en que estén distribuidas de manera uniforme dentro del volumen mayor.
21. Demuestre que en el ejemplo del caso anterior se cumple la segunda ley de la
termodinámica luego de que haya transcurrido cierto tiempo después de que las
partículas que se encontraban en el recipiente de menor volumen hayan tenido la
posibilidad de ocupar el recipiente mayor.

Bibliografía
Alder, K. (2010). Engineering the revolution. Kindle eBook.
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.  

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 9: Entropía

Bloonfied, L. A. (2015). How things work. Wiley.


Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press. 
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
134 Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.  
Rosen, W. (2012). The most powerful idea in the world. University of Chicago Press.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.  

Física conceptual
Capítulo 10 Electricidad

Introducción
A diferencia de la astronomía y la mecánica, solo desde hace unos pocos siglos los fenómenos
electrostáticos han sido objeto de estudio sistemático, el cual condujo a la introducción de una
nueva magnitud física fundamental, la carga eléctrica, como agente responsable de la atracción y la
repulsión de los cuerpos en función de su presencia y distribución en ellos. Por su parte, el estudio
de los fenómenos magnéticos no demandó la introducción de nuevas magnitudes físicas para dar
cuenta de sus propiedades, gracias al descubrimiento de que el magnetismo es, esencialmente,
una manifestación dinámica de la carga eléctrica. Finalmente, la descripción unificada y comple-
mentaria de los fenómenos eléctricos y magnéticos dio lugar a la introducción al concepto de campo
electromagnético y a la predicción de la existencia de las ondas electromagnéticas, cuyo posterior
descubrimiento tuvo importantes repercusiones teóricas y múltiples aplicaciones tecnológicas que
sentaron las bases para el surgimiento de la física moderna y la comprensión de la estructura y
composición de la materia.

10.1 Elektron
Además de la gravedad, los fenómenos electromagnéticos son omnipresentes en la cotidianidad,
aunque no siempre seamos conscientes de su existencia, tal como sucede con la persistente ten-
dencia que exhiben las motas de lana y pequeños trozos de cabello de adherirse a un vidrio cuando
se lo quiere dejar inmaculadamente limpio; o los molestos choques que se producen luego de des-
cender de un vehículo y hacer contacto con otra persona o con un elemento de metal.

La electricidad recibe su nombre de la palabra griega ἤλεκτρον, o elektron, que quiere decir ámbar,
una resina fosilizada que en la antigüedad era considerada como una piedra semipreciosa y que
en épocas recientes ha adquirido protagonismo gracias a una película de ciencia ficción cuya trama
gira alrededor de la reproducción de dinosaurios a partir del ADN contenido en la sangre de mosqui-
tos prehistóricos conservados en ámbar. Una característica muy notable de objetos fabricados con
esta resina es que luego de ser frotados con un paño adquieren la propiedad de atraer polvo, lana
y pequeños objetos, al igual que sucede con los objetos de vidrio. En nuestro entorno encontramos
una gran cantidad de objetos fabricados de resinas sintéticas, para las más variadas aplicaciones,
que nos brindan la oportunidad de experimentar diversos tipos de fenómenos electrostáticos, desde
el erizamiento de los cabellos hasta el chisporroteo de una prenda de vestir que se saca por la ca-
beza rozando el cabello. Las descargas que se experimentan de manera ocasional al descender de
un automóvil luego de tocar un objeto en el exterior son debidas a la electrificación que produce el
rozamiento de la ropa con la tapicería de los asientos del vehículo.
Unidad 10: Electricidad

Con el fin de observar los fenómenos electrostáticos más elementales se puede tomar
una hoja de papel, rasgándola en trozos pequeños que se esparcen sobre una mesa, y a
continuación se toma un objeto de plástico, como un peine, y se lo pasa repetidamente por
el cabello, para luego acercarlo a los trozos de papel. Se podrá observar cómo aquellos
136 saltan y quedan adheridos al peine cuando este se acerca a suficiente distancia. No menos
espectacular resulta la experiencia de introducir la mano en una bolsa plástica llena de pe-
queñas esferas de espuma de polietileno, para luego retirarla con un gran número de ellas
adheridas a la piel (figura 10.1).

Figura 10.1. Adherencia electrostática de espuma de polietileno.

10.2 Polarización
Si bien la atracción electrostática era un fenómeno conocido de vieja data, solo hasta el
siglo XVIII se estudió de manera sistemática el fenómeno de repulsión electrostática, que
habría de conducir a la estructuración de una teoría más completa de la electricidad. Si
se suspenden dos esferas de vidrio con hilos y se las coloca muy cerca la una de la otra,
después de frotar ambas esferas con una pieza de lana experimentarán una fuerza de re-
pulsión. Si en lugar de las esferas de vidrio se utilizan esferas de ámbar, el resultado será
idéntico. Pero si se ponen una esfera de vidrio y otra de ámbar, ambas experimentan una
fuerza de atracción. También se puede apreciar la repulsión entre una varilla de plástico
previamente electrizada con una esfera metálica suspendida de un hilo después de que
entran en contacto (figura 10.2).

Física conceptual
Unidad 10: Electricidad

137

Figura 10.2. Atracción y repulsión electrostáticas.

Con el fin de explicar los fenómenos electrostáticos, inicialmente se concibió la existencia


de dos fluidos a los que se les dio el nombre de electricidad vítrea y electricidad resinosa,
que finalmente terminaron por denominarse electricidad positiva y electricidad negativa,
respectivamente. La teoría de los fluidos eléctricos asumía que la materia es neutra porque
posee electricidad de los dos tipos en la misma proporción, pero debido a la fricción se
puede producir un desbalance entre las cantidades de electricidad positiva y negativa de los
cuerpos. El comportamiento de los cuerpos cargados se explica asumiendo que las cargas
del mismo signo se repelen, tal como sucede con las dos esferas que se han recibido el
mismo tipo de carga eléctrica, y las de signo contrario se atraen, como en el caso de las
esferas que han recibido cargas de diferente tipo.

La atracción que un cuerpo cargado ejerce sobre un cuerpo neutro se puede explicar como
un fenómeno de polarización de las cargas del cuerpo neutro: el cuerpo cargado atrae hacia
sí las cargas del signo contrario del cuerpo neutro, mientras que repele las de su propio
signo. Aunque el cuerpo neutro no ha experimentado variación en la cantidad neta de carga
eléctrica que posee, esta se ha redistribuido de tal forma que aparecen dos polos claramen-
te definidos (figura 10.3). Puesto que el polo de signo contrario al cuerpo cargado está más
cerca que el de su propio signo, y debido a que la intensidad de la fuerza disminuye con la
distancia, prima la fuerza de atracción sobre la fuerza de repulsión.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 10: Electricidad

138

Figura 10.3. Polarización eléctrica.

Al dividir por la mitad un cuerpo que está eléctricamente polarizado, cada una de las dos
partes quedará cargada con la misma cantidad de electricidad pero de signo contrario. Es
importante anotar que la carga total de un sistema cerrado es una cantidad conservada, es
decir, la carga no se genera ni se destruye de manera espontánea.

El fenómeno de polarización es el fundamento operativo de un instrumento denominado


electroscopio, que consiste en un par de tiras delgadas de oro o de aluminio, adheridas
a un objeto metálico, que cuelgan dentro de un recipiente transparente y permite medir la
carga eléctrica de los cuerpos que se le acercan o se ponen en contacto con él (figura 10.4).

Figura 10.4. Electroscopio.

Al acercar un cuerpo cargado al electroscopio este se polariza, haciendo que la esfera


externa se cargue con electricidad de signo contrario a la del cuerpo que está siendo exa-
minado, y las laminillas queden cargadas con electricidad del mismo tipo, por lo cual expe-

Física conceptual
Unidad 10: Electricidad

rimentan repulsión. El grado de separación de las laminillas es una medida de la carga del
cuerpo externo.

10.3 Generadores y condensadores


139
A mediados del siglo XVIII se construyeron artefactos capaces de generar electricidad está-
tica por fricción. Uno de ellos consistía en una esfera de azufre que se hacía rotar mediante
una manivela y al contacto con la palma de la mano generaba electricidad, lo que permitía
realizar una variedad de experiencias sencillas. Otros generadores más elaborados, como
el de Van de Graaff, almacenan carga eléctrica en una esfera metálica gracias al roce con
una banda accionada por un motor (figura 10.5).

Figura 10.5. Generador de Van de Graaff

Posteriormente se construyó un artefacto conocido como botella de Leyden –en honor a


la ciudad holandesa donde se inventó–, que podía almacenar la electricidad generada por
los aparatos de fricción. Estaba constituido por un recipiente de vidrio lleno de agua, en el
cual se introducía un alambre enrollado cuyo extremo sobresalía de la botella y se ponía
en contacto con la máquina de fricción. Al poner el extremo del alambre en contacto con
un objeto cualquiera se producía una descarga eléctrica. La gran popularidad que alcanzó
este tipo de artefactos contribuyó a la difusión del conocimiento sobre los fenómenos de la
electricidad.

Gracias a un experimento tan célebre como arriesgado, el físico norteamericano Benjamín


Franklin demostró a mediados del siglo XVIII que los rayos son una descarga de electri-
cidad del mismo tipo que se produce en el laboratorio con una botella de Leyden (figura
10.6). Franklin elevó una cometa hasta una nube tormentosa y colgó una llave metálica a

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 10: Electricidad

poca distancia del extremo seco del cordel con el cual sostenía la cometa. Luego utilizó un
electroscopio para comprobar que la llave metálica se había cargado eléctricamente. Algu-
nos quisieron repetir la experiencia sin tomar la precaución de sostener la cometa desde un
extremo seco del cordel, pero no sobrevivieron para contar la experiencia.

140

Figura 10.6. El experimento de Franklin.

10.4 La ley de Coulomb


A partir de mediciones muy precisas utilizando una balanza de torsión, Charles Coulomb
estableció la ley que lleva su nombre, y describe la interacción electrostática entre dos cuer-
pos con cargas q y q', separados a una distancia r, de acuerdo con la expresión

F = k(qq')/r2 (10.1)

La unidad de carga eléctrica es el coulomb, o culombio, C, que se definió originalmente


como la cantidad de carga que a un metro de distancia de una carga idéntica produce una
fuerza de 9 × 109 N. En el Sistema Internacional de Unidades se define el culombio en tér-
minos de la unidad de corriente eléctrica, que es el amperio, A, como la cantidad de carga
que transporta una corriente de un amperio en un segundo: 1 C = 1 As. La constante de
proporcionalidad k tiene un valor de 9 × 109 Nm2C−2.

Aunque la ley de Coulomb tiene una forma muy similar a la ley de gravitación de Newton, es
importante destacar dos diferencias muy notables. En primer lugar, la fuerza de gravitación
siempre es atractiva, en tanto que la fuerza electrostática puede ser atractiva o repulsiva,
dependiendo del signo de las cargas: si las dos cargas tienen el mismo signo, sea positivo
o negativo, el signo de la fuerza es positivo, lo que corresponde a una fuerza de repulsión;

Física conceptual
Unidad 10: Electricidad

pero si las cargas son de signo contrario, el signo de la fuerza es negativo, lo que corres-
ponde a una fuerza de atracción. Por otra parte, la aceleración que experimenta un cuerpo
de masa m por la atracción gravitatoria que ejerce otro cuerpo de masa m' es independiente
de la masa m del cuerpo atraído, en tanto que la aceleración que experimenta un cuerpo
cargado depende de su masa.
141

10.5 Corriente eléctrica


Se define la corriente eléctrica, I, como la cantidad de carga transferida por unidad de
tiempo:

I = ∆q/∆t (10.2)

La unidad de corriente eléctrica es el ampere, o amperio, A, que corresponde a la transfe-


rencia de una carga de un coulomb, o culombio, en un segundo: 1 A = 1 Cs−1.

Inicialmente el estudio de los fenómenos eléctricos estaba supeditado al uso de descargas


eléctricas de muy corta duración, lo cual imponía serias restricciones a los experimenta-
listas, pero gracias al descubrimiento de Luigi Galvani de lo que inicialmente se pensó
que era algún tipo de electricidad animal, identificado posteriormente como una reacción
electroquímica por Alessandro Volta, fue posible disponer de fuentes de corriente conti-
nua, gracias al dispositivo conocido como batería o pila de Volta (figura 10.7). Inicialmente,
Galvani descubrió que al poner en contacto dos metales diferentes con una pata de rana
esta experimentaba una contracción espasmódica en la que además se manifestaba una
descarga eléctrica. Posteriormente, Volta descubrió que al poner en contacto dos metales
diferentes, como cobre y cinc, mediante una solución salina, se producía una débil corriente
eléctrica. Con el fin de aumentar el efecto se dispuso un apilamiento de placas de cobre y
cinc alternadas con cartones empapados en salmuera dentro de un recipiente, de donde
viene el nombre de pila, con sendos terminales de alambre en las placas de los extremos,
entre los que saltaba una chispa al ser puestos en contacto.

Gracias a las corrientes continuas generadas por las baterías fue posible realizar progresos
notables tanto en el estudio de las propiedades químicas y la composición de la materia,
como en la naturaleza y en las propiedades de la electricidad y el magnetismo.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 10: Electricidad

Cu
Al
Cu
Al
Cu
Al
Cu
Al
Cu
142 Al
Cu
Al
Cu
Al
Cu
Al

Figura 10.7. La pila de Volta.

10.6 Potencial eléctrico


La falta de homogeneidad en la distribución de la carga eléctrica en un cuerpo tiende a ser
compensada mediante el desplazamiento de cargas, siempre que se den las condiciones
adecuadas para ello, de tal modo que el desbalance se elimine y el sistema adquiera una
distribución uniforme. La condición de desequilibrio, que es necesaria para la generación
de corrientes eléctricas, se asocia a la denominada tensión eléctrica, voltaje, o diferencia
de potencial.

La experiencia nos muestra que la circulación de una corriente eléctrica a través de un con-
ductor genera un aumento de su temperatura, dando cuenta de una disipación de energía;
por tanto, para sostener la corriente eléctrica en un circuito es necesario suministrar energía
de manera continua, mediante alguna fuente donde la energía haya sido previamente alma-
cenada, o sea suministrada de manera continua. La energía necesaria para mantener una
corriente eléctrica se puede almacenar mediante la acumulación de carga en un dispositivo
como la botella de Leyden, la acción de un generador eléctrico, o a partir de una reacción
química.

Dado que la energía almacenada en un dispositivo está asociada a la posibilidad de reali-


zar un trabajo, y que para que se genere una corriente eléctrica es necesario que haya un
medio conductor apropiado, se define el potencial eléctrico, V, como la energía por unidad
de carga necesaria para establecer la corriente en un circuito eléctrico. La unidad de voltaje
es el volt, o voltio, V, y se define como la diferencia de potencial necesaria para realizar un
trabajo de un joule sobre una carga de un culombio: 1 V = 1 J/C. También se puede definir
el voltio en términos de la potencia de la fuente y de la corriente como 1 V = 1 W/A.

Los estudios realizados por Joule sobre los efectos térmicos de las corrientes eléctricas
permitieron establecer que la energía disipada en los fenómenos eléctricos debe ser tenida

Física conceptual
Unidad 10: Electricidad

en cuenta en el balance total de la energía de un sistema, tal como exige el principio de


conservación de la energía.

10.7 Ley de Ohm


143
La intensidad de la corriente eléctrica en un circuito (figura 10.8) no solo depende de la
diferencia de potencial, sino de características propias del sistema que generan una resis-
tencia, R. La resistencia de un conductor depende tanto de características propias del ma-
terial como de factores geométricos. Alambres de igual calibre, pero de diferentes metales,
tienen diferente grado de resistencia al paso de la corriente cuando se les aplica el mismo
potencial. En alambres del mismo metal, pero de diferente calibre, la resistencia disminuye
a medida que aumenta el calibre. La unidad de resistencia en el SI es el ohm, u ohmio, Ω,
que se define como la resistencia que existente entre dos puntos que permite el paso de
una corriente de un amperio cuando se aplica una diferencia de potencial de un voltio: 1 Ω
= 1 V/A.

V
Figura 10.8. Circuito eléctrico.

A un sistema compuesto por un conductor, una fuente de energía y una resistencia se lo


denomina circuito eléctrico (figura 10.8). La relación entre el voltaje, la resistencia y la co-
rriente que circula por un circuito se conoce como ley de Ohm y está dada por la expresión:

V = RI (10.3)

10.8 Campo eléctrico


Con el fin de describir la interacción de una carga q con una distribución de cargas, hacien-
do abstracción de la distribución de cargas y atendiendo solo a la fuerza que experimenta
la carga q en el punto donde se halla localizada, resulta de gran utilidad definir el concepto

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 10: Electricidad

de campo eléctrico, E, como:

F = qE (10.4)

De acuerdo con esta expresión, se puede interpretar la fuerza electrostática como la inte-
144 racción de una carga eléctrica con el campo eléctrico definido en la posición de la carga.
Una ventaja adicional que ofrece la definición de campo, que se podrá apreciar más ade-
lante cuando se considere estudie el modo de propagación de sus perturbaciones, es que
se substituye la idea de un par de cargas que interactúan mediante una fuerza invisible, a
distancia y de manera instantánea, por una interacción que es igualmente instantánea pero
local.

De igual manera, se puede decir que una carga eléctrica en reposo genera una condición
del espacio E(r), tal que una carga de prueba localizada a un distancia r experimenta una
fuerza F(r) = qpE(r). El conjunto de todas las posibles direcciones en las que apunta la
fuerza que experimenta la carga de prueba qp en cada punto del espacio constituye una
representación gráfica del campo eléctrico en términos de líneas de fuerza. En la figura
10.9 se pueden apreciar las líneas de campo de una carga positiva y una carga negativa,
respectivamente.

Q Q

Figura 10.9. Campos de cargas positiva y negativa.

Dado su carácter vectorial, el campo eléctrico debido a una distribución de carga correspon-
de a la suma vectorial de los campos generados por cada una de las cargas. En la figura
10.10 se puede apreciar el campo eléctrico generado por un dipolo eléctrico.

Figura 10.10. Campo de dipolo.

Física conceptual
Unidad 10: Electricidad

El hecho de que la carga de un cuerpo se pueda transmitir y desplazar a través de algunos


materiales permite establecer una distinción entre materiales conductores, como los me-
tales y algunos líquidos en solución, y materiales no conductores, o dieléctricos, como los
plásticos o la madera. De estos últimos se dice que son aislantes eléctricos.
145

Resumen
La explicación de los fenómenos eléctricos hace necesario introducir una nueva
magnitud física, la carga eléctrica. El estudio de la electricidad aporta claves para
el conocimiento de la estructura y composición de la materia. A pesar la seme-
janza con la ley de gravitación universal, la ley de Coulomb permite fuerzas de
atracción y de repulsión. El hecho de que los fenómenos eléctricos estén sujetos
a la ley de conservación de la energía nos muestra que las teorías sobre la elec-
tricidad hacen parte de una descripción integral de la naturaleza, conjuntamente
con las demás teorías y leyes de la física.

Electricidad

Cuestionario

1. Describa algunos fenómenos de la cotidianidad en los que se manifieste la elec-


tricidad estática.
2. ¿Qué observación sobre los fenómenos electrostáticos conduce a postular la
existencia de dos tipos de carga eléctrica?
3. ¿A qué se atribuye el fenómeno de “erizamiento” del cabello posterior al lavado y
cepillado del mismo?
4. ¿A qué se atribuye que una aguja que flota en el agua –gracias a la tensión su-
perficial– señale una determinada dirección geográfica?
5. A pesar del concluyente experimento de Franklin sobre la naturaleza eléctrica de
los rayos, resulta que el agua no es buena conductora de la electricidad. ¿Cómo
se puede explicar que un hilo húmedo sí lo sea?

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 10: Electricidad

6. Si un peine se carga eléctricamente luego de cepillar el cabello de una persona,


¿con qué tipo de electricidad quedará cargado el cabello en cuestión?
7. ¿Qué ventaja podría haber significado que se hubiera designado positiva a la
electricidad del ámbar y negativa a la electricidad del vidrio?
8. ¿Qué conclusión se puede sacar del experimento de separación de cargas eléc-
146 tricas, respecto a la naturaleza de la electricidad y la constitución de la materia?
9. ¿En qué se asemejan y en qué se diferencian las leyes de gravitación universal
y de Coulomb?
10. ¿Cómo se podría explicar que algunos materiales sean buenos conductores de
la electricidad y otros, por el contrario, se comporten como aislantes?
11. Si en condiciones normales la materia es neutra desde el punto de vista de la
electricidad, ¿cómo se puede explicar que se pueda cargar mediante frotación?
12. ¿A qué tipo de fricción se podría atribuir la carga eléctrica de una nube que se
suele manifestar como un rayo?
13. Los materiales que son buenos conductores, o aisladores, de la electricidad, tam-
bién son buenos conductores, o aisladores, del calor. Teniendo en cuenta que
la conducción de la electricidad depende en alto grado de la movilidad de los
electrones, ¿qué se podría decir respecto a la conducción del calor?
14. ¿Qué relación existe entre el equilibrio térmico y el equilibrio eléctrico?
15. ¿Por qué se puede afirmar que la electricidad es una propiedad fundamental de
la materia, independiente de sus otras propiedades como la inercia o la grave-
dad?
16. ¿Qué conclusión se puede sacar de la observación de Galvani de la reacción de
una pata de rana luego de ser pinchada con un cuchillo?
17. ¿Por qué es necesario hacer un apilamiento de placas de diferentes metales para
observar un efecto eléctrico de intensidad apreciable?
18. En un alto porcentaje las corrientes eléctricas se deben al desplazamiento de
electrones, cuya carga eléctrica es negativa. Explique por qué razón la dirección
de la corriente eléctrica ha sido definida como contraria a la dirección en la que
viajan los electrones.
19. Demuestre que la definición de corriente eléctrica como cantidad de carga que se
transfiere por unidad de tiempo es independiente del signo de los portadores de
carga.
20. ¿Qué claves sobre la estructura de la materia aporta el conocimiento de que los
electrones son el portador de carga más frecuente en las corrientes eléctricas?
21. ¿Qué relación se puede establecer entre la conducción de la carga eléctrica por
electrones y la conductividad térmica de los materiales?
22. ¿Por qué es necesario suministrar energía a un circuito para que se produzca
una corriente eléctrica?
23. ¿Qué mecanismo puede explicar la gran acumulación de carga eléctrica que se
produce en una nube de tormenta?
24. ¿Cómo se puede explicar la aparición de rayos en las nubes de ceniza de un
volcán en erupción?
25. ¿Qué tan acertada, o equivocada, puede ser la expresión "cayó un rayo"?
26. ¿Se pueden producir rayos entre nubes?

Física conceptual
Unidad 10: Electricidad

27. Compare la magnitud de la corriente eléctrica que circula en un electrodoméstico


con la que se produce en un rayo.
28. Compare la magnitud de la energía que acumula una batería de uso doméstico
con la que acumula una nube de tormenta.
29. Compare la energía que consume un teléfono celular con la que consume un
secador de pelo durante un tiempo promedio de uso del uno y del otro. 147
30. Utilice el concepto de tierra para explicar por qué se puede cerrar un circuito
constituido por una batería y un solo cable conductor, y producir una corriente
eléctrica al cerrar un interruptor. Nota: el montaje descrito corresponde al de los
primeros telégrafos.
31. ¿De dónde surge el concepto de "resistencia eléctrica" y qué relación tiene con la
conductividad de los materiales?
32. Explique por qué la conductividad de los materiales puede ser útil para su identi-
ficación.
33. Compare la cantidad total de carga eléctrica de una batería antes y después de
agotar su energía sosteniendo la corriente en un circuito.
34. De acuerdo con lo anterior, explique a qué se refiere la especificación “2000 mAh”
que se puede leer en la etiqueta de algunas baterías.
35. Aplique la ley de conservación de la energía para explicar el calentamiento de
una resistencia eléctrica luego del paso de una corriente.

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.  
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics: concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.  
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.  

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Capítulo 11 Electromagnetismo

Introducción
El fenómeno del magnetismo ha sido conocido a lo largo de la historia como la propiedad que tienen
los imanes naturales, que son minerales con alto contenido de magnetita, de atraer cuerpos ferrosos
y de interactuar entre sí, atrayéndose o repeliéndose, dependiendo de la orientación relativa de los
dos imanes. La primera aplicación práctica del magnetismo que se conoció fue la brújula, que sirvió
como instrumento de orientación para viajeros y navegantes. Descubierta originalmente por los
chinos, la brújula fue ampliamente utilizada en Europa desde la Edad Media. Al igual que la elec-
tricidad, el magnetismo se manifiesta como una acción entre dos cuerpos sin que, en apariencia,
medie ningún tipo de contacto. Sin embargo, gracias a la teoría de campos es posible elaborar un
modelo que explica de manera coherente los fenómenos eléctricos y magnéticos como propiedades
del campo electromagnético.

El estudio sistemático de los fenómenos de la electricidad estática y del magnetismo se inició a


finales del siglo XVI con la publicación de la obra De magnete del fisiólogo inglés William Gilbert,
quien realizó una recopilación de los precarios conocimientos que se tenían hasta la época sobre
estos dos fenómenos y trató de interpretarlos en el marco de una teoría de fluidos. La evidencia del
magnetismo terrestre que hace posible la utilización de la brújula con fines de orientación geográfica
llevó a Gilbert a suponer que tanto la Tierra y la Luna, como la Tierra y el Sol, interactúan mediante
efluvios magnéticos. Esta teoría fue acogida posteriormente por Kepler en sus intentos de encontrar
una descripción matemática de la fuerza que hoy en día llamamos gravitación.

11.1 Imanes
El fenómeno del magnetismo se manifiesta tanto en la atracción y repulsión entre imanes, como en
la magnetización que experimentan objetos de material ferroso en presencia de imanes naturales o
de cuerpos magnetizados. La característica más notable de un imán es que se orienta en presencia
de otro imán y exhibe dos polos magnéticos bien definidos, que se denominan norte, o polo positivo,
y sur, o polo negativo, en analogía al comportamiento magnético de la Tierra, puesto que en las
cercanías de sus polos geográficos se detecta la presencia de polos magnéticos (figura 11.1).
Unidad 11: Electromagnetismo

150

Figura 11.1. Tierra magnética.

De manera similar a los fenómenos de atracción y repulsión electrostática, los polos mag-
néticos se repelen o se atraen según sus signos sean iguales o contrarios, pero a diferencia
de las cargas eléctricas, es imposible aislar los polos magnéticos e identificar supuestas
cargas magnéticas puesto que los imanes siempre se presentan como dipolos, no importa
qué tan finamente hayan sido divididos. Un dipolo magnético se representa por una flecha
cuya punta corresponde al polo norte (figura 11.2).

N S

Figura 11.2. Imán y dipolo.


Adaptado de: http://bit.ly/1XDdm3z

La imposibilidad de separar los polos magnéticos permite pensar que un imán grande se
compone de un gran número de imanes más pequeños, que, a su vez, se pueden dividir
en otros más pequeños, hasta llegar a un imán atómico. A partir de esta idea se puede
construir un modelo para explicar la magnetización y la desmagnetización de los objetos
ferrosos. Supongamos que un material ferroso está compuesto por una gran cantidad de
imanes microscópicos orientados de manera aleatoria, de tal modo que el efecto magnético
de cada uno se anula debido a la influencia de sus vecinos (figura 11.3). Cuando se acerca
un imán de suficiente potencia se produce una alineación de cada uno de los imanes mi-
croscópicos, y el magnetismo de cada uno se suma haciendo que el objeto macroscópico
se comporte como un imán de características similares al que produjo la magnetización.

Física conceptual
Unidad 11: Electromagnetismo

151

Figura 11.3. Dipolos microscópicos con orientación aleatoria.

La eficacia de este modelo se puede corroborar observando cómo un trozo de hierro pre-
viamente magnetizado pierde su magnetismo al ser expuesto al calor o al ser golpeado. En
uno y otro caso es de suponer que al suministrar energía al sistema, bien sea como calor o
como vibraciones mecánicas, los imanes microscópicos pierden su orientación al aumentar
su energía cinética vibracional y rotacional, y el sistema pasa a una configuración aleatoria
(figura 11.4). Esta descripción es consistente con el aumento de la entropía del sistema y
la correspondiente pérdida de información sobre la orientación de cada uno de los imanes
microscópicos que lo componen.

Figura 11.4. Estructura de cuerpo magnetizado.

11.2 Campo magnético


Con el fin de hacerse una idea de la intensidad del magnetismo, Michael Faraday concibió
las líneas de fuerza magnética como una representación gráfica del medio en que se trans-
mite la interacción magnética entre dos cuerpos. La posterior elaboración matemática del
concepto de líneas de fuerza dio lugar al concepto de campo, entendido como una modifi-
cación del espacio que se manifiesta en cada punto de acuerdo con las características del
cuerpo que se localice en el lugar.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 11: Electromagnetismo

Las líneas de fuerza magnética corresponden al conjunto de todas las posibles direcciones
en las que se puede orientar un imán microscópico, o imán de prueba, en presencia de un
imán de mayor tamaño. Al igual que todo instrumento de medición, un imán de prueba debe
ser suficientemente pequeño en comparación con el objeto que va a medir, con el fin de
que su influencia no perturbe la medida que se pretende realizar. Una manera práctica de
152 visualizar las líneas de fuerza del campo magnético es colocar una hoja de papel sobre un
imán y esparcir limadura de hierro muy fina sobre ella. Las diminutas partículas de hierro
adoptan una postura característica que delinea el contorno de las líneas de fuerza. Se pue-
de apreciar que las líneas se dirigen desde un polo hacia el otro y que la densidad de líneas
tiende al máximo en la proximidad de cada polo (figura 11.5). El conjunto de líneas de fuerza
constituye una representación del campo magnético del objeto, y la densidad de las líneas
de fuerza en una región del espacio es una medida de la intensidad del campo magnético.

Figura 11.5. Líneas de fuerza del campo magnético de un imán.

Magnetismo

11.3 Magnetismo y electricidad


El concepto de carga eléctrica se introdujo para dar cuenta de los fenómenos de atracción y
repulsión electrostáticas y de la existencia de corrientes eléctricas; sin embargo, la imposi-

Física conceptual
Unidad 11: Electromagnetismo

bilidad de aislar polos magnéticos no permitió que se planteara la existencia de una entidad
análoga a la carga eléctrica para el magnetismo. No obstante, gracias al descubrimiento de
Hans Christian Oersted de que la presencia de una corriente eléctrica era capaz de alterar
la orientación de una brújula que se encontraba en las cercanías, tal como sucedía con un
imán, no fue necesario suponer la existencia de cargas magnéticas. Por su parte, Henry
Rowland demostró que la rotación de un disco electrizado genera un campo magnético (B), 153
similar al de un dipolo magnético colocado en el centro del disco, orientado en la dirección
del eje de rotación. En consecuencia, se puede decir que el magnetismo es una manifesta-
ción del desplazamiento de cargas eléctricas (figura 11.6).

Figura 11.6. Campo magnético generado por una corriente.

Las líneas del campo magnético generadas por una corriente que circula en un alambre rec-
tilíneo se distribuyen circularmente a su alrededor, en planos perpendiculares a la dirección
de la corriente, y se orientan según la regla de la mano derecha, de acuerdo con la cual si
el dedo pulgar indica la dirección de la corriente, los dedos cerrados indican la dirección del
campo, tal como se muestra en la figura 11.7.

Figura 11.7. Ley de mano derecha para campo y corriente.

La intensidad del campo magnético generado por un alambre rectilíneo, por el que circula

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 11: Electromagnetismo

una corriente I, a una distancia r del alambre, está dada por la expresión

B = μ0 I/2πr (11.1)

La cantidad μ0 = 4π × 10-7 NA-2 es una constante de proporcionalidad, que caracteriza las


154 propiedades magnéticas del vacío. La unidad del campo magnético en el SI es el tesla, T:
1 T = NA−1m−1.

11.4 Fuerza entre corrientes


Gracias a los estudios sobre la generación de efectos magnéticos por corrientes eléctricas,
y sobre la fuerza que experimentan las corrientes eléctricas entre sí, realizados respecti-
vamente por Hans Christian Oersted y de André-Marie Ampère, es posible definir el campo
magnético B como la condición del espacio responsable de que una partícula cargada
en movimiento experimente una fuerza perpendicular a su trayectoria, de acuerdo con la
relación

F = qv × B (11.2)

A partir de la observación de que una corriente eléctrica ejerce una fuerza magnética sobre
una brújula, Oersted llegó a la conclusión de que un imán debe ejercer una fuerza sobre una
corriente eléctrica, en correspondencia con el principio de acción y reacción que se deriva
de la tercera ley de Newton.

Por su parte, Ampère observó que dos conductores paralelos por los que circulan corrientes
eléctricas en la misma dirección experimentan una fuerza de atracción proporcional al pro-
ducto de las intensidades de las corrientes, y que en el caso de que las corrientes circulen
en sentidos contrarios, la fuerza tiene la misma intensidad pero es de repulsión (figura
11.8). Ampère interpretó estas fuerzas como la interacción de una corriente con el campo
magnético generado por la otra.

I1 I2 I1 I2

Figura 11.8. Fuerzas entre corrientes.

Física conceptual
Unidad 11: Electromagnetismo

Puesto que una corriente eléctrica corresponde al desplazamiento colectivo de cargas indi-
viduales, la fuerza que experimenta el conductor por acción del campo magnético generado
por la otra corriente es la suma de las fuerzas que experimenta cada una de las cargas en
movimiento, de acuerdo con la relación (11.2).

F 155

Figura 11.9. Producto vectorial v × B.

Es importante notar que el vector resultante del producto indicado es perpendicular al plano
que definen los vectores v y B. La operación se denomina producto vectorial (figura 11.9),
y el resultado no solo depende de la magnitud de los vectores involucrados, sino de su
dirección, de acuerdo con la relación

F = qvB sen θ (11.3)

Los vectores v, B y F conforman una tripleta de mano derecha (figura 11.10), lo cual quiere
decir que si el dedo índice señala en la dirección de la velocidad, y el dedo del corazón en
la del campo magnético, el dedo pulgar indica la dirección de la fuerza resultante.

a xb

Figura 11.10. Tripleta de mano derecha.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 11: Electromagnetismo

De la expresión (11.3) se puede deducir que la fuerza magnética se anula cuando la direc-
ción del campo es paralela a la trayectoria de la carga.

156 11.5 Campo magnético de una corriente circular


A partir del experimento de Rowland se puede concluir que una corriente circular genera
un campo idéntico al de un dipolo magnético colocado en el centro del círculo, orientado
perpendicularmente al plano. Este hecho nos permite hacer la conjetura de que el imán
más pequeño que se puede concebir, de todos aquellos que por su alineamiento colectivo
constituyen un imán mayor, es una corriente eléctrica circular y microscópica (figura 11.11).

Magnetización por corrientes


microscópicas

Figura 11.11. Imán formado por microcorrientes circulares.

La interpretación del magnetismo como un fenómeno asociado al desplazamiento de car-


gas eléctricas aporta claves para suponer que los átomos poseen una estructura con car-
gas eléctricas que se mueven en su interior. El mayor o menor grado de magnetismo de un
material dependerá de la disposición de las corrientes microscópicas, de modo que cuando
las corrientes atómicas se cancelan entre sí el magnetismo del material es muy bajo o nulo;
en cambio, si las microcorrientes tienen la misma alineación, el magnetismo del material
será apreciable.

Física conceptual
Unidad 11: Electromagnetismo

157

Figura 11.12. Solenoide.

Un alambre enrollado como una sucesión de espiras se denomina solenoide y genera un


campo magnético idéntico al de un imán de barra cuando se hace circular una corriente
eléctrica (figura 11.12). Si se dispone un núcleo de hierro en el interior del solenoide, el
campo magnético inducido por magnetización se suma al campo generado por el solenoide
dando como resultado un campo de mayor intensidad. El dispositivo en cuestión es un
electroimán que hace posible una gran variedad de funciones que van desde golpear una
pequeña campana como señal de alarma, hasta levantar grandes pesos (figura 11.13).

Figura 11.13. Electroimán.

La fuerza magnética que experimenta una corriente eléctrica se puede aprovechar para
generar movimiento de manera continua, disponiendo un embobinado toroidal en presencia
del campo magnético generado por un imán permanente, o un segundo embobinado dis-
puesto de la manera adecuada.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 11: Electromagnetismo

158

Figura 11.14. Motor eléctrico.

El mismo principio que hace posible el funcionamiento del motor eléctrico (figura 11.14)
permite construir un dispositivo denominado amperímetro, que se utiliza para medir la in-
tensidad de una corriente eléctrica. Un amperímetro consiste básicamente de un embobi-
nado que dispone de un eje de giro, sujeto por un resorte en espiral, y un par de imanes
permanentes dispuestos de tal forma que sus campos magnéticos son perpendiculares a
partes opuestas de los lados de la bobina. Cuando circula una corriente eléctrica se genera
una fuerza que produce una rotación y desvía una aguja que se mueve sobre una escala
graduada indicando la intensidad de la corriente, como se ilustra en la figura 11.15.

B B

Figura 11.15. Amperímetro.

Las fuerzas magnéticas sobre las cargas eléctricas en movimiento permiten que el campo
magnético de la Tierra se comporte como un escudo contra las partículas cargadas de la
radiación cósmica. Debido a la disposición del campo magnético terrestre, las partículas
que inciden perpendicularmente sobre las zonas tropicales y subtropicales experimentan
fuerzas de máxima intensidad puesto que el valor de θ, el ángulo entre el campo magnético
y la velocidad, tiene un valor cercano a los 90 grados y las partículas quedan atrapadas en
el campo magnético describiendo trayectorias en espiral hasta que pierden su energía o se
alejan de la Tierra. Por el contrario, las partículas que inciden sobre la región circumpolar

Física conceptual
Unidad 11: Electromagnetismo

experimentan fuerzas de poca intensidad puesto que los valores de θ están alrededor de
cero y debido a su alta energía producen una intensa ionización de la atmósfera, lo que
genera el fenómeno conocido como aurora boreal (figura 11.16).

159

Figura 11.16. Aurora boreal.


Adaptado de: http://bit.ly/2tiEv3q

11.6 Inducción electromotriz


La observación de que un solenoide por el que circula una corriente eléctrica continua ge-
nera un campo magnético indistinguible del campo de un imán natural condujo a Faraday a
preguntarse si sería posible que al poner un imán natural en el interior de un solenoide se
estableciera una corriente eléctrica continua. Puesto que todos los efectos magnéticos de
un imán se pueden reproducir con corrientes eléctricas, Faraday dispuso de un solenoide
con una batería al lado de otro solenoide con un amperímetro, con el fin de comprobar si
el campo magnético del primero podía sostener una corriente eléctrica en el segundo; sin
embargo, al realizar la experiencia encontró que solo al encender o apagar la corriente en el
primer solenoide se establecía una corriente en el segundo (figura 11.17). De esta manera
se descubrió el fenómeno de la inducción electromagnética.

I
A

Interruptor v

Figura 11.17. Experimento de inducción de Faraday.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 11: Electromagnetismo

La inducción electromagnética depende de la variación del flujo de campo magnético sobre


una espira, o del movimiento relativo entre un imán y una espira, de lo que se puede concluir
que es la variación del campo magnético sobre la espira lo que genera la corriente eléctrica.

160 De igual manera que se definió el potencial eléctrico en términos de la energía que se debe
suministrar a una carga para que recorra un circuito, en el caso de la inducción eléctrica se
define la fuerza electromotriz, Vem, como una medida de la energía que se suministra a una
espira conductora para generar una corriente eléctrica. Es necesario aclarar que el apela-
tivo de “fuerza” que se le da a la fuerza electromotriz se debe a circunstancias históricas,
puesto que como magnitud física tiene dimensiones de potencial eléctrico, y no de fuerza.
Si se define el flujo del campo magnético φB como el campo magnético que atraviesa la
unidad de área, la Vem se puede expresar en términos de la variación φB como

Vem = - dφB /dt (11.4)

El signo menos de esta expresión refleja el hecho de que las corrientes inducidas sobre una
espira tienen una dirección tal que la dirección del campo magnético que generan se opone
a la variación del campo magnético total sobre la espira. Este fenómeno es conocido como
ley de Lenz (figura 11.18).

Si el polo norte magnético de un imán se acerca al plano de una espira la corriente inducida
genera un campo magnético que apunta hacia el polo sur del imán. Por el contrario, si el
polo norte de un imán se aleja del plano de la espira el campo inducido tiene la misma di-
rección que el campo magnético del imán. La dirección de las corrientes inducidas se puede
determinar por la regla de la mano derecha, tal como se ilustra en la figura.

I I
Bi Bi

B v B v

B 0 B 0

Figura 11.18. Ley de Lenz.

Física conceptual
Unidad 11: Electromagnetismo

Una de las aplicaciones más generalizadas de la inducción electromagnética es la gene-


ración de electricidad a partir de la rotación de un embobinado en un campo magnético
permanente, aprovechando el hecho de que la variación del campo sobre las espiras del
embobinado genera corrientes eléctricas. Para hacer rotar el sistema generador se utilizan
múltiples recursos, desde una caída de agua hasta la energía nuclear que calienta agua
para producir vapor y realizar trabajo gracias a su expansión (figura 11.19). 161

Figura 11.19. Generador eléctrico.


Tomado de: http://bit.ly/2urAdW5

Si tenemos en cuenta que para establecer una corriente eléctrica en un conductor es ne-
cesario que haya un campo eléctrico en la dirección de la corriente en cada punto del con-
ductor, podemos decir que la variación del campo magnético genera un campo eléctrico.
La generación de campos eléctricos a partir de campos magnéticos se complementa con el
hecho de que los campos magnéticos se pueden generar a partir de corrientes eléctricas,
que, a su vez, son generadas por campos eléctricos. De manera más general se puede
decir que a la variación en el tiempo de un campo magnético se asocia una variación del
campo eléctrico, y que a la variación en el tiempo de un campo eléctrico se asocia una va-
riación del campo magnético. Un análisis cuidadoso muestra que los campos eléctricos que
se generan son perpendiculares a los campos magnéticos que los generan, y viceversa.
Podemos concluir que la electricidad y el magnetismo son aspectos complementarios de un
fenómeno más general que denominamos electromagnetismo.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 11: Electromagnetismo

Resumen
Los fenómenos magnéticos presentan características similares a las de los fenó-
menos eléctricos, tales como la repulsión entre polos del mismo tipo y la atracción
162 entre contrarios, a la vez que se diferencian en aspectos muy específicos, como en
la posibilidad de aislar cargas eléctricas y la imposibilidad de aislar un polo mag-
nético. La posibilidad de explicar los fenómenos magnéticos como el efecto del
desplazamiento de las cargas eléctricas hace que sea innecesaria la introducción
del concepto de carga magnética. La inducción electromagnética pone de presente
el hecho de que los fenómenos eléctricos y magnéticos corresponden a aspectos
complementarios de un fenómeno más fundamental.

Potencia electromotriz

Cuestionario
1. ¿En qué contribuye el conocimiento de que un imán está constituido de una in-
mensa colección de imanes microscópicos, para la comprensión de la naturaleza
del magnetismo?
2. ¿Cómo se podría estimar la entropía de un trozo de hierro magnetizado y la del
mismo trozo de hierro desmagnetizado?
3. ¿Por qué no es necesario suponer la existencia de cargas magnéticas para dar
cuenta de los fenómenos magnéticos?
4. Explique cómo es posible visualizar las líneas de campo magnético de un imán
mediante la aspersión de limadura de hierro.
5. De acuerdo con lo anterior, ¿cómo se podrían visualizar las líneas de campo
magnético que genera una corriente rectilínea?
6. ¿Cómo se puede cuantificar la potencia magnética de un imán a partir de las
líneas de campo?
7. ¿Por qué razón las especificaciones de la red eléctrica de nuestra ciudad son de
110 V CA?

Física conceptual
Unidad 11: Electromagnetismo

8. Considere la situación de un par de corrientes eléctricas paralelas. Analice la


dirección de la fuerza que actúa sobre una de ellas y la dirección del campo
magnético generado por la otra corriente.
9. Explique cómo se puede utilizar el magnetismo para detener la rotación de una
rueda metálica de material no magnetizable como el aluminio.
10. Explique cómo se puede hacer rotar una rueda de aluminio mediante la acción de 163
la electricidad y el magnetismo.
11. ¿Qué posibles efectos sobre la vida tendría la supresión del campo magnético
terrestre? Nota: esta situación se ha presentado varias veces en la historia de
nuestro planeta.
12. ¿Qué relación hay entre las tormentas solares y las auroras polares?
13. Explique el funcionamiento de un motor eléctrico que no utiliza imanes perma-
nentes.
14. Explique cómo se podría utilizar un motor eléctrico para generar electricidad.
15. Discuta la posibilidad de generar electricidad con motores que no cuentan con
imanes permanentes.

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas. 
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial.
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Capítulo 12 Campos y ondas

Introducción
En 1865 James Clerck Maxwell publicó un compendio de los aportes que en materia de electri-
cidad y magnetismo habían realizado personajes tan notables como Michael Faraday, Carl Frie-
drich Gauss, Charles Coulomb y André-Marie Ampère, entre otros. El aporte más original del propio
Maxwell, además de la presentación coherente y estructurada del electromagnetismo en términos
de un conjunto de ecuaciones acopladas, fue la introducción de un término adicional en la ecua-
ción que describe la ley de Ampère, correspondiente a una derivada temporal del campo eléctrico
conocida como corriente de desplazamiento, que garantiza la conservación de la carga eléctrica.
Pero el resultado más notable de la síntesis de Maxwell fue la predicción de la existencia de ondas
electromagnéticas y el cálculo a partir de las constantes fundamentales del electromagnetismo de la
velocidad de la luz, que redujo la óptica a la categoría de fenómeno electromagnético.

12.1 Las ecuaciones de Maxwell


El concepto de campo, elaborado por Michael Faraday a partir del modelo de líneas de fuerza como
supuesto medio de transmisión de la acción magnética entre dos cuerpos, fue reelaborado por
Maxwell e incorporado en una formulación matemática e integrada de los fenómenos electromagné-
ticos mediante cuatro ecuaciones acopladas que se conocen como ecuaciones de Maxwell (figura
12.1), cuyas incógnitas son el campo eléctrico y el campo magnético, a las que corresponden como
soluciones funciones de onda, es decir, funciones que se pueden expresar en términos de senos y
cosenos.

E = E0 sen φ (12.1)

B = B0 sen φ (12.2)

Gracias a la formulación de Maxwell del electromagnetismo es posible prescindir de la acción a


distancia e instantánea entre cuerpos cargados, que constituye una de las limitaciones más nota-
bles de la formulación newtoniana de las interacciones físicas, y se garantiza la conservación del
momento y la energía en las interacciones electromagnéticas.

Las ondas electromagnéticas, cuya existencia predice la teoría de Maxwell, corresponden a la pro-
pagación de perturbaciones de los campos eléctricos y magnéticos a la velocidad de la luz. Maxwell
calculó la velocidad de propagación de las ondas electromagnéticas en términos de las constantes
Unidad 12: Campos y ondas

ε0 y μ0, que expresan las propiedades eléctricas y magnéticas del vacío, y encontró que el
resultado coincidía con la velocidad de la luz que había sido determinada de manera expe-
rimental por Fizeau y Fresnel.

166

Figura 12.1. Ecuaciones de Maxwell.


Tomado de: http://bit.ly/2tnMMRS

El descubrimiento de que las ondas electromagnéticas se propagan en el vacío a la ve-


locidad de la luz condujo a la conclusión de que la luz es un fenómeno electromagnético,
gracias a lo cual se logró la unificación de los fenómenos eléctricos, magnéticos y ópticos
en una sola teoría.

12.2 Fuentes del campo electromagnético


Las dos primeras ecuaciones de Maxwell establecen una relación entre las características
de las líneas de campo con sus fuentes. A partir de la ley de Coulomb se puede apreciar
que las líneas de campo que salen de una carga eléctrica positiva, o que llegan a una carga
eléctrica negativa, son abiertas, lo que se puede entender diciendo que el flujo de las líneas
del campo que atraviesan una superficie que encierra una carga eléctrica es diferente de
cero (figura 12.2).

Figura 12.2. Flujo de campo de una carga encerrada.

La inexistencia de cargas magnéticas se manifiesta en la estructura de las líneas de campo

Física conceptual
Unidad 12: Campos y ondas

magnético de tal modo que el flujo magnético a través de una superficie cerrada siempre
es nulo, pues el número de líneas que salen es igual al número de líneas que entran (figura
12.3).

167

S N
B

Figura 12.3. Flujo de líneas de campo magnético.

A partir de la ley de inducción de Faraday se puede establecer que la variación temporal


del campo magnético genera un campo eléctrico circular cuya dirección en cada punto es
perpendicular al campo magnético que lo generó.

Finalmente Maxwell completó la simetría en la inducción de campos al demostrar que así


como la variación de un campo magnético genera un campo eléctrico, la variación de un
campo eléctrico genera un campo magnético perpendicular al campo eléctrico, como requi-
sito para la conservación de la carga eléctrica. Por esta razón, la ecuación que da cuenta
de la generación de campos magnéticos por corrientes eléctricas o por variación de campos
eléctricos se conoce como ley de Ampère-Maxwell.

12.3 La velocidad de la luz


Resulta significativo que el valor de la velocidad de propagación de las ondas electromag-
néticas se pueda calcular a partir de las constantes eléctricas y magnéticas del medio de
propagación, y que el resultado coincida con la velocidad de la luz, lo cual sugiere que la
luz es un fenómeno electromagnético, pero antes de aceptarlo como un hecho cumplido fue
necesario verificar la existencia de las ondas electromagnéticas y que sus características
coincidieran con las de las ondas de luz, que habían sido previamente establecidas gracias
a los experimentos de Thomas Young y de Augustin Fresnel a principios del siglo XIX a
partir de la reelaboración de la teoría ondulatoria propuesta por Christiaan Huygens en el
siglo XVII. Gracias a una serie de ingeniosos experimentos llevados a cabo entre 1885 y
1889 por el físico alemán Heinrich Hertz fue posible comprobar la existencia de las ondas

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

electromagnéticas, y se verificó que poseían las mismas características de propagación,


polarización, reflexión y refracción que la radiación térmica y la luz.

168

Figura 12.4. Experimento de Hertz.


Tomado de: http://bit.ly/2sE2tHO

Hertz dispuso un par de esferas metálicas muy cercanas entre sí, conectadas a las termi-
nales de un dispositivo que producía diferencias de potencial alterno con una frecuencia de
cien millones de oscilaciones por segundo, lo que en la actualidad se denomina 100 MHz
(figura 12.4). A continuación se desplazó por el laboratorio con un detector consistente en
una espira rota rematada por un par de esferas, y encontró que a ciertas distancias del
generador se producían descargas eléctricas en el detector. Luego de medir las distancias
involucradas y de realizar los cálculos pertinentes, Hertz llegó a la conclusión de que la
longitud de onda generada era de tres metros. De acuerdo con este resultado, y teniendo en
cuenta que la velocidad de propagación de una onda es igual al producto de la frecuencia f
por la longitud de onda, λf, la velocidad resultante es de 300 000 km/s:

v = λf (12.3)

A las ondas generadas por el dispositivo de Hertz se les dice ondas de radio por la gran
aplicación que tuvieron en la tecnología de las telecomunicaciones, posterior a su descubri-
miento. Por su parte, la radiación luminosa ocupa un rango de longitudes de onda entre 350
nm y 700 nm (1 nm = 10−9 m) (figura 12.5).

Física conceptual
Unidad 12: Campos y ondas

169

Figura 12.5. Longitud de onda.

12.4 Teoría ondulatoria de la luz


La interferencia y la difracción son las características esenciales de los fenómenos ondu-
latorios. Como ya ha sido mencionado, a principios del siglo XIX Agustín de Fresnel refor-
muló la teoría ondulatoria de la luz, inicialmente propuesta por Huygens, dotándola de un
formalismo matemático adecuado y de esta manera pudo dar cuenta de los experimentos
realizados unos años antes por Young, quien había encontrado que al superponer la luz
que proviene de un par de rendijas estrechas separadas a poca distancia e iluminadas por
una fuente monocromática se produce un patrón de franjas alternadas oscuras y brillantes,
como se muestra en la figura 12.6.

b
d
a

S1
S2
F
Figura 12.6. Experimento de doble rendija de Young.
Tomado de: http://bit.ly/2tH9jMi

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

Los trabajos de Young y Fresnel permitieron establecer que la luz es un fenómeno ondu-
latorio y rebatir la teoría corpuscular sugerida por Newton, quien, con el fin de explicar que
la luz blanca se descompone en los colores del arcoiris, y que luego, al recombinar todos
los colores, se obtiene de nuevo luz blanca, planteó la hipótesis de que a cada uno de los
siete colores básicos que él consideraba primarios –rojo, naranja, amarillo, verde, azul,
170 violeta e índigo– correspondían partículas microscópicas de un solo color. La teoría corpus-
cular de Newton podía explicar algunos fenómenos como la propagación de la luz en línea
recta, asociando el rayo de luz a la trayectoria de los corpúsculos. También podía explicar
la reflexión en una superficie como el resultado de choques elásticos de las partículas de
luz con una superficie plana, pero conducía a falsas conclusiones sobre la variación de la
velocidad de la luz al pasar de un medio a otro de diferente índice de refracción, y resultaba
completamente inútil para explicar fenómenos como la difracción y la birrefringencia. Sin
embargo, amparada en la autoridad de Newton, la teoría corpuscular gozó de amplia acep-
tación y credibilidad entre la comunidad científica hasta que las técnicas experimentales
desarrolladas por físicos como Dominique François Arago e Hippolyte Fizeau, además de
los ya mencionados Thomas Young y Agustín Fresnel, permitieron medir la velocidad de la
luz en diferentes medios y caracterizar otros fenómenos como la polarización y la difracción,
que solo se pueden explicar a partir de una teoría ondulatoria. Finalmente, gracias al aporte
de Maxwell, se pudo completar la teoría ondulatoria al establecer que la luz no solo es un
fenómeno ondulatorio sino que es una onda electromagnética.

Pero, a la vez que la cuestión de la naturaleza de la luz parecía haber sido esclarecida gra-
cias a los aportes realizados desde diferentes áreas de la física, quedó planteado un nuevo
y fundamental problema: si la luz es una onda, ¿qué es lo que ondula? En realidad no se
trataba de un nuevo problema, sino de la suposición inherente al modelo mecanicista que
prevalecía en la mentalidad de los físicos de la época de que debía existir un medio mecá-
nico que soportara las ondulaciones electromagnéticas en atención al origen del concepto
de onda, que se elaboró a partir de la observaciones de las oscilaciones periódicas de los
medios elásticos. Como suele suceder en la historia de las ideas cuando se da por sentada
la existencia de algo pero no hay manera de verificarlo, lo primero que se hace es darle
un nombre, que en este caso fue el de éter lumínico, que, luego de la síntesis de Maxwell,
tomaría el nombre de éter electromagnético, el cual fue objeto de profundas indagaciones
teóricas y de una exhaustiva búsqueda experimental mediante la cual se esperaba poder
detectar los efectos asociados al desplazamiento de la Tierra a través del éter, para lo cual
se elaboraron algunos de los más sofisticados y precisos montajes experimentales, que de
manera invariable y sistemática arrojaron resultados negativos, sumiendo a los físicos en
un estado de gran confusión.

Física conceptual
Unidad 12: Campos y ondas

12.5 Pulsos y ondas


A continuación discutiremos algunas de las características más notables del fenómeno on-
dulatorio, cuya recurrencia en la naturaleza hace pensar que se trata de uno de los concep-
tos más fundamentales de la física.
171
El concepto de onda tiene su origen en las oscilaciones mecánicas que se propagan a
través de la materia (figura 12.7) y que podemos apreciar cuando, por ejemplo, se perturba
de manera periódica la superficie de un cuerpo de agua que inicialmente se encontraba en
reposo.

Cada uno de los elementos de la perturbación se denomina un pulso, y se caracteriza por


su duración y la intensidad con la que perturba el medio. Una serie periódica de perturba-
ciones genera un tren de pulsos, que es lo que constituye una onda (figura 12.8).

Figura 12.7. Desplazamiento de un pulso en una cuerda.

Figura 12.8. Onda formada por un tren de pulsos.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

12.6 Periodo y frecuencia


Puesto que la onda como tal solo se genera si hay una perturbación periódica, el tiempo que
transcurre entre dos perturbaciones consecutivas, que se denomina periodo, es una ca-
racterística fundamental de las ondas. De manera recíproca, el número de perturbaciones
172 producidas por unidad de tiempo se denomina frecuencia, y es igual al inverso del periodo.
Como homenaje a la persona que verificó la existencia de las ondas electromagnéticas, la
unidad de frecuencia es el hertz o hercio, H: 1 Hz = 1 s−1.

12.7 Rayo y frente de onda


El conjunto continuo de todos los puntos de un medio que exhiben el mismo grado de
perturbación se denomina frente de onda. Los frentes de onda de una perturbación que se
produce en un punto de la superficie de un estanque son círculos concéntricos al foco de la
perturbación. De manera similar, los frentes de onda que se generan por una perturbación
en un punto del espacio se propagan como superficies esféricas concéntricas al foco de la
perturbación.

La trayectoria perpendicular a los frentes de onda se denomina rayo, e indica la dirección


de propagación de la onda en un punto (figura 12.9).

Frente de onda

Rayo

Figura 12.9. Rayo y frente de onda.

Los rayos correspondientes a frentes de onda planos son paralelos entre sí (figura 12.10).

Física conceptual
Unidad 12: Campos y ondas

Frente de onda

Rayo
173

Figura 12.10. Rayo y frentes de onda paralelos.

12.8 Longitud de onda


En el caso de una onda generada por una perturbación periódica y de la misma intensidad,
se puede definir la longitud de onda, λ, como la distancia que recorre un frente de onda en
un tiempo igual al periodo de oscilación (figura 12.11), tal como expresa la ecuación (12.3):

v = λf (12.3)

La velocidad con la que se propaga una perturbación mecánica depende de las característi-
cas del medio en el que se propaga, como su rigidez, si es un medio sólido, o de su tensión,
si es un medio elástico.

En una dimensión, todo par de puntos consecutivos que tengan el mismo grado de pertur-
bación estarán separados por una distancia igual a la longitud de onda.

Figura 12.11. Longitud de onda.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

12.9 Ondas longitudinales


Cuando las oscilaciones del medio perturbado tienen la misma dirección que la de la propa-
gación de la perturbación, las ondas se denominan longitudinales. Un ejemplo de este tipo
de ondas son las que se producen en un resorte que se comprime, o se expande, a lo largo
174 de su eje (figura 12.12). El sonido también es un caso de ondas longitudinales de presión.

Figura 12.12. Ondas longitudinales en un resorte.

12.10 Ondas transversales


Cuando las oscilaciones del medio perturbado tienen una dirección perpendicular a la de la
propagación de la perturbación, las ondas se denominan transversales (figura 12.13). Las
ondas que se propagan en una cuerda tensa, en la superficie del agua o en una membrana
estirada, son de este tipo.

Figura 12.13. Ondas transversales en una cuerda.

12.11 Velocidad de onda


Funciones de onda. Debido a sus características espaciotemporales, es posible describir
en términos matemáticos y geométricos las ondas mediante las funciones seno y coseno, o
por medio de combinaciones convenientes de estas funciones:

A = A0 sen φ (12.4)

El argumento de estas funciones contiene información sobre el estado de la perturbación en


un determinado momento y en cada punto del espacio, y se denomina fase.

Física conceptual
Unidad 12: Campos y ondas

senφ

+1
π 2π φ

π/2 3π/2 175


_1

Figura 12.14. Gráfica de la función sen φ

12.12 Interferencia
Se puede describir el pulso constitutivo de una onda como la propagación de una infor-
mación que le indica a cada punto del medio por el que atraviesa que debe realizar una
oscilación completa antes de retornar al punto de reposo.

Un tren de pulsos, es decir una onda, hace que, mientras pasa la onda, cada punto del
medio por el que atraviesa oscile con la misma frecuencia de la fuente que generó la onda.

Cuando un par de pulsos provenientes de diferentes fuentes coinciden en un mismo punto


del medio oscilante, sus informaciones se superponen (figura 12.15), y la perturbación re-
sultante será la suma algebraica de las perturbaciones correspondientes. A este fenómeno
se lo denomina interferencia.

A2

A1

A = A1 + A2

A2
A1

Figura 12.15. Superposición de pulsos.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

Cuando interfieren dos perturbaciones que están en la misma fase, se suman sus amplitu-
des, y el fenómeno se denomina interferencia constructiva (figura 12.16).

v v
176 t=0 x x

t=1 x + x = 2x
2x

t=2 v v
x x

Figura 12.16. Interferencia constructiva.


Tomado de: http://bit.ly/2tnzfdj

Cuando dos perturbaciones que están en contrafase interfieren, se restan sus amplitudes,
y el fenómeno se denomina interferencia destructiva (figura 12.17).

t = 0:
v
x
_
x
t = 1:
x + ( _x) = 0 v
Máxima interferencia destructiva

t = 2: v
x
_
x
v
Figura 12.17. Interferencia destructiva.
Tomado de: http://bit.ly/2teH8Di

Cuando dos o más fuentes separadas y sincronizadas generan ondas con la misma fre-
cuencia se produce un patrón caracterizado por regiones donde las ondas siempre inter-
fieren en contrafase, y se denominan líneas nodales. De manera correspondiente, existen
regiones donde las ondas siempre interfieren en fase, y generan regiones denominadas
líneas antinodales.

Física conceptual
Unidad 12: Campos y ondas

El conjunto de líneas nodales, o antinodales, se denomina patrón de interferencia (figura


12.18).

177

Figura 12.18. Patrón de interferencia.


Tomado de: https://goo.gl/VQcsyR

12.13 Difracción
Cuando un frente de onda incide sobre un obstáculo de estructura periódica, como una
rejilla, cada abertura de la rejilla se comporta como el foco de una nueva onda. La superpo-
sición de todas las ondas generadas de esta manera produce un patrón característico de
líneas nodales y antinodales, que se denomina patrón de difracción (figura 12.19).

De acuerdo con lo que hemos visto, la difracción es una consecuencia de la superposición


y la interferencia de las ondas.

Figura 12.19. Patrón de difracción de una rejilla.

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

12.14 Teoría ondulatoria de la luz


Gracias a los experimentos de interferencia y difracción realizados a comienzos del siglo
XIX, fue posible establecer la teoría ondulatoria de la luz. Entre estos se destaca el experi-
178 mento de Thomas Young de la doble rendija.

Cuando se ilumina con una fuente de luz monocromática un par de rendijas perforadas en
una placa, de ancho y separación conocidas, se produce un patrón de difracción que se
puede proyectar en una pantalla y en el cual se relacionan de manera muy precisa el ancho
y la separación de las rendijas con la longitud de onda, y la separación entre la placa y la
pantalla de proyección (figura 12.20).

Gracias a esta notable propiedad de la luz es posible obtener información sobre las caracte-
rísticas microscópicas de algunas estructuras, como las alas de las mariposas o la densidad
de los puntos de información grabados en un disco compacto (figura 12.21).

Figura 12.20. Difracción de la luz por una doble rendija.

Figura 12.21. Difracción de la luz por un CD.

Física conceptual
Unidad 12: Campos y ondas

Resumen

Unos veinte años después de que Maxwell predijera que las perturbaciones del campo
electromagnético se propagan como ondas transversales a la velocidad de la luz, Hein-
rich Hertz verificó experimentalmente su existencia luego de detectar los puntos nodales 179
que se producían entre unos reflectores de aluminio convenientemente dispuestos en su
laboratorio, como consecuencia de la reflexión e interferencia de las ondas generadas por
un oscilador eléctrico.

El descubrimiento de las ondas electromagnéticas constituye uno de los más grandes


logros de la ciencia, pero también planteó uno de los más grandes enigmas de la historia:
¿cuál es el medio que hace posible la propagación de estas ondas? Esta pregunta surgía
de manera natural al considerar que el origen del concepto de onda proviene del estudio
de las oscilaciones de los medios elásticos, y que el verbo “ondular” presupone la existen-
cia de un sujeto que ondule.

No obstante la imposibilidad de verificar la existencia del supuesto medio de transmisión,


este recibió el misterioso nombre de éter, y la fallida empresa que constituyó su búsqueda
abrió el camino para nuevos y sorprendentes desarrollos de la ciencia.

Ondas electromagnéticas

Cuestionario
1. Describa un procedimiento para detectar el campo eléctrico en un punto del es-
pacio.
2. Describa un procedimiento para detectar el campo magnético en un punto del
espacio.
3. ¿Qué consideración sobre la producción de campos magnéticos puede hacer
suponer que se puedan generar campos eléctricos a partir del magnetismo?
4. Compare las dos primeras ecuaciones de Maxwell y explique su significado.
5. ¿Qué característica tienen las líneas de un campo que es generado por cargas?

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Unidad 12: Campos y ondas

6. ¿Qué característica tienen las líneas de un campo que no es generado por car-
gas?
7. Considere las líneas de un campo magnético generado por una corriente eléctri-
ca y compruebe que dicho campo varía punto a punto en el espacio.
8. Considere las líneas de un campo eléctrico generado en una espira de alambre
180 por la variación de un campo magnético y compruebe que dicho campo varía
punto a punto en el espacio.
9. ¿Qué consideraciones llevaron a Maxwell a proponer que la luz es una onda
electromagnética?
10. ¿Qué analogía se puede establecer entre las ondas que se producen al pulsar
una cuerda tensa y las ondas estacionarias que detectó Hertz en su laboratorio?
11. Calcule la frecuencia del generador de ondas de Hertz, teniendo en cuenta que
la longitud de onda de las ondas detectadas fue del orden de tres metros.
12. Compare la eficiencia de transmisión de las señales telegráficas con la de ondas
electromagnéticas.
13. ¿Qué ventajas y desventajas tienen las unas y las otras?
14. Explique qué es un pulso y dé algunos ejemplos que se puedan apreciar en el
entorno.
15. ¿Qué relación existe entre los pulsos y las ondas?
16. Explique cómo se puede producir una onda.
17. ¿Qué papel juega el concepto de frecuencia en la construcción de las ondas?
18. Dé tres posibles definiciones del concepto de longitud de onda.
19. Explique cómo se relacionan los conceptos de longitud de onda y frecuencia.
20. Explique en qué se diferencian las ondas longitudinales y las ondas transversa-
les.
21. Analice el comportamiento de una cuerda tensa sujeta a pulsaciones y explique
los cambios en la frecuencia que se aprecian al variar la tensión de la cuerda.
22. ¿Qué relación existe entre la frecuencia del sonido que emite la onda y la longi-
tud de onda de las pulsaciones?
23. ¿Qué se puede decir respecto a la velocidad a la que se propaga la onda en la
cuerda tensa?
24. Indique en qué consisten las ondas estacionarias y explique por qué no se pro-
duce este tipo de ondas en una cuerda con un extremo libre.
25. Considere una fuente de perturbación periódica que actúa sobre la superficie de
un cuerpo de agua y describa su forma de propagación.
26. Explique cómo se aplican los conceptos de frente de onda y rayo a la perturba-
ción descrita en la pregunta anterior.
27. Considere dos fuentes que generan pulsos de manera periódica y sincronizada
que perturban la superficie de un espejo de agua y explique la aparición de líneas
nodales.
28. Discuta por qué razón la descripción matemática de los fenómenos ondulatorios
se puede hacer en términos de las funciones trigonométricas seno y coseno.
29. Explique si es posible describir un pulso individual mediante las funciones seno
y coseno.

Física conceptual
Unidad 12: Campos y ondas

30. Explique por qué razón el experimento de Young de la doble rendija permitió
resolver la polémica entre los partidarios de la teoría ondulatoria de la luz y los
defensores de la teoría corpuscular.
31. ¿Qué consideraciones llevaron a plantear la hipótesis de la naturaleza electro-
magnética de la luz?
32. ¿Qué consideraciones llevaron a plantear la existencia del éter electromagnético? 181
33. ¿Qué características debe exhibir el éter para dar cuenta de la velocidad de la luz
y de su inapreciable interferencia con el movimiento de los planetas?

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.  
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial. 
Bloonfied, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, una aventura del pensamiento. Losada. 
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). La historia de la física. FCE.  
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.  

Universidad de Antioquia - Programa de Educación Virtual —Ude@—


Capítulo 13 Teoría de la relatividad

Introducción
El descubrimiento de las ondas electromagnéticas, cuya existencia había sido predicha por James
Maxwell, hizo suponer la existencia de un medio ondulante como soporte de las oscilaciones del
campo electromagnético. Tal suposición se fundamentaba en el origen mecanicista del concepto de
onda, que es una abstracción construida a partir de la observación de la propagación de las per-
turbaciones periódicas en el aire, en el agua o en una cuerda tensa. El hipotético medio de propa-
gación de las ondas electromagnéticas recibió el nombre de éter electromagnético como extensión
del concepto de éter lumínico, que había sido acuñado para dar cuenta de la propagación de la luz.

13.1 El éter y la relatividad galileana

Figura 13.1. Antena de comunicaciones.

Se puede decir que la existencia de materia y energía, como dos entidades independientes y bien
diferenciadas, constituye la base de la concepción clásica del mundo físico, siendo la materia el
sujeto de las interacciones físicas y la energía una medida del movimiento, actual o potencial, de la
materia. Por su parte, las ondas son una forma de transporte de energía, que no implica desplaza-
miento neto de materia.

Para la física del siglo XIX, una onda era la expresión de la perturbación periódica de un medio
elástico continuo, o el movimiento colectivo de un conjunto de corpúsculos, que se caracterizaba por
su frecuencia, su intensidad y la velocidad de su propagación. Esta última dependía de propiedades
del medio, como la densidad y la rigidez. Así, en los medios rígidos las ondas se propagan a velo-
cidades mucho mayores que en los medios elásticos, debido a lo cual la velocidad de la luz, que es
la mayor velocidad que se puede asignar a cualquier fenómeno físico, planteaba un serio problema
respecto a la constitución del éter, que tendría que tener una rigidez mucho mayor que la del acero,
y una densidad menor que la del aire, so pena de frenar el movimiento de los astros.
Capítulo 13: Teoría de la relatividad

Ante la imposibilidad de detectar el éter de manera directa, los físicos idearon una serie de
ingeniosas experiencias que habrían de dar cuenta de la existencia del éter mediante la
detección de efectos generados por el desplazamiento de fuentes y detectores de señales
electromagnéticas en este medio. Entre los múltiples experimentos que se diseñaron para
comprobar la existencia del éter sobresale el montaje interferométrico realizado por Albert
184 Michelson (figura 13.2), y, posteriormente, por Michael Morley, a finales del siglo XIX, me-
diante el cual se esperaba poder detectar minúsculas variaciones en la velocidad de la luz
asociadas a los cambios de dirección del movimiento de la Tierra respecto al éter (figura
13.3). A pesar de la extraordinaria precisión del interferómetro de Michelson y del sinnúmero
de veces que se repitieron los experimentos y las mediciones, en diferentes momentos y
locaciones, el resultado siempre fue negativo. Aparentemente la velocidad de la luz no es
afectada por el movimiento relativo de la fuente y el observador, lo cual constituía un de-
safío a la ley de adición de velocidades que satisface la relatividad galileana. De acuerdo
con esta ley, si un observador alcanza la velocidad de un proyectil disparado desde tierra,
este aparecerá en reposo para el observador en movimiento y a una velocidad diferente
respecto al lanzador.

La pretensión de detectar variaciones en la velocidad de la luz, o cualquier otra anomalía


electromagnética, asociadas al movimiento de la Tierra respecto al éter, eran una forma de
revivir la vieja cuestión planteada por el advenimiento del modelo copernicano respecto a la
posibilidad de detectar el movimiento absoluto de la Tierra. La contundente respuesta que
planteó la física de Galileo y Newton frente a este problema fue que, en lapsos de observa-
ción tan breves como los que se asocian a la percepción humana, que son del orden de las
décimas de segundo, cualquier sitio sobre la Tierra se comporta como un sistema inercial, y,
por tanto, es imposible detectar su estado de movimiento respecto al marco de las estrellas
fijas, que se erige como el sistema inercial por excelencia.

Pantalla

Patrón de interferencia

Objetivo de
microscopio

L1
Divisor de haz
Láser

L2 Espejo plano 1

Espejo plano 2

Figura 13.2. Interferómetro de Michelson.


Tomado de: http://bit.ly/2sI2KZW

Física conceptual
Capítulo 13: Teoría de la relatividad

185

Figura 13.3. La Tierra viajando en el éter.

La afirmación sobre la imposibilidad de detectar el estado de movimiento de un sistema


inercial desde su interior constituye el principio de relatividad galileana (figura 13.4), que
también se puede expresar como la invarianza de las ecuaciones de la mecánica newtonia-
na respeto a las transformaciones de Galileo. De acuerdo con lo anterior, las ecuaciones
que expresan las leyes de la mecánica son las mismas en todos los sistemas inerciales
de referencia, que son aquellos sistemas que se encuentran en reposo o en movimiento
uniforme respecto a las estrellas fijas, lo cual se consideraba equivalente a estar en reposo
o en movimiento uniforme respecto al espacio absoluto.

F´= ma´

F = ma

Figura 13.4. Relatividad galileana.

Las transformaciones de Galileo (figura 13.5) son el conjunto de reglas que permiten que
dos observadores en movimiento relativo uniforme comparen sus mediciones y que verifi-
quen las leyes de la mecánica, de tal manera que si un observador O, que consideramos

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

en reposo, después de analizar el comportamiento que un cuerpo sujeto a la acción de


una fuerza experimenta una aceleración, afirma que la segunda ley de Newton se debe
expresar como F = ma, y un segundo observador, al que llamaremos O', que se despla-
za a velocidad constante respecto al primero, afirmará que, de acuerdo con sus propias
observaciones, la segunda ley de Newton se debe expresar como F' = ma'. De acuerdo a
186 lo anterior, se puede afirmar que el movimiento inercial es relativo pero la aceleración es
absoluta, puesto que a = a'.

Z Z'

V x ' = x _ vt
y' = y
VX
z' = z
O O' VX'
X X' t ' = t
y y'

Figura 13.5. Transformaciones de Galileo.

A pesar de lo anterior, cuando los observadores O y O' utilizan las transformaciones de


Galileo para comparar las ecuaciones del campo electromagnético que son válidas en sus
respectivos sistemas encuentran diferencias notables. Aparentemente, las ecuaciones de
Maxwell solo adoptan la forma sencilla en que las presentó su autor, en un sistema que
se encuentre en reposo absoluto respecto al éter, pero en cualquier otro sistema que se
encuentre en movimiento respeto al medio deben aparecer efectos secundarios, como su-
puestas variaciones en la velocidad de la luz, que, sin embargo, la experiencia rehúsa reve-
lar, lo cual generó una gran confusión entre la comunidad científica y suscitó la elaboración
de una variedad de explicaciones, tan forzadas como inaceptables.

Las ondas y el éter (VPU)

Física conceptual
Capítulo 13: Teoría de la relatividad

13.2 Principio de relatividad especial


Con el fin de resolver los problemas que presentaba la comprensión de la electrodinámica
de los cuerpos en movimiento en el marco de la mecánica de Newton, en 1905 Albert Eins-
tein propuso reformular la mecánica aceptando como principio fundamental lo que parecía
ser una contradicción teórica, que resultaba del análisis clásico de las evidencias experi- 187
mentales. De esta manera, el principio fundacional de la mecánica newtoniana −que esta-
blece la inercia como comportamiento esencial de los cuerpos materiales− deja su lugar a
un principio más general que establece la equivalencia de todos los sistemas inerciales de
referencia, al afirmar que “no existen sistemas de referencia privilegiados”.

De acuerdo con lo anterior, no tiene sentido físico hablar de movimiento o reposo absoluto.
Tampoco corresponde a la experiencia observable que los fenómenos electromagnéticos
sean diferentes en los sistemas que se encuentren en movimiento. Como consecuencia,
el principio de relatividad especial establece que “las leyes de la física son las mismas en
todos los sistemas inerciales de referencia”.

Una consecuencia de la validez de este principio es que, ante la imposibilidad de detectar el


movimiento absoluto de un sistema de referencia inercial, el concepto de espacio absoluto,
tal como había sido propuesto por Newton, pierde sentido como entidad de la física.

13.3 Principio de constancia de la velocidad de la luz


De igual manera que la imposibilidad de detectar efectos electromagnéticos asociados al
movimiento del sistema de referencia al que pertenece un observador condujo al estable-
cimiento del principio de relatividad especial, la imposibilidad de detectar variaciones en la
velocidad de la luz, asociadas al movimiento relativo de la fuente y del observador, llevó a
Einstein a elevar la constancia de la velocidad de la luz en el vacío a la categoría de pos-
tulado, el cual establece que “la velocidad de la luz en el vacío es constante y es la misma
para todos los observadores, independientemente de su estado de movimiento”.

De acuerdo con el anterior postulado, los resultados negativos de los experimentos que pre-
tendían detectar el movimiento de la Tierra respecto al éter son compatibles con el nuevo
planteamiento de los principios fundamentales de la física. Por su parte, el debate sobre la
existencia del éter se torna irrelevante puesto que este concepto resulta innecesario para la
descripción de los fenómenos físicos y para la construcción de las leyes y teorías que dan
cuenta de ellos.

A partir del postulado de la constancia de la velocidad de la luz, es posible derivar un nuevo

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

conjunto de reglas para comparar las mediciones asociadas a los fenómenos físicos reali-
zadas por dos sistemas inerciales de referencia que se encuentren en movimiento relativo,
denominadas transformaciones de Lorentz-Einstein, o, simplemente, transformaciones de
Lorentz, cuya más notable característica es que preservan la forma de las ecuaciones de
Maxwell del campo electromagnético, permiten derivar una nueva ley de adición de velo-
188 cidades, y, como era de esperarse, respetan la constancia de la velocidad de la luz (figura
13.6). Una notable consecuencia de las transformaciones de Lorentz es que ningún sistema
físico puede alcanzar o superar la velocidad de la luz.

x _ vt
x´ =
v
1_
2

c
2

y´ = y

z´ = z

vx
t _ c 2

t´ =
1_ v
2

c
2

Figura 13.6. Transformaciones de Lorentz.

A partir de las transformaciones de Lorentz es posible recuperar las transformaciones de


Galileo y la ley galileana de adición de velocidades cuando las velocidades involucradas
sean despreciables comparadas con la velocidad de la luz.

13.4 Relatividad del tiempo


La aceptación de los postulados de la teoría de la relatividad conduce a una revisión pro-
funda de los protocolos de medición de longitud y duración en los fenómenos físicos y exige
una revisión de los conceptos de espacio y tiempo absoluto en los que Newton fundamentó
la mecánica. En primer lugar, consideremos el significado del concepto de duración y los
procesos involucrados en su medición. Galileo utilizó el conteo de las pulsaciones de su
propio corazón para determinar el periodo de oscilación de una gran lámpara que pendía
del techo de una iglesia en Roma para compararlo con el de una lámpara similar que oscila-
ba con una amplitud mucho menor que la primera. El resultado de la medición aportó claves
fundamentales sobre las leyes que rigen el movimiento de los péndulos.

El anterior ejemplo ilustra el hecho de que en todo proceso de medición que se utilice para
determinar la duración de un proceso es necesario establecer una comparación, por medio

Física conceptual
Capítulo 13: Teoría de la relatividad

de un conteo, con procesos idénticos de menor duración. Por ejemplo, para medir lo que
tarda una pequeña esfera en descender por un plano inclinado se pueden contar las pulsa-
ciones del corazón o las notas de una melodía de ritmo bien acentuado. De acuerdo con lo
anterior, un reloj (figura 13.7) es un sistema que realiza procesos periódicos, cuya duración
debe ser menor que la del proceso cuya duración se quiere medir. Así, la duración de un
año terrestre se puede medir en términos del día solar, que es un proceso periódico de me- 189
nor duración que el año. Para determinar la duración de procesos de muy corta duración,
como la caída de un cuerpo desde unos cuantos metros de altura, acudimos a procesos de
más corta duración, como, por ejemplo, las oscilaciones de un cristal de cuarzo.

Figura 13.7. Relojes.

Teniendo presente que todo sistema periódico puede ser utilizado como reloj, consideremos
un reloj conformado por dos espejos paralelos entre los cuales rebota un rayo de luz. Con
el fin de que nuestro reloj de luz tenga un periodo de un segundo, los espejos deben estar
separados una distancia de 150 000 km, aproximadamente (figura 13.8).

150.000 km

Figura 13.8. Reloj de luz.

A continuación consideremos un reloj idéntico al anterior que se desplaza respecto a este


con cierta velocidad v. De acuerdo con un observador que se encuentra en reposo respecto
al reloj en movimiento, el periodo de este reloj será de un segundo. Sin embargo, para el
observador que se encuentra en reposo respecto al primer reloj, el periodo del reloj en

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

movimiento es mayor que un segundo puesto que la trayectoria que debe seguir el rayo de
luz para rebotar entre los dos espejos es mayor que la trayectoria de 300 000 km que debe
recorrer el rayo en el reloj que se encuentra en reposo. De manera recíproca, el observa-
dor que viaja con el reloj en movimiento se considera a sí mismo en reposo, afirma que el
periodo de su reloj es de un segundo y considera que el periodo del primer reloj es mayor
190 de un segundo (figura 13.9).

Figura 13.9. Reloj de luz en movimiento.

De acuerdo con las consideraciones anotadas se concluye que la medición de la duración


de un proceso físico es relativa y depende del estado de movimiento del observador, de
donde proviene el nombre de “relatividad” que recibe la teoría. El anterior resultado se
aplica a cualquier sistema físico que se quiera utilizar como reloj. En el presente caso, la
relativización del tiempo de viaje del rayo de luz entre los espejos es el resultado de la acep-
tación del postulado de constancia de la velocidad de la luz, y se conoce como dilatación
del tiempo. La conclusión a la que llegamos es que los relojes en movimiento se atrasan,
y que el único reloj que marca el tiempo correctamente es el que se encuentra en reposo
respecto al observador. De acuerdo con lo anterior, el menor tiempo posible que transcurre
entre dos sucesos es el medido por un observador para el cual los sucesos ocurren en el
mismo punto del espacio.

Se puede demostrar que la dilatación del tiempo para un reloj que se encuentra en movi-
miento respecto a un reloj que se considera en reposo está dada por la siguiente expresión:

∆t = (∆t')/√(1 - v2/c2) (13.1)

En esta expresión, ∆t' es el tiempo medido en el reloj del observador que se encuentra en
movimiento, ∆t es el tiempo medido por el observador en reposo, v es la velocidad relativa
entre los dos observadores y c es la velocidad de la luz. Es importante anotar que los su-
cesos que determinan la duración ∆t' ocurren en el mismo punto del espacio para el obser-
vador en movimiento, y en diferentes puntos para el observador en reposo. ∆t' es el menor
tiempo posible que puede medir cualquier observador entre los sucesos que determinan el
intervalo en cuestión. Una importante consecuencia de las anteriores consideraciones es la
imposibilidad de sincronizar relojes que se encuentren en movimiento relativo.

Física conceptual
Capítulo 13: Teoría de la relatividad

Los efectos asociados a la dilatación del tiempo en los sistemas en movimiento han sido
verificados, con alto grado de precisión, en procesos como el decaimiento de partículas ele-
mentales que viajan a velocidades cercanas a la velocidad de la luz y en el funcionamiento
de los sistemas de posicionamiento global, o GPS (figura 13.10).

191

Figura 13.10. Constelación del GPS.

13.5 Relatividad de la simultaneidad


La dilatación relativista del tiempo nos obliga a replantear el concepto de simultaneidad, que
es el fundamento de las mediciones de los intervalos temporales. Cuando que dice que un
suceso se produjo a determinada hora, por ejemplo que el tren llegó a la estación a las 7:00
a. m., se establece la coincidencia de dos hechos por parte de un observador presente en
el lugar: que el tren arribó a la estación y que el reloj de la plataforma marcaba las 7:00 a.
m. Pero ¿qué sucede cuando se quiere comparar la hora a la que se produjo el suceso de
acuerdo con un observador distante?

Consideremos la siguiente situación: en el centro de un vagón se produce un destello de


luz (figura 13.11). La llegada a los extremos anterior y posterior del vagón de cada rayo es
detectada por sendos relojes que registran los tiempos respectivos en los puntos en los que
llegaron los destellos luminosos I (izquierda) y D (derecha). Si los relojes se encontraban
sincronizados antes del destello, los tiempos de llegada que se registran serán los mismos
y el observador que se encuentra dentro del vagón dirá que los eventos son simultáneos.

I D I D I D

Figura 13.11. Pulsos de luz en vagón en movimiento respecto a un observador interno.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

Sin embargo, un observador que se encuentra al lado de la vía, para quien el vagón se des-
plaza con velocidad v, dirá que, de acuerdo con sus propios relojes, primero llegó un rayo
a la parte posterior del vagón y luego llegó el otro rayo a la parte anterior, y que, por tanto,
contrario a lo que afirma el observador interno, la llegada de los dos rayos a los extremos
del vagón no fue simultánea (figura 13.12).
192
I D I D I D

Figura 13.12. Pulsos en vagón en movimiento respecto a un observador externo.

A continuación consideremos la situación en la que los dos rayos son reflejados por espejos
en los extremos del vagón y retornan al punto de partida (figura 13.13). En este caso, tanto
para el observador que se encuentra dentro del vagón, como para el que se encuentra
afuera y en movimiento relativo respecto al primero, la llegada de ambos rayos al sitio de
partida es simultánea. Llegamos a la conclusión de que la simultaneidad de sucesos que
se producen en diferentes puntos del espacio es relativa, pero la simultaneidad de sucesos
que se producen en el mismo punto del espacio es absoluta.

Figura 13.13. Pulsos reflejados en los extremos del vagón para los observadores interno y externo.

Según con lo anterior, la determinación de la simultaneidad de dos sucesos depende de


su localización en el espacio, y, por tanto, toda medición temporal involucra una medición
espacial.

Física conceptual
Capítulo 13: Teoría de la relatividad

13.6 Contracción de la longitud

193

Figura 13.14. Regla y relojes.

La medición de la longitud es un proceso que implica la localización simultánea de los


extremos del objeto cuya longitud se quiere determinar y la posterior determinación de la
distancia entre los puntos en los que se localizan dichos extremos. Sin embargo, puesto
que la simultaneidad de sucesos distantes −en este caso la localización de la posición de
cada uno de los extremos del objeto− depende del estado de movimiento del observador,
no nos debería sorprender que el resultado de la medición de la longitud de un objeto varíe
según el objeto se encuentre en reposo o en movimiento respecto al observador que efec-
túa la medición.

Supongamos que el observador que viaja dentro de un vagón que se desplaza a velocidad v
quiere medir la longitud del mismo, utilizando como referencia el tiempo ∆t que tarda el va-
gón en pasar al lado del observador que se encuentra parado en la vía. De manera recípro-
ca, el observador externo realiza sus propias mediciones de tiempo para calcular la longitud
del vagón, registrando el tiempo ∆t' que tarda el vagón en pasar al lado suyo (figura 13.15).

Figura 13.15. Observador externo recorre el vagón en ∆t.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

Puesto que los intervalos de tiempo que registran los observadores dentro del vagón y en la
vía fueron ∆t y ∆t', respectivamente, las correspondientes longitudes serán:

L = v∆t y L' = v∆t'

194 A partir de estas relaciones se puede llegar a:

L' = (L/∆t)∆t' (13.2)

Puesto que ∆t' y ∆t se relacionan mediante la expresión para la dilatación del tiempo,
(13.1), y teniendo en cuenta que ∆t' fue medido en el mismo punto y que ∆t corresponde a
tiempos medidos en diferentes puntos del espacio, se concluye que:

L' = L√(1 - v2/c2) (13.3)

En consecuencia, el observador que mide la longitud del cuerpo en movimiento considera


que el cuerpo se ha contraído, pues la longitud que mide es menor que la que se puede
determinar cuando el vagón está en reposo:

L' ≤ L (13.4)

13.7 El continuo espacio-tiempo


Una de las más importantes consecuencias de la teoría de la relatividad es la imposibilidad
de realizar mediciones espaciales sin involucrar mediciones temporales, y viceversa, lo
cual condujo al matemático Hermann Minkowsky a la elaboración de una geometría que
incorpora de manera directa los postulados de la relatividad. De acuerdo con la geometría
de Minkowsky, las transformaciones de Lorentz tienen la misma estructura matemática que
la rotación de un sistema de coordenadas de cuatro dimensiones, que se denomina conti-
nuo espacio-tiempo, en el que aparecen representadas las tres coordenadas espaciales de
la geometría de Euclides, además de una cuarta coordenada que corresponde al tiempo
multiplicado por la velocidad de la luz (figura 13.16).

Física conceptual
Capítulo 13: Teoría de la relatividad

ct

Cono
de luz y

x
195

Figura 13.16. Espacio de Minkowsky.

Un punto en el espacio-tiempo de Minkowsky, que se denomina evento, E, se especifica


mediante tres coordenadas espaciales y una proporcional al tiempo:

E(x, y, z, ct)

La evolución de un sistema físico se describe mediante una sucesión continua de eventos


en el espacio de Minkowsky, que se denomina trayectoria.

De igual manera que en el espacio euclidiano, la rotación de los ejes coordenados deja
invariante la distancia d entre dos puntos (figura 13.17), de acuerdo con la expresión:

∆d2 = ∆x2 + ∆y2 + ∆z2 (13.5)

y' y
P2
x x'
d
P1
x
x

Figura 13.17. Rotación en dos dimensiones.

Las transformaciones de Lorentz dejan inalterada la magnitud de una cantidad denominada


intervalo invariante, ∆s2, que se define como:

∆s2 = c2∆t2 - ∆x2 - ∆y2 - ∆z2 (13.6)

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

Resumen
La imposibilidad de detectar el movimiento de un sistema de referencia inercial
desde su interior, o de detectar variaciones en la velocidad de la luz, asociadas al
movimiento relativo de la fuente y el observador, hizo necesario el replanteamiento
196 de la física a partir del principio de relatividad especial y la constancia de la veloci-
dad de la luz. La consecuencia inmediata fue la relativización de la simultaneidad
y la imposibilidad de realizar mediciones de longitud o de duración de manera
independiente.

Teoría de la relatividad (VPU)

Cuestionario
1. Establezca la diferencia entre el desplazamiento de una onda que se propaga en
un medio elástico y el de una partícula que viaja en el vacío, en términos de las
magnitudes físicas que se pueden asociar a una y a otra.
2. Establezca la diferencia entre el desplazamiento de un fotón y el de una partícula
que viajan en el vacío, en términos de las magnitudes físicas que se pueden
asociar a uno y a otra.
3. ¿Qué permite esperar, desde el punto de vista de la física newtoniana, que la
velocidad de la luz varíe dependiendo de la dirección de su propagación en un
laboratorio situado en la Tierra?
4. ¿Qué requisitos debe cumplir un sistema de referencia para que se pueda con-
siderar inercial?
5. ¿Qué tipo de sistema de referencia es la Tierra?
6. ¿Por qué es posible considerar a la Tierra como un sistema inercial durante la
observación de fenómenos de muy corta duración?
7. Teniendo en cuenta que en observaciones de tiempo extendido se manifiesta el
carácter no inercial de la Tierra como sistema de referencia, ¿a qué referencia
nos podemos remitir como sistema inercial de referencia?
8. ¿De qué manera pueden comparar los valores de la velocidad de un avión dos
observadores en tierra que se encuentran en movimiento relativo?

Física conceptual
Capítulo 13: Teoría de la relatividad

9. Elabore un ejemplo de la situación descrita en la pregunta anterior a partir de una


situación de la cotidianidad.
10. ¿De qué manera pueden comparar las ecuaciones de movimiento de Newton
dos observadores en tierra que se encuentran en movimiento relativo?
11. ¿Qué tipo de modificaciones es necesario introducir a las ecuaciones de trans-
formación de Galileo para que las ecuaciones de Maxwell del campo electromag- 197
nético sean las mismas para todos los observadores inerciales?
12. A partir de las transformaciones de Lorentz, explique de qué manera pueden
comparar los valores de la velocidad de un avión dos observadores en tierra que
se encuentran en movimiento relativo.
13. Utilice la ley de adición de velocidades de Lorentz para comparar el valor de la
velocidad de la luz que encuentra cada uno de los observadores de la pregunta
anterior.
14. Encuentre una expresión para comparar la duración del periodo de oscilación de
un reloj determinada por un observador en reposo respecto al reloj, con la que
determina otro observador en movimiento.
15. Encuentre una expresión para comparar la longitud de un cuerpo en la dirección
de su movimiento, determinada por un observador en reposo respecto al cuerpo,
con la que determina otro observador en movimiento.
16. ¿Cuál debe ser la velocidad relativa entre dos observadores para apreciar los
efectos relativistas de la dilatación del tiempo y la contracción de la longitud?
17. Demuestre que como consecuencia del postulado de constancia de la velocidad
de la luz, dos sucesos distantes que son simultáneos para un observador no
necesariamente lo son para otros observadores.
18. Demuestre que los eventos de simultaneidad relativa solo pueden conectarse
mediante señales que viajen a una velocidad mayor que la velocidad de la luz.
19. ¿A qué conclusión se puede llegar respecto a la posible conexión causal de
eventos de simultaneidad relativa?
20. ¿Por qué es necesario introducir correcciones relativistas a las mediciones del
tiempo de los relojes atómicos de los satélites del sistema GPS?

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Canales, J. (2015). The physicist and the philosopher. Kindle eBook.
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.  
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada. 
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). La historia de la física. FCE.  

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 13: Teoría de la relatividad

Holton, G. (1982). Ensayos sobre el pensamiento científico en la época de Einstein. Alianza


Universidad. 
Russell, B. (1978). ABC de la relatividad. Ariel. 
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de Antioquia.

198

Física conceptual
Capítulo 14 Materia y geometría

Introducción
La teoría de la relatividad condujo a una profunda revisión de los conceptos de espacio y tiempo,
una de cuyas más notables consecuencias fue el descubrimiento de que existe una indisoluble
relación entre las mediciones espaciales y temporales, lo cual queda plasmado con claridad en las
transformaciones de Lorentz y en la representación geométrica que hizo de ellas el matemático
Hermann Minkowsky. Pero las consecuencias de la teoría van mucho más allá, como se puede
apreciar cuando se aplican sus postulados al estudio de la interacción entre la materia y la radiación,
y a la gravitación.

14.1 Equivalencia de masa y energía


Consideremos el caso de un sistema de masa m que se desplaza a velocidad constante v respecto
a una pareja de observadores en reposo, situados delante y detrás del móvil, que, en cierto momen-
to, emite dos rayos de luz monocromática en direcciones opuestas y paralelas a su desplazamiento
sin cambiar su velocidad (figura 14.1).

Figura 14.1. Emisión de luz en un vagón en movimiento.

De acuerdo con un observador en el interior del móvil, los rayos de luz emitidos tienen la misma
energía y la misma frecuencia y se desplazan con la misma velocidad en direcciones opuestas. Sin
embargo, los observadores externos detectan señales luminosas de mayor y menor frecuencia que
la emitida originalmente debido al efecto Doppler, que consiste en la variación de la frecuencia de
una onda debido al movimiento relativo entre la fuente y el observador, de tal forma que cuando la
fuente y el observador se acercan, la frecuencia de la onda aumenta, y en el caso contrario disminu-
ye. Es fácil apreciar el efecto Doppler en la variación del timbre del sonido del motor de un vehículo,
que parece ser más agudo cuando se acerca y más grave cuando se aleja.
Capítulo 14: Materia y geometría

Puesto que la radiación electromagnética no solo transporta energía sino, también, momen-
tum, resulta que la emisión de radiación tiene un efecto sobre la fuente emisora equivalente
al disparo de proyectiles. Por esta razón, un haz de luz ejerce presión sobre la superficie
de los objetos que ilumina, tal como lo haría un chorro de agua o de gas. La cantidad de
movimiento, p, asociada a la radiación electromagnética está dada por la expresión
200
p = E/c (14.1)

donde E es la energía de la onda y c es la velocidad de la luz.

De acuerdo con el observador en reposo respecto al cuerpo que emite las señales lumino-
sas, este no experimenta cambio en su estado de movimiento porque la suma de la cantidad
de movimiento de los dos rayos que viajan en direcciones opuestas se anula (figura 14.2).

p2 = _ E p1 = E v
c c

Figura 14.2. Cancelación del momentum de la radiación.

Sin embargo, los observadores externos detectan una situación diferente. De acuerdo con
el observador hacia el cual se acerca la fuente de radiación, la frecuencia f1 de la radiación
emitida es mayor que la que declara el emisor, debido al efecto Doppler (figura 14.3). Por
su parte, el observador del cual se aleja la fuente de radiación detecta una onda de menor
frecuencia, f2.

f2 f1
v

Figura 14.3. Efecto Doppler.

Física conceptual
Capítulo 14: Materia y geometría

Con el fin de dar cuenta del efecto fotoeléctrico, por el cual ciertos metales generan corrien-
tes eléctricas al recibir radiación electromagnética, Einstein asumió que la energía de una
onda electromagnética es proporcional a la frecuencia, f, de acuerdo con la relación

E = hf (14.2)
201
donde h es la constante de Planck (h = 6.62 x 10−34 kg m2/s). En vista de lo anterior, y de
acuedo con (14.1), se obtiene:

p = hf/c (14.3)

Puesto que la velocidad de la luz, c, es igual al producto de la frecuencia por la longitud de


onda, se llega a la relación

p = h/λ (14.4)

Cuando se realiza el balance de la cantidad de movimiento por parte del observador externo
se encuentra que la diferencia entre la cantidad de movimiento de los dos rayos arroja un
resultado positivo en la dirección de desplazamiento del cuerpo:

p'1 - p'2 = [(hf1)/c] - [(hf2)/c] > 0 (14.5)

Puesto que la velocidad del cuerpo no ha cambiado, y teniendo en cuenta que la cantidad
de movimiento de un sistema aislado permanece constante, tenemos que:

mv = m'v + [(hf1)/c] - [(hf2)/c] (14.6)

Se concluye que, luego de la pérdida de energía por emisión de radiación, la masa del
cuerpo radiante disminuye una cantidad Δm, con

Δm = m - m' = [(hf1)/vc] - [(hf2)/vc] < 0 (14.7)

Teniendo en cuenta el anterior resultado, Einstein concluyó que la variación de la energía de


un sistema se refleja en una variación de su masa de acuerdo con la relación

∆E = ∆mc2 (14.8)

Las consecuencias para la física que se derivan de la anterior relación son de primordial im-
portancia. La clara distinción que existe en la física clásica entre materia y energía empieza
a difuminarse. La inercia, propiedad por excelencia de los cuerpos materiales, resulta ser,
también, una propiedad del campo electromagnético, que se puede apreciar en la emisión

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 14: Materia y geometría

y absorción de radiación electromagnética.

Dos leyes, que hasta entonces se habían erigido como los soportes fundamentales de la
investigación científica, la ley de la conservación de la materia y la ley de la conservación
de la energía, se convierten en una sola ley, que podríamos llamar ley de conservación de
202 la masa-energía, de acuerdo con la cual, al hacer el balance de la transferencia de energía
en un proceso físico, es necesario tener en cuenta la variación de la masa, y viceversa.

Debido a la magnitud del factor c2 que parece en la relación de equivalencia de masa y


energía, se concluye que a una pequeña variación de la masa de un sistema físico se aso-
cia una gran variación de su energía. De manera recíproca, se puede decir que una gran
variación de la energía de un sistema, apenas se manifiesta como una pequeña variación
de su masa. Esta última situación se puede apreciar en el comportamiento de estrellas
como nuestro Sol, que pierden una gran cantidad de energía radiante cada día sin que su
masa se vea sensiblemente modificada, tal como se puede comprobar en la estabilidad del
sistema planetario, cuya dinámica depende de la masa solar.

14.2 El fotón
La suposición hecha por Einstein en 1905 −con el fin de dar cuenta del efecto fotoeléctrico− de
que una onda electromagnética posee una cantidad de energía proporcional a su frecuen-
cia, y que, por tanto, la materia absorbe luz en paquetes de energía cuantizados, le confiere
a la radiación electromagnética un carácter corpuscular, reviviendo el viejo debate sobre
la naturaleza de la luz. El éxito de la explicación de Einstein del efecto fotoeléctrico, y su
aceptación por parte de la comunidad científica, condujo a la introducción del concepto de
fotón, o partícula de luz. Es importante recordar que antes de que se enunciara esta teo-
ría, el carácter de corpúsculo solo se atribuía a los llamados cuerpos materiales, en tanto
que las ondas eran consideradas un fenómeno emergente asociado al movimiento de la
materia. En el caso de las ondas electromagnéticas, el supuesto medio material ondulante
era el éter. Una de las consecuencias más notables de la teoría de la relatividad es la de-
mostración de que el concepto de éter es innecesario en la descripción de los fenómenos
electromagnéticos, y que la diferencia entre materia y radiación no es solo cuestión de
materialidad, puesto que a esta última se le pueden asignar propiedades como momentum
y energía, que tradicionalmente se consideraban exclusivas de la materia.

El carácter “material” de la radiación electromagnética se verifica gracias al efecto Comp-


ton, que se manifiesta cuando un fotón interactúa con un electrón libre y se comportan como
si los dos fueran partículas materiales (figura 14.4).

Física conceptual
Capítulo 14: Materia y geometría

Electrón
rebotado

Electrón en
Fotón su posición
incidente inicial
203

Fotón
dispersado

Figura 14.4. Efecto Compton.

Posteriores desarrollos en el campo de la física teórica, debidamente verificados por la


experimentación, habrían de reforzar esta perspectiva.

14.3 Partículas y antipartículas


Otra notable consecuencia de la equivalencia de masa y energía se puede apreciar en los
procesos de creación y aniquilación de pares de partículas elementales, en los cuales se
generan partículas elementales a partir de radiación electromagnética de alta energía, y, de
manera recíproca, se puede obtener radiación electromagnética altamente energética (g)
a partir de la aniquilación de partículas materiales (figura 14.5). En 1928 Paul Dirac formuló
una ecuación que da cuenta del comportamiento cuántico y relativista de los electrones,
incluyendo una nueva magnitud física que se denomina espín. La ecuación de Dirac devela
una simetría fundamental de la naturaleza, en virtud de la cual a toda partícula material le
corresponde una partícula idéntica pero de carga contraria, que se denomina antipartícula.
La antipartícula asociada al electrón se denomina positrón, y fue descubierta en 1932 por
Carl Anderson.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 14: Materia y geometría

e+ e+

204

_ _
e e
Figura 14.5. Creación y aniquilación de partículas y antipartículas.

La palabra “antipartícula” da lugar al confuso término de antimateria. Sin embargo, la llama-


da antimateria es tan material como la materia ordinaria, pues está regida por las mismas
leyes físicas.

El conocimiento de los procesos de creación y aniquilación de la materia aporta claves


esenciales para comprender procesos como la aparición de la materia ordinaria y el origen
y la evolución del universo, pero también hace posible algunas aplicaciones prácticas como
la realización de tomografías de alta resolución por detección de rayos gamma emitidos en
la aniquilación de electrones y positrones.

14.4 Equivalencia de inercia y gravitación


Luego de extender el alcance de la relatividad galileana a todos los dominios de la física
mediante el postulado de relatividad especial, Albert Einstein formuló una teoría relativista
de la gravitación, fundamentada en la equivalencia de la inercia y la gravitación. La equi-
valencia de masa inercial y de masa gravitacional resulta de la imposibilidad de distinguir
entre un sistema acelerado y un sistema inercial situado en un campo gravitatorio, o entre
un sistema inercial libre de fuerzas externas y un sistema en caída libre en un campo gra-
vitacional (figura 14.6).

Física conceptual
Capítulo 14: Materia y geometría

205

Figura 14.6. Caída libre.


Tomado de: http://bit.ly/2rZ9Ftj

La teoría de la gravitación de Einstein recibe el nombre de “teoría general de la relatividad”,


pues no está restringida a los sistemas inerciales, como la “teoría especial de la relatividad”.

Para aclarar en qué consiste la equivalencia de inercia y gravitación consideremos el caso


de un laboratorio situado en tierra (figura 14.7), que se comporta como un sistema inercial
respecto a las experiencias que se realicen en su interior, tales como el lanzamiento de
proyectiles, o las mediciones de la velocidad y la trayectoria de la luz.

Figura 14.7. Experimentos en laboratorio en reposo en tierra.

A continuación consideremos un laboratorio situado en el espacio exterior, impulsado por un


motor de cohete que genera una aceleración cuya magnitud es igual a la aceleración de la
gravedad que se puede medir en el laboratorio situado en tierra (figura 14.8). La realización
de experimentos mecánicos, como el lanzamiento de proyectiles y de movimiento pendular,
conduce a idénticos resultados en ambos laboratorios.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 14: Materia y geometría

206

Figura 14.8. Experimentos en laboratorio acelerado.

Ahora consideremos la trayectoria de un rayo de luz emitido por un láser orientado per-
pendicularmente respecto a las paredes del laboratorio cohete. Como es de esperarse, el
haz de luz se desvía hacia el piso debido a la aceleración constante que experimenta el
laboratorio (figura 14.9).

Figura 14.9. Trayectoria de un rayo de luz en laboratorio acelerado.

Al realizar el mismo experimento en el laboratorio en tierra se obtiene el mismo resultado


como consecuencia del carácter gravitacional de la inercia asociada a la energía que trans-
porta el rayo de luz (figura 14.10). En consecuencia, es imposible saber si el observador se
encuentra en un sistema inercial o en un sistema acelerado, a causa de la equivalencia de
inercia y gravitación.

Física conceptual
Capítulo 14: Materia y geometría

207

Figura 14.10. Trayectoria de un rayo de luz en el laboratorio en tierra.

Las predicciones de la teoría general de la relatividad han sido confirmadas con gran preci-
sión por una gran variedad de experimentos y observaciones realizados en los últimos cien
años, entre los cuales podemos destacar la desviación que exhibe la luz proveniente de
una estrella lejana al pasar por la cercanía de cuerpos celestes de gran masa, dando lugar
a efectos como el denominado lente gravitacional (figura 14.11).

Figura 14.11. Lente gravitacional.


Tomado de: http://bit.ly/1LmLdt8

Con el fin de formular de manera adecuada la teoría general de la relatividad, Einstein


utilizó la geometría desarrollada por el matemático Bernhard Riemann, cuya principal ca-
racterística es que las trayectorias mínimas, o geodésicas, son curvas que reflejan una pro-
piedad fundamental del espacio que se denomina curvatura, a diferencia de la geometría
de Euclides, en la que la distancia más corta entre dos puntos es una línea recta. Como

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 14: Materia y geometría

consecuencia de lo anterior se dice que el espacio de Euclides es plano. De acuerdo con la


relatividad general, la curvatura del espacio-tiempo está asociada con la presencia de ma-
teria y energía, a consecuencia de lo cual no solo el espacio se diferencia de la geometría
euclidiana, sino que el ritmo del tiempo experimenta cambios sensibles en presencia de
materia y energía.
208

14.5 Dilatación gravitacional del tiempo


Para comprender el efecto de la materia sobre el ritmo de los relojes, consideremos una
plataforma rotante sobre la cual se encuentran dos observadores, uno de los cuales se sitúa
en el centro, al que denominaremos C, y el otro, al que llamaremos B, se sitúa en el borde
de la plataforma, a una distancia r del centro. Un tercer observador, E, situado por fuera de
la plataforma, sincroniza su reloj con los dos observadores C y B (figura 14.12)

B C
E

Figura 14.12. Plataforma rotante con observadores internos y externos.

Mientras la plataforma se encuentra en reposo respecto al observador externo, todos com-


prueban la sincronización de sus relojes mediante el intercambio de señales luminosas.
Una vez que la plataforma empieza a rotar y alcanza una velocidad angular constante ω,
los observadores verifican nuevamente la sincronización de sus relojes. Dado que los ob-
servadores C y E permanecen en reposo, sus relojes conservan la sincronía, mientras que
el observador B y el observador E descubren que sus relojes ya no están sincronizados, y
lo atribuyen al hecho de encontrarse en movimiento relativo (figura 14.13).

Sin embargo, al comparar la hora en sus respectivos relojes, los observadores B y C, que
se encuentran sobre la plataforma, detectan falta de sincronización. Puesto que ambos se
encuentran en reposo entre sí, no pueden atribuir el desfase de sus relojes al movimiento
relativo. Sin embargo, hay un elemento físico que establece una diferencia entre los dos
observadores, puesto que el observador B, que se encuentra en el borde, experimenta
la acción de una fuerza que apunta hacia el centro de la plataforma, en tanto que C no

Física conceptual
Capítulo 14: Materia y geometría

experimenta fuerza alguna. Puesto que esta es la única diferencia que hay entre los dos
observadores que se encuentran sobre la plataforma, se debe atribuir a ella la diferencia de
las mediciones temporales (figura 14.14).

209
B C
E

Figura 14.13. Dilatación del tiempo para relojes en movimiento relativo y en reposo.

Figura 14.14. Dilatación del tiempo para relojes sometidos a fuerzas de diferente magnitud.

Observemos que la fuerza que experimenta B depende de su masa, de la velocidad lineal


asociada a la rotación de la plataforma y de la distancia al centro de giro. Atendiendo a la
equivalencia de inercia y gravitación que postula la teoría general de la relatividad, se pue-
de decir que los efectos que experimenta un observador debido a su masa inercial deben
ser iguales a los observados en un sistema que se encuentre en un campo gravitacional
de características similares, de donde se concluye que en presencia de un intenso campo
gravitacional el ritmo de los relojes debe ser más lento. Esta predicción relativista ha sido
verificada de manera experimental con gran exactitud. La notable precisión de los sistemas
satelitales de posicionamiento global, GPS, depende en alto grado de las correcciones
relativistas de la medición del tiempo, predichas tanto por la relatividad especial como por
la relatividad general (figura 14.15).

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 14: Materia y geometría

210

Figura 14.15. Satélites del GPS.

14.6 Ondas gravitacionales


La teoría relativista de la gravitación resolvió el problema de la acción a distancia que había
quedado planteado desde la publicación de los Principia en 1687, concerniente al mecanis-
mo mediante el cual dos cuerpos interactúan gravitacionalmente de manera instantánea,
sin que medie entre ellos ningún vínculo físico aparente, tal como se desprende de la ex-
presión para la fuerza gravitacional encontrada por Newton. De acuerdo con la relatividad
general, la interacción gravitacional se propaga como ondas que viajan a la velocidad de
la luz. Si bien una serie de observaciones sobre el comportamiento de sistemas binarios
de estrellas concordaba con las predicciones relativistas, solo hasta hace poco, y gracias a
la utilización de un sofisticado interferómetro llamado LIGO, fue posible detectar las ondas
gravitacionales, generadas por la colisión de dos agujeros negros, otra entidad cuya exis-
tencia había sido predicha por la teoría de Einstein (figura 14.16).

Figura 14.16. Recreación de ondas gravitacionales generadas por la colisión de dos agujeros negros.
Tomado de: http://bit.ly/2seCztG

Física conceptual
Capítulo 14: Materia y geometría

Resumen
La equivalencia de inercia y gravitación, junto con la equivalencia de masa y ener-
gía, constituyen los más grandes aportes que la teoría de Einstein hizo a la física.
Luego del establecimiento de estas equivalencias la física se hizo más sencilla, 211
con mejor capacidad para predecir fenómenos físicos inobservados hasta enton-
ces, pero, en opinión de algunos, cada vez menos comprensible.

Materia y geometría

Cuestionario
1. Verifique que si un sistema inercial en movimiento uniforme no experimenta un
cambio de velocidad luego de disparar sendos proyectiles idénticos en direccio-
nes contrarias, su velocidad permanece invariante en todos los demás sistemas
inerciales de referencia.
2. Verifique que la cantidad de movimiento de un proyectil disparado desde un
sistema en movimiento depende de la dirección en la que se dispara.
3. La expresión relativista para el efecto Doppler es:
f = f0 √[(c + v)/(c ± v)]
donde v es la velocidad relativa y c es la velocidad de la luz, y los signos + o −
dependen de si la fuente y el observador se acercan o se alejan. Verifique que
en el primer caso f es mayor que f0, y en el segundo es lo contrario.
4. ¿A qué se puede atribuir el corrimiento al rojo que exhibe el espectro luminoso
de las galaxias distantes?
5. Calcule el corrimiento de la frecuencia de un láser de longitud de onda de 633
nm que viaja a una velocidad de 0.1 c, dependiendo de si se acerca o se aleja
del observador.
6. Compare el momentum de un fotón del láser del problema anterior dependiendo
de si se acerca o se aleja del observador.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 14: Materia y geometría

7. Calcule la velocidad a la que se aleja de la Tierra una galaxia cuyo corrimiento al


rojo es del 90% (f = 0.1f0).
8. Suponga que v es mayor que c, y calcule el corrimiento Doppler de la frecuencia,
según que la fuente y el observador se acerquen o se alejen.
9. ¿Qué conclusión se puede sacar luego de analizar los resultados del caso ante-
212 rior?
10. Demuestre que un cuerpo radiante que se desplaza a velocidad constante pier-
de masa.
11. Calcule la cantidad de masa que pierde un cuerpo que se desplaza a velocidad
constante y emite dos fotones idénticos en direcciones opuestas. Utilice la ex-
presión para el efecto Doppler relativista.
12. Teniendo en cuenta que la potencia de la radiación solar es del orden de 1.5 kW/
m2, estime la cantidad de materia que pierde el Sol cada segundo.
13. Calcule la masa de un electrón teniendo en cuenta que en la aniquilación de un
electrón y un positrón se emite radiación gamma con una energía aproximada de
1.02 MeV.
14. Explique en qué sentido se puede decir que el principio de equivalencia de iner-
cia y gravitación constituye una extensión del principio de relatividad especial.
15. Teniendo en cuenta el corto periodo de duración de la vida humana, explique si
existe alguna posibilidad de que una persona pueda conocer a sus descendien-
tes después de unas diez generaciones a partir de la actual.

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Canales, J. (2015). The physicist and the philosopher. Kindle eBook
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE. 
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Holton, G. (1982). Ensayos sobre el pensamiento científico en la época de Einstein. Alian-
za Universidad.
Jeans, J. (1968). La historia de la física. FCE.  
Russell, B. (1978). ABC de la relatividad. Ariel.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.  

Física conceptual
Capítulo 15 Cosmología: el origen y el fin

Introducción
A veces nos formulamos preguntas de gran trascendencia como, por ejemplo, cuándo se originó y
hasta cuándo durará el universo. Y la humanidad, en sus intentos por responderlas, ha llevado hasta
el límite las posibilidades explicativas del conocimiento científico, con resultados tan sorprendentes
como el de la existencia de un supuesto origen en un evento cataclísmico y la predicción de un frío
y oscuro final.

15.1 Entropía e irreversibilidad


La expansión del universo fue una consecuencia de la teoría general de la relatividad, tan inespera-
da que su autor no solo no le dio crédito, sino que modificó las ecuaciones del campo gravitacional
para eliminar lo que consideraba como una condición incompatible con las observaciones y las
suposiciones de base de las teorías físicas. Sin embargo, la observación del corrimiento al rojo del
espectro de las galaxias lejanas, efecto que se acentúa en proporción directa a la distancia de las
galaxias a la Tierra, constituye una evidencia difícilmente refutable de que el universo se encuen-
tra en fase de expansión. Luego de aceptada la expansión del universo como un hecho, surgió la
pregunta respecto al inicio de este proceso, que se situó en un momento de la historia cósmica que
recibió el nombre de Big Bang. La respuesta a esta inquietud y los descubrimientos que se realiza-
ron al tratar de resolverla constituyen uno de los capítulos más apasionantes de la ciencia moderna.

El comportamiento del universo a gran escala es asimilable, hasta cierto punto, al de un gas que
inicialmente se encuentra confinado en un pequeño recipiente, cuyas paredes desaparecen de ma-
nera súbita. Supongamos que el gas está comprimido a la máxima densidad y a la máxima tem-
peratura posible, y que en el interior del recipiente no queda ningún espacio vacío. A continuación
supongamos que, por alguna misteriosa razón, las dimensiones del recipiente empiezan a crecer
gradualmente y las partículas del gas disponen cada vez de mayor movilidad (figura 15.1). Trece mil
setecientos millones de años más tarde el volumen del recipiente se ha expandido de tal manera
que el número de partículas de gas por metro cúbico ha descendido a una, y la temperatura del
sistema es de unos 2.7 K, muy cercana al cero absoluto, aunque, todavía, no lo suficiente.
Capítulo 15: Cosmología: el origen y el fin

214

Figura 15.1. Expansión.

El anterior es un proceso irreversible y se conoce como expansión adiabática. La irreversibi-


lidad es la propiedad característica de los procesos termodinámicos espontáneos, y de ella
da cuenta la segunda ley de la termodinámica, según la cual los sistemas termodinámicos
evolucionan de manera espontánea hacia aquel estado en el que la entropía alcanza su
máximo valor. De igual manera que el concepto de energía da cuenta de una magnitud
física que se conserva en las interacciones entre subsistemas de los sistemas aislados, el
concepto de entropía da cuenta de la evolución de los sistemas que no han alcanzado el
equilibrio.

La asimetría de los procesos termodinámicos se manifiesta en el carácter unidireccional


del flujo térmico entre cuerpos que inicialmente se encuentran a diferente temperatura y
se ponen en contacto. Una vez alcanzado el equilibrio se dice que el calor ha pasado del
cuerpo de mayor temperatura hacia el de menor temperatura, y que la entropía del sistema
ha aumentado. Puesto que en la naturaleza no se encuentran fenómenos que controviertan
esta observación, se puede asignar una dirección al flujo del tiempo como aquella en la que
la entropía de los sistemas aumenta de manera espontánea.

15.2 Principios de impotencia


Un rasgo que caracteriza a las leyes más generales de la física es su carácter negativo, en
tanto que pueden ser enunciadas como principios de impotencia, en términos de aquello
que no se puede hacer. Las leyes de la termodinámica son un buen ejemplo de esta situa-
ción. Así como la ley de inercia afirma la imposibilidad de detectar el estado de movimiento
de un sistema inercial de referencia dentro del mismo sistema, la ley de conservación de
la energía establece la imposibilidad de que existan los denominados móviles perpetuos
de primera clase, es decir, sistemas mecánicos aislados que realicen trabajo de manera
indefinida (figura 15.2). El establecimiento de la primera ley de la termodinámica echó por
tierra la utopía medieval de una fuente inagotable de energía y de autómatas que trabajaran
sin necesidad de descanso.

Física conceptual
Capítulo 15: Cosmología: el origen y el fin

215

Figura 15.2. Móvil perpetuo.


Tomado de: http://bit.ly/2rZcSZT

Por su parte, la segunda ley de la termodinámica decretó la imposibilidad de la existencia


de sistemas termodinámicos que sin tener ningún suministro externo de energía realicen
trabajo de manera indefinida a partir de diferencias internas de temperatura (figura 15.3).

Figura 15.3. Móvil perpetuo termodinámico.

Además, la segunda ley establece restricciones insalvables respecto a la eficiencia de


los motores térmicos. Mientras que la primera ley expresa la imposibilidad de que existan
fuentes ilimitadas de energía, la segunda establece la imposibilidad de que en un proceso
termodinámico se pueda aprovechar el ciento por ciento de la energía térmica para realizar
trabajo. En consecuencia, en todo proceso termodinámico parte de la energía involucrada
deja de ser aprovechable para futuros procesos y se produce una especie de degradación,
que, con el transcurrir del tiempo, agotará toda fuente de energía aprovechable.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 15: Cosmología: el origen y el fin

Puesto que los procesos termodinámicos requieren una diferencia de temperatura entre la
fuente térmica y el ambiente, una vez que el sistema haya alcanzado el equilibrio térmico
y todas sus partes se encuentren a la misma temperatura será imposible realizar ningún
tipo de trabajo. No obstante, la energía total permanece constante. Esta situación pone en
216 evidencia la imprecisión en la que se incurre cuando se define la energía como capacidad
de hacer trabajo.

15.3 La primera muerte térmica


Puesto que todo proceso termodinámico espontáneo se caracteriza por la tendencia al
aumento de la entropía, cuando se alcance el equilibrio térmico el valor de la entropía ha-
brá llegado al máximo. En esto reside el valor del concepto de entropía como función que
describe la evolución de los sistemas termodinámicos. De las anteriores consideraciones
se derivan importantes consecuencias cosmológicas.

Si consideramos el universo como un sistema cerrado, tal y como era concebido a media-
dos del siglo XIX, en algún momento alcanzará el equilibrio térmico y todo estará a la misma
temperatura como consecuencia inevitable de la segunda ley de la termodinámica. Bajo tal
condición la energía aprovechable se habrá agotado, y la vida, que es ante todo un perma-
nente intercambio de energía con el entorno, habrá dejado de ser viable.

Esta conclusión de la termodinámica se conoce como la muerte térmica del universo, y fue
la primera predicción apocalíptica que se formuló respecto al futuro de la vida a partir de
las leyes de la física. Un importante corolario que se deriva de la anterior conclusión es que
si el universo fuera infinito en el tiempo y no hubiera tenido un origen, la vida ya se habría
extinguido.

15.4 Física y estadística


En sus inicios la ciencia de la termodinámica no definió con precisión el concepto de entro-
pía, aunque sí estableció criterios muy precisos para medir sus variaciones en términos del
calor transferido entre los elementos constitutivos de un sistema, sus masas y las respecti-
vas temperaturas. De igual manera, la definición del concepto de temperatura también fue,
en un principio, bastante difusa, o, a lo sumo, tan tautológica como aquello de decir que
temperatura es lo que miden los termómetros (figura 15.4).

Física conceptual
Capítulo 15: Cosmología: el origen y el fin

217

Figura 15.4. Termómetros y temperatura.

Los conceptos de entropía y de temperatura se hacen inteligibles gracias al modelo cinético


corpuscular (figura 15.5) y a los métodos estadísticos desarrollados para la física por Ru-
dolf Clausius (figura 15.6), Ludwig Boltzmann y Edward Gibbs, entre otros. Mediante este
modelo, Clausius obtuvo la ecuación de los gases ideales, que solo se conocía de manera
empírica, a partir de consideraciones puramente mecánicas. Claussius logró su objetivo
luego de considerar que un gas confinado está compuesto por cierto número de corpúscu-
los cuyos choques con las paredes del recipiente que lo contiene son responsables de la
presión que se experimenta.

Figura 15.5. Modelo cinético corpuscular.

La aplicación del principio de conservación de la energía al modelo corpuscular permite


establecer una relación directa entre la temperatura del gas contenido en un recipiente y
la energía cinética promedia de los corpúsculos que componen el gas, de acuerdo con la
ecuación

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 15: Cosmología: el origen y el fin

(1/2)mv2 = (3/2)kT (15.1)

donde v2 es la velocidad cuadrática media, k es la constante de Boltzmann y T es la tem-


peratura absoluta.

218 De esta manera, y gracias a la introducción de elementos estadísticos en la descripción


de los sistemas termodinámicos, la física da cuenta del concepto de calor en términos del
movimiento corpuscular, y la termodinámica queda reducida a la mecánica.

Puesto que en la versión original de la termodinámica se consideraba que el calor era un


fluido, al que se le dio el nombre de calórico, luego de la introducción del modelo cinético el
lenguaje de la física se simplifica y gana en sencillez y precisión.

Figura 15.6. Rudolf Clausius.


Tomado de: http://bit.ly/2uflQ64

15.5 Entropía y probabilidad


La irreversibilidad, característica fundamental de fenómenos termodinámicos como la vida y
la muerte, plantea un problema de gran profundidad y difícil solución a la física teórica: si en
último término la explicación de los fenómenos físicos se reduce a las leyes de la mecánica,
que son esencialmente reversibles, ¿por qué existe una dirección del tiempo?

La respuesta de Ludwig Boltzmann (figura 15.7) parte de la utilización de métodos proba-


bilísticos para la descripción de los sistemas termodinámicos, en el marco de una nueva

Física conceptual
Capítulo 15: Cosmología: el origen y el fin

disciplina que recibió el nombre de física estadística. Boltzmann definió la entropía, función
que permite predecir la evolución en el tiempo de los sistemas termodinámicos, como una
cantidad proporcional al número W con los parámetros termodinámicos del sistema, tales
como la presión, el volumen y la temperatura, de acuerdo con la expresión

S = k ln W (15.2) 219

donde k es la constante de Boltzmann.

Figura 15.7. Ludwig Boltzmann.

La definición de entropía en términos de los posibles estados en los que se podría encontrar
un sistema termodinámico permite expresar la segunda ley de la termodinámica en térmi-
nos de probabilidad (figura 15.8). Si se define la probabilidad Pi de que el sistema se en-
cuentre en el estado i como la relación entre el número de modos ni compatibles con dicho
estado y el número total de modos N en los que se puede encontrar el sistema, entonces
Pi será igual a

Pi = ni/N (15.3)

Si se dispone de un gran número de sistemas idénticos, preparados en condiciones simi-


lares, al examinar los sistemas en cuestión se encontrará que hay un mayor número de
sistemas en el estado de mayor probabilidad. La ley del aumento de la entropía resulta de la
observación empírica de que todos los sistemas que inicialmente se encuentran en un esta-
do de baja probabilidad de ocurrencia evolucionan hacia los estados de mayor probabilidad.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 15: Cosmología: el origen y el fin

220
Figura 15.8. Dados y probabilidad.

Supongamos que el sistema en consideración es un recipiente lleno de partículas. En este


caso se puede afirmar que el número de modos en que se pueden distribuir las partículas
dentro del recipiente es proporcional a su volumen. En la situación inicial, la densidad de
partículas es máxima, y solo hay un modo compatible con tal condición puesto que cada
espacio disponible del recipiente está ocupado. En este caso la entropía del sistema es
0 debido a que el logaritmo natural de 1 es 0. A medida que el recipiente se expande hay
más espacios disponibles para cada partícula y, por tanto, un mayor número de modos
accesibles para el sistema. En esta nueva situación la entropía del sistema es mayor que 0.

A medida que continúa el proceso de expansión la entropía aumenta hacia su máximo valor
posible, el infinito (figura 15.9). Pero a medida que el volumen aumenta, la densidad de la
materia tiende a cero, y en el estado final solo quedará un recipiente vacío, que ha alcanza-
do el máximo valor de la entropía.

Figura 15.9. Aumento de la entropía.

15.6 Un futuro oscuro


Observaciones astronómicas realizadas en los últimos años revelan que el universo se
expande de manera acelerada, presagiando un alejamiento paulatino de las galaxias y
de las estrellas distantes, con el consecuente oscurecimiento del cielo en todo el espectro
electromagnético. Según esto, el universo avanza hacia su total disolución en un estado de
densidad nula y entropía infinita. Pero cuando llegue la noche eterna no habrá nada ni nadie
que pueda atestiguarlo.

Física conceptual
Capítulo 15: Cosmología: el origen y el fin

Resumen
Para algunos podría ser un consuelo pensar que todavía deben transcurrir muchos
miles de millones de años antes de que la temperatura del universo descienda
hasta el cero absoluto, o, a lo que podríamos llamar, el estado final, denominación 221
tan arbitraria y convencional como la de origen que le asignamos al Big Bang. En
comparación con nuestros insignificantes periodos vitales, y el de la mayoría de
las especies que han habitado este planeta y ya se han extinguido, podemos con-
siderar que el universo, tal como luce en la actualidad, es, prácticamente, eterno.

Cosmología: el origen y el fin (VPU)

Cuestionario
1. Suponga que en un aula donde hay 50 sillas numeradas y debidamente asigna-
das se sientan 50 estudiantes, cada uno en la silla que le corresponde. Suponga
que este es un sistema termodinámico y asigne un valor de su entropía.
2. Luego de seis meses de recibir clase en el mismo salón, los estudiantes del caso
anterior toman la silla que está disponible y a su gusto. Calcule la probabilidad de
que los estudiantes ocupen las sillas que se les asignaron al inicio del semestre.
3. Estime la entropía del sistema en el caso más probable de la pregunta anterior.
4. ¿Cómo se manifiesta la segunda ley de la termodinámica en la evolución del
sistema descrito en la anterior pregunta?
5. ¿Qué relación existe entre la segunda ley de la termodinámica y la dirección del
tiempo?
6. Considerando que todos los fenómenos físicos son, en último término, una in-
mensa colección de fenómenos reversibles, ¿qué sentido tiene hablar de la irre-
versibilidad de los fenómenos termodinámicos?
7. Considere un sistema conformado por una gran cantidad de subsistemas, cada
uno de los cuales se encuentra a diferente temperatura. Luego de transcurrir un
tiempo considerable se alcanza el equilibrio térmico. ¿Qué se puede decir sobre
la entropía del sistema?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 15: Cosmología: el origen y el fin

8. ¿Qué se puede decir sobre la energía total del sistema del punto anterior?
9. ¿Cuál es la capacidad de realizar trabajo a partir de la energía almacenada en el
sistema al que se refiere la pregunta anterior?
10. Considere un sistema conformado por una caja cúbica de paredes rígidas que
contiene N partículas indeformables de masa m, en movimiento aleatorio, y en-
222 cuentre una expresión que relacione la presión, el volumen y la energía del sis-
tema.
11. Compare la expresión encontrada en la pregunta anterior con la ecuación de los
gases ideales y elabore una interpretación estadística del concepto temperatura.
12. ¿Cómo se modificaría la interpretación del concepto temperatura de la pregunta
anterior si los corpúsculos tuvieran estructura y elasticidad?
13. Suponga que el número de corpúsculos en la caja del problema anterior es tal
que la caja está llena. ¿Cuál sería la entropía del sistema?
14. ¿Cómo se puede interpretar en este caso un aumento de la temperatura del
sistema?
15. Si las paredes de la caja en cuestión tienen algún grado de elasticidad, ¿qué
sucederá si se produce un aumento significativo de la temperatura?
16. Suponga que las paredes de la caja inician un proceso de dilatación indefinido y
explique cuál será el máximo valor que puede alcanzar la entropía del sistema, y
bajo qué condiciones.

Bibliografía
Davies, P. (1982). El espacio y el tiempo en el universo contemporáneo. FCE.  
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Ferreira, P. (2014). The perfect theory. Kindle Edition.
Sagan, C. (1992). Cosmos. Planeta.
Singh, J. (1979). Teorías de la cosmología moderna. Alianza Editorial.  
Weinberg, S. (1978). Los tres primeros minutos del universo. Alianza Universidad.

Física conceptual
Capítulo 16 Materia y radiación

Introducción
Habrían de pasar más de veinte siglos luego de que Leucipo y Demócrito expusieran sus teorías
sobre la composición de la materia, antes de que sus ideas fueran tenidas nuevamente en cuenta a
principios del siglo XIX como resultado de los avances realizados en tres disciplinas estrechamente
entrelazadas: el electromagnetismo, la química y la termodinámica.

Durante siglos la práctica de la química fue una actividad empírica más cercana al esoterismo que
a las ciencias naturales, y tan solo asumió el carácter de ciencia moderna luego de que a finales
del siglo XVIII Antoine de Lavoisier (figura 16.1), uno de los padres del sistema métrico decimal,
estableciera el principio de conservación de la materia como guía certera para el estudio de las
transformaciones de los materiales e impusiera el uso de la balanza de precisión para controlar
los procesos, y de que John Dalton propusiera el modelo atómico fundamentado en la ley de las
proporciones múltiples.

Figura 16.1. Antoine de Lavoisier.


Tomado de: http://bit.ly/2seIH5n

De acuerdo con la ley establecida por Lavoisier, en toda reacción química la cantidad de materia
permanece constante a lo largo del proceso. En consecuencia, se puede decir que la materia ni se
crea ni se destruye sino que se transforma, tal como afirma una de las expresiones más conocidas
de la ley de conservación de la materia.
Capítulo 16 : Materia y radiación

Por su parte, la ley de Dalton estableció que cuando una cantidad fija de un elemento re-
acciona con diferentes cantidades de otro elemento para formar diversos compuestos, los
pesos del segundo elemento se relacionan entre sí en proporciones sencillas de números
enteros. Así, por ejemplo, una determinada cantidad de hidrógeno puede reaccionar con
cierta cantidad de oxígeno para formar agua común, o con el doble de la misma cantidad de
224 oxígeno para formar agua oxigenada.

A partir de esta ley se puede inferir que la mínima cantidad de un material capaz de producir
determinada reacción corresponde a un número entero de átomos de dicho material. La
adopción de este presupuesto contribuyó al rápido avance de la química en el siglo XIX,
cuyos significativos logros se vieron reflejados en la elaboración de la tabla periódica para
la clasificación de los elementos, cuyo número superaba, por mucho, los cuatro elementos
de la antigüedad, que, a la luz de los nuevos descubrimientos, ya no se podían considerar
elementales.

16.1 La pila de Volta


Una circunstancia que contribuyó de manera notable al avance de las ciencias naturales, y
en particular al de la química, fue la invención de la batería eléctrica por Alessandro Volta
en 1800. Se puede decir que la pila de Volta permitió “domesticar” la electricidad para su
aplicación al estudio de los materiales. Si bien la electricidad era conocida desde la anti-
güedad y los trabajos de Benjamin Franklin habían demostrado que los rayos no eran más
que una colosal manifestación de la electricidad estática, sus aplicaciones prácticas eran
muy reducidas. No obstante, desde el siglo XVII se volvió práctica común la fabricación de
generadores electrostáticos de fricción (figura 16.2), cuya carga se podía almacenar en
condensadores primitivos como el célebre vaso de Leyden, con la cual era posible generar
rayos en el laboratorio.

Figura 16.2. Generador electrostático.


Tomado de: http://bit.ly/2seJraq

Física conceptual
Capítulo 16: Materia y radiación

Esta situación habría de cambiar gracias a la invención de Volta de un dispositivo que


permite sostener una corriente eléctrica de baja intensidad en un circuito durante un tiempo
suficientemente prolongado para observar fenómenos acumulativos y realizar mediciones
cuantitativas de la carga eléctrica transferida por la corriente.

La invención de la batería por Volta en 1800 fue el resultado de una serie de experimentos 225
y deducciones que se iniciaron con la observación hecha por Luigi Galvani de que una pata
de rana que descansaba sobre una plancha metálica experimentaba una súbita contracción
al ser pinchada con un cuchillo. Galvani creyó haber descubierto la fuerza vital con la que
soñaban muchos de los investigadores de la época, pero fue Volta quien dedujo, correc-
tamente, que el comportamiento del músculo del animal se debía al paso de una corriente
eléctrica.

Volta demostró que si en lugar de una pata de rana se utiliza un pedazo de cartón empapa-
do en solución salina para poner en contacto dos metales diferentes, también se generaba
una corriente eléctrica. Entonces quedó claro que los fluidos presentes en la pata de la
rana, al igual que la solución salina, se comportan como un medio conductor que se deno-
mina electrolito.

Puesto que las corrientes generadas de esta manera son de muy baja intensidad, Volta
apiló una sucesión alternada de cartones empapados en una solución de ácido sulfúrico
entre placas metálicas de cobre y zinc para obtener corrientes apreciables cuya intensidad
dependía del número total de láminas apiladas. De la peculiar disposición de los elementos
que conforman el dispositivo se deriva el nombre de pila (figura 16.3).

Figura 16.3. Pila de Volta.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 16 : Materia y radiación

16.2 Electrólisis
Cuando en un medio líquido se introducen un par de electrodos conectados a los polos de
una pila voltaica, los elementos de un compuesto disuelto en el medio se separan gracias a
un proceso que recibe el nombre de electrólisis (figura 16.4). La electrólisis es una poderosa
226 herramienta para el estudio de la composición de los materiales y constituye un método
menos destructivo que la calcinación de las sustancias, o el ataque con ácidos y álcalis,
que eran anteriormente utilizados para separar e identificar los elementos de un compuesto.
El uso sistemático de la electrólisis para descomponer y analizar las soluciones condujo
al descubrimiento de un importante número de nuevos elementos a lo largo del siglo XIX.

Hidrógeno _
Oxígeno +

Figura 16.4. Electrólisis.

16.3 Rayos catódicos


Entre muchos otros logros, la pila de Volta facilitó el estudio de propiedades eléctricas de
los materiales como la conductividad, o de su recíproco, la resistividad, que, al igual que
la conductividad térmica y el calor específico, son importantes para caracterizar los mate-
riales. La práctica usual consiste en aplicar una fuente de potencia eléctrica a una muestra
de una sustancia, por ejemplo un alambre de longitud y calibre bien determinados, para
luego medir la intensidad de la corriente producida. Mediante este procedimiento es posible
determinar las características eléctricas de diversos materiales, lo cual permite hacer una
primera gran clasificación de los materiales como conductores, o como aislantes o dieléctri-
cos, según su capacidad de permitir o impedir el paso de la corriente eléctrica.

De acuerdo con lo anterior, los metales se clasifican como conductores, y ciertos materiales
como las resinas, las cerámicas y las maderas se denominan dieléctricos o aislantes. Pero

Física conceptual
Capítulo 16: Materia y radiación

dado que no todos los metales son igualmente buenos conductores, ni todos los dieléctricos
son igualmente buenos aislantes, la determinación precisa de su conductividad permite
caracterizar diferentes materiales y diferenciarlos con precisión.

Queda claro, entonces, que el estudio del comportamiento eléctrico de cuerpos sólidos y de
soluciones líquidas mediante la electricidad permite determinar, en buena medida, la com- 227
posición química y las propiedades eléctricas de los mismos. De igual manera, esta técnica
aplicada al estudio de los gases revela importante información no solo sobre la estructura y
las características de estos sino sobre la propia electricidad.

Con el fin de determinar las características eléctricas de los gases es necesario introducir
en un recipiente sellado una muestra de la sustancia que se quiere analizar y someterla a
una fuente de potencia eléctrica hasta lograr que circule una corriente, para lo cual el reci-
piente, que por lo general es un tubo o una ampolla de vidrio alargada, debe contar con un
par de electrodos en sus extremos. Un dispositivo con estas características fue diseñado
en el siglo XIX por William Crookes y para su operación es necesario aplicar diferencias de
potencial de varios miles de voltios.

Una de los fenómenos más notables que se observan cuando circula la corriente a través
del tubo es un resplandor característico en uno de los extremos del tubo, conocido como
fluorescencia. A pesar de que la fluorescencia era un fenómeno bien conocido en materiales
sólidos, nunca había sido observado en gases, o, al menos, identificado como tal, puesto
que las auroras boreales y australes también son manifestaciones del mismo fenómeno.

Pero aún más interesantes que la fluorescencia inducida por la corriente eléctrica en el gas
encerrado en un tubo de vidrio, resultaron los trazos dejados por la corriente eléctrica al
pasar por un gas enrarecido, es decir, un gas a muy baja presión. Luego de determinar que
la corriente responsable de las trazas en el gas provenía del cátodo, o electrodo negativo,
el agente responsable del fenómeno recibió el nombre de “rayos catódicos” (figura 16.5).

Cátodo

Ánodo

Alto voltaje
Fuente
de alimentación

Figura 16.5. Tubo de rayos catódicos.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 16 : Materia y radiación

El avance en las técnicas de generación de vacío hizo posible la observación de fenómenos


que ayudarían a esclarecer la naturaleza de la electricidad, como, por ejemplo, el hecho
de que en el tubo de Crookes la fluorescencia se manifiesta con mayor intensidad en el
extremo del tubo opuesto al cátodo cuando se inducen descargas de alto voltaje a muy baja
presión. Gracias a esto, más que un instrumento para estudiar la composición y las propie-
228 dades de la materia, la propia electricidad se convirtió en objeto de estudio, y el interés de
los investigadores se centró en determinar sus características y propiedades.

16.4 Electrones
En su momento la naturaleza de los rayos catódicos fue objeto de un agitado debate. Algu-
nos físicos, como el alemán Philip Lenard, concluyeron que esta radiación era de carácter
ondulatorio, luego de observar que los rayos catódicos podían atravesar una delgada ven-
tana de aluminio colocada en el extremo cercano al ánodo en el tubo de descarga; otros,
como el inglés J. J. Thomson, asumían que se trataba de un haz de corpúsculos, puesto
que experimentaban una deflexión al ser sometidos a la influencia de campos eléctricos y
magnéticos. Finalmente, el asunto se resolvió a favor de los defensores del modelo cor-
puscular, gracias a los cuidadosos experimentos realizados por Thomson en el Laboratorio
Cavendish de la universidad de Cambridge. Sin embargo, un par de décadas más tarde la
cuestión volvería a ser objeto de un intenso debate con el advenimiento de la mecánica
cuántica.

Desde la época de Galileo la discusión sobre la posible existencia del vacío había sido
objeto de fuertes controversias, sobre todo por el rechazo que suscitaba esta idea entre
los filósofos escolásticos afectos a la doctrina aristotélica del horror al vacío y a la supues-
ta existencia de un medio continuo que todo lo llenaba. Sin embargo, los experimentos
relacionados con la presión atmosférica realizados por Evangelista Torricelli, un discípulo
de Galileo, confrontaban al experimentador con situaciones cuyas posibles explicaciones
se inclinaban por la hipótesis del vacío. En efecto, si se introduce el extremo abierto de un
tubo de cristal de 1 m de longitud, lleno de mercurio, en un recipiente que contiene el mismo
material, y se sostiene el tubo en posición vertical, la columna desciende hasta alcanzar una
altura de unos 76 cm, dejando en la parte superior un espacio en el cual aparentemente no
hay nada.

Los métodos utilizados por Torricelli constituyeron un importante aporte a las técnicas de
generación de vacío por bombeo mediante la utilización de mercurio. Doscientos años más
tarde, el refinamiento de las prácticas de Torricelli permitió construir los tubos de vacío y, en
particular, el tubo de Crookes, que le sirvió a J. J. Thomson (figura 16.6) para demostrar la
existencia de los electrones en 1897.

Física conceptual
Capítulo 16: Materia y radiación

229

Figura 16.6. J. J. Thomson, el descubridor de los electrones.


Tomado de: http://bit.ly/2tlT5sb

Thomson demostró el carácter corpuscular de los rayos catódicos luego de medir la relación
entre la carga y la masa de los supuestos corpúsculos mediante la deflexión del haz sobre
el cual se aplicaron campos eléctricos y magnéticos en el vacío (figura 16.7). Una década
más tarde Robert Millikan midió con precisión la carga del electrón gracias a lo cual fue
posible establecer que la masa de esta partícula es unas dos mil veces más pequeña que
la de un átomo de hidrógeno, el más liviano de todos los elementos.

Por una paradoja de la historia, antes de que la existencia de los átomos −supuestos últi-
mos componentes de la materia− fuera un hecho comprobado y aceptado por la comunidad
científica, fue descubierto el electrón, que es una partícula subatómica.

Cuando unos años después del descubrimiento del electrón se pudo establecer el modelo
atómico, gracias a los trabajos de Einstein sobre el movimiento browniano y a los cálculos
y mediciones que realizó Jean Perrin sobre el tamaño de los átomos y el número de Avo-
gadro, ya se sabía que estos no son los constituyentes más elementales de la materia. En
estricto sentido, los componentes últimos de los elementos químicos no son los átomos
porque son divisibles.

El descubrimiento del electrón definió nuevos caminos en el programa de investigación


sobre la constitución y las propiedades de la materia, y, como suele suceder, a la vez que
permitió esclarecer una gran cantidad de cuestiones pendientes relacionadas con la con-
ducción de la electricidad y los fenómenos asociados a las corrientes eléctricas, también
planteó nuevos problemas referidos a la naturaleza de las partículas elementales y la esta-
bilidad de la materia.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 16 : Materia y radiación

230

Figura 16.7. Deflexión de rayos catódicos por un campo magnético.


Tomado de: http://bit.ly/2tVcJZ8

Pero en contra de lo que se podría pensar, el descubrimiento del electrón no trajo aparejado
el del protón. Pasaron más de veinte años, luego de que Thomson descubriera el electrón,
antes de que Rutherford diera cuenta de la existencia del protón como resultado de investi-
gaciones subsecuentes al descubrimiento del núcleo atómico.

En 1928 Paul Dirac propuso la célebre ecuación que lleva su nombre, y dio cuenta del
comportamiento de los electrones sujetos a las restricciones que impone la teoría de la re-
latividad y a los postulados de la mecánica cuántica. Un sorprendente resultado que arroja
el examen de esta ecuación es la existencia de una partícula idéntica al electrón, pero de
carga eléctrica positiva. Cuatro años más tarde, el físico Carl Anderson descubrió eviden-
cias experimentales de la existencia de la partícula predicha por la ecuación de Dirac, luego
de estudiar trazos de trayectorias de partículas provenientes de la radiación cósmica. La
nueva partícula, denominada positrón, es la manifestación de una simetría fundamental de
la naturaleza por la cual a toda partícula elemental le corresponde otra partícula idéntica
pero de carga contraria que, por razones puramente técnicas, se denomina antipartícula
(figura 16.8).

Figura 16.8. Electrón y positrón.


Tomado de: http://bit.ly/2ufIdIB

Física conceptual
Capítulo 16: Materia y radiación

16.5 Radiación
Resulta sorprendente comprobar que los procedimientos que utiliza la física para estudiar
la estructura de la materia son, en el fondo, de una gran sencillez. En esencia, consisten
en introducir una sonda lo suficientemente fina en el interior de los cuerpos para dar cuenta
de su estructura. Los descubrimientos de los rayos X y de la radiactividad, ocurridos con 231
poca diferencia de tiempo a finales del siglo XIX, proveyeron a los investigadores con herra-
mientas de las características adecuadas para examinar el interior de átomos y moléculas.
Es muy notable que ambos descubrimientos, el primero realizado por Wilhelm Roentgen
en 1895 y el segundo por Henri Becquerel en 1896, hayan sido realizados en el marco de
investigaciones sobre la fluorescencia, fenómeno que, como ya ha sido mencionado, se
manifiesta de manera notable en tubos de rayos catódicos, como los que hicieron posible
el descubrimiento del electrón.

En primer lugar, Roentgen descubrió que cuando se produce una descarga eléctrica de alto
voltaje en un tubo de rayos catódicos se emite una radiación capaz de atravesar objetos
opacos y de producir la fluorescencia en materiales dispuestos a varios metros de distancia
de la fuente de emisión. Para verificar su descubrimiento, Roentgen expuso la mano de su
esposa a la recién descubierta radiación y registró en una placa fotográfica la imagen de
sus huesos. Se había tomado la primera radiografía (figura 16.9).

Figura 16.9. La primera radiografía.


Tomado de: http://bit.ly/2fwCpqF

Dado el desconocimiento que se tenía del origen de esta misteriosa radiación, se le dio el
nombre de rayos X. Posteriores investigaciones demostraron que se trataba de radiación
electromagnética de una longitud de onda del orden de una diezmillonésima de milímetro,
que corresponde a las dimensiones estimadas para los átomos. Por su descubrimiento,

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 16 : Materia y radiación

Roentgen recibió en 1901 el primer Premio Nobel de Física.

Por su parte, Henri Becquerel (figura 16.10) descubrió la radiactividad mientras trataba
de determinar si la exposición de cierto tipo de material de uranio al Sol era la causa de
su posterior luminiscencia. Becquerel observó que una muestra de mineral de uranio, que
232 había sido guardada en un cajón sobre una placa fotográfica, había impresionado la placa
a pesar de que esta estaba debidamente protegida. Subsecuentes investigaciones en torno
al descubrimiento de Becquerel permitieron identificar tres tipos de radiación con carga
eléctrica positiva, negativa o neutra, que recibieron el nombre de alfa, beta y gamma, res-
pectivamente.

Figura 16.10. Henri Becquerel.

La radiación alfa está compuesta por partículas con el doble de la carga eléctrica que un ion
de hidrógeno y unas cuatro veces su masa. Posteriormente se descubrió que se trataba de
átomos de helio doblemente ionizados. La radiación beta, por su parte, demostró tener el
mismo carácter de los electrones que Thomson había descubierto en los rayos catódicos.
Por último, la radiación gamma es radiación electromagnética de una longitud de onda aún
menor que la de los rayos X y, en consecuencia, con mayor capacidad de penetración en
los medios materiales.

Física conceptual
Capítulo 16: Materia y radiación

Resumen
El establecimiento de la química como una ciencia moderna, más allá de la prác-
tica empírica que la había caracterizado en ápocas anteriores, fue posible gracias
a la suma de los aportes de personajes como Lavoisier, Avogadro y Dalton, pero 233
fue la pila de Volta lo que brindó la capacidad operativa para comprender las re-
acciones químicas como combinación y disociación de los diferentes elementos
mediante la acción de la electricidad. El posterior descubrimiento del electrón, que
es una partícula subatómica, dio paso a la elaboración de modelos cada vez más
comprensivos de la estructura de la materia, que se fue refinando de manera gra-
dual tan pronto fue posible disponer de los rayos X, gamma y beta para sondear el
interior más recóndito de los átomos.

Radiación

Cuestionario
1. ¿Por qué tardó más de un siglo la aceptación del modelo atómico por parte de la
comunidad científica después de que Dalton realizara su propuesta?
2. ¿Por qué se puede decir que la antimateria es materia?
3. Discuta por qué la aceptación del modelo cinético corpuscular implica la acep-
tación de la supuesta existencia de corpúsculos microscópicos e invisibles que
componen la materia.
4. ¿Acaso pierde autoridad la física al renunciar a construir sus teorías exclusiva-
mente con objetos que se puedan ver?
5. ¿Qué significa, en último término, ver?
6. ¿Por qué son útiles como herramientas para conocer la estructura de la materia
los rayos X y las radiaciones emitidas por materiales como el radio, el uranio o el
polonio?
7. ¿A qué se debe que los rayos X puedan atravesar la materia ordinaria, y la luz
visible no?
8. ¿Qué característica de la radiación alfa permite, al igual que los rayos X, estudiar
la estructura de la materia?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 16 : Materia y radiación

9. ¿A partir de qué resultado experimental planteó Rutherford la existencia de un


núcleo atómico?
10. Compare las dimensiones características de un átomo y de un núcleo atómico,
y calcule el porcentaje del volumen de un átomo que se encuentra ocupado por
materia.
234 11. Teniendo en cuenta el resultado de la pregunta anterior, ¿qué se puede decir
sobre la “materialidad” de los objetos que llenan el mundo que nos rodea? 12.
¿Por qué resulta novedosa, e incluso ilógica, la propuesta de Bohr de la existen-
cia de “órbitas permitidas” en el átomo de hidrógeno?
13. ¿Qué relación existe entre la existencia de órbitas permitidas y el carácter discre-
to de los espectros que emiten los diferentes materiales?

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas.
Bloomfield, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia. 

Física conceptual
Capítulo 17 La estructura de la materia

Introducción
Luego del descubrimiento de los electrones, que constituyó un fuerte respaldo a la teoría atómica,
Thomson supuso que las unidades básicas de la materia estaban constituidas por esferas de carga
positiva a las cuales correspondía casi toda la masa del átomo, en las que se encontraban embe-
bidos los electrones en número suficiente para hacer que el átomo fuera eléctricamente neutro. Sin
embargo, este modelo, que fue conocido como el buñuelo con pasas, fue descartado para dar paso
a uno nuevo que incorporaba un importante descubrimiento realizado gracias a la utilización de la
recientemente descubierta radiación alfa en el estudio de la estructura de la materia.

17.1 El núcleo
Durante la realización de una serie de experimentos propuestos por Ernest Rutherford (figura 17.1)
en los que una lámina de oro muy delgada era bombardeada con partículas alfa, se observó, con
gran sorpresa, que algunas pocas partículas experimentaban una fuerte desviación, y que otras,
todavía más pocas, llegaban incluso a rebotar. Luego de analizar la situación, Rutherford llegó a la
conclusión de que casi toda la masa del átomo se encuentra concentrada en una esfera de carga
eléctrica positiva, de dimensiones muy pequeñas comparadas con las del átomo, localizada en su
centro y rodeada por un enjambre de electrones.

El radio del núcleo resultó ser unas cien mil veces menor que el radio atómico, debido a lo cual el
átomo es una estructura prácticamente vacía puesto que casi toda su masa se concentra en una
milmillonésima de millonésima parte del volumen que delimitan las órbitas de sus electrones, que
son las que determinan el tamaño del átomo.

Figura 17.1. Ernest Rutherford.


Capítulo 17: La estructura de la materia

Tomando en cuenta lo anterior, habría que matizar el aforismo de los atomistas griegos
según el cual somos átomos y vacío, advirtiendo que somos más vacío que cualquier otra
cosa.

Posteriores experimentos de bombardeo de átomos pesados con partículas alfa en los


236 que se detectó la presencia de átomos de hidrógeno luego de las colisiones, condujeron a
Rutherford a interpretar tal resultado como el desprendimiento de un pedazo del núcleo que
sería identificado con la partícula que hoy conocemos como protón.

El protón debe su nombre a la idea propuesta por William Prout a principios del siglo XIX
según la cual todos los átomos serían agregados de átomos de hidrógeno, de modo que
este debería ser el elemento proteico o primordial. La propuesta de Prout se sustentaba en
que las relaciones de peso de algunos átomos respecto al hidrógeno eran números enteros,
hasta donde permitía establecer el error experimental de los datos disponibles en la época.
De este modo, si se asigna la unidad a la masa al hidrógeno, la masa del helio sería 4, la
del carbono 12 y la del oxígeno 16. Pero mediciones más detalladas, como la de la masa del
cloro, que resultó ser 35.5, dieron al traste con la idea. La cuestión no habría de resolverse
hasta principios del siglo XX luego del descubrimiento de los isótopos.

Figura 17.2. Modelo clásico de átomo nuclear.

Sin embargo, el modelo de átomo nuclear (figura 17.2) adolecía de serias inconsistencias
teóricas respecto a la estabilidad de los electrones, que no se podía resolver en el marco
de la física clásica. De acuerdo con la electrodinámica de Maxwell, toda carga sujeta a una
fuerza, y que experimente una aceleración, debe radiar energía en forma de ondas electro-
magnéticas, en un proceso denominado radiación de sincrotrón. De hecho, el mecanismo
que se utiliza para emitir una señal de radio desde la antena de una emisora consiste en
someter la antena a una diferencia de potencial oscilante, que genera corrientes eléctricas
que alternan su dirección con la misma frecuencia que el potencial, emitiendo ondas elec-
tromagnéticas. De igual forma, un electrón que gira alrededor de un núcleo bajo la influencia

Física conceptual
Capítulo 17: La estructura de la materia

de la fuerza de Coulomb debería perder su energía cinética y caer al núcleo, cosa que no
sucede, para fortuna nuestra.

17.2 El átomo de Bohr


237
Considerando que la materia tiene un alto grado de estabilidad y que, por tanto, los átomos
no colapsan, tal como podría esperarse de acuerdo con la teoría de Maxwell, en 1913 Niels
Bohr introdujo importantes modificaciones al modelo de Rutherford, la más importante de
las cuales es la existencia de órbitas electrónicas permitidas, esto es, órbitas en las cuales
el electrón puede permanecer sin radiar energía (figura 17.3). De acuerdo con esta teoría,
el electrón solo puede permanecer en aquellas órbitas cuyo momento angular, L, sea un
múltiplo entero de la constante de Planck, h, dividida por 2π, es h barra.

L = nh/2π (17.1)

Energía de órbitas
en aumento
n=3

n=2

n=1

Un fotón es emitido con


energía E = hf

Figura 17.3. Modelo de Bohr del átomo de hidrógeno.

Mediante este sencillo modelo, conformado por un único protón en el núcleo y un electrón
orbitando a su alrededor, Bohr pudo dar cuenta teóricamente del espectro del hidrógeno
con un buen grado de aproximación, basado en el supuesto de que la emisión de radiación
por parte de un átomo es el resultado de la transición de un electrón de una órbita de mayor
energía asociada al número ni a una de menor energía asociada al número nf. Gracias a
esto le fue posible reproducir la expresión matemática que describe la longitud de onda, λ,
de la radiación espectral del átomo de hidrógeno (ecuación 17.2), que había sido estableci-
da de manera empírica por Johan Balmer en el siglo XIX:

1/λ = R[1/(nf2) - 1/(ni2)] (17.2)

donde E es la constante de Rydberg.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 17: La estructura de la materia

De acuerdo con el modelo de Bohr, un electrón que se encuentra en determinada órbita


puede acceder a una órbita superior cuando absorbe un fotón cuya energía sea exacta-
mente igual a la diferencia entre la energía del estado final y la energía del estado inicial del
electrón. Este proceso se conoce como excitación. En el proceso inverso a la excitación,
que se denomina decaimiento, o desexcitación, el electrón emite un fotón cuya energía es
238 igual a la diferencia entre los dos niveles energéticos. De lo anterior se concluye que todo
átomo puede absorber la misma radiación que es capaz de emitir.

El conjunto de todos los fotones que puede emitir un átomo como consecuencia de las
transiciones de los electrones entre órbitas permitidas constituye su espectro, que, por ser
individual y característico de cada átomo, lo identifica de manera inequívoca (figura 17.4).
Durante el siglo XIX la espectroscopía empírica fue un valioso auxiliar de la química analíti-
ca. Luego de contar con el fundamento teórico de la mecánica cuántica, la espectroscopía
hizo aportes todavía mayores para el desarrollo de la química y de todas las ramas de la
física atómica.

410 nm 434 nm 486 nm 656 nm

Figura 17.4. Espectro de emisión del hidrógeno.

Modelos atómicos

17.3 El neutrón
En vista de que el tamaño y las propiedades químicas del átomo dependen de sus electro-
nes orbitales, pero que el número de estos es menor que el número de supuestos protones
necesarios para dar cuenta de la masa atómica, y puesto que en su estado normal el átomo
es eléctricamente neutro, durante algún tiempo se pensó que en el núcleo se encontraba un
cierto número de electrones; sin embargo, una serie de inconsistencias relacionadas con el
momento angular nuclear de algunos átomos, y con la imposibilidad teórica de que los elec-
trones permanecieran en un espacio de dimensiones nucleares, condujo a postular la exis-
tencia de una nueva partícula, de masa semejante a la del protón pero sin carga eléctrica,
que diera cuenta de la masa y la estructura nuclear. Finalmente, en 1932, James Chadwick
descubrió una partícula con las características mencionadas y le dio el nombre de neutrón.

Física conceptual
Capítulo 17: La estructura de la materia

Gracias al neutrón, junto con el protón y el electrón, fue posible reconstruir toda la tabla
periódica en términos de las estructuras que, sujetas a ciertas condiciones de estabilidad,
se pueden conformar con tan solo estos tres tipos de partículas. En consecuencia, resulta
válido suponer que el núcleo está compuesto por un cierto número de protones, que definen
el número atómico y la identidad del átomo, y un cierto número de neutrones, que comple- 239
tan la masa del átomo, en tanto que la reactividad química depende de los electrones.

Gracias al neutrón fue posible resolver la incógnita del aparente valor fraccional de las ma-
sas atómicas de algunos elementos, que no se podía expresar como un número entero de
veces la masa del protón debido a la existencia de los isótopos. El nombre isótopo alude al
hecho de que un mismo elemento, cuya posición en la tabla periódica depende del número
de protones que alberga en el núcleo, puede presentarse con diferentes pesos atómicos
como resultado del diferente número de neutrones que posee, sin que esta situación altere
sus propiedades químicas. Así, el peso atómico del cloro que se encuentra en la naturaleza
es 35.5 unidades de masa atómica, u, que resultan de la presencia de un 75% de cloro de
35 u, 35Cl, y un 25% de cloro de 37 u, 37Cl.

La unidad de masa atómica, u, ha sido definida de tal manera que al isótopo más liviano del
carbono, el 12C, le corresponde una masa de 12 u.

El modelo atómico se completa con un enjambre de electrones, cuyo número es igual al de


los protones para un átomo neutro, distribuidos por capas en diferentes niveles energéticos.
La constitución de las capas electrónicas y del número de electrones que puede albergar
cada una de ellas está determinada por el llamado principio de exclusión de Pauli, que res-
tringe el número de electrones que pueden estar presentes en el mismo nivel de energía, de
acuerdo con los números cuánticos que definen su estado. Así, por ejemplo, la necesidad
de dar cuenta de la presencia de dos electrones en el mismo nivel atómico, tal como sucede
con el átomo de helio en su estado fundamental, exigió la introducción de un nuevo número
cuántico denominado espín, que se asocia al momento angular intrínseco de las partículas.
En el caso de electrones, protones y neutrones, el espín solo puede tomar los valores ћ/2 y
-ћ/2, en tanto que los fotones pueden tener espín ћ y -ћ, donde ћ es la constante de Planck
dividida por 2π.

17.4 Moléculas
Cuando dos átomos se acercan lo suficiente entre sí pueden intercambiar o compartir los
electrones más externos, estableciendo ligaduras que forman estructuras compuestas de-
nominadas moléculas (figura 17.5). Las ligaduras interatómicas que dan lugar a la forma-

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 17: La estructura de la materia

ción de moléculas se caracterizan por la cantidad de energía necesaria para que se reali-
cen, o por la cantidad de energía necesaria para que se rompan, lo cual está directamente
asociado a la estabilidad de las estructuras que se forman.

240

Figura 17.5. Imagen de microscopio electrónico de una molécula de grafeno.

Los agregados de moléculas pueden formar tejidos, y estos, a su vez, órganos, que com-
ponen los organismos en los que se manifiesta ese peculiar estado de la materia que se
denomina vida. La precariedad de las estructuras vivientes está directamente relacionada
con su alto grado de complejidad y con la fragilidad de los enlaces que participan en la
constitución de las moléculas que almacenan el código genético, que son los más débiles
entre todos los que se pueden constituir (figura 17.6).

G T A C
C A T G
ADN

Figura 17.6. Estructura molecular del ADN.

Somos, pues, un agregado precario de protones, neutrones y electrones, pero con con-
ciencia.

17.5 Vida media y estabilidad


Los sistemas físicos más sencillos, como átomos y moléculas, se caracterizan por un pará-
metro denominado vida media, que es un parámetro estadístico relacionado con el periodo
de semidesintegración, o tiempo necesario para que el número de individuos de una po-
blación se reduzca a la mitad, que en el caso del uranio 238 (238U) es de 4 510 000 000 de
años, para los átomos de carbono 14 (14C) es de 5700 años, en tanto que para un protón
es mayor que la edad actual del universo. De igual manera, los compuestos químicos, los
agregados de moléculas y los seres vivos se pueden caracterizar en términos de su estabi-
lidad relativa o de su promedio de vida.

La pregunta que surge es: ¿qué determina la estabilidad de un sistema físico, cualquiera

Física conceptual
Capítulo 17: La estructura de la materia

sea su dimensión y manifestación? Sin duda, se trata de una pregunta ambiciosa que no
admite una respuesta sencilla, pero gracias al estudio de las interacciones fundamentales
se pueden obtener claves para elaborar una respuesta coherente.

En términos estructurales, los seres vivos somos agregados de átomos que conforman
moléculas, de las cuales se forman tejidos y órganos, que dan lugar a sistemas relativa- 241
mente estables que interaccionan con el entorno y participan en ciclos permanentes de
crecimiento, reproducción y decadencia. Una de las características más notables de estos
ciclos es el cambio de las formas y la persistencia de la materia. Pero no es la cantidad de
materia lo único que permanece constante a través de los cambios. Un examen minucioso
de los procesos físicos revela la existencia de magnitudes como la carga, el momentum y la
energía que, además de la materia, satisfacen leyes de conservación de validez universal,
en las cuales se fundamentan los modelos y las teorías que hacen posible el análisis de los
fenómenos naturales.

En su inmensa mayoría, los fenómenos que se aprecian a nuestro alrededor son manifes-
taciones de la interacción electromagnética, en los que la extraordinaria movilidad e inter-
cambiabilidad de dos partículas elementales, el electrón y el fotón, dan cuenta de casi todos
los procesos. La vida es una manifestación de una continua reconversión molecular, que
se sustenta en la estabilidad de los átomos y en su capacidad de realizar un permanente
intercambio de electrones, a la vez que absorben y liberan energía en forma de fotones.

17.6 Interacciones nucleares fuerte y débil


La eficacia con la que la teoría electromagnética y la mecánica cuántica explican los espec-
tros energéticos y el comportamiento de átomos y moléculas, contrasta con su incapacidad
para dar cuenta de la estructura nuclear, y para explicar la estabilidad de los átomos de
larga vida y la inestabilidad de los materiales radiactivos.

Desde el momento de su descubrimiento el núcleo atómico planteó serios interrogantes


sobre las condiciones de su estabilidad. Un cálculo sencillo muestra que la energía asocia-
da a la repulsión de una pareja de protones en el núcleo es de cientos de miles de veces
mayor que la energía necesaria para retener un electrón en el átomo, ante lo cual surge la
pregunta sobre el tipo de fuerza capaz de vencer la repulsión eléctrica y responder por la
estabilidad nuclear, evitando que los protones salgan disparados en todas las direcciones.

En algún momento, cuando solo se conocían el electrón y el protón, se pensó que los elec-
trones podrían servir de ligadura entre los protones, de manera similar al enlace que existe
entre los dos átomos que forman la molécula de hidrógeno ionizado, H2+, pero diversas con-

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 17: La estructura de la materia

sideraciones teóricas y evidencias experimentales coincidieron en descartar la presencia


de electrones en el núcleo.

De acuerdo con el principio de incertidumbre, piedra angular de la mecánica cuántica, una


partícula tan liviana como el electrón no puede permanecer confinada en un espacio de las
242 dimensiones del núcleo, pues la incertidumbre en el valor de su energía sería mucho mayor
que la que se mide experimentalmente en los electrones emitidos en el decaimiento beta,
de donde se concluye que estos electrones no residían en el núcleo antes de ser emitidos,
sino que aparecieron en ese mismo instante. En contraste con la “levedad” del electrón,
solo partículas como el protón o el neutrón son lo suficientemente pesadas para permane-
cer confinadas en el núcleo.

Una vez descartado el electrón como supuesto pegamento de los protones nucleares, fue
necesario proponer la existencia de algún tipo de fuerza de mayor intensidad que la fuerza
de Coulomb, que, además, pudiera actuar sobre una partícula sin carga eléctrica como el
neutrón, y fue así como apareció en escena la denominada fuerza nuclear fuerte, por ser
de mayor intensidad que la fuerza electromagnética, y para distinguirla de la otra interac-
ción nuclear que se denomina fuerza, o interacción, débil, responsable de los decaimientos
radiactivos.

Resumen
Gracias a la posibilidad de disponer de las sondas finas que aportó el descubri-
miento de la radiactividad para el estudio de la estructura de la materia se fue
configurando una nueva visión del mundo atómico y de sus componentes subató-
micos mediante la introducción de sorprendentes y novedosas propuestas respec-
to al comportamiento de los sistemas físicos más elementales, lo cual condujo a
nuevos descubrimientos y a la postulación de interacciones hasta entonces des-
conocidas, que dan cuenta de la estabilidad y de la inestabilidad de la materia y de
sus estructuras fundamentales.

Potencia nuclear La estructura de la materia

Física conceptual
Capítulo 17: La estructura de la materia

Cuestionario
1. ¿Por qué fracasó la propuesta de Prout de considerar que todos los átomos son
agregados del hidrógeno, que es el átomo más liviano?
2. El descubrimiento del núcleo atómico fue un gran avance en el conocimiento de 243
la estructura del átomo, pero también supuso renunciar a la teoría electromag-
nética para explicar la estabilidad del sistema. ¿Significa lo anterior que la teoría
de Maxwell es incorrecta?
3. ¿Qué porcentaje de la masa de un átomo corresponde a sus partículas de carga
negativa?
4. ¿Por qué fue necesario suponer ad hoc la existencia de las supuestas órbitas
permitidas? (¿qué quiere decir ad hoc?).
5. ¿Por qué resulta novedosa, e, incluso, ilógica la propuesta de Bohr de la existen-
cia de “órbitas permitidas” en el átomo de hidrógeno?
6. ¿Qué relación existe entre la existencia de órbitas permitidas y el carácter discre-
to de los espectros que emiten los diferentes materiales?
7. ¿Qué es espectroscopía empírica?
8. ¿Por qué se puede estar seguro de que no hay dos átomos de elementos dife-
rentes que tengan el mismo espectro?
9. ¿Cuántas partículas elementales son necesarias para conformar un ser huma-
no?
10. ¿Cuál es el mínimo número de átomos que se necesitan para conformar una
estructura molecular que se pueda considerar viva?
11. ¿Cuál es la interacción física que juega un papel más preponderante en la exis-
tencia de la vida?
12. ¿Qué papel juegan las demás interacciones en la existencia de la vida?
13. ¿Por qué no es posible que un electrón permanezca en el núcleo de un átomo
durante suficiente tiempo como para hacer parte de su estructura?
14. ¿Por qué fue necesario postular la interacción nuclear fuerte?
15. Compare la energía de interacción de un núcleo con un electrón, y del mismo
núcleo con un protón, para hacerse a una idea de la magnitud de la energía de
la interacción fuerte.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 17: La estructura de la materia

Bibliografía
Arons, A. (1970). Evolución de los conceptos de la física. Trillas. 
Bloomfield, L. A. (2015). How things work. Wiley.
Dampier, W. C. (1971). Historia de la ciencia. Cambridge Press.
244 Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.  
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jeans, J. (1968). Historia de la física. FCE.
Sepúlveda, A. (2012). Los conceptos de la física. Evolución histórica. Universidad de
Antioquia.

Física conceptual
Capítulo 18 Partículas

Introducción
De acuerdo con la ecuación elaborada por Paul Dirac en 1928 para dar cuenta del comportamiento
del electrón según los principios de la mecánica cuántica y la teoría de la relatividad, existe una
simetría fundamental de la naturaleza que se manifiesta en los procesos de creación y aniquilación
de partículas elementales, y sugiere la existencia de una forma de la materia compuesta exclu-
sivamente de antipartículas denominada antimateria. Sin embargo, es conveniente anotar que la
“antimateria” es tan materia como la materia ordinaria, puesto que está sujeta a las mismas leyes
físicas. En 1932, mientras realizaba estudios sobre la radiación cósmica, el físico Carl Anderson
verificó la existencia de la antipartícula del electrón predicha por la ecuación de Dirac. La nueva
partícula recibió el nombre de positrón.

18.1 Materia y energía


Los procesos de creación y aniquilación de partículas y antipartículas (figura 18.1) permiten verificar
la relación de equivalencia de entre masa y energía, E = mc2, que se obtiene a partir de los postu-
lados de la teoría de la relatividad. En consecuencia, se puede decir que una condición necesaria,
aunque no suficiente, para crear una partícula elemental es disponer de la cantidad de energía
correspondiente al doble de la masa de la partícula en cuestión, multiplicada por la velocidad de la
luz al cuadrado, puesto que al calcular la energía requerida para el proceso hay que tener en cuenta
que las partículas solo se crean en parejas o en cascadas.

Figura 18.1. Creación de partículas elementales en colisiones de altas energías.


Tomado de: http://bit.ly/2sYKybu
Capítulo 18 : Partículas

En correspondencia con la creación de pares de partículas también existe la posibilidad


de su aniquilación. Cuando una partícula y su respectiva antipartícula chocan se aniquilan
mutuamente y la energía asociada a sus masas se manifiesta en la emisión de un par de
fotones de rayos gamma.
246
En el discurso de aceptación del Premio Nobel, en 1933, Paul Dirac predijo la existencia del
antiprotón, que habría de ser descubierto por Emilio Segrè y Owen Chamberlain en 1955.
Un año más tarde se descubrió el antineutrón.

18.2 Neutrinos y antineutrinos


Como ya se ha mencionado, en el decaimiento de ciertos materiales radiactivos se pueden
emitir tres tipos de radiación denominados alfa, beta y gamma. En particular, la radiación
beta corresponde a la emisión de electrones por parte de un núcleo que sufre una trans-
mutación que lo desplaza una posición a la derecha en la tabla periódica. Detalladas ob-
servaciones experimentales revelaron que cuando el cesio 137, 137Cs, que tiene una masa
atómica de 137 y un número atómico de 55, emite un electrón, se convierte en bario, 137Ba,
que tiene número atómico 56 y la misma masa que el cesio 137.

Pero el análisis riguroso del decaimiento beta reveló una aparente violación de la conserva-
ción de la energía y del momento angular, lo que llevó a Wolfgang Pauli en 1930 a plantear
la existencia de una partícula inobservada hasta entonces, que diera cuenta de las diferen-
cias de masa, energía y momento angular observadas en el proceso. La partícula hipotética
debía tener una masa mucho menor que la masa del protón y carga eléctrica nula, por cuya
razón interactúa muy débilmente con la materia. Inicialmente Pauli la llamó neutrón, pero en
vista de que un par de años más tarde Chadwick le asignó el nombre de neutrón al nucleón
que junto con el protón participa en la conformación del núcleo, Enrico Fermi bautizó a la
nueva partícula con el nombre de neutrino, aunque, en estricto sentido, la partícula hipotéti-
ca que participa en el decaimiento beta no es un neutrino sino un antineutrino. Sin embargo,
existe otro decaimiento radiactivo denominado beta positivo en el que el núcleo emite un
positrón, la antipartícula del electrón predicha por la ecuación de Dirac, acompañado por la
emisión de un neutrino.

En 1956 Clyde Cowan y Frederick Reines encontraron evidencia experimental de la exis-


tencia de los neutrinos electrónicos, por lo cual Cowan recibió el Premio Nobel de Física
en 1995.

La aniquilación de los positrones emitidos por el decaimiento beta positivo con los electro-

Física conceptual
Capítulo 18: Partículas

nes que rodean el núcleo radiactivo tiene una aplicación práctica de gran valor en medicina
nuclear que se denomina tomografía por aniquilación de positrones y electrones, o PET, por
su sigla en inglés (figura 18.2).

FDG
OH 247
O
HO
HO
18
F
OH

Figura 18.2. Tomógrafo de aniquilación de positrones.


Tomado de: http://bit.ly/2sfumpn

18.3 Mesones
El estudio de la interacción electromagnética en el marco de la mecánica cuántica dio lugar
a la teoría cuántica de los campos. En el marco de esta teoría la interacción entre dos par-
tículas eléctricamente cargadas se concibe como un intercambio de fotones, que cumplen
el papel de mediadores de la interacción. De manera análoga, el análisis cuántico de la
fuerza nuclear sugiere la existencia de algún tipo de partícula mediadora en la interacción
fuerte entre los nucleones. Acorde con esta línea de pensamiento, en 1935 el físico japonés
Hideki Yukawa predijo la existencia de una partícula de carga eléctrica nula, mediadora de
la interacción fuerte, y estimó que debía tener una masa unas 200 veces mayor que la del
electrón.

Cuando en 1937 el estudio de la radiación cósmica en las capas superiores de la atmósfera


reveló la existencia de una partícula con una masa similar a la anticipada por Yukawa se
creyó haber descubierto la partícula predicha por el físico japonés y se le dio el nombre
de mesón μ, o mu, pero pronto se descubrió que el muon no es un mesón, o mediador
de la fuerza nuclear fuerte, sino una especie de electrón pesado que no participa en las
interacciones nucleares. Algunos años más tarde, nuevas investigaciones sobre la radia-
ción cósmica revelaron la existencia de una nueva familia de partículas, los piones, cuyas
características corresponden a las de las partículas predichas por Yukawa.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 18 : Partículas

18.4 El modelo estándar


En respuesta a la pregunta ¿qué somos?, la física nos ofrece el modelo de partículas ele-
mentales. Y aunque no se responda por completo la cuestión planteada, ayuda saber de
qué estamos hechos. Como ya se ha dicho, primero se conoció el electrón, el más ligero
248 de los componentes del átomo, y luego del descubrimiento de la estructura nuclear del
átomo surgieron el protón y el neutrón. La atenta observación de los efectos de la radiación
cósmica nos regaló el muón, y, poco después, aparecieron en escena familias enteras de
nuevas partículas, en lo que parecía ser una sucesión indefinida de partículas elementales
que llegaron a contarse por decenas, puesto que, luego del descubrimiento de los muones,
se descubrieron los piones y los kaones, que, al igual que los anteriores, se manifiestan
como consecuencia del impacto aleatorio de partículas de alta energía provenientes de la
radiación cósmica con núcleos de átomos presentes en la atmósfera.

La radiación cósmica está compuesta por partículas, principalmente protones, que viajan
a velocidades cercanas a la de la luz. Aunque su origen es incierto, es muy probable que
esta radiación se genere en eventos astronómicos cataclísmicos, como la explosión de las
supernovas. Eventos menos dramáticos como las tormentas solares también generan cho-
rros de partículas que al llegar a la Tierra se manifiestan en fenómenos tan espectaculares
como las auroras boreales y australes (figura 18.3).

Figura 18.3. Aurora boreal vista desde el espacio exterior.


Tomado de: http://bit.ly/2iki3Tu

Cuando una partícula de alta energía, como las que componen la radiación cósmica, choca
con el núcleo de un átomo su energía se manifiesta en la aparición de un sinnúmero de
nuevas partículas cuya presencia puede ser detectada gracias a los trazos que dejan sus
trayectorias en sistemas especialmente diseñados para este fin, como el material de los
balones meteorológicos, las cámaras de niebla y las cámaras de burbujas (figura 18.4).

Física conceptual
Capítulo 18: Partículas

249

Figura 18.4. Trazas de partículas en una cámara de burbujas.


Tomado de: http://bit.ly/2tlN1je

La comprensión de los procesos en los que intervienen partículas elementales experimentó


un notable avance gracias a los aceleradores de partículas, también llamados desintegra-
dores de átomos, que son dispositivos diseñados para estudiar en el laboratorio, y bajo
condiciones controladas, colisiones de alta energía entre partículas elementales.

Independientemente del grado de complejidad técnica que involucra la construcción y el


manejo de los aceleradores de partículas, el principio en el que se fundamenta su funcio-
namiento es bastante sencillo, y consiste en disparar proyectiles que han sido acelerados a
velocidades cercanas a la de la luz, contra un blanco predeterminado, para observar lo que
ocurre después del impacto.

La capacidad de penetración de la radiación en las estructuras microscópicas depende


de su longitud de onda. Los rayos X pueden atravesar materiales que son opacos para la
luz visible porque su longitud de onda es del mismo orden de magnitud de la separación
entre átomos. De igual manera, debido a sus características ondulatorias, a las partículas
elementales de alta energía se asocian longitudes de onda tan pequeñas que les permiten
examinar, incluso, en el interior de otras partículas. Por esta razón, los investigadores aspi-
ran a disponer de aceleradores de la mayor potencia posible para poder sondear a mayor
profundidad en el interior de la materia.

El resultado a corto plazo del uso de los aceleradores fue el descubrimiento de un des-
proporcionado número de nuevas partículas, supuestamente elementales, cuya cantidad
amenazaba con agotar el alfabeto griego para su denominación, hasta el punto en que
alguien comentó, jocosamente, que si en el pasado se le otorgaba el Premio Nobel a quien
descubriera una nueva partícula elemental, ahora se le debería poner una multa.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 18 : Partículas

18.5 Quarks
La proliferación de partículas elementales (figura 18.5) va en contravía con el ideal de sen-
cillez y simplicidad que sirve de guía a la física para la elaboración de teorías y modelos
que den cuenta de los fenómenos de la naturaleza. Por fortuna, un nuevo descubrimiento,
250 esta vez debido al bombardeo de núcleos atómicos con electrones de alta energía, en un
proceso denominado dispersión inelástica profunda, dejó entrever la posibilidad de que los
nucleones, es decir, protones y neutrones, no fueran partículas elementales y que, por el
contrario, estuvieran constituidos por unas partículas aún más fundamentales que recibie-
ron el pintoresco nombre de quarks.

Figura 18.5. Detector de partículas elementales del CERN.


Tomado de: http://bit.ly/2tikrPx

Según la teoría de los quarks, propuesta inicialmente por Murray Gell-Mann y George
Zweig en 1964, los nucleones están compuestos por dos tipos de partículas elementales,
los quarks U y D. A diferencia de las partículas conocidas hasta entonces, cuyas cargas
eléctricas eran nula, igual o contraria a –e, la carga eléctrica del electrón, las nuevas partí-
culas poseen carga eléctrica (2/3)e para el quark U y –(1/3)e para el quark D. De acuerdo
con este esquema el protón estaría compuesto por dos quarks U y un D, y el neutrón por un
U y dos D. De manera correspondiente, el antiprotón está compuesto por dos anti-U y un
anti-D, y el antineutrón por un anti-U y dos anti-D. Por su parte, los piones, mediadores de
la interacción entre nucleones, se componen de parejas quark-antiquark de U y D.

Muy pronto se vio la necesidad de introducir un tercer quark, el S, para dar cuenta de la
estructura y del extraño comportamiento del tiempo de vida media de los mesones k, o
kaones. Adicionalmente, Sheldon Glashow propuso un cuarto quark, el C, con el fin de

Física conceptual
Capítulo 18: Partículas

resolver conflictos internos en la estructura matemática de la teoría. En 1974 dos equi-


pos independientes liderados por Samuel Ting y Burton Richter descubrieron una nueva
partícula, compuesta por una pareja de quarks S y anti-S, que recibió el nombre de J/y El
descubrimiento de J/y constituye una evidencia de gran peso a favor del modelo de quarks,
tal como en su momento lo fue para el modelo atómico el cálculo de Perrin del número de
Avogadro y del tamaño de los átomos. 251

18.6 Gluones
La pareja de quarks U y D, junto con el electrón, e, y el neutrino electrónico, n0, pertenecen
a una generación de partículas que dan cuenta de la materia de la que estamos formados,
y de la mayor parte de los procesos que percibimos a nuestro alrededor. Esto respondería,
en alguna medida, la pregunta respecto a qué somos.

La segunda generación de partículas elementales está formada por la pareja de quarks S


y C junto con el muon, m, y el neutrino muónico, nm, y explica una serie de procesos poco
frecuentes y de muy corta duración (figura 18.6).

Figura 18.6. Detector de neutrinos.


Tomado de: http://bit.ly/2seZqpi

El modelo de quarks se completa con una última pareja de quarks superpesados, el T y el B,


cuyas masas son miles de veces mayores que las U y D. A su vez, T y B, junto con la versión
superpesada del electrón, el tauón, t, y su correspondiente neutrino tauónico, nt, conforman
la tercera generación de partículas elementales que completan el modelo estándar.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 18 : Partículas

Con el fin de explicar la interacción entre quarks que hace posible la existencia de estruc-
turas relativamente estables como protones, neutrones y mesones, es necesario introducir
una nueva fuerza que recibe el nombre de color. Como es de esperarse, el color de los
quarks no tiene nada que ver con la acepción corriente de la palabra, excepto porque la
combinación de tres colores, rojo, verde y azul, produce una tonalidad neutra que se deno-
252 mina blanco. Por una peculiaridad del modelo, todas las estructuras compuestas de quarks
deben ser blancas, es decir, no manifiestan un color dominante, lo cual se logra haciendo
que cada uno de los tres quarks que componen un nucleón tenga un color diferente al de
los otros dos. En el caso de las partículas formadas por dos quarks, como los mesones, el
color de cada quark es el complementario del color del otro. En la jerga de las partículas
elementales se dice que la suma de un color y su respectivo anticolor da blanco.

Una notable característica del modelo de quarks es que la fuerza que los une, a diferencia
de las demás fuerzas de la naturaleza, aumenta con la distancia, lo que explica la imposibi-
lidad de observar quarks aislados.

La estabilidad de estructuras compuestas de quarks, como los nucleones, es debida al in-


tercambio de ocho partículas llamadas gluones, que sirven de mediadoras de la interacción
nuclear fuerte, de manera análoga a como el intercambio de fotones entre cargas eléctricas
da cuenta de la interacción electromagnética, con una notable diferencia: los gluones están
cargados de color, la carga responsable de la interacción en la que participan, en tanto que
los fotones son neutros. La interacción entre nucleones que da cuenta de la estabilidad del
núcleo se explica como una fuerza residual, o una interacción entre quarks de nucleones
vecinos.

No debe sorprendernos, entonces, que el área de la física que estudia las interacciones
entre los quarks reciba el colorido nombre de cromodinámica cuántica.

18.7 Interacción débil


La interacción débil, responsable del decaimiento radiactivo de los nucleones, y, en conse-
cuencia, de los núcleos, demanda la existencia de tres partículas mediadoras denominadas
W+, W− y Z0, de acuerdo con los modelos propuestos de manera independiente por Steven
Weinberg, Sheldon Glashow y Abdus Salam en la década de 1960. La existencia de estas
partículas fue verificada experimentalmente en el CERN por Carlo Rubbia y Simon van der
Meer en 1983.

El cuadro de partículas que hacen parte del modelo estándar se completa con una última
partícula predicha por la teoría, el bosón de Higgs, descubierto recientemente en el LHC
del CERN, el acelerador de partículas de mayor energía construido hasta el momento. El

Física conceptual
Capítulo 18: Partículas

campo de Higgs, asociado a la existencia del bosón de Higgs, sería el responsable de la


masa de las partículas elementales.

Y, finalmente, ¿cuántas partículas estrictamente elementales, de cuya existencia se posee


evidencia experimental, se puede decir que hay? ¿60? ¿61?
253
Sin importar cuál sea el número, su desmesurada magnitud es una buena razón para su-
poner que, a pesar de lo eficaz que pueda ser el modelo estándar de las partículas ele-
mentales, no es más que una propuesta provisional en espera de un modelo más sencillo,
elegante y comprensivo, en el que, además, la interacción gravitacional, la gran ausente del
esquema, tenga la representación que corresponde a su importancia cosmológica.

18.8 Qué es, y cómo es, una partícula elemental


De acuerdo con lo anterior se podría decir que una partícula elemental es la entidad física
más sencilla posible, que permite formular una teoría coherente, predictiva y comprensiva
de los procesos a los que está asociada, procesos en los que debe ser posible determinar
magnitudes físicas como la masa, la carga, el espín, el color, el sabor, la familia, la gene-
ración y cualquier otra entidad que resulte necesaria para tener una visión completa de los
fenómenos sujetos a escrutinio. Tal vez no sea imposible, pero seguramente sería muy
difícil elaborar una teoría electromagnética sin contar con el fotón y el electrón.

¿Y cómo es una partícula elemental? Se podría decir que la impertinencia de la pregunta no


es más que una proyección de nuestros prejuicios. Estamos tan acostumbrados a conocer y
reconocer los objetos por sus formas, que no podemos dejar de pensar que una entidad tan
abstracta, pero que produce efectos tan concretos, como una partícula elemental, también
debe estar sujeta a este tipo de descripción. Llegado el caso de forzar una descripción clási-
ca de las partículas elementales se puede pensar en partículas puntuales, que son ficciones
muy útiles cuando se trata de calcular la interacción de cuerpos masivos y distantes, como
el Sol y los planetas, pero que resultan conflictivas cuando se calcula la densidad que le
correspondería a un cuerpo de tales características. El infinito nos persigue.

De igual manera, asignarle volumen y forma esférica a una partícula, para dar cuenta de
magnitudes como el espín como un efecto debido a la rotación de la partícula, conduce a
contradicciones con los presupuestos básicos de la teoría de la relatividad y de la mecánica
cuántica.

En conclusión, el modelo de bolitas que chocan con bolitas o que giran alrededor de otras
bolitas de mayor tamaño no es más que un rezago de nuestra primera aproximación, clási-
ca, macroscópica y gráfica, al mundo que nos rodea.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 18 : Partículas

18.9 El problema de la masa


En vista de la gran dificultad que representa hacer modelos de las partículas elementales
con volumen, forma y tamaño, resulta más factible aproximarse a la comprensión de las
254 partículas elementales mediante la determinación de características físicas, asociadas a
magnitudes que se puedan medir. En este sentido, entendida como la condición por la cual
un cuerpo permanece en su estado de movimiento uniforme y rectilíneo, o de rotación, en
ausencia de fuerzas, la inercia permite que se les asigne a las partículas elementales una
propiedad física que se denomina masa.

De acuerdo con la mecánica de Newton, la acción de una fuerza sobre un cuerpo se ma-
nifiesta en la aceleración que experimenta el cuerpo sobre el cual actúa. La masa queda
determinada por la relación entre la fuerza aplicada y la aceleración resultante. En con-
secuencia, el concepto de masa se aplica, de manera exclusiva, a cuerpos que pueden
estar sujetos a fuerzas y, por tanto, experimentar aceleraciones, por lo que los fotones y los
gluones quedan excluidos de esta caracterización.

En el caso de las partículas elementales, no es posible determinar la masa partir de una


aceleración, por limitaciones prácticas. Además, es necesario tener en cuenta las restric-
ciones que impone el principio de incertidumbre para este tipo de medición. En su lugar
podemos utilizar la relación relativista de equivalencia entre masa y energía, E = mc2, y la
simetría develada por la ecuación de Dirac que se manifiesta en los procesos de creación y
aniquilación de pares de partículas.

Según lo anterior, podemos decir que la masa de un electrón es la mitad de la energía nece-
saria para crear una pareja electrón-positrón, dividida por la velocidad de la luz al cuadrado.
Algo similar se puede decir de todas partículas consideradas elementales, e, incluso, de
algunas estructuras más complejas como el protón y el neutrón.

Una característica esencial de las partículas y, en general, de los cuerpos con masa, es que
existe por lo menos un sistema de referencia en el que el cuerpo se encuentra en reposo.
De nuevo, fotones y gluones, que siempre están viajando a la velocidad de la luz, quedan
excluidos.

Pero, independientemente de si se les puede, o no, asignar masa, todas las partículas
contribuyen a la inercia del sistema al que pertenecen por el hecho de tener momento y
energía.

De acuerdo con lo anterior, la inercia, el concepto más fundamental de la física, intuido por

Física conceptual
Capítulo 18: Partículas

Galileo y formulado con precisión por Newton, es la característica más universal que com-
parten las partículas elementales.

Resumen
255
Las sorprendentes predicciones que surgen de las teorías que aspiran a dar cuen-
ta del comportamiento de la materia al nivel más fundamental se ven, con fre-
cuencia, refrendadas por la experimentación, una vez que la tecnología alcanza
los parámetros de potencia y precisión exigidos por la situación. De esta manera,
la insuperable hazaña de reducir los más de cien elementos de la tabla periódica
a diversas configuraciones de tan solo tres partículas elementales, lograda por la
física teórica a principios del siglo XX, busca ser repetida en el caso de las más
de sesenta partículas que, hasta el momento, hacen parte del Modelo Estándar.

Partículas de luz

Cuestionario
1. ¿Dónde se encontraban antes del impacto las partículas que surgen luego de la
colisión de una partícula de alta energía con núcleos de átomos de la atmósfera
terrestre?
2. Se entiende que los rayos X pueden atravesar la materia debido a su corta longi-
tud de onda, pero ¿por qué la luz, que tiene una longitud de onda mucho mayor,
puede atravesar un cristal?
3. ¿Por qué resulta inconveniente la aparición de un alto número de partículas ele-
mentales?
4. ¿Por qué se puede comparar el descubrimiento de la partícula J/y con el cálculo
de Perrin del número de Avogadro?
5. Compare la masa de un protón con las de sus quarks componentes. ¿Cómo se
puede explicar la diferencia de los valores encontrados?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 18 : Partículas

6. Puesto que en la interacción fuerte el color que predomina es el blanco, ¿qué


sentido tiene asignarles a los quarks una propiedad física como el color que, por
principio, no se puede observar directamente?
7. ¿No resulta contradictorio que, a pesar de que las partículas elementales fueron
concebidas para dar cuenta del mundo que nos rodea, sea imposible asignarles
256 algunas de las características más notables de los objetos corrientes, tales como
forma y tamaño?
8. ¿Existe alguna diferencia entre la masa de un cuerpo cuando es medida por
efectos inerciales o por efectos gravitacionales?
9. Si la respuesta a la anterior pregunta es negativa, ¿significa esto que existe una
relación fundamental entre inercia y gravitación?
10. ¿Decir que la masa de una partícula elemental es igual a la energía que se libera-
ría en la aniquilación de la misma, dividida por la velocidad de la luz al cuadrado,
no es una forma de desviar la discusión de qué es la masa al problema de qué
es la energía?
11. Si los fotones carecen de masa, ¿por qué es posible decir que una esfera hueca
llena de fotones tiene mayor masa que la misma esfera vacía?

Bibliografía
Baggot, J. Quantum story (2011). Kindle eBook.
Einstein, A. e Infeld, L. (1965). La física, aventura del pensamiento. Losada.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Jayawardanha, R. (2013). The neutrino hunters. Kindle Edition.
Jeans, J. (1968). Historia de la física. FCE.
Lederman, L. (2004). Symmetry. Prometheus Books.
Randall, L. (2012). Higgs discovery. Kindle eBook.

Física conceptual
Capítulo 19 Comunicaciones

Introducción
La necesidad de las personas de comunicarse y la posibilidad de hacerlo mediante la elaboración de
códigos y el establecimiento de medios y canales de comunicación ha sido, a través de la historia,
una característica definitoria de la humanidad, que en los tiempos de la Revolución Industrial cobró
un auge inusitado y no solo sacó provecho de los desarrollos tecnológicos del momento, sino que
impulsó de manera significativa su evolución, tal como se puede apreciar en el caso del telégrafo y
del ferrocarril, dos innovaciones tecnológicas que, de manera literal, entrelazaron el mundo siguien-
do caminos paralelos.

19.1 Señales a distancia


El elemento fundamental de toda comunicación a una distancia a la que la voz o la percepción vi-
sual del interlocutor dejan de ser efectivas, es la transmisión de señales de más largo alcance. Una
señal de este tipo puede ser algo tan variado como el golpe de un objeto pesado en el tronco de un
árbol o en el cuero de un tambor, el sonido grave que se produce al soplar el cuerno de un animal o
las volutas de humo que emanan de una fogata debidamente manipulada. Pero, aunque todos los
anteriores ejemplos tienen un alcance de tan solo algunas decenas de cientos de metros, no dejan
de ser señales a distancia, es decir, “tele-grafos”. La anterior situación habría de sufrir un cambio
radical en las primeras décadas del siglo XIX gracias a los notables avances logrados en el conoci-
miento de los fenómenos electromagnéticos y a la invención de la pila de Volta, que se tradujeron,
inicialmente, en la invención del telégrafo y, más adelante, en la radiocomunicación.

El elemento central del telégrafo (figura 19.1) es el electroimán, consistente en un núcleo de hierro
rodeado por un embobinado de alambre, que se convierte en un imán cuando circula una corriente
eléctrica, dando la posibilidad de activar algún tipo de dispositivo mecánico, como un yunque que
genera una señal audible al golpear una campana. El timbre que anuncia la presencia de una per-
sona en la puerta de la casa es un ejemplo práctico del uso del telégrafo. Pero, para tener verdadera
utilidad como medio de comunicación, un telégrafo necesita algo más que dar golpes en una cam-
pana, pues es preciso que el golpeteo que indica la presencia de un emisor al otro extremo de la
línea posea una determinada secuencia en la cual sea posible leer un mensaje, es decir, un código.
De los muchos que se ensayaron en los inicios de la telegrafía, el de Samuel Morse resultó ser el de
mayor aceptación por sus características de sencillez y eficiencia. El código Morse consiste en una
secuencia de pulsos de diferente duración denominados puntos y rayas, (. , _), que permite asignar
a cada letra del alfabeto una única representación, de tal manera que cualquier palabra se puede
Capítulo 19: Comunicaciones

representar por la secuencia ordenada de las series de puntos y rayas asignadas a las
letras que la componen. Como un ejemplo de lo anterior se puede mencionar que la señal
internacional de auxilio, S. O. S., en código Morse es (… _ _ _ …).

258

Figura 19.1. El telégrafo.


Tomado de: http://bit.ly/2tio9sl

Una vez reconocido el gran potencial del telégrafo como medio de comunicación, fue nece-
sario asumir el reto de extender tanto como fuera posible el alcance de sus señales, lo cual
significó superar una serie de dificultades técnicas que demandaron y propiciaron nuevos
desarrollos tecnológicos y un mayor conocimiento de los fenómenos electromagnéticos.

Con el fin de extender su alcance más allá y de manera más eficiente que el de los medios
convencionales de transmisión de información, tales como el correo a caballos, o los men-
sajes enviados mediante semáforos de banderas, el telégrafo debió resolver el problema
de la caída de la intensidad de la señal asociada al aumento de la resistencia eléctrica del
medio de transmisión, que depende de la longitud y del calibre del cable por el que circula la
señal, llegando al punto en que más allá de cierta distancia el sistema resultaba inoperante.
Uno de los recursos a los que se acudió de manera inicial fue al uso de fuentes de energía
de mayor potencia, lo cual, en muchos casos, generaba el recalentamiento y la posterior
ruptura del cable, tal como sucedió con el primer cable submarino que se instaló en el fondo
del océano Atlántico a mediados del siglo XIX para conectar a Inglaterra con Norteamérica,
uno de los más ambiciosos y costosos proyectos de innovación tecnológica de su época.
Los comerciantes que arriesgaron grandes sumas de dinero en la realización de esta em-
presa esperaban recuperar rápidamente su inversión gracias a las ventajas comerciales
que significaba tener información del arribo de sus barcos y mercancías a puerto seguro en
cuestión de horas, y no de semanas o de meses. Por esta razón, luego del fracaso inicial,
la empresa se reinició contando con la colaboración de algunos de los científicos más des-
tacados de la época, como William Thomson, quien más tarde sería conocido como Lord
Kelvin.

Física conceptual
Capítulo 19: Comunicaciones

19.2 El relé
En vista de que el aumento de la potencia de la fuente de alimentación del circuito a través
del cual se envía la señal telegráfica no siempre es una solución adecuada al problema del
decaimiento de la intensidad de la señal, se diseñó un ingenioso mecanismo de amplifica-
ción cuyo elemento central estaba constituido por un interruptor electromecánico llamado 259
relé (relay), o relevo, consistente en un obturador accionado por un electroimán, que per-
mite, o impide, el paso de una corriente eléctrica de mucha mayor intensidad que aquella
que determina su funcionamiento (figura 19.2). De esta manera la señal que llega al relé
es amplificada y puede continuar su camino a través de una serie de amplificadores hasta
llegar a su destino.

Figura 19.2. Relé.

Se puede establecer una analogía entre el reboso de un líquido en un recipiente y la am-


plificación de una señal (figua 19.3). Cuando el agua que llena un vaso supera la altura
del borde superior, por efecto de la tensión superficial puede mantenerse en un precario
equilibrio que se rompe con la caída de una nueva gota, generando un derrame de un vo-
lumen del líquido muy superior al de la gota que lo provocó, de tal modo que si la caída de
una gota a un vaso lleno de agua puede pasar desapercibida, el derrame de una cantidad
considerable de seguro no lo será. De igual manera, si la intensidad de una señal eléctrica
es tan débil que apenas se puede percibir, es posible generar una señal de mucha mayor
intensidad que la original mediante el efecto amplificador del dispositivo basado en el relé.

Figura 19.3. Efecto reboso.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 19: Comunicaciones

19.3 Ondas hercianas


A pesar del escepticismo de Hertz, muy poco después del descubrimiento de las ondas
electromagnéticas, alrededor de 1888, su potencial como medio de transmisión de señales
a larga distancia fue reconocido, y muy pronto la llamada telegrafía sin hilos empezó a
260 rivalizar con la telegrafía convencional.

Figura 19.4. Antena de radio.


Tomado de: http://bit.ly/2tmbZiH

La transmisión de mensajes por medio de ondas electromagnéticas se basa en los mismos


principios que utilizó Hertz en el montaje experimental que condujo a su descubrimiento,
que consiste en la generación de ondas por medio de la oscilación de corrientes eléctricas
en una antena, que pueden ser detectadas por una antena similar colocada a cierta distan-
cia de la original por un efecto de resonancia (figura 19.4). La telegrafía inalámbrica usaba
el código Morse de igual manera que la telegrafía convencional, si bien su alcance se veía
limitado por el decaimiento de la señal, que en el caso de las ondas electromagnéticas es
inversamente proporcional al cuadrado de la distancia que recorre la onda, lo cual estimuló
la investigación orientada hacia el diseño de antenas y de sistemas de emisión y de recep-
ción de señales que superaran las dificultades que se presentaban.

Como anécdota curiosa, se puede anotar que la famosa torre Eiffel, imagen de París y sím-
bolo de Francia, debe su existencia, en buena parte, a la telegrafía inalámbrica. Construida
en 1889 para la Exposición Mundial de París, en el centenario de la Revolución francesa,
debería ser desmontada veinte años más tarde al vencer la concesión que habían recibido
sus constructores para su explotación comercial. Sin embargo, gracias al uso que hicieron
de ella los ingenieros militares que lograron comunicarse con una localidad distante unos

Física conceptual
Capítulo 19: Comunicaciones

treinta kilómetros de París, se determinó que, debido a su importancia estratégica, debía


continuar en pie, para disgusto de los artistas e intelectuales que habían firmado un mani-
fiesto pidiendo la demolición de lo que consideraban un adefesio arquitectónico que ofendía
la estética de la Ciudad Luz. Los grandes servicios que prestó la estación de radio situada
en lo alto de la torre durante la Primera Guerra Mundial confirmaron la previsión de los inge-
nieros militares. De no menor importancia, la torre Eiffel jugó un papel destacado en el des- 261
cubrimiento de la radiación cósmica en 1909, en el transcurso de una investigación sobre
la ionización del aire a diferentes alturas, gracias a la cual fue posible establecer que la rata
de ionización del aire aumenta con la altitud, a pesar de que inicialmente se pensaba que
era producto de la radiactividad natural de fuentes terrestres, lo cual es un indicio de que la
radiación ionizante proviene del espacio exterior. Posteriores mediciones mediante el uso
de globos a gran altura habrían de corroborar los indicios iniciales detectados en París, y a
partir de ese momento la radiación cósmica entró a formar parte del bagaje fenomenológico
del conocimiento científico. A mediados de los años sesenta, en el transcurso de un proyec-
to de construcción de radiotelescopios de microondas, se descubrió una componente de la
radiación cósmica de fondo que constituye una evidencia del momento en que se inició la
actual expansión del universo, conocido como el Big Bang, que según estimativos teóricos
ocurrió hace unos catorce mil millones de años.

19.4 Tubos de vacío


Al igual que el telégrafo convencional, la telegrafía sin hilos también adolece de la caída de
intensidad de la señal, que en sus inicios limitó de manera considerable su utilización hasta
que gracias a la invención de las válvulas termoiónicas, o tubos de vacío (figura 19.5), que
constituyen el núcleo de los amplificadores electrónicos, fue posible radiar una señal elec-
tromagnética a cualquier lugar del mundo, dando inicio a la era de las telecomunicaciones.

Figura 19.5. Tubo de vacío.


Tomado de: http://bit.ly/2titv70

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 19: Comunicaciones

El tubo de vacío funciona de acuerdo con el mismo principio de amplificación de señales


que el amplificador a base de relés, con la diferencia de que no utiliza un obturador elec-
tromecánico sino una diferencia de potencial crítica entre dos electrodos que, debidamente
modificada por una débil señal electromagnética, permite el paso de una corriente eléctrica
de suficiente intensidad como para generar una nueva señal, lo cual es posible gracias al
262 efecto termoiónico, que consiste en la emisión de electrones por un filamento a alta tem-
peratura encapsulado en una ampolla de vidrio al vacío. Los dispositivos electrónicos de
sonido, radio y televisión, desde principios del siglo XX hasta el advenimiento del transistor
en los años sesenta, contaban con este tipo de elementos, y por eso demandaban un pe-
riodo relativamente prolongado de precalentamiento antes de empezar a operar de manera
adecuada. Debido a sus condiciones de operación, alta temperatura, vacío y empaque de
vidrio, los tubos de vacío eran muy frágiles y se descomponían con frecuencia, además de
que un gran porcentaje de la energía que consumían se desperdiciaba en calor, no obstante
lo cual permitieron establecer las bases de la actual tecnología de las telecomunicaciones.

Además de cumplir con la función de amplificar señales, y debido a que por sus caracte-
rísticas estructurales los tubos de vacío solo permiten el paso de la corriente eléctrica en
una dirección, estos elementos se comportan como diodos, que son los equivalentes elec-
trónicos de las válvulas de seguridad que solo permiten la circulación de las corrientes de
agua en una dirección para impedir que, por ejemplo, se devuelva el flujo de suministro de
agua a un lugar elevado. Por esta razón los tubos de vacío también reciben el nombre de
válvulas de vacío. Gracias a esta característica, los tubos de vacío se pueden utilizar como
compuertas lógicas, esto es, como elementos de un circuito diseñado de tal manera que las
entradas y salidas de una señal, dependiendo de si se permite o se impide la circulación de
una corriente, corresponden a una operación matemática o a una expresión lógica, lo cual
constituye el elemento fundamental de los sistemas informáticos, que, junto con las tecno-
logías de las comunicaciones, son el soporte operativo de innumerables y vitales procesos
de la sociedad actual.

19.5 CRT
Otra notable aplicación del efecto de emisión termoiónica corresponde a los tubos de rayos
catódicos, o CRT por sus siglas en inglés, que hasta hace muy poco tiempo constituían el
elemento central de los voluminosos reproductores de televisión, que fueron reemplazados
por los monitores de pantalla plana que ahora constituyen el nuevo estándar. Los CRT son
una variación del tubo de rayos catódicos que le permitió a Thomson descubrir la existencia
de los electrones. Unos y otro están constituidos por un filamento que emite electrones por
calentamiento, correspondiente al cátodo, los cuales son acelerados por una diferencia de
potencial y proyectados a una pantalla fluorescente, que permite advertir su llegada. La

Física conceptual
Capítulo 19: Comunicaciones

conveniente aplicación de campos magnéticos deflecta el haz de electrones y lo proyecta


en diferentes puntos de la pantalla. Una adecuada manipulación de los campos de deflexión
permite barrer la pantalla con el haz de electrones generando patrones gráficos que inicial-
mente se utilizaron como medida de los potenciales aplicados, constituyendo un valioso
instrumento de medición denominado osciloscopio (figura 19.6).
263

Figura 19.6. El osciloscopio.


Tomado de: http://bit.ly/2tib8i6

19.6 Semiconductores
Gracias a la utilización de materiales semiconductores a mediados del siglo XX, fue posible
construir dispositivos de mucho menor tamaño y gasto de energía que reemplazan en una
gran variedad de funciones a los tubos de vacío, lo cual se tradujo en la miniaturización de
los dispositivos electrónicos luego de la invención del transistor, lo que les brindó un mayor
rango de aplicaciones debido a sus características de portabilidad y resistencia. Los semi-
conductores son materiales que en condiciones normales no conducen la electricidad, pero
que se pueden volver conductores debido a la aplicación de campos electromagnéticos o
a un incremento en la temperatura. De manera muy notable el silicio es uno de los mate-
riales más utilizados en la fabricación de dispositivos electrónicos, razón por la cual recibió
su nombre el Valle del Silicio, donde tienen su asiento algunas de las más importantes
empresas de tecnología del mundo. Debido a sus características particulares, mediante la
unión de diferentes tipos de semiconductores es posible construir transistores de tamaño
microscópico y albergar millones de ellos en superficies muy reducidas que se denominan
circuitos integrados, también conocidos como chips (figura 19.7).

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 19: Comunicaciones

264
Figura 19.7. Circuito integrado.
Tomado de: http://bit.ly/2tiR4wi
Una notable aplicación de los materiales semiconductores son los diodos emisores de luz,
o LED por sus siglas en inglés, que en la actualidad constituyen el elemento fundamental
de las pantallas de televisores, teléfonos y computadores. Otro dispositivo tecnológico que
se construye a partir de diodos emisores de luz es el láser de estado sólido, que juega un
papel de gran importancia en los sistemas de registro y lectura de información, además de
un sinnúmero de otras aplicaciones.

Resumen
Una de las más notables consecuencias de la Revolución Industrial, que vino de
la mano con la expansión global de la actividad comercial, fue la necesidad de
disponer de sistemas prácticos, rápidos y eficientes para compartir información
entre los diferentes puntos del planeta, lo cual generó un significativo impulso
a la investigación y a la innovación en la tecnología de las telecomunicaciones,
que a la vez que sacaba provecho de los avances en la teoría electromagnéti-
ca, planteaba nuevos problemas y ambiciosos retos, cuya solución fue posible
gracias al avance en el conocimiento de las estructuras y las propiedades de los
semiconductores.

Comunicación

Física conceptual
Capítulo 19: Comunicaciones

Cuestionario
1. Analice en qué consiste la comunicación y demuestre que tal proceso es imposi-
ble sin el consumo de alguna cantidad de energía.
2. La velocidad de arrastre de los electrones que se desplazan en un conductor me-
tálico como el cobre es del orden de centímetros por segundo. ¿Cómo es posible 265
que una señal de telégrafo llegue a miles de kilómetros de distancia en muy poco
tiempo?
3. ¿Por qué razón no es una buena idea utilizar baterías de alto voltaje y alta poten-
cia para enviar una señal telegráfica a gran distancia mediante un cable eléctri-
co?
4. ¿Qué alternativa se puede considerar para resolver el problema planteado en la
pregunta anterior?
5. Demuestre que la intensidad de una onda electromagnética decae como 1/r2.
6. Teniendo en cuenta el resultado del problema anterior, explique por qué razón se
utilizan con tanta frecuencia antenas parabólicas en los sistemas de comunica-
ciones.
7. ¿Cómo, y por qué, la electricidad estática afecta la transmisión de señales eléc-
tricas?
8. ¿Cuáles son las fuentes de ruido más frecuentes en la transmisión de señales de
radio?
9. Describa el principio de funcionamiento común a todo tipo de amplificador de
señales.
10. ¿Qué tienen en común un relé, un tubo de vacío y un transistor?
11. ¿Por qué se puede decir que un tubo de rayos catódicos es un diodo?
12. ¿Qué consideraciones se deben tener en cuenta para decidir si en un equipo
electrónico se deben utilizar relés, tubos de vacío o transistores?

Bibliografía
Baggot, J. (2011). Quantum story. Kindle eBook.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 19: Comunicaciones

266

Física conceptual
Capítulo 20 Información

Introducción
Se podría decir que si el combustible que alimentó la primera Revolución Industrial fue el carbón, y
el de la segunda fue el petróleo, el de la tercera es la información, que se ha convertido en uno de
los bienes más valiosos e indispensables de las sociedades modernas. Por otra parte, alrededor de
los problemas y situaciones que se generan en torno a procesar, transmitir, proteger y disponer la
información surge la demanda de urgentes y novedosas innovaciones tecnológicas que impulsan la
investigación hasta las fronteras del conocimiento científico.

20.1 Comunicaciones
Uno de los efectos más notorios de la Revolución Industrial en la segunda mitad del siglo XIX fue la
rápida interconexión del planeta mediante líneas telegráficas, que facilitaban el envío y la recepción
de información, así como el tendido de vías ferroviarias y el establecimiento de rutas marítimas y
fluviales, recorridas por trenes y barcos movidos por motores de vapor, que permitían movilizar con
inusitada rapidez personas y carga a grandes distancias, hechos que favorecieron la consolidación
de grandes imperios, entre los que sobresale el Británico, y la colonización de las grandes planicies
de Norteamérica, África y Asia, que hasta entonces permanecían casi deshabitadas puesto que
apenas contaban con la presencia de algunas tribus nómadas, integradas por un número muy re-
ducido de aborígenes que se vieron al borde de la extinción después de establecida la dominación
europea, particularmente en América.

El sistema de gobierno de las colonias de ultramar, como eran conocidas en Europa las tierras con-
quistadas, demandaba sistemas muy eficientes de transporte y comunicaciones, lo que incentivó la
realización de importantes desarrollos tecnológicos, fundamentados en la investigación científica, lo
cual resultó ser particularmente productivo en Inglaterra, donde el sistema de propiedad intelectual
permitía que quien tuviera una idea innovadora se beneficiara económicamente de su realización
mediante derechos exclusivos de explotación comercial. La máquina de Watt es un ejemplo notable
de la anterior afirmación, al igual que el telégrafo de Morse, y, posteriormente, el telégrafo sin hilos
de Marconi.

20.2 Ruido
Tal como ya se ha mencionado, uno de los problemas inherentes a la transmisión de información
mediante señales electromagnéticas, ya sea que viajen por cable o por el aire, es la necesidad de
Capítulo 20: Información

compensar la pérdida de intensidad de la señal mediante sistemas de amplificación o de


estaciones repetidoras, lo cual, con frecuencia, ocasiona la aparición de señales espurias
generadas por el amplificador o por fuentes externas que interfieren con la señal original,
como en el caso de las ondas electromagnéticas. De manera adicional, todo aparato que
funcione a base de electricidad tiende a cargarse electrostáticamente, lo cual genera des-
268 cargas que pueden generar serias perturbaciones y distorsión de las señales portadoras de
la información. Todo lo anterior es conocido como ruido, y su presencia afecta la fidelidad
de la información transmitida, por lo que se han dedicado grandes esfuerzos para diseñar
sistemas de comunicaciones y de reproducción de la información lo más fieles y libres de
ruido que sea posible. Por esta razón, los equipos que reproducen, transmiten y recepcio-
nan información han terminado teniendo una arquitectura de gran complejidad, aunque los
principios físicos en los que se basa su funcionamiento sean relativamente sencillos.

20.3 Criptología
Si bien la fidelidad es una característica muy deseable en un sistema para transmitir infor-
mación, en muchas ocasiones prima la necesidad de que esta no solo sea confiable sino
confidencial, para lo cual es necesario acudir a estrategias que restrinjan el acceso a ella
mediante métodos de encriptación, o, sencillamente, por medio de claves que transformen
un texto en algo ininteligible para quien no posea el recurso necesario para descifrar el
texto encriptado. En este caso se puede hablar de un “ruido bueno” que puede ser añadido
y eliminado a conveniencia de la información que se quiere proteger.

La importancia estratégica del manejo de la información ha tenido un papel protagónico en


los grandes momentos de la historia, y, por esta razón, la criptología (el arte del secreto y
las técnicas de encriptación) ha estado presente desde tiempos remotos, pero nunca como
en la época actual ha jugado un papel tan destacado como elemento básico para proteger
transacciones financieras y para tomar importantes decisiones políticas y corporativas, así
como para informar y desinformar a la población a través de los medios de comunicación
y de las redes sociales, como ha quedado de manifiesto en diversos escándalos de reper-
cusión mundial.

Uno de los rasgos más característicos de la Segunda Guerra Mundial fue el impresionante
despliegue de ciencia y tecnología que se dio en su transcurso, en el que se destaca la apa-
rición de la ciencia de la informática en cabeza de Claude Shannon y Alan Turing, gracias
a cuyo trabajo y al de lógicos y matemáticos fue posible descifrar el código de información
utilizado por las fuerzas armadas de la Alemania nazi, conocido como el Enigma. De igual
manera se diseñaron nuevos sistemas de encriptación para uso de los Aliados, para lo
cual fue necesario definir y precisar el concepto de información sentando las bases para

Física conceptual
Capítulo 20: Información

las ciencias de la informática y la computación, que constituyen los fundamentos de la


cibernética.

Gracias a la construcción de un gigantesco dispositivo electromecánico, compuesto por mi-


les de engranajes y relés, y bautizado con el nombre de la Bomba, los Aliados pudieron des-
encriptar una gran cantidad de mensajes cifrados de las potencias del Eje (Alemania, Italia 269
y Japón) con información estratégica vital, lo cual influyó de manera decisiva en el curso de
la guerra. Mucho menos ruidosa que la otra bomba que puso punto final a la guerra, pero
no menos costosa, la Bomba de Alan Turing (figura 20.1) fue uno de los megaproyectos
científicos y tecnológicos desarrollados durante la Segunda Guerra Mundial que definieron
las condiciones en las que en adelante se habría de realizar la investigación científica y se
ejecutarían los grandes proyectos de desarrollo tecnológico, con la participación conjunta
de la industria, la academia y el estado, abriendo paso a la denominada Big Science, en la
que el secreto y el espionaje industrial son como dos caras de una misma moneda, no obs-
tante lo cual actualmente se llevan a cabo algunos grandes proyectos colaborativos cuyos
resultados son de dominio público.

Figura 20.1. La Bomba de Turing.


Tomado de: http://bit.ly/2rZMT4w

20.4 La máquina de Turing


La necesidad de conocer a fondo las características de los procesos informáticos con el
fin inmediato de descifrar los mensajes del enemigo durante la Segunda Guerra Mundial
estimuló el desarrollo de proyectos tendientes al diseño y construcción de sistemas auto-
matizados de cómputo y procesamiento de la información, lo cual condujo a la elaboración
de teorías y modelos sobre los principios básicos de la computación, de lo cual resultó el
diseño del computador más elemental posible, conocido como la máquina de Turing (figura
20.2). Este dispositivo abstracto está compuesto por una cinta infinita, dividida en casillas,
en las cuales se puede registrar información que puede ser leída por un elemento que,

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

dependiendo del resultado de la lectura, tome la decisión de borrar, cambiar o conservar la


información que acaba de leer, antes de pasar a una nueva casilla, hacia adelante o hacia
atrás, de acuerdo con una programación previa. La importancia y universalidad de la máqui-
na de Turing reside en su capacidad de emular la lógica de cualquier algoritmo de cálculo
que se pueda concebir, de ahí que todo computador sea, en último término, una derivación
270 de este dispositivo.

0 11 11 1 000 0

0 11 10 0 000 0

0 00 00 0 000 0
Figura 20.2. La máquina de Turing.

Con el fin de que el proceso de cómputo sea lo más sencillo posible, la información se
registra mediante un código binario, es decir, un conjunto de unos y ceros, que se pueden
representar de manera adecuada mediante el estado de abierto y cerrado de un relé, o
de un tubo de vacío. Es importante anotar que el uso de un código binario para el registro
y lectura de información se remonta a 1801 con las tarjetas perforadas de los telares de
Jacquard (figura 20.3), con los que se producían telas de diseños muy elaborados. Este
sistema sirvió de inspiración a Charles Babbage en el diseño de los primeros computadores
mecánicos, antecesores de nuestros modernos computadores digitales, que, al igual que la
máquina de Turing, utilizan códigos binarios, en los que el estado de prendido o apagado,
uno o cero, corresponde al estado de un transistor que, actuando como interruptor, permite
o impide el paso de una corriente eléctrica.

Física conceptual
Capítulo 20: Información

271

Figura 20.3. Telar de Jacquard con tarjetas perforadas.


Tomado de: http://bit.ly/2tivlUQ

20.5 Teoría de la información


Con el fin de visualizar el proceso de la comunicación, Claude Shannon definió un esquema
de cinco elementos que corresponden, respectivamente, al remitente del mensaje, el equi-
po de transmisión, el canal o medio de comunicación, el equipo de recepción y, por último,
el destinatario del mensaje (figura 20.4). Parte integral de este proceso es el ruido, o distor-
sión del mensaje, ocasionado por el canal de transmisión utilizado, que afecta la fidelidad
o correspondencia entre el contenido original y lo que finalmente se recibe. Al igual que la
máquina de Turing esquematiza los procesos de computación, el diagrama de Shannon
resume, en términos generales, cualquier proceso de transmisión y almacenamiento de
información. No es una casualidad que en los sistemas informáticos se encuentren tanto
elementos de computación como de la teoría de la información.

Uno de los problemas más relevantes que surgen en el diseño de sistemas de comuni-
caciones tiene que ver con la cantidad de mensajes que sea posible enviar de manera
simultánea a través de un dispositivo y la cantidad de información que puede contener cada
mensaje, para lo cual es necesario definir parámetros cuantificables. Con este fin, Claude
Shannon definió el concepto de entropía, H, como una medida de la información contenida
en un mensaje. Es necesario aclarar que la entropía H definida por Shannon es diferente
a la entropía S definida por Boltzmann en términos del número de estados accesibles de
un sistema, puesto que la importancia de esta última se manifiesta en la variación de su
magnitud, dependiendo de si los procesos que se examinan son reversibles o irreversibles.
Por el contrario, la relevancia de la entropía H de Shannon está directamente relacionada

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

con su valor absoluto. Sin embargo, la similitud entre las formulaciones matemáticas y el
carácter estadístico de ambas teorías condujo a Shannon a utilizar la palabra entropía para
designar la función que permite cuantificar la información.

Fuente
de información Transmisor Receptor Destino
272
Canal

Señal Señal
recibida

Fuente
de ruido
Figura 20.4. Esquema del proceso de información de Shannon.

La analogía matemática existente entre la entropía termodinámica y la entropía informática


nos permite esclarecer el significado de la primera en términos de la segunda. Con frecuen-
cia se encuentran expresiones según las cuales la entropía es una medida del desorden de
un sistema termodinámico, y, en consecuencia, la segunda ley de la termodinámica vendría
a ser algo así como el postulado de la tendencia de los sistemas físicos al desorden. Sin
embargo, el concepto de orden no está definido en la física, y, por tanto, las aseveraciones
que lo invocan carecen de sentido. No sucede lo mismo con el concepto de información,
puesto que la precisión con la que se describe el estado de un sistema físico depende de
la información que se tiene sobre dicho sistema. En este sentido se puede interpretar la en-
tropía termodinámica como una medida de la desinformación, y la segunda ley como el re-
conocimiento de que cuando los sistemas físicos evolucionan hacia los estados accesibles
de mayor probabilidad, se pierde información detallada sobre los elementos del sistema.

En la actualidad la teoría de la información se ha convertido en una herramienta indispen-


sable en un sinnúmero de campos de la investigación científica, como se puede apreciar en
el caso de la biología molecular gracias a la analogía existente entre la actividad de la ARN
polimerasa, que cumple la función de leer y transcribir el código genético almacenado en el
ADN, perfectos análogos de la cabeza lectora y la cinta de casillas de la máquina de Turing.

ARN polimerasa
G T A C
ADN C A U T
C A T G
ADN

Figura 20.5. ARN mensajero.

Física conceptual
Capítulo 20: Información

20.6 El bit
A partir de la definición de entropía de Shannon es posible definir la unidad de información
como aquella asociada a un sistema que solo tiene dos posibles estados, que se pueden
representar en código binario como uno o cero, razón por la cual se le dio el nombre de
bit, que es el acrónimo de las palabras inglesas binary digit. La entropía de un sistema que 273
contiene un bit de información es uno.

Dada la capacidad del código binario de representar cualquier tipo de información o de


expresión lógica, y la disponibilidad de sistemas físicos análogos a elementos binarios,
del tipo prendido o apagado, abierto o cerrado, hacia arriba o hacia abajo, los sistemas
informáticos y de cómputo utilizan sistemáticamente este tipo de representación, y la bús-
queda de nuevos, más eficientes y más reducidos sistemas físicos de almacenamiento y
procesamiento de información ha llevado a la electrónica hasta los límites físicos que de-
terminan las leyes de la mecánica cuántica, debido a lo cual y luego de transitar desde los
sistemas de relés y tubos de vacío a los transistores y circuitos integrados, se ha llegado a
la posibilidad de utilizar los estados más básicos de los sistemas cuánticos como medios de
almacenamiento de información, lo cual ha dado lugar a la aparición del bit cuántico, o qubit.
Sin embargo, en el nivel atómico la posibilidad de determinar con precisión los estados de
los sistemas correspondientes a cero y uno está limitada por el principio de incertidumbre,
lo que, en lugar constituir un problema, abre las puertas a la computación cuántica, que
constituye uno de los más novedosos y activos campos de la investigación.

El principio de incertidumbre de Heisenberg surge de los postulados de la mecánica cuán-


tica, y establece la imposibilidad de determinar de manera simultánea y con absoluta preci-
sión el valor de pares de variables conjugadas, como la posición y la cantidad de movimien-
to, de tal modo que si se fija el valor de la una, la otra queda completamente indeterminada.

Una importante consecuencia del principio de incertidumbre es que la medición de una


magnitud física afecta el estado del sistema que está siendo examinado. En esto radica
la gran diferencia entre la descripción clásica y la descripción cuántica de los sistemas
físicos, puesto que en el caso de la primera se da por descontado la posibilidad de conocer
el valor de todas las variables que describen un sistema físico con absoluta precisión como
condición necesaria para predecir la evolución de dicho sistema en el tiempo. Debido a lo
anterior, la mecánica cuántica resulta incapaz de predecir con total certeza la evolución de
los sistemas físicos, respecto a lo cual solo puede hacer estimaciones probabilísticas sobre
el valor esperado de las magnitudes físicas que describen el estado de los sistemas. Esta
situación resultó inaceptable para muchos físicos de formación clásica y determinista, a pe-
sar de lo cual las mediciones físicas más precisas que se han efectuado hasta el presente
han contado con el marco teórico de la mecánica cuántica.

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

20.7 Superposición y entrelazamiento


Unas de las características que definen y distinguen la descripción mecánico-cuántica de
los sistemas físicos son la superposición y el entrelazamiento de los estados cuánticos de
274 dichos sistemas. Debido a la superposición, el estado de un sistema cuántico corresponde
a una suma o superposición de todos los estados posibles compatibles con las característi-
cas del sistema, a consecuencia de lo cual se presenta la paradójica situación de que antes
de que se realice una medición, el sistema no se encuentra en ningún estado definido, sino
en todos, pero una vez efectuada la medición el estado del sistema queda bien definido. A
este fenómeno se lo denomina la reducción del paquete, puesto que ahora el sistema se
encuentra en uno solo de todos los estados en los que se podría encontrar. En razón de lo
anterior se dice que el proceso de medición altera el estado del sistema medido.

Por otra parte, cuando dos o más partículas hacen parte del mismo sistema físico, los valo-
res de las magnitudes físicas que describen sus respectivos estados están correlacionados,
independientemente de qué tan alejadas se puedan encontrar las partículas entre sí, de tal
manera que si sobre una de ellas se efectúa la medición de una variable, el valor de la mis-
ma variable queda determinado para la otra partícula. Einstein utilizó el análisis del fenóme-
no de entrelazamiento para demostrar que la mecánica cuántica era una teoría incompleta
de la naturaleza, y que conducía a resultados absurdos, como la posibilidad de transmitir
información de manera instantánea entre dos partículas entrelazadas, a lo cual denominó
una “espantosa acción a distancia”, en flagrante violación de los postulados de la teoría de
la relatividad y de la concepción de la realidad que él defendía. Posteriores análisis y evi-
dencias experimentales revelan que el fenómeno de entrelazamiento no viola los preceptos
relativistas, pero su innegable existencia nos obliga a abandonar la concepción de realidad
del mundo que defendía el padre de la teoría de la relatividad. De manera adicional, el en-
trelazamiento constituye uno de los recursos más valiosos con los que cuenta la criptografía
cuántica para garantizar la privacidad de la información, puesto que en el supuesto caso de
que un tercero pretenda interceptar un mensaje enviado mediante partículas entrelazadas,
la perturbación que causa la observación no autorizada revela de inmediato la presencia del
transgresor debido al fenómeno de reducción del paquete.

Física conceptual
Capítulo 20: Información

Resumen
De acuerdo con el físico John Wheeler, quien acuñó la expresión “it from bit”, el bit,
es decir, la mínima unidad de información, es también la partícula más elemental
que se puede concebir. Si llevamos esta afirmación hasta sus últimas consecuen- 275
cias se podría decir que todo es información. En consecuencia con lo anterior,
yendo más allá del modelo abstracto de la máquina de Turing, y teniendo en cuen-
ta que todo proceso informático demanda un consumo de energía para borrar
la información ya recibida y quedar en capacidad de recibir nueva información
−razón por la cual se dice que “olvidar cuesta trabajo”−, se puede decir que la
información es, ante todo, un fenómeno físico y cuántico, puesto que en todas sus
interacciones, excepto en la gravitación, la naturaleza es un fenómeno cuántico.

Información

Cuestionario
1. ¿Qué diferencia una señal sonora de un simple ruido en cuanto a la información
se refiere?
2. ¿De qué manera se puede utilizar el ruido para proteger la privacidad de la infor-
mación? Dé un ejemplo.
3. Discuta algunos casos en los que sea evidente la ventaja de disponer de infor-
mación suficiente, oportuna y confiable.
4. Investigue el origen de la palabra encriptación y dé un ejemplo del uso de este
tipo de práctica en la tecnología actual.
5. Compare los sistemas de almacenamiento de información que ofrecen un disco
de acetato, un disco magnético y un disco óptico, desde el punto de vista de los
mecanismos asociados a cada tecnología y de la capacidad de almacenamiento
de datos de cada uno de ellos.
6. Escriba la fecha de su nacimiento en código binario.
7. Investigue cómo funciona una proteína y establezca una analogía con la cinta
que alimenta una máquina de Turing.
8. Si la información se puede relacionar con la entropía, ¿con qué concepto asocia-
do a la informática se puede relacionar la energía?

Universidad de Antioquia - Facultad de Ingeniería —Ingeni@—


Capítulo 20: Información

9. Demuestre que todo proceso informático genera un aumento de la entropía ter-


modinámica.
10. Explique en qué consiste la ley de Moore, e indique si hay algún tipo de restric-
ción física que limite su validez.
11. ¿Cuál es la diferencia entre un bit y un byte de información?
276 12. Si la entropía asociada a un bit es uno, ¿cuánto vale la entropía asociada a un
byte?
13. Discuta la posibilidad de que cualquier tipo de información se pueda expresar por
medio de un código binario, y señale cuáles son las posibles aplicaciones que se
derivan de esta situación.
14. ¿En qué se diferencian dos fotografías de la misma escena tomadas con cáma-
ras de 1 Mb y 20 Mb?
15. A partir de la respuesta que dio a la pregunta anterior establezca una relación
entre información y energía.
16. ¿Cómo se podría fundamentar la idea de que el bit es la partícula más elemental
que existe?
17. La nave espacial Voyager, lanzada en 1977, lleva un mensaje grabado en un
disco de oro que, según se espera, podría ser leído por una civilización más allá
del sistema solar dentro de unos 40.000 años. ¿Tiene usted idea de cuál es el
contenido del mensaje y en qué código está escrito?

Bibliografía
Aczel, A. (2002). Entrelazamiento. Editorial Crítica.  
Baggot, J. (2011). Quantum story. Kindle eBook. 
Berkson, W. (1981). Las teorías de los campos de fuerza. Alianza Editorial. 
Fenn, J. (2003). Engines, energy, and entropy. Global View.
Feynman, R. (2002). Seis piezas fáciles. Biblioteca de Bolsillo.
Gleick, J. (2012). Chaos. Kindle Edition.
Gleick, J. (2012). La información: historia y realidad. Crítica.
Hewitt, P. G. (2007). Física conceptual. Pearson.
Hobson, A. (2010). Physics, concepts and connections. Pearson.
Musser, J. (2015). Spooky action at a distance. Kindle eBook. 
Rovelli, C. (2016). Siete breves lecciones de física. Anagrama Editores.
Sagan, C. (1992). Cosmos. Planeta.
Stewart, I. (2011). The mathematics of life. Kindle eBook.

Física conceptual
Epílogo
La evolución de la física
En el segundo párrafo del prólogo de La evolución de la física, el libro escrito por Albert Einstein y
Leopold Infelf pocos años antes de que estallara la Segunda Guerra Mundial, se advierte al lector
que la obra que tiene en sus manos no es un libro de texto, sino una obra que pretende describir,
a grandes rasgos, los esfuerzos que los hombres de ciencia han realizado tratando de establecer
una conexión entre el mundo de las ideas y el mundo de los fenómenos. Sin embargo, a pesar de
la declaración, o de la intención, de los autores, el texto en cuestión −publicado originalmente por la
editorial de la Universidad de Cambridge en 1938 y reeditado por Editorial Losada con el nombre de
La física: una aventura del pensamiento−, además de ser un excelente texto de divulgación, tiene
un extraordinario valor didáctico de gran utilidad en cursos introductorios de física y de historia y
filosofía de la ciencia, como primera aproximación al pensamiento científico.

El libro fue escrito entre 1934 y 1936, durante una pasantía que realizó Leopold Infeld en el Instituto
de Estudios Avanzados de Princeton, invitado por Einstein, como una forma de solidaridad con un
colega que, al igual que él, había escapado de la persecución nazi en Europa. En el texto los autores
exponen su concepción del mundo, de la ciencia y de la realidad de manera sencilla, en un lenguaje
claro y accesible a cualquier lector medianamente culto. Pero quien esté al tanto de la situación po-
drá percibir la tensión subyacente en el discurso, generada por el choque de la concepción clásica
del mundo, suscrita por Einstein e Infeld, y la aparición de una nueva conceptualización de la física,
fruto del desarrollo de la mecánica cuántica y de los, por entonces, novedosos descubrimientos
sobre la estructura de la materia y las interacciones fundamentales, realizados, en parte, por el
mismo Einstein.

Desde el principio del libro los autores manifiestan su intención de describir la conexión existente
entre el mundo de las ideas y el mundo de los fenómenos, empezando por señalar las claves que
condujeron al establecimiento del punto de vista mecanicista de la naturaleza y el papel que desem-
peñaron en la postulación del principio de inercia, por parte de Galileo y Newton, las experiencias
idealizadas, también conocidas como experimentos mentales, las cuales se hacen necesarias ante
la imposibilidad de verificar de manera experimental que, por ejemplo, al no estar sujeto a la acción
de ninguna fuerza, un cuerpo conserva su estado de movimiento de manera indefinida, o que en el
vacío todos los cuerpos caen con igual aceleración, independientemente de su peso.

La experiencia sugiere, con frecuencia la intuición confunde y, a veces, la razón corrige, pero será
la experimentación la que, en último término, valide lo indemostrable. De esta perspectiva sur-
gen apreciaciones que, a primera vista, pueden resultar sorprendentes: “Los conceptos físicos son
creaciones libres del espíritu humano y no están, por más que parezca, únicamente determinados
Epílogo

por el mundo exterior”, nos dicen Einstein e Infeld. El reconocimiento del carácter artificial
de los conceptos con los que la física describe el mundo parece chocar con la aproxima-
ción ingenua a la lectura del libro de la naturaleza que prescribe Galileo, pues, más que
ser descubierto, el mundo de los fenómenos también debe ser inventado, respetando, por
supuesto, las restricciones que impone la experiencia. El papel de la verdad absoluta, al
278 menos en lo que a la ciencia se refiere, empieza a ser desdibujado –o, mejor, relegado− a
otras áreas del conocimiento, mientras que el objeto de la ciencia se define en sus propios
términos a partir de la práctica.

En el proceso de presentación de lo que los autores denominan el punto de vista mecánico


de la naturaleza, dominado por la conceptualización newtoniana del mundo caracterizada
por la acción de fuerzas entre cuerpos que interactúan a distancia y de manera instantánea,
o por fuerzas de contacto entre cuerpos contiguos, se analiza una clave que habría pasado
inadvertida: la equivalencia de la masa inercial y la masa gravitacional, que sirve de funda-
mento a la teoría general de la relatividad, que es la teoría relativista de la gravitación. Las
diferencias entre los dos conceptos fundamentales que sirven de base a la mecánica, iner-
cia y gravitación, son destacadas para, a continuación, declarar que se trata de la misma
entidad. La equivalencia de la masa inercial, magnitud física asociada a la respuesta de los
cuerpos sujetos a la acción de una fuerza, y la masa gravitacional, que determina la inten-
sidad con la que un cuerpo atrae a otro, deja de ser meramente cuantitativa y se convierte
en fundamental. Hasta el momento en que Einstein llamó la atención sobre la diferencia
conceptual entre la masa inercial y la masa gravitacional pocos la habían advertido o mos-
trado alguna preocupación al respecto. La equivalencia cuantitativa entre la masa inercial y
la masa gravitacional, que es el fundamento de la ley de caída de los cuerpos de Galileo, ha
sido comprobada de manera experimental con alto grado de precisión. De no ser por la es-
tricta equivalencia cuantitativa entre estas dos magnitudes físicas podría suceder que dos
cuerpos con la misma masa inercial y diferente masa gravitacional, cayendo en condiciones
similares, tuvieran diferente aceleración. Que tal situación nunca haya sido observada, y
que los cálculos basados en la ley de caída conduzcan a resultados concordantes con la
observación, nos permite suponer que el principio en cuestión es razonablemente confiable.

Pero desde la perspectiva de Einstein y de su pretensión última respecto a la imagen del


mundo, el establecimiento de la equivalencia de la masa inercial y de la masa gravitacional
es un paso significativo en el propósito de construir una teoría física con el mínimo número
de elementos posibles. Al eliminar la redundancia que significa tener dos conceptos apa-
rentemente diferentes para designar la misma magnitud física, la teoría de la gravitación se
simplifica y sus predicciones se hacen más inteligibles. No obstante, las consecuencias de
este descubrimiento van más allá de la equivalencia entre inercia y gravitación al ponerse
de manifiesto una conexión profunda entre la materia y el espacio, que se refleja en las
propiedades de la geometría. De acuerdo con la teoría de la gravitación elaborada por
Einstein, la trayectoria de un cuerpo se curva en la vecindad de otro cuerpo debido a la
Epílogo

modificación que experimenta el espacio en presencia de la materia. El surgimiento de una


teoría relativista de la gravitación, caracterizada por la existencia de perturbaciones ondu-
latorias del campo gravitacional que se propagan a la velocidad de la luz, al igual que las
ondas electromagnéticas, resuelve el problema de la interacción instantánea y a distancia
implícita en la teoría newtoniana. El espacio deja de ser el escenario pasivo en el que se
desarrollan los fenómenos y se convierte en parte de la acción. “La materia le dice al espa- 279
cio cómo curvarse y este le dice a la materia cómo moverse”, reza una conocida expresión
atribuida a Einstein, que describe esta singular situación. La geometría se convierte en un
objeto de la física, y la representación de las teorías físicas adquiere un carácter cada vez
más geométrico.

Pero no solo el espacio de la mecánica de Newton pierde su carácter absoluto, eterno e


inmutable; también el tiempo, indisolublemente unido al espacio como consecuencia de la
teoría especial de la relatividad, ya no es uniforme, continuo, infinito e independiente de los
fenómenos, como lo proclamara Newton, pues ahora sabemos que su ritmo depende de la
presencia de materia. Diversos relojes a diferentes alturas sobre la superficie de la Tierra
marchan a diferente ritmo, y en la vecindad de un cuerpo de gran masa y alta densidad el
movimiento se congela, impidiendo que incluso la luz pueda escapar de la trampa gravita-
cional. Delicados experimentos que llevan al límite la precisión de las mediciones respaldan
las predicciones relativistas y constituyen evidencia de que estamos ante algo más sólido
que una mera especulación teórica, y que los agujeros negros son algo más que un recurso
de la ciencia ficción.

La importancia de los logros obtenidos por las teorías del campo que se desarrollaron en
la segunda mitad del siglo XIX se puede apreciar en toda su magnitud al compararlos con
los descubrimientos astronómicos obtenidos gracias al modelo mecanicista desarrollado
según los lineamientos de la física de Newton. Aplicado al estudio de los fenómenos que
suceden en nuestro entorno, el modelo mecánico traduce la cotidianidad en términos de
corpúsculos y de fuerzas que actúan a lo largo de la línea de acción y que dependen de la
distancia entre los cuerpos interactuantes. Hermann von Helmholtz, el notable físico alemán
que estableció las bases teóricas de la ley de la conservación de la energía a mediados del
siglo XIX, expresó con toda claridad los alcances del ideal reduccionista de la concepción
mecánica del mundo al sentenciar que todos los fenómenos se podían explicar en términos
de fuerza y materia: “La función de la ciencia habrá terminado tan pronto se cumpla la
reducción de todos los fenómenos naturales a simples fuerzas y se demuestre que esta
es la única reducción posible”. Bajo el auspicio de esta concepción fue posible incorporar
la termodinámica a la mecánica gracias a la interpretación del calor como un proceso de
transmisión de movimiento microscópico entre los corpúsculos que componen la materia; y
de la temperatura, como una medida del promedio de ese grado de movimiento. Luego de
eliminar algunos conceptos innecesarios como el calórico y el flogisto mediante el uso de
conceptos más elementales como materia y movimiento, la física se hizo más sencilla y su
Epílogo

capacidad de predecir y de dar cuenta de los fenómenos a partir de modelos matemáticos


resultó fortalecida.

El paraíso perdido
280
Pero no todo habría de ser la obtención de logros notables y la realización de grandes
descubrimientos en el paraíso mecanicista. Objeciones teóricas de mucha seriedad y apa-
rentes contradicciones en los modelos mecánicos generaban el rechazo de un sector sig-
nificativo de la comunidad científica. Por una parte, la imposibilidad de dar cuenta, a partir
de primeros principios, de la irreversibilidad de procesos como la vida y la muerte, cuya
evidencia choca con el carácter reversible de los procesos fundamentales −constituidos por
colisiones entre partículas o interacciones mediante fuerzas electromagnéticas−, que gozan
de una perfecta invariancia temporal, esto es, que las ecuaciones que describen su compor-
tamiento no pierden su validez física si se invierte el sentido del tiempo. En consecuencia,
al no estar incorporada en el marco teórico de la física, la dirección del tiempo parecía ser
tan solo una ilusión.

¿Cómo dar cuenta de un universo cuyos procesos evolucionan de manera irreversible me-
diante leyes que son, por principio, reversibles? El problema planteado es equivalente al
de encontrar una interpretación física de la entropía, concepto acuñado por Rudolf Clau-
sius para explicar la irreversibilidad de los procesos termodinámicos, como la transferencia
espontánea de calor entre dos cuerpos que se ponen en contacto y que inicialmente se
encuentran a diferente temperatura.

Con un carácter no menos serio que el de la anterior objeción, se planteaba el carácter


dudoso de la construcción de modelos de fenómenos físicos utilizando corpúsculos que no
pueden verse. Los filósofos positivistas, y los físicos afectos a esta orientación, reclamaban
que la física se hiciera exclusivamente con elementos tangibles, y denunciaban que cual-
quier otra opción convertiría a la física en una metafísica. Es importante anotar que si bien
esta última posición se encuentra bastante desacreditada, abrumada por los numerosos
logros de la teoría atomista, desde un punto de vista puramente filosófico muchos de estos
reclamos mantienen su vigencia.

Pero, contrario a las aspiraciones de Helmholtz, los avances de la física en la segunda mitad
del siglo XIX mostraron la insuficiencia de los conceptos de fuerza y materia para explicar
los fenómenos electromagnéticos desde una perspectiva mecanicista. La fenomenología
del electromagnetismo demandaba una nueva conceptualización para ser incorporada en
el marco de la física teórica. La teoría de los fluidos eléctricos y magnéticos, último intento
reduccionista para dar cuenta de la electricidad y el magnetismo, se mostró tan ineficaz y
Epílogo

engorrosa como en su momento lo había sido la teoría del flogisto y el calórico para explicar
los fenómenos termodinámicos.

La existencia de fuerzas perpendiculares a la línea de acción, tal como la que experimenta


una corriente eléctrica en presencia de un imán, no podía ser explicada mediante los senci-
llos esquemas mecánicos que tan buenos resultados habían dado en el caso de la física de 281
Newton. Luego de la elaboración de una teoría electromagnética integral, realizada por Ja-
mes Clerck Maxwell, el concepto de campo, prefigurado en los trabajos de Michael Faraday,
emerge para ocupar el lugar más destacado en el panorama de la física, no obstante que
el pensamiento de su autor estuviera enraizado en la concepción mecanicista, manifiesta
en el modelo heurístico que utilizó para elaborar sus teorías. El campo electromagnético,
primordial y notable resultado de la obra de Maxwell, permitió hacer más sencilla la descrip-
ción física del mundo al reunir en una sola teoría la electricidad, el magnetismo y la óptica.
La perspicaz intuición de Faraday sobre la existencia de una relación entre la luz y el mag-
netismo concuerda con la predicción que hizo Maxwell, a partir de las ecuaciones de campo
que llevan su nombre, de que las perturbaciones del campo electromagnético se propagan
como ondas a 300 000 kilómetros por segundo, que, no por coincidencia, es la velocidad de
la luz. Con lo anterior, no solo quedó resuelto el problema de la velocidad de propagación
de la interacción electromagnética, superando la inconveniente acción instantánea y a dis-
tancia, que tantas dificultades había generado en la teoría de la gravitación universal, sino
que la luz, así como los fenómenos que le son inherentes, dejó de ser una entidad física
aparte y pasó a ser una manifestación del campo electromagnético. Un cuarto de siglo
después de que Maxwell publicara su monumental aporte a la física y predijera la existencia
de las ondas electromagnéticas, el alemán Heinrich Hertz verificaría experimentalmente
las predicciones del británico y, de paso, descubriría el efecto fotoeléctrico, fenómeno que
habría de aportar la clave para comprender la interacción entre la materia y la radiación, a
la vez que develaría el carácter corpuscular de la luz, reabriendo una vieja polémica que
supuestamente había sido resuelta un siglo atrás.

Si en algún momento de la historia de la física se revela el carácter artificioso de la cons-


trucción de sus conceptos y teorías es, justamente, en el surgimiento de la teoría del campo
donde esta condición se manifiesta con toda claridad. La interacción a distancia entre dos
cuerpos, mediada por una fuerza que se propaga con velocidad infinita, es reemplazada por
la interacción del cuerpo con el campo en cada punto del espacio. La aparente violación de
la tercera ley de Newton por los fenómenos electromagnéticos se resuelve adscribiéndole
al campo la capacidad de transportar momento y almacenar energía, magnitudes que pare-
cían ser exclusivas de los cuerpos materiales. Pero a pesar de que los autores de La evo-
lución de la física se congratulan por el extraordinario logro que significó la emergencia del
concepto de campo, no se muestran del todo satisfechos con que sigan siendo necesarias
dos entidades diferentes para describir los fenómenos físicos, puesto que su más grande
aspiración era la total unidad de las fuerzas, es decir, la reducción de todas las entidades
Epílogo

fundamentales a un solo campo unificado. Los anhelos de unidad de la naturaleza de Par-


ménides, recogidos por Kant y por los filósofos naturales que siguieron su orientación en
los siglos XVIII y XIX, están presentes en el pensamiento de Einstein e Infeld, y, de alguna
manera, siguen vigentes en el de los físicos teóricos que en la actualidad se esfuerzan por
alcanzar una descripción unificada de los fenómenos naturales.
282

El campo
“Una nueva realidad fue creada”, nos dicen Einstein e Infeld al referirse a las condiciones
en la que emergió el concepto de campo. Luego de ser concebido como un recurso heu-
rístico con el fin de dar cuenta de los fenómenos electromagnéticos desde una perspectiva
operacional, el campo alcanzó el máximo estatus dentro de los conceptos de la física, y
su grado de “realidad” se encuentra a la par que el de materia. Pero no habría de ser fácil
la aceptación de esta nueva forma de conceptualización de los fenómenos físicos, puesto
que la tradición mecanicista habría de seguir pasando factura a la física teórica por un largo
tiempo. Inicialmente fue el fantasma del éter, supuesto medio de propagación de las ondas
electromagnéticas, el que intrigó a los físicos, que debieron afinar los análisis para predecir
los sutiles efectos que el movimiento de la Tierra debería producir al desplazarse en el hi-
potético elemento. Luego vendría el problema de detectar dichos efectos con una precisión
nunca antes alcanzada por la experimentación. Sin embargo, contrariando las expectativas,
la renuencia de la naturaleza a exhibir pruebas del movimiento de la Tierra respecto al éter,
y, de manera indirecta, de su existencia, condujo a la postulación de la teoría de la relativi-
dad, que transformó lo que parecía ser una contradicción teórica y un fracaso experimental
en el más notable logro de la física desde que Newton publicara los Principia. Como con-
secuencia directa de la nueva teoría resulta la equivalencia de la masa y la energía. Dos
conceptos que en la mecánica de Newton estaban perfectamente diferenciados, emergen
en el contexto relativista como aspectos complementarios de una entidad más general,
poniendo de manifiesto una relación profunda entre el campo y la materia, que se aprecia
con toda claridad en la creación y aniquilación de materia y antimateria.

El triunfo del concepto de campo significó el final de la concepción mecanicista del mundo
físico, junto con sus sencillos modelos de fuerzas y corpúsculos. La capacidad de la físi-
ca para dar cuenta de los fenómenos y predecir nuevas situaciones aumentó de manera
notable, pero a la par que su horizonte fenomenológico se expandía, sus dificultades con-
ceptuales se ponían de manifiesto, ligadas, en ocasiones, a la concepción mecanicista en
la que fueron formados la mayoría de los físicos que construyeron las nuevas teorías, a
veces a pesar de sí mismos, ante la exigencia de armonizar la evidencia experimental con
la coherencia teórica. Los aspectos básicos de la interacción entre el campo y la materia,
o, si se prefiere, de la interacción entre la materia y la radiación, que se manifiestan en el
Epílogo

efecto fotoeléctrico, conducen a plantear una aparente dicotomía entre el comportamiento


corpuscular, tradicionalmente asociado a las partículas materiales, y el comportamiento on-
dulatorio, propio de los campos. Al parecer, también los cuerpos materiales pueden exhibir
un comportamiento ondulatorio, y los campos un comportamiento corpuscular, situación
imposible de asimilar desde una perspectiva mecanicista.
283
La contundencia de la evidencia experimental no deja dudas respecto a la inviabilidad del
materialismo ingenuo y nos enfrenta con una nueva imagen del mundo físico, en la que
los roles de onda y partícula no se pueden asignar de manera unívoca a una sola de las
manifestaciones de la materia y la energía. El sencillo mundo newtoniano de fuerzas y
corpúsculos da paso al misterioso universo de los objetos cuánticos. La aventura continúa.

Energía y utopía

Você também pode gostar