Você está na página 1de 29

El triste destino del azar

Tres contribuciones a la teoría


de los sistemas dinámicos

Miguel Espinoza

[Tomado de la Revista LIMITE, 10 : 1 – 23 (2003)].

Primera contribución :
Ilya Prigogine, Les lois du chaos,
Flammarion, París, 1993.

Ilya Prigogine, premio Nobel de química en 1977, tiene el don de la exposición


oral y escrita de temas difíciles, sus instructivos textos se leen con agrado. Las leyes del
caos mantiene el tono vivo de las conferencias al origen del libro pronunciadas en la
Universidad de Milán en 1992. Corriendo el riesgo de ser aguafiestas, advierto que en
algún momento hay que salir del encanto y reaccionar.

La ciencia de lo estable.- Un preámbulo hará resaltar lo que el autor quiere hacer.


En la Física, Aristóteles muestra una marcada preferencia por lo regular y ordenado, lo
que se explica por la acción de un determinismo causal producto de condiciones
antecedentes, o bien por un determinismo producto de la finalidad o de la forma,
identificadas a la esencia inteligible. La repetición, la regularidad, el orden de los hechos
permite agruparlos en tipos estables, contenido de las ciencias particulares que se
construyen gracias al encadenamiento lógico de los diferentes sectores. Y sin negar que
los acontecimientos contingentes, fortuitos o accidentales resultan de la acción de
causas, los deja de lado con la indiferencia con que se trata lo marginal y lo falto de
interés. La predilección aristotélica por lo estable y lo regular ha dominado el curso de la
2

ciencia, y aunque los modernos hayan abandonado la sustancia (o materia)


reemplazándola por una relación (la masa es un coeficiente), y hayan renunciado a la
causalidad reemplazándola por una función (la correlación entre eventos), no se puede
negar la importancia de la ley de la naturaleza en la ciencia moderna. La ley da
testimonio del interés por la regularidad y el orden. Así, aproximadamente las mismas
condiciones iniciales producen, en aproximadamente las mismas circunstancias,
aproximadamente las mismas consecuencias cuando se trasladan los fenómenos en el
espacio y en el tiempo (ley causal); o bien: aproximadamente los mismos fenómenos
varían juntos (ley funcional).
Prigogine diría que la validez de lo recién descrito se terminó hace cien años: “El
siglo XIX nos ha legado una herencia doble. Por una parte tenemos las leyes clásicas de
la naturaleza, las leyes de Newton nos proporcionan el ejemplo supremo de tales leyes.
Estas leyes son deterministas: dadas las condiciones iniciales, podemos predecir todo
evento pasado o futuro; en consecuencia nos hablan de certidumbres. Por lo demás,
estas leyes son simétricas en relación al tiempo. El futuro y el pasado tienen el mismo
rol. Pero el siglo XIX nos ha legado también una visión evolutiva, temporal, del
universo, lo que se consigue a través del segundo principio de la termodinámica. Este
principio expresa el crecimiento de la entropía en el curso del tiempo e introduce así la
flecha del tiempo. Desde ese entonces el pasado y el porvenir ya no tienen un rol
simétrico” (p. 8). Prigogine ha dedicado una gran parte de su esfuerzo a entender el
segundo legado: su interés se concentra no en el ser sino en el devenir, no en lo estable
sino en lo caótico, no en lo eterno sino en lo temporal, no en el determinismo sino en el
indeterminismo, no en la certeza sino en la probabilidad. Desde que el caos ha sido
puesto en un sitio de honor, piensa Prigogine, la ciencia ya no es la misma que antes.
Me parece que los sistemas caóticos, tal como los concibe el autor, tienen cinco
propiedades íntimamente vinculadas entre ellas: 1) sensibilidad a las condiciones
iniciales, 2) la evolución contiene una serie de bifurcaciones, 3) la evolución es una
mezcla de determinismo y de indeterminismo, 4) las bifurcaciones introducen el tiempo
irreversible, y 5) las bifurcaciones explican la creatividad y la emergencia de nuevos
seres y propiedades. A continuación propongo algunos comentarios sobre estas
propiedades.

Inestabilidad y bifurcación.- Uno de los primeros en concebir la inestabilidad


exponencial fue H. Poincaré: “pequeñas causas, grandes efectos” (ver, por ejemplo, “Le
3

problème des trois corps”, 1891, y Science et méthode, 1903). Luego en el artículo “On
the Nature of Turbulence” de 1971, D. Ruelle y F. Takens utilizaron la noción de
sensibilidad a las condiciones iniciales para describir los sistemas caóticos. Eso significa
que en el espacio de las fases dos trayectorias inicialmente tan próximas una de la otra
como se quiera, se separan luego necesariamente. Dos movimientos en un estado inicial
muy cercanos pueden evolucionar de manera muy diferente y la incertidumbre inicial se
desarrolla de manera exponencial con el tiempo. El hecho que la distancia aumente
exponencialmente con el tiempo se expresa así: (δx)n = (δx)0 exp(λn) [(δx)0 = condición
inicial. El coeficiente λ se llama “coeficiente de Liapunov” y 1/ λ es el tiempo de
Liapunov. El tiempo de Liapunov permite definir una escala temporal con respecto a la
cual la expresión “dos mismos sistemas” -es decir dos sistemas que corresponden a la
misma descripción inicial- tiene un sentido efectivo]. Después de una evolución larga
con respecto al tiempo de Liapunov, se pierde la memoria del estado inicial. La
evolución de un sistema caótico es imprevisible.

Algunas ecuaciones diferenciales admiten soluciones inestables, hay entonces una


bifurcación. Grosso modo, diríamos que una solución de una ecuación diferencial es
estable si una variación muy pequeña en las condiciones iniciales o de frontera genera
cambios muy pequeños en el desarrollo de la solución. Doy un par de ejemplos de
bifurcación. Sea la ecuación diferencial y” = ay donde a es el parámetro. Si a > 0,
entonces la solución es exponencial. Llamémosla solución A. Si a = 0, entonces la
solución es una recta, es el caso límite (solución B). Si a < 0, entonces la solución es
sinusoidal (solución C). Una variación infinitesimal de a hace pasar de A a C. Otro
ejemplo: una bolita ubicada en el fondo de una esfera está en equilibrio estable mientras
la esfera comienza a girar lentamente, pero hay un umbral de velocidad a partir del cual
el equilibrio al fondo de la esfera ya no es estable y aparece otra posición de equilibrio a
cierta distancia del fondo, y es ahora esta nueva posición la que es estable.
Las bifurcaciones tienen una función eminente en la cosmología de Prigogine: son
las causas que explican hechos ignorados por la mecánica o la dinámica clásicas como la
historicidad y la irreversibilidad del tiempo. Diga lo que diga Prigogine, los mecanismos
que comportan bifurcaciones no refutan ni la causaldad ni el determinismo. (Sobre la
noción de bifurcación ver la nota 19 en el presente libro). Las leyes fundamentales de la
fisica clásica presuponen un tiempo reversible, el tiempo es una variable que puede
adoptar valores positivos o negativos, el tiempo no introduce ninguna novedad que no
4

sea en principio predecible y describe lo que el autor llama “estructuras muertas”, sin
disipación de energía (sistemas conservadores). Esto ocurre mientras se consideran
trayectorias únicas, pero la evolución “sin historia” cambia cuando aparecen las
bifurcaciones. Esto pasa con los sistemas disipativos “lejos del equilibrio”. El autor da
como ejemplo simplificado el caso de un sistema formado por dos moléculas X e Y de
colores “diferentes”. “La imagen intuitiva que nos formamos de las colisiones es que
corresponden a encuentros que se producen por azar. Deberíamos entonces prepararnos
a encontrar flashes de azul asociados con X o de rojo asociados con Y. En vez de eso
vemos una alternancia periódica de colores rojo y azul. Hoy conocemos un gran número
de osciladores químicos de ese tipo. La aparición de la solución oscilante lejos del
equilibrio se realiza a partir de un punto de ‘bifurcación’” (pp. 29-30). Desde los puntos
de bifurcación emergen diferentes soluciones y la elección entre las soluciones está dada
por un proceso probabilista. A partir de esta observación, Prigogine ve la evolución de
los sistemas caóticos lejos del equilibrio como una sucesión de estadios descritos por
leyes deterministas -la trayectoria del sistema donde no hay punto de bifurcación- y por
leyes probabilistas: en el punto de bifurcación la predicción tiene un carácter
probabilista. Para el autor hay entonces una continuidad entre lo determinado y lo
probable (imagen, por ejemplo, diría yo, de nuestra propia experiencia que parece estar
constituida de momentos determinados y de momentos libres).

La irreversibilidad.- Resumo el argumento de Prigogine a favor del modo fisico


de describir la irreversibilidad, el paso de la física del ser a la fisica del devenir (además
de Las leyes del caos tengo también en cuenta los capítulos 2 y 3 sobre la dinámica
clásica y la mecánica cuántica, respectivamente, de su libro From Being to Becoming.
Time and Complexity in the Physical Sciences, 1980). (1) A causa de las bifurcaciones y
de la inestabilidad, los sistemas caóticos clásicos o cuánticos tienen una temporalidad y
una historia irreversibles. Por eso, (2) el físico está obligado a ir más allá de la
descripción puramente dinámica, es decir de aquélla cuyos referentes están constituidos
por las variables dinámicas de los elementos que forman un sistema. (3) El abandono de
la descripción mediante variables dinámicas (aquéllas que se refieren a un sistema
macroscópico individual) nos lleva a recurrir a ecuaciones que describen la evolución de
un conjunto estadístico de tales sistemas. (4) Dado que estas ecuaciones son todavía
reversibles, queda la posibilidad de expresar la irreversibilidad gracias a una
5

transformación matemática que modifica la densidad p en una función p (p y p son


funciones de distribución). Este paso es del mayor interés científico y filosófico, una
clave para quien desee profundizar matemática y físicamente el programa de
investigación del autor. Esta transformación, como toda transformación de una función
en otra, se representa mediante un operador (en sentido matemático). Como se sabe, la
noción de operador es fundamental desde el momento en que la descripción en términos
de trayectorias clásicas representadas mediante funciones q(t), p(t) llega a ser
inadecuada. Pues bien, de acuerdo a Prigogine, esto es así no solamente en mecánica
cuántica sino también en mecánica clásica cuando el sistema es inestable. (5) Este punto
es crucial: para algunas clases de sistemas inestables, es posible elegir el operador de tal
manera que la función p tenga en el curso del tiempo un comportamiento irreversible.
(6) Si la descripción fundamental ya no se realiza en términos de trayectorias dinámicas
sino en términos de funciones de distribución, donde el paso de p a p es capital,
entonces se modifica nuestra visión del mundo tal como surge de la física clásica.
El químico moscovita contrapone los sistemas caóticos a los sistemas “muertos” o
“eternos”. En los primeros, la simetría temporal pasado / futuro se rompe. Lo interesante
según él es que en algunos casos los sistemas lejos del equilibrio son creadores de
estructuras. Afirma por ejemplo que sin las correlaciones de largo alcance debidas al no-
equilibrio no habría ni vida ni cerebro. Como en Bergson, el tiempo irreversible y su rol
creador son en Prigogine una plaza central donde convergen las diferentes vías de su
pensamiento. Se queja de que las leyes de la dinámica clásica, relativista o cuántica no
contengan la dirección del tiempo y propone entonces que se reformen las leyes de las
dinámicas tradicionales utilizando estrategias que reconozcan la irreversibilidad
temporal, acercando así el tiempo de la fisica al tiempo de nuestra vivencia. “La escuela
de Bruselas [de Prigogine] vio incluso aparecer, en el seno del formalismo creado por
ella, la noción de edad de los sistemas fuera del equilibrio. Esta edad difiere mucho del
tiempo matemático ordinario. Al contrario de él, ella está formalmente descrita no por
una variable numérica sino –como los observables de la mecánica cuántica- por un
operador definido en un espacio funcional. Como ocurre con estos últimos observables,
ella tiene un valor bien determinado sólo para algunos estados de los sistemas
considerados y no para todos. Ella se adapta mucho mejor que el tiempo corriente [el
tiempo matemático usual] a la descripción de los cambios que afectan a los sistemas
abiertos fuera del equilibrio y principalmente [a la descripción ] de aquéllos que
6

presentan tendencias hacia el orden y la complejidad... Esta edad formal se asemeja más
a la edad de nuestra experiencia inmediata que el tiempo corriente de los matemáticos y
se acerca así al tiempo (durée) vivido tal como nos afecta a nosotros, sistemas vivos”
(Bernard d’Espagnat, Une incertaine réalité. Le monde quantique, la connaissance et la
durée, París, 1985).
Tomando distancia del autor por el momento, propongo algunas observaciones
finales sobre el problema de la irreversibilidad: (1) Una vez reconocida la importancia
de la irreversibilidad de la evolución de p , cabe preguntarse si ella representa una
visión intersubjectiva solamente o si ella describe verdaderamente la realidad en sí. (2)
El espacio o el espaciotiempo por un lado, la materia o la materia-energía por otro,
constituyen la dualidad básica de la física. En la medida en que el espaciotiempo se
describe geométricamente, se describe con las categorías eternas del ser y es imposible
hacer justicia al tiempo irreversible del devenir. Queda la materia y la posibilidad de
asociar el tiempo irreversible a ella. (3) Como se sabe, en mecánica el símbolo utilizado
para representar el tiempo, t, es susceptible de adoptar valores positivos o negativos,
como ocurre, por ejemplo, en una dinámica hamiltoniana (cambio de t en –t), pero por
supuesto este caso no es el único. Dado que con las matemáticas se puede modelizar lo
reversible y lo irreversible, en principio no parece haber obstáculo matemático para la
creación de algoritmos que representen sistemas irreversibles. (4) Para representar la
irreversibilidad, es verdad que se puede construir un sistema diferencial que presente
atractores y caracterizar de cierta manera una evolución hacia un límite, pero,
curiosamente, el estado asintótico llega a ser él mismo reversible: “cuando se considera
el límite para t tendiendo hacia el infinito, que se tome el infinito + 1 o el infinito
simplemente, se tiene el mismo límite. Así, en cierto modo, se elimina el efecto del
tiempo [irreversible] en el límite mismo” (R. Thom, Paraboles et catastrophes, París,
1983). En suma, hay que reconocer con Prigogine –y no veo cómo podría ser de otra
manera-, que el tiempo es fundamentalmente irreversible, y la afirmación de que todos
los procesos físicos son reversibles es absurda. Entre los problemas que quedan
pendientes están la elaboración de una fisica de la irreversibilidad que evite un escollo
como el presentado por Thom y la superación de las dificultades presentadas por la
reversibilidad de las ecuaciones elementales. (“Que no se objete que existe una
propiedad de las interacciones débiles que no respeta esta reversibilidad”, advierte
7

d’Espagnat. “Esta propiedad es tan particular que los físicos están de acuerdo en no ver
en ella una fuente posible de la irreversibilidad macroscópica” (ibid.)).

“Las leyes del caos”.- “La definición habitual del caos nos conduce a
representaciones estadísticas ‘irreductibles’ (ya no podemos volver a la descripción en
trayectorias). Es esta propiedad que tomaremos como la definición misma del caos. Su
gran ventaja es que se extiende a los sistemas cuánticos. Son caóticos los sistemas
cuánticos cuya evolución no puede expresarse en términos de funciones de onda que
obedecen a la ecuación de Schrödinger sino que requieren una formulación en términos
de probabilidades” (pp. 65-66). “Las leyes del caos”: curiosa expresión. Si hay tales
leyes, entonces el caos no es el desorden, la confusión incontrolable. El caos en la
ciencia de hoy no es lo que el sentido común llama así sino el resultado de la
inestabilidad. Si hay leyes del caos entonces hay modelos, más o menos deterministas,
que describen la evolución de los sistemas caóticos. Según Prigogine, el caos expresa un
azar in re. La justificación que da es que las leyes del caos son las probabilidades:
epistemológicamente, las probabilidades se oponen a la certeza, ontológicamente, se
oponen al determinismo. Algunos científicos del siglo XIX como Poincaré disertaban,
sin contradicción, de la ciencia del azar para referirse a las probabilidades porque éstas
eran para ellos un remedio para salir del paso dada la complejidad de las pequeñas
causas que pueden producir efectos sorprendentes (ver, por ejemplo, Poincaré,
“Réflexions sur le calcul des probabilités”, 1899, “Le hasard”, 1907, reeditados en
L’Analyse et la recherche, Hermann, París, 1991).
De acuerdo a Prigogine, a partir de un modelo probabilista se puede sacar una
conclusión ontológica: el indeterminismo o el azar serían primitivos, existirían en la
realidad en sí: “Se admitía que las probabilidades no eran sino la expresión de nuestra
ignorancia. Para los sistemas inestables, eso no es así. Las probabilidades adquieren una
significación dinámica intrínseca” (p. 11). Esta afirmación, no justificable por la
experiencia, refleja una creencia metafísica, pero Prigogine no lo reconoce así y
continúa su discurso mezclando lo metafisico a lo científico. Esta mezcla infeliz puede
dejar en el lector poco sagaz la impresión, errónea, que la parte científica o positiva
descrita por el autor no puede ser prolongada sino por una ideología del azar. Propongo
entonces que se retengan firmemente estas cuatro afirmaciones: 1) las probabilidades
son un modelo descriptivo, 2) la teoría de las probabilidades es un modelo matemático
deductivo determinista apto para describir un determinismo débil, es decir, la evolución
8

de una clase de fenómenos y no de un fenómeno individual, 3) no se puede probar que


las probabilidades reflejen necesariamente un indeterminismo real, 4) al tratar este tema
hay que distinguir lo epistemológico de lo ontológico: el indeterminismo epistemológico
no implica el indeterminismo ontológico.

La imposibilidad de una ciencia nueva.- Prigogine tiene la costumbre de razonar


exponiendo lo que él considera como quiebres radicales y Las leyes del caos es una
ilustración de esta afirmación. Habría por una parte una ciencia clásica determinista en
búsqueda de la certeza y una ciencia contemporánea indeterminista que se satisface con
lo probable; una concepción clásica de las probabilidades como reflejo de la ignorancia
y una concepción reciente que le da un alcance ontológico; un período clásico sin
tiempo irreversible y una época reciente que considera al tiempo irreversible como la
variable principal; un científico clásico para quien sólo los sistemas estables cuentan y
un científico, contemporáneo nuestro, dedicado al estudio de los sistemas inestables (el
“cristal” y el “humo” de Atlan, los “relojes” y las “nubes” de Popper). Se opone
entonces lo nuevo a lo clásico y se hace el elogio de lo novedoso: habría una ciencia
nueva y una nueva racionalidad. “La introducción del caos nos fuerza a generalizar la
noción de ley de la naturaleza y a introducir los conceptos de probabilidad y de
irreversibilidad. Se trata de un cambio radical porque, según esta visión, el caos nos
conduce a reconsiderar nuestra visión fundamental de la naturaleza” (p. 15).
Esta manera de ver me parece exagerada. Hay más bien una continuidad en la
historia de la ciencia moderna. A mi juicio no existe ni puede existir una ciencia nueva;
el objetivo y los medios de la ciencia fueron, son y serán los mismos: se trata de
aprehender la inteligibilidad natural, de describir, de controlar y de explicar los
fenómenos mediante modelos construidos gracias al lenguaje natural y a las
matemáticas. Explicar quiere decir subir en la escala de la necesidad, vincular los
fenómenos de apariencia aleatoria a las leyes, a una necesidad, necesidad que se
manifiesta en la causalidad y en la deducción. Esta concepción de la ciencia es
satisfecha de manera óptima por los sistemas fisicomatemáticos, por los sistemas
laplaceanos, es decir, sistemas perfectamente controlables, predecibles y retrodecibles.
Propongo llamarlos “sistemas de primera clase”. Estos sistemas son perfectamente
definidos, las incógnitas dependen de un número finito de variables independientes, las
leyes estructurales que determinan la evolución están matematizadas, es decir que son
ecuaciones “cerradas” lo que significa que el número de ecuaciones es por lo menos
9

igual al número de incógnitas. Las leyes, que son ecuaciones, representan lo que hay de
necesario en la evolución de estos sistemas, y la parte asociada a la contingencia se
formula también de manera satisfactoria: el estado del sistema en un momento dado que
fija las condiciones iniciales, las acciones a distancia, etc. Aquí lo epistemológico y lo
metafísico se funden. Pero, desgraciadamente, no todos los sistemas son tan
satisfactorios, sea porque no se pueden definir perfectamente, o porque no se conocen
todas las leyes que rigen su evolución, o porque no todas las leyes están matematizadas,
sea en fin porque la parte asociada a la contingencia no se conoce perfectamente. Tales
son los sistemas “de segunda clase”. Ellos son de origen experimental La evolución está
también determinada, hipótesis justificada parcialmente por la existencia de leyes, pero
la predicción y la retrodicción precisas son imposibles. Finalmente, los componentes de
la “tercera clase” son los sistemas en que priman las probabilidades y las estadísticas: las
definiciones se dan en términos estadísticos, las leyes son probabilistas, y en lugar de la
certeza se obtienen predicciones y retrodicciones con una probabilidad determinada.
(Por supuesto no he tratado de ser exhaustivo en esta clasificación de sistemas
deterministas).
Por la gradación manifiesta en lo anterior, en vez de oponer la ciencia clásica
determinista y la ciencia nueva indeterminista, me parece que lo correcto es reconocer
que toda ciencia trabaja con modelos deterministas más o menos fuertes y que se recurre
a modelos deterministas débiles cuando no queda otro remedio. A mi juicio lo que se
degrada no es el determinismo ontológico sino nuestra manera de aprehenderlo.
Nuestros contemporáneos dedicados al estudio de la termodinámica y del ser vivo,
problemas donde el tiempo irreversible es ineluctable, tienen la tarea de fabricar
modelos cada vez más adaptados, y no es porque el modelo fisicomatemático estricto o
laplaceano no se aplica que se necesita una ciencia nueva o una nueva razón. Por eso es
inconveniente y sin pertinencia lo que dijo Sir James Lighthill, siendo presidente de la
Unión Internacional de Mecánica Pura y Aplicada, en un discurso publicado en 1966 y
comentado con entusiasmo por Prigogine. En su alocución Lighthill pide disculpas, en
nombre de todos los mecanicistas, a todas las personas cultas por haberlas inducido en
error haciéndoles creer que los sistemas que satisfacen las leyes newtonianas del
movimiento están determinados. Prigogine no deja pasar la ocasión de subrayar que es
una gran cosa que los expertos por fin reconozcan “que durante tres siglos se han
equivocado acerca de un punto esencial de su campo de investigación” (p. 42). El autor
recuerda que desde los años 1960 se sabe que existen sistemas simples cuya evolución
10

es caótica, por eso ya no puede decirse que el indeterminismo sea exclusivamente el


resultado de la complejidad, y serían estos nuevos descubrimientos los que habrían
motivado el mea culpa de Lighthill. Pero ¿por qué pedir disculpas? Laplace ya se había
dado cuenta, a comienzos del siglo XIX, que los sistemas fisicomatemáticos
perfectamente deterministas son excepcionales, razón por la cual escribió su Teoría
analítica de las probabilidades (París, 1812), y la grandiosa e intrépida declaración del
determinismo universal, su imaginación de la inteligencia que puede calcularlo todo,
aparece al comienzo de su Ensayo filosófico sobre las probabilidades (París, 1814). No
me cabe duda de que si Laplace viviera hoy, diría que hay que continuar la elaboración
de modelos para aprehender de la mejor manera posible el determinismo de los sistemas
caóticos, y estaría feliz de colaborar con los matemáticos y físicos dedicados, por
ejemplo, al estudio de los atractores, sugiriendo que incluso los sistemas de apariencia
más caótica están regidos por seres geométricos, los cuales, en algunos casos, son
complicados como los atractores extraños. No es porque se ensancha el género de
sistemas estudiados o porque se revisan algunas categorías que se funda una nueva
ciencia o que aparece una nueva racionalidad.

Segunda conrbución :
David Ruelle, Hasard et chaos,
O. Jacob, París, 1992.

A la conquista del azar.- Le parece a David Ruelle que los problemas sobre los
cuales el hombre ha pensado son de una de dos clases: una de ellas reúne aquéllos que
han progresado claramente, mientras que en la otra pueden ubicarse los que no presentan
esa característica, como la naturaleza de la conciencia o del arte. Los ejemplos muestran
que la primera clase es científica y la segunda filosófica, aunque el autor no las llama
así. Un problema de la segunda clase puede, con el tiempo, pasar a la primera. Tal ha
sido el destino del azar porque durante mucho tiempo se creyó que no se prestaría a un
estudio preciso y hasta hace poco fue despreciado por la comunidad científica. Las cosas
han cambiado, y si se pone atención a la abundante literatura sobre el tema aparecida
durante las últimas dos décadas, uno no puede sino conjeturar que a lo mejor el azar
tiene alguna conexión con el mundo. La opinión de Ruelle es clara: afirma que
11

actualmente el azar tiene una función central en nuestra comprensión de la naturaleza de


las cosas (p. 212). El objetivo de Azar y caos es dar una idea de ese rol. Se encuentran
situaciones caóticas en hidrodinámica, economía, astronomía, política, etc.
Sacrificándose a la moda, el autor habla del caos como de “un nuevo paradigma”
presente en muchos dominios diferentes (tal es el título del cap. 11: “El caos: un nuevo
paradigma”).

El atractor extraño.- Ruelle llegó a interesarse en el problema del azar


estudiando los fenómenos de turbulencia, por ejemplo situaciones donde las líneas de las
corrientes se entrelazan formando torbellinos que “se inflan” y que luego se desvanecen.
El paso de un fluido se pone turbulento cuando sus diferentes capas comienzan a
mezclarse. La turbulencia aparece cuando un gran número de posibilidades de evolución
se ofrecen a un sistema, lo que explica la dificultad de prever o de reproducir el
comportamiento de un sistema en una situación turbulenta dada. Cuando un medio es
turbulento, las diferentes partículas que lo componen pierden su individualidad para
evolucionar de manera caótica. Así todo parámetro utilizable para definir el estado
instantáneo de un sistema sufre con el tiempo variaciones aparentemente erráticas. El
sistema turbulento es sensible a las condiciones iniciales: una leve modificación de su
estado en un momento dado es susceptible de implicar variaciones considerables en su
estado futuro. Por eso un leve error de apreciación en su estado inicial puede tener como
consecuencia errores importantes en las previsiones a largo plazo. Por ejemplo las
previsiones del tiempo metereológico dentro de pocos días son inciertas. Así, aunque la
evolución de un sistema turbulento sea determinista, lo que ocurre si el sistema está
regido por un atractor, por un ser geométrico, sus estados futuros pueden ser
imprevisibles (caos determinista). El fenómeno de la turbulencia está muy presente en la
naturaleza y puede considerarse como algo general en lo que concierne la circulación de
los fluidos.
La antigua teoría que data de los años 1940, obra del físico Lev Landau, describía
la turbulencia como un fenómeno cuasiperiódico con adición de nuevas frecuencias en
el curso del tiempo. Pero la teoría no estaba en perfecto acuerdo con lo que muestra la
observación experimental (por ejemplo, la convección de Bénard). Ruelle retomó el
tema y en 1971 publicó, en colaboración con el matemático holandés Floris Takens, un
artículo notable, “On the nature of turbulence” (Commun Math. Phys., 20, 167-192; 23,
343-344). Ruelle y Takens introdujeron el concepto de “atractor extraño”. La evolución
12

temporal de un sistema fisicoquímico puede ser representada por la trayectoria de un


punto en el espacio de las fases del sistema. En algunos casos la trayectoria del punto se
acerca progresivamente a un dominio limitado de este espacio hacia el cual pareciera
que la trayectoria se siente atraída, y el dominio se llama entonces “atractor”. La
propiedad principal del atractor es la estabilidad. Puede ocurrir que para un sistema, a
corto plazo, muchas trayectorias sean posibles, pero a largo plazo un solo
comportamiento se impone, la trayectoria descrita por el atractor. Los atractores
pueden ser de tipos diferentes. Los más simples son (i) el punto, que corresponde al caso
de una solución independiente del tiempo, es decir a un estado estacionario, (ii) la órbita
o ciclo límite que corresponde a una solución periódica caracterizada por su amplitud y
su período, (iii) o más generalmente el toro que describe un régimen cuasiperiódico en
el tiempo con varias frecuencias independientes. Ahora bien, (iv) el atractor es
“extraño” cuando el dominio limitado no es ni un punto, ni una curva ni una superficie
lisa, sino objetos cuyo número de dimensiones no es un entero, cuando es una “fractal”
en la terminología de B. Mandelbrot. Este matemático introdujo en 1975 el concepto de
fractal (al que atribuyó el género femenino) con el objetivo de estudiar los procesos y las
formas irregulares que se encuentran en la naturaleza (nubes, esponjas, etc.) o en
matemáticas (atractores, curvas de Peano, curva de Koch, conjunto triádico de Cantor,
etc.). Cuando se mide por ejemplo la longitud de un contorno sobre un mapa dibujado a
escalas diferentes, no se encuentra siempre el mismo valor, y si se lleva este
procedimiento al límite se llega a poner en tela de juicio las nociones clásicas de
longitud, área, volumen y dimensión. Se introduce luego una noción de conjunto fractal
y de dimensión fractal de algunos objetos que no es necesariamente un número entero.
Eso no es todo, y ésta es la segunda característica de un movimiento organizado por un
atractor extraño: presenta el fenómeno de dependencia sensible de las condiciones
iniciales. Contrario a lo que ocurre en los sistemas que no son turbulentos, un atractor
extraño no puede ser determinado, tanto por la experiencia como por el cálculo, sino
punto por punto (pp. 67-85). Retengamos que el atractor de órbita fractal cumple con
las condiciones requeridas para la descripción adecuada de la turbulencia: es estable,
representa el estado final del sistema dinámico, su dimensión no es elevada porque
puede poseer algunos grados de libertad, a veces dos o tres, la órbita no es periódica, y
puesto que su longitud es infinita aunque está contenida en una superficie finita (el
espacio de las fases es finito y manipulable), es capaz de reproducir todas las
frecuencias.
13

En suma, el objetivo del artículo de Ruelle y Takens es de proponer una idea


diferente sobre la aparición de la turbulencia de la comúnmente aceptada. Lo aceptado,
la idea de Landau, era que los sistemas turbulentos están constituidos por un número
infinito de vibraciones, por un número infinito de grados de libertad, por un número
infinito de dimensiones, lo que exige la introducción de un espacio de las fases de
dimensión infinita, objeto que ya no es manipulable. En vez de una adición o de un
amontonamiento de frecuencias que conducen a una infinidad de movimientos
independientes que se entrelazan o se invaden mutuamente, Ruelle y Takens
propusieron solamente tres movimientos independientes y capaces de engendrar toda la
complejidad de la turbulencia. Los especialistas se han encargado de mostrar algunos
errores u obscuridades en el razonamiento de Ruelle y Takens, pero hay unanimidad
para afirmar que la intuición es justa y el valor del concepto de atractor extraño ya no se
pone en duda.

Entropía e irreversibilidad.- En el contexto de los problemas de la


termodinámica, el autor retoma la regla de que la entropía mide la cantidad de azar
presente en el universo. La entropía de dos litros de helio vale el doble de la entropía de
un litro (a temperatura y presión normales). En la termodinámica, la entropía es una
cantidad que permite medir la degradación de la energía útil de un sistema. En las manos
de los matemáticos rusos Kolmogorov y Sinaí, la entropía llegó a ser un concepto
matemático que precisa, para todo sistema dinámico conservador, en qué medida la
descripción de un punto se pierde en el transcurso del tiempo. Lo que interesa a Ruelle
mientras trata estos temas es, una vez más, que el responsable del azar medido por la
entropía es la complejidad, y esta complejidad es lo que nos obliga a echar mano a las
probabilidades, manifestación de incertidumbre.
Según Pierre Duhem y otros una transformación reversible es una sucesión
continua de estados de equilibrio termodinámico en la cual el sentido de la
transformación puede ser cambiado en cualquier momento mediante variaciones
infinitamente pequeñas de acciones externas. Se trata de una transformación ideal. El
menor roce mecánico, la menor falla en la uniformidad de la temperatura entre los
cuerpos de un sistema o entre el sistema y el exterior es causa de irreversibilidad. En
consecuencia todas las transformaciones reales son irreversibles. Ahora bien, la
explicación de la irreversibilidad que se obtiene siguiendo el razonamiento de
Boltzmann es que no hay irreversibilidad en las leyes fundamentales de la física; sucede
14

que el estado inicial que hemos elegido para nuestro sistema que parece irreversible es
sumamente improbable. Al menos en teoría, dado un lapso de tiempo suficientemente
grande, todo sistema puede volver a su improbable estado inicial. Ruelle reconoce que
hay varios aspectos físicos y matemáticos de la irreversibilidad que habría que precisar y
que la hipótesis ergódica no está demostrada matemáticamente (esta hipótesis es la
afirmación de que en una transformación puntual del espacio euclídeo, el entorno de casi
todos los puntos contiene una infinidad de puntos de la trayectoria). Pero este
pensamiento matizado no le impide afirmar que “uno de los ingredientes de nuestro
análisis, la reversibilidad de las leyes fundamentales de la fisica, parece ser un punto de
partida sólido” (p. 152).
Quisiera reaccionar ante esta última afirmación. Diferente a la actitud de muchos
científicos, varias veces en su libro Ruelle ve con buenos ojos los prejuicios con que se
abordan los problemas, “sobre todo si no son las ideas de moda y si son aplicadas con
una cierta obstinación”. “Las ideas preconcebidas, diferentes del dogma establecido, son
preciosas... y esenciales al descubrimiento en física. Pero al final hay que verificar si
estas ideas son correctas o falsas haciendo una comparación cuidadosa de las teorías y
de la experiencia” (p. 152). Otra manera de decir esto es que la metafísica, concebida
como programa de investigación y como antecedente de la ciencia, es útil y pertinente, a
condición de poder en algún momento tocar la experiencia. Pues bien, es precisamente
en nombre de este principio y de esta exigencia de verificación puestos por el mismo
Ruelle que yo, con obstinación, no puedo estar de acuerdo con él cuando afirma que la
reversibilidad de las leyes de la física le parece ser un punto de partida sólido. Mencioné
la definición de Duhem para destacar lo ideal de la irreversibilidad. La idea, que no está
de moda, es que el hombre, cuya existencia y cuya experiencia son hechos, no es una
excepción en el universo: somos sistemas naturales y en nuestro mundo -donde todo es
temporalmente irreversible- no se ve por qué una posibilidad puramente matemática e
ideal sería un punto de partida físico más sólido que la irreversibilidad.

Conceptos de azar.- Es útil dar una idea de los varios conceptos de azar de interés
científico que el autor no consideró necesario exponer: 1) Azar = espontaneidad. Puede
pensarse en el mayor desafío que la ciencia presenta a la doctrina determinista y a la
causalidad, el salto cuántico: la desintegración de átomos, radioactivos o no, no parece
deberse a ninguna causa externa. 2) Azar = fenómeno producido por el encuentro
accidental de líneas causales independientes. Se trata de la definición de A.- A. Cournot,
15

compatible con el determinismo ontológico de la visión mecanicista del mundo. En este


caso, un encuentro por azar es previsible, como se anticipa el encuentro de un cometa y
de un planeta. 3) Azar = serie aleatoria de números imposible de ser engendrada por
algún algoritmo más corto que la serie dada. Se trata de un concepto al interior de la
teoría matemática de Kolmogorov-Chaitin. Si el dominio matemático es independiente
de nuestras mentes, entonces este concepto de azar es ontológico. 4) Proceso que no
puede ser simulado por ningún mecanismo ni descrito por ningún formalismo. 5) Azar =
falta de finalidad. Así, una de las críticas formulables contra la teoría de la evolución es
que el concepto mismo de evolución parece contradictorio: ¿qué es una evolución que
no se encamina a ninguna parte? ¿Cómo explicar el orden de un organismo a partir del
azar o del desorden, o como resultado de mutaciones aleatorias? La idea es de aplicación
global e incluso en la vida corriente decimos que algo ocurre por azar cuando nos parece
que lo ocurrido no estaba en los planes de nadie.
Ruelle se detiene a discutir las probabilidades (capítulo 3). Una serie de eventos
que ocurren por azar puede considerarse como una serie de n variables aleatorias
sometible a la ley de los grandes números (Kolmogorov, 1920) que exige que dichas
variables o eventos que ocurren por azar sean (i) independientes, (ii) integrables, (iii)
equiprobables, (iv) con la misma ley de esperanza matemática y (v) que la serie tienda
casi seguramente hacia la esperanza matemática a medida que n tiende al infinito. Este
concepto de azar = variable aleatoria es uno de los más útiles porque es claro, y es claro
porque es el objeto de una teoría matemática, la teoría de las probabilidades (o cálculo
de probabilidades) que es, a su vez, un dominio particular de la teoría de la medida. Así
el azar llega a ser una noción constructiva que contribuye a la predicción y por lo tanto
al conocimciento de los fenómenos. El cálculo de probabilidades nos da las leyes del
azar, lo que visto superficialmente parece contradictorio.
La manera en que Ruelle se acerca al azar, su descripción como ausencia de
cálculo o ausencia de previsión, determina en gran parte lo que tiene que decir sobre los
problemas (más filosóficos que científicos) a los cuales se refiere. Salta a la vista que
cuando Ruelle habla del azar no tiene en mente un azar ontológico, ni la causa ciega, ni
la negación de la fatalidad o de la omnisciencia divina de antiguos o medievales. Antes
del advenimiento de la ciencia moderna el determinismo era una doctrina teológica y
metafísica incompatible no solamente con el azar sino con la libertad humana, y este
problema ancestral, que es todavía el nuestro si creemos en el determinismo universal,
reaparece en la célebre descripción del modelo determinista de Pierre-Simon Laplace tal
16

como lo expone en el Ensayo filosófico sobre las probabilidades de 1814: “Una


inteligencia que en un instante dado conociera todas las fuerzas que animan la
naturaleza y la situación respectiva de los seres que la componen, si además fuera lo
suficientemente vasta para someter estos datos al análisis, abarcaría en la misma fórmula
los movimientos de los cuerpos más grandes del universo y los del átomo más liviano:
nada sería incierto para ella, y el futuro, como el pasado, estaría presente a sus ojos”.

El azar, límite del determinismo.- Si el azar significa la ausencia de un cálculo


que permite la predicción, se entiende que para Ruelle el binomio azar / determinismo
sea, en gran parte, un seudoproblema (p. 41). El azar pone límites a lo que podemos
prever; refleja nuestra incapacidad de describir las cosas de tal manera que su evolución
sea predictible. Esta concepción está en armonía con la tendencia a considerar que el
determinismo (concepto moderno que ha reemplazado a la necesidad de los antiguos) es
una doctrina epistemológica y no ontológica. De hecho, los científicos, y Ruelle no es
una excepción, son reservados en lo concierniente al eventual conocimiento de las cosas
en sí y prefieren no pronunciarse sobre cuestiones metafísicas. Aunque habría que
reconocer que en algunos lugares el autor muestra simpatía por la metafísica.
Discutiendo las ideas de Boltzmann, tiene la oportunidad de preguntarse si existe, en
física, una realidad última, y confiesa que él espera que la respuesta sea positiva. (pp.
148-149).
Discutiendo la relación entre el azar y el determinismo, Ruelle hace referencia a la
controversia, muy animada, que tuvo lugar en Francia hace unos años entre René Thom,
determinista, e Ilya Prigogine, partidario de la ideología del azar (cf. La querelle du
déterminisme, Gallimard, 1990). No es éste un lugar apropiado para retomar lo esencial
del debate y me limito a hacer notar que Ruelle hace hincapié en el hecho que aunque
las opiniones filosóficas de los participantes en el debate están en conflicto violento, las
divergencias no tocan los detalles de los fenómenos observables, sugiriendo tal vez que
existe una distinción nítida entre lo filosófico y lo científico y que la unanimidad sobre
lo observable es más interesante que la controversia sobre lo filosófico (p.42). Nada
obliga a compartir la supuesta sugerencia del autor; a mí me parece que lo observable y
sus detalles no tienen interés intelectual sino en la medida en que influyen en nuestra
cosmología, en nuestra visión filosófica global del universo, y desde este punto de vista
la controversia determinismo / indeterminismo es interesante y justificada. Pero como
ocurre a menudo en los libros de carácter filosófico escritos por los científicos, el asunto
17

es abandonado cuando se pone filosóficamente interesante (los científicos hacen de día


un trabajo tan agotador que por la noche ya no les quedan fuerzas para tomar distancia
del problema y filosofar).

El azar-complejidad.- Ontológicamente el determinismo y el indeterminismo son


incompatibles, pero epistemológicamente hay continuidad entre ellos. El determinismo
epistemológico es la capacidad de predecir mediante algoritmos eficaces, pero temprano
o tarde todo algoritmo encuentra límites en su aplicación y pierde su eficacia más o
menos gradualmente según los casos. Todo sistema complejo es fuente de azar, es decir,
en este contexto, de ausencia de cálculo satisfactorio, de previsión, lo que es
comprensible porque los sistemas complejos contienen un alto número de variables
independientes, componentes de ecuaciones diferenciales que pueden contener términos
no lineales (eso significa que las cantidades puestas en relación no varían
proporcionalmente unas con otras). La complejidad está ligada a la información, y según
Ruelle, un objeto, físico o intelectual, es complejo si contiene una información difícil de
obtener. Pero ¿qué es una información, qué significa “difícil de obtener”? Se entiende
que el contenido específico de esta afirmación debe ser establecido por cada ciencia. El
autor se limita a desarrollar el concepto de complejidad algorítmica, lo que lleva a cabo,
como era de imaginar, teniendo en cuenta el concepto de “máquina de Turing” y sus
límites tal como son puestos, o sugeridos, por los teoremas de incompletud de Gödel
(pp. 179-195). Un algoritmo es una manera mecánica y sistemática de efectuar una tarea
o de resolver un problema. Operando sobre datos simbólicos finitos, se trata de llegar a
un cierto resultado en un número finito de manipulaciones explícitamente descritas sin
ambigüedad. La complejidad algorítmica de un problema depende de la existencia de
algoritmos eficientes para tratar el problema. La sustancia de la idea puede expresarse
así: para saber si un algoritmo es eficiente o no, se compara la longitud L del mensaje de
datos y el tiempo T (número de ciclos de una máquina de Turing universal) necesario
para obtener una respuesta. Si T crece como Ln, es decir, si existen constantes C y n
tales que T ≤ C(L+1)n, se dice que se tiene un algoritmo de tiempo polinomial (porque
C(L+1)n es un polinomio en L). Ahora bien, un algoritmo de tiempo polinomial es
considerado como eficiente, y se dice entonces que el problema correspondiente es
tratable. Pero todos los problemas no son tratables. Un algoritmo de tiempo exponencial
es de una utilidad limitada y en general, todo problema para el cual no existe un
algoritmo de tiempo polinomial es considerado como intratable. En suma, un problema
18

pertenece al azar si es intratable; es intratable si es demasiado complejo, y es demasiado


complejo si no tenemos un algoritmo que nos permita prever su desarrollo en un tiempo
razonable, es decir, antes (o mucho antes, según las circunstancias) que el fenómeno
ocurra. Comentando el alcance de la complejidad algorítmica, el autor sugiere que el
concepto puede servir de metáfora para la comprensión del azar en campos diferentes.
Es ésta una muestra del optimismo de Ruelle en cuanto al uso de modelos matemáticos,
incluso no cuantitativos, para la comprensión de vastos dominios de la realidad, aunque
los que no creen que la naturaleza está organizada matemáticamente no manifestarán
simpatía por esta intrusión imperialista de las matemáticas en los territorios de otras
ciencias.

Azar, determinismo y libertad.- La libertad humana parece difícilmente


compatible con la doctrina de la necesidad o del determinismo. ¿Cómo concebir el libre
albedrío con las categorías de una ciencia que busca explicar los fenómenos
cubriéndolos bajo leyes? Todo estudio científico de la evolución del universo tiende
necesariamente a una formulación determinista. Pero Ruelle hace notar que algunas
leyes son probabilistas. Ocurre que a veces la complejidad de los sistemas estudiados no
nos permiten obtener leyes en sentido clásico. Hay sistemas cuya descripción es
solamente estadística y todo el aparato de representación se hace en términos
estadísticos. Es como si el determinismo estricto dinámico-geométrico se diluyera dando
lugar, gradualmente, a un determinismo probabilista. (De manera característica, los que
creemos en el determinismo no tenemos simpatía por los métodos probabilistas y
pensamos que desde el punto de vista de la comprensión lo mejor que se puede esperar
de ellos es indicar las vías hacia el conocimiento causal). Así, según el autor, la libertad
humana estaría vinculada a un problema de cálculo. La explicación final de nuestra
libertad tendría que buscarse en la complejidad del universo, o más precisamente, en
nuestra propia complejidad (pp. 44-45). La actitud de Ruelle no es sorprendente porque
para un científico, el criterio de libertad es a menudo el mismo que el del
indeterminismo o del azar: la ausencia de predicción. Si nuestro comportamiento es
incalculable, entonces somos libres. En cambio el criterio del filósofo es más profundo,
enfatiza el sentimiento de responsabilidad que acompaña al acto libre, llama la atención
sobre la necesidad de sentirse señor de sí mismo. Obsérvese que la responsabilidad
presupone el determinismo de las consecuencias del libre albedrío. Notemos además que
esta manera de pensar la libertad es independiente de la doctrina de la necesidad
19

ontológica: la ausencia de cálculo, a causa de nuestra complejidad, no es un comentario


sobre la posibilidad o la imposibilidad del determinismo real. Tal vez la libertad es una
ilusión, provisoriamente necesaria a nuestra conducta y al orden social, que resulta del
hecho -Spinoza no me habría contradicho- que nuestra conciencia es incapaz de
enterarse de todo lo que pasa al interior de nuestro cerebro. Lo dicho acerca de la
independencia entre la libertad y la necesidad puede generalizarse a todos los sistemas:
el indeterminismo epistemológico, la ausencia de cálculo, es independiente del
determinismo ontológico, el primero no implica el segundo. Lo sorprendente es que casi
todos los científicos y muchos filósofos, cuando se aventuran en el terreno metafisico,
infieren el indeterminismo ontológico de la falta de previsión numéricamente exacta.
Ruelle nos recuerda que según el mismo Schrödinger, la esperanza de armonizar el
indeterminismo cuántico con el libre albedrío es falaz (p.43). Schrödinger distinguía la
apreciación de la libertad de los otros con la nuestra propia. En el primer caso, no veía
mucha dificultad en encontrar una explicación determinista al comportamiento ajeno,
mientras que en nuestro caso es difícil aceptar el determinismo ante las posibilidades
que enfrentamos y ante el compromiso serio y a veces doloroso que contraemos al
aceptar una de ellas. El azar físico, si existe, no resulta de ninguna ayuda en la
resolución de la contradicción. ¿Acaso se compromete la responsabilidad decidiendo al
azar? Nuestras decisiones no se hacen (casi) nunca al azar sino, por ejemplo, en virtud
de un principio de optimización, y esto de manera consciente o inconsciente. Luego,
sobre la compatibilidad entre el determinismo y el azar, nótese que para probar que un
sistema está determinado, tenemos que poder variar libremente algunos de sus
parámetros, y que, por otra parte, si nos sentimos responsables de nuestros actos, es
porque nuestra decisión actúa como “cabeza de serie” de un proceso que se desarrollará
necesariamente.
La idea satisfactoria, sugerida tímidamente por Ruelle, es que el azar o el caos son
límites de nuestra capacidad de producir un cálculo que permita la previsión, lo que deja
las puertas abiertas a la creencia en un orden sin el cual nuestra actividad científica o
filosófica no tendría razón de ser. Es tal vez algo por el estilo que el autor tiene en mente
cuando dice, comentando la manera inesperada en que los hoyos negros encajan
perfectamente en el marco de la termodinámica y de la mecánica cuántica, que es ése
“uno de aquellos milagros... que nos muestran que hay en las leyes de la naturaleza una
armonía más grande de lo que uno se habría atrevido a imaginar” (p. 170).
20

Tercera conribución :
Théodore Vogel, Pour une théorie mécaniste renouvelée,
Gauthier-Villars, París, 1973.

Este conciso volumen, admirable por la calidad del fondo y de la forma, se abre
con la constatación que el mecanicismo conoció una gran fortuna durante los trescientos
años que precedieron al siglo XX. Desde Descartes hasta Lord Kelvin se edificó una
construcción científica considerable. Una vez reconocido lo simple de la pretensión que
se puede explicar todo en el mundo sensible “por figuras y movimientos” (Descartes y
otros), así como lo ingenuo de la creencia en la realidad intrínseca de estos modelos,
Vogel menciona varias propiedades del mecanicismo que él quisiera ver mejoradas y
expandidas en su aplicación. El tono del volumen revela nostalgia y fuerza tranquila:
nostalgia de un pasado no muy lejano en que el mecanicismo era casi unánimemente
reconocido como el núcleo de la ciencia de la naturaleza, fuerza tranquila originada en
la convicción, subyacente al mecanicismo, de que lo conocible del universo es
descriptible matemáticamente.

El carácter indispensable de las matemáticas.- “La esperanza secreta de una


explicación unitaria del mundo tal vez no nos ha abandonado completamente” (p. 2). Es
sobre el componente matemático que recaen principalmente las esperanzas depositadas
en el mecanicismo. Las matemáticas son la herramienta más poderosa del mecanicista,
como puede verse en la mecánica racional. El deseo de obtener una comprensión
unitaria altamente perfeccionada del mundo sensible gracias a los modelos matemáticos
“era una noble ambición y un punto de vista cuyo principio permanece justo” (ibid.). El
neomecanicismo preconizado por el autor se desarrolla gracias al hecho que las
matemáticas son el lenguaje del razonamiento exacto y riguroso llevado a cabo con
conceptos “claros y distintos”. Vogel confía en la capacidad de la razón de clarificar los
conceptos, optimismo compartido por los filósofos racionalistas que han imaginado
incluso la elaboración de una metafísica rigurosa o exacta (Leibniz, Gödel), y piensa,
más allá y con razón -la historia de las matemáticas testimonia en su favor- que las
matemáticas son capaces de crear nuevos entes que permitirán la elaboración de
modelos mejor adaptados al estudio de sistemas. (En este contexto el autor menciona,
21

sólo de paso, la contribución de las distribuciones de Laurent Schwartz a la fisica


matemática).

Etapas y alcance del procedimiento mecanicista.- Uno de los méritos


principales del autor es precisar la esencia del mecanicismo dando pistas además para
extender la actitud mecanicista al estudio de una serie de sistemas que han sido hasta
ahora reticentes a tal tratamiento. El método neomecanicista prolonga el procedimiento
típico de la mecánica racional. Quien desarrolle por ejemplo la dinámica teórica o la
dinámica topológica actuará como sus predecesores mecanicistas. Para una mejor
comprensión trato separadamente las propiedades del mecanicismo que el autor
entrelaza, y en aras de la claridad, desdoblaré en seis etapas lo que Vogel resume en tres:
1° El pensador mecanicista delimita una región del espaciotiempo y elige un sistema
concreto, un todo relativamente estable y separable de su ambiente. La atención se
centra en este sistema, dejando provisoriamente el resto del universo fuera de la
descripción hasta que la investigación esté terminada. 2° Intenta enseguida abstraer de
este sistema ciertos aspectos significativos que trata como si constituyeran un grupo
cerrado. Entre estos aspectos hay relaciones o acciones internas y externas. Las primeras
existen entre partes del sistema, las segundas entre una parte o el todo del sistema y los
cuerpos que no están incluidos en el sistema. Las relaciones externas se estudian sólo en
la medida en que afectan al sistema examinado. La abstracción efectuada en esta etapa
es definitiva e irreversible -el mecanicista no se autoriza a introducir más tarde, en el
curso de su razonamiento, otras cualidades que había dejado de lado al definir el
sistema, eso viciaría lo ya hecho y tendría que recomenzarlo todo. 3° A las propiedades
elegidas el mecanicista hace corresponder una serie de entes matemáticos. 4° Luego
postula que los objetos sensibles tienen entre ellos algunas relaciones específicas como
las que se encuentran, por ejemplo, en las ecuaciones diferenciales que describen las
leyes de evolución de todos los fenómenos de una misma clase. 5° De estas relaciones
deduce el número más elevado posible de consecuencias lógicas. Finalmente, 6° el
mecanicista traduce las consecuencias lógicas al campo de lo observable para verificar
hasta qué punto el procedimiento es adecuado (pp. 4, 5, 143). No habría que creer que lo
descrito es aplicable solamente a los sistemas fisicos, el autor piensa que tal
procedimiento es extensible a todo sistema natural, fisico o biológico, y en principio el
modelo mecanicista puede aplicarse también al ser humano porque somos sistemas
naturales. Apreciemos la audacia y la lucidez de Vogel: “Hemos intentado sugerir... el
22

interés que presentaría una tentativa de explicación análoga de un cierto número de


procesos biológicos y sociales; si no hemos propuesto aplicaciones explícitas a tales
problemas, es porque nuestra falta de competencia habría podido conducirnos a
presentar axiomatizaciones ingenuas más susceptibles tal vez de alejar que de atraer a
los especialistas. Por poco que hayamos conseguido convencerlos, les corresponde a
ellos tomar la iniciativa” (p. 143).

Los sistemas dinámicos.- La teoría de sistemas es una teoría generale


interdisciplinaria cuyo objetivo es el estudio matemático de los sistemas (Vogel es el
autor de varios textos sobre la física matemática y sobre la teoría de sistemas). Se trata
entonces de una filosofía natural, de una reflexión situada a medio camino entre la
ciencia y la filosofía. Por no ser una ciencia “dura”, no es por lo general bien vista, por
ejemplo por los físicos. De acuerdo a uno de los conceptos de sistema, es éste un
conjunto de elementos, materiales o no, caracterizados por su composición; los
elementos están relacionados unos a otros. Ahora bien, se ha hecho notar que esta
caracterización es tautológica en la medida en que los elementos son a su vez entidades
complejas cuyos componentes interactúan.
Otra manera de caracterizar el sistema consiste en considerarlo como un dominio
del espaciotiempo separado del medio exterior (del resto del mundo) por una pared o
superficie, real o ideal. Expongo a continuación algunas generalidades sobre los
sistemas y algunas observaciones personales que Vogel, a mi juicio, aceptaría. Si es
impermeable a la materia, el sistema es cerrado; es abierto en caso contrario. Un sistema
está aislado si no intercambia ninguna forma de materia, calor o energía ni con otros
objetos ni con el medio exterior. A cada instante el sistema está definido, en una escala
dada, por los valores de un cierto número, a veces elevado, de variables. Si el estado
persiste, es un estado de equilibrio, y un sistema fuera del equilibrio evoluciona
sufriendo transformaciones. El sistema describe un ciclo si después de una serie de
transformaciones vuelve al estado de equilibrio. En un sistema estable las perturbaciones
se amortiguan; en cambio en un sistema inestable las perturbaciones producen
desviaciones que se amplifican. Se distingue una estabilidad de la materia y una
estabilidad de la forma: en el primer caso el control de las condiciones iniciales permite
el control de las posiciones al cabo de un cierto tiempo; en el segundo caso, aunque no
haya estabilidad de la disposición de las partículas, una forma subsiste: es la estabilidad
estructural. Hay sistemas disipativos (que pierden energía por roce) y sistemas
23

conservadores o hamiltonianos, como los sistemas astronómicos. Hagamos también


alusión a los sistemas simples y complejos: los primeros se definen mediante un número
reducido de variables, de dimensiones o de grados de libertad, mientras que los sistemas
complejos se representan mediante un número elevado o infinito de los mismos. Así la
teoría de sistemas es un estudio interpretativo del comportamiento de estos seres: se
concibe una idea de las razones o leyes inobservables tanto internas como externas al
sistema que determinan que éste se comporta de tal o cual manera (output) dada su
sensibilidad a tal o cual contacto, influencia o estímulo (input). Para interpretar de esta
manera el comportamiento de un sistema no hay otra posibilidad salvo definir su estado
interno mediante parámetros suplementarios en relación a la entrada y a la salida,
parámetros que representan la naturaleza y la memoria del sistema. El hecho que la
teoría de sistemas interprete las razones o leyes inobservables que conectan lo
observable bajo la forma de entrada de datos y de salida explica, pero no justifica, la
desconfianza de los físicos por la teoría de sistemas.
Después de estas aclaraciones que permiten entender mejor el pensamiento de
Vogel volvamos a él. Los objetos que retienen la atención del autor en el cap. IX son los
sistemas dinámicos. Recordemos que la dinámica es la rama de la mecánica que
establece el lazo entre los movimientos de los sistemas materiales y las acciones
mecánicas que se ejercen sobre ellos. El movimiento implica el tiempo, por eso en cierta
manera la dinámica es la descripción del paso del tiempo, del envejecimiento. En
reacción a la afirmación de Bergson y de L. de Broglie que el tiempo del mecanicista es
inútil e irreal, Vogel escribe: “el tiempo, tal como se lo entiende aquí, no es inútil en un
mundo completamente determinado pues sirve para ordenar los estados, para dar un
sentido a las cosas uniéndolas mediante cadenas evolutivas y causales” (p.52). El tipo de
evolución más simple imaginable y el más utilizado en la teoría de los sistemas es el que
adopta como prototipo la ley fundamental de la mecánica racional (ley de Newton). Los
sistemas regidos por ella se llaman “dinámicos” y son calificados de “autónomos” si la
función no depende explícitamente del tiempo. Lo importante, en este contexto, de la ley
fundamental de la mecánica racional no es tanto que las ecuaciones que se derivan de
ella no sean difíciles de resolver numéricamente, sino más bien que la teoría es lo
suficientemente completa como para permitir al físico responder a las preguntas
principales sobre el sistema estudiado.
24

La estabilidad.- Coherente con su creencia de que podemos explicar el mundo,


Vogel tiene una predilección por el orden, la regularidad, lo universal, por las
características que hacen que la ciencia sea posible. Se enfatiza entonces la estabilidad y
en particular la estabilidad estructural, aquella de la forma de los sistemas. La
estabilidad estructural puede verse, me parece, como el concepto heredero de la
identidad o de la inmutabilidad del Ser de Parménides o de las Ideas platónicas: algo es
conocible si no varía, o mientras no varía, mejor dicho, si varía manteniendo una forma
reconocible. Así se explica el interés del autor por los sistemas dinámicos
estructuralmente estables y deterministas. Una vez que estos objetos se han entendido,
uno se aventura poco a poco hacia los otros sistemas menos estables. Vogel pasa revista
a varios conceptos de estabilidad: la estabilidad estructural, la estabilidad en el sentido
de Lagrange, en el sentido de Poisson, la noción de cuasiperiodicidad de Harald Bohr, la
estabilidad en el sentido de Liapunov (pp. 82-89). No puedo detenerme a describir todos
estos importantes conceptos y menciono sólo las propiedades esenciales de algunos: “La
definición más débil es la de Lagrange: un movimiento es estable... si toda su trayectoria
está contenida en un dominio limitado del espacio de representación, es decir si no se
aleja al infinito”. La estabilidad estructural es “la propiedad que posee un sistema
dinámico de conservar el mismo retrato topológico (naturaleza de las singularidades y
de los sectores que las rodean, existencia de ciclos límites...) incluso de las trayectorias
próximas a las trayectorias primitivas, cuando se modifica la función campo de las
velocidades por la adición de términos suficientemente débiles en valor numérico”.
Aunque se reconoce que la idea presenta problemas difíciles no resueltos, le
parece al autor que la estabilidad estructural está asegurada por la mayoría de los
sistemas y que las condiciones de inestabilidad conocidas se pueden evitar fácilmente en
la construcción de una ley de movimiento. En un sistema estructuralmente estable,
cuando la ley de evolución comporta un parámetro que se hace variar, el retrato
topológico varía poco si el parámetro varía poco, pero para ciertos valores del
parámetro, una nueva solución aparece bruscamente, y la solución diverge
considerablemente de la solución original cuando el parámetro continúa variando. Así
existe por lo menos un valor crítico del parámetro responsable de una bifurcación (sobre
la noción de bifurcación ver la nota 19 en el presente libro). Hay bifurcación cuando la
solución de la ecuación o del sistema de ecuaciones cambia cualitativamente. Un punto
del espacio de los parámetros donde ocurre un tal evento es un punto de bifurcación. De
ese punto emergen dos o más ramas de solución estables o inestables, y la existencia de
25

bifurcaciones da un carácter histórico a la evolución de un sistema. El autor hace ver que


la bifurcación de los sistemas dinámicos ofrece posibilidades ricas y variadas que no han
sido todavía suficientemente exploradas. (Señalemos que después de 1973, año de
publicación de Por una teoría mecanicista renovada, han aparecido importantes trabajos
en este dominio; hay, por ejemplo, artículos de V. I. Arnold, de R. Thom, y de I.
Prigogine).
Los sistemas dinámicos aludidos aquí son deterministas de una manera a veces
más rica y compleja que lo supuesto por el determinismo laplaceano, pero se trata en
todo caso de sistemas cuyo pasado y futuro de deducen del presente y de la misma
manera. Aunque son sólo un caso particular de una vasta clase de sistemas, su interés
reside en que su determinismo puede ser estudiado gracias al estado de avance de la
teoría de las ecuaciones diferenciales. Los capítulos finales están dedicados al análisis
de varios otros tipos de sistemas, a modelizar sistemas que presentan una diferencia
entre el pasado y el porvenir, una de las razones por las cuales el lenguaje empleado es
de orden biológico o humano: sistemas hereditarios con memoria continua, sistemas
hereditarios con retraso, sistemas hereditarios rompientes, sistemas dinámicos no fatales,
sistemas perecederos, sistemas prolíficos, etc. No me detengo aquí a describir estos
sistemas ni a comentar lo que el autor dice de ellos, pero estas páginas serán sin duda las
que más interesarán a los fisicos y a los matemáticos.

Causalidad, determinismo y probabilidades.- Pero quisiera detenerme en una


última característica de la visión mecanicista, la creencia en la causalidad y en el
determinismo. Eso no puede sorprender dado el rol central de las matemáticas, actividad
determinista, una vez plantados los axiomas. De los griegos se ha heredado la intuición
de que “todo lo que se mueve es movido por algo” y es este algo o motor que llamamos
causa de la evolución. Luego está la definición negativa de causa, ablata causa tollitus
effectus. Vogel examina varias condiciones impuestas a la causalidad por algunos
pensadores antiguos como Aristóteles. Así, una causa, un estado de un objeto o de un
ser, acarrea consecuencias necesarias que se manifiestan como transformaciones de
algunos de los estados de los objetos afectados. Mencionemos también la continuidad, la
suposición de que la transmisión del efecto tiene lugar por contacto o contigüidad, lo
que exige una cierta duración, todo lo cual implica el carácter ininteligible de una acción
a distancia. Otra condición es la semejanza entre la causa y el efecto: “la causa, dice Sto.
Tomás de Aquino, produce un efecto que se asemeja a ella”. Estas nociones y exigencias
26

tienen que ser revisadas a la luz del progreso de la ciencia, pero las intuiciones
principales siguen sirviendo de guía. “El ejemplo de los sistemas dinámicos basta para
mostrar que la clase de sistemas para los cuales existe una relación causal no está vacía
y que es incluso una clase rica que contiene todos los sistemas que componen el
imponente edificio de la ciencia mecanicista” (p. 43).
Vogel no puede eludir el espinoso principio de las relaciones de indeterminación
de la fisica cuántica (que establece la imposibilidad teórica de medir simultáneamente
con toda la precisión deseada las posiciones, los desplazamientos y las cantidades de
movimiento). ¿Es este principio incompatible con el determinismo? ¿Se opone acaso al
determinismo la interpretación probabilista? ¿Puede explicarse la mecánica cuántica
mediante variables “ocultas” en un nivel subcuántico? Cara a estos graves interrogantes,
Vogel observa que ninguna respuesta verdaderamente satisfactoria ha sido dada por
personas eminentes y que por eso él no tendría la suficiencia de decidir, “pero se nos
permitirá decir que si la actitud no-determinista debe ser aceptada sin reservas, habría
muchas explicaciones que dar y que no han sido dadas hasta ahora” (p.49). El autor no
dice cuáles son estas explicaciones y varios candidatos se me vienen a la mente. He aquí
algunos: explicar quiere decir mostrar cómo se producen los fenómenos y cómo
evolucionan, lo que presupone causas determinantes y leyes basadas en un orden
natural. La ciencia progresa gracias a la estabilidad del mundo y esto se expresa
típicamente mediante el principio de causalidad descriptible de maneras que difieren en
grado de rigor. Paul Painlevé lo define así: “Cuando se realizan las mismas condiciones,
en dos instantes diferentes, en dos lugares diferentes del espacio, los mismos fenómenos
se reproducen transportados solamente en el espacio y el tiempo” (Los axiomas de la
mecánica, París, 1922, p. 9). Claro que habría que definir lo que se entiende por “las
mismas condiciones” y “los mismos fenómenos” ya que es evidente que ningún evento
ocurre más de una vez. Nótese que esta definición presupone la homogeneidad del
espacio y del tiempo, por lo menos a nuestra escala, o a escala de la mecánica clásica.
La máxima enunciada por Painlevé quiere decir que si las causas difieren sólo con
respecto al tiempo absoluto o al lugar absoluto en el cual el evento ocurre, lo mismo
sucederá a los efectos. En referencia a “la máxima general de la ciencia física” que “las
mismas causas producirán siempre los mismos efectos” y a la necesidad de definir lo
que se entiende por “mismas causas, mismos efectos”, James Clerk Maxwell propone la
siguiente proposición que él considera menos abstracta y por lo tanto más aplicable a
casos particulares: “La diferencia entre un evento y otro no depende de la simple
27

diferencia de tiempos o lugares en los cuales ocurren, sino solamente en diferencias en


la naturaleza, configuración o movimiento de los cuerpos estudiados”. (Cf. Matter and
Motion, reed. Dover, Nueva York, 1991, p. 13). Podría decirse también: “causas
semejantes producen efectos semejantes”, lo que implica la estabilidad según la cual
pequeñas variaciones en las circunstancias iniciales producen sólo pequeñas variaciones
en el estado final des sistema. Incluso en la concepción positivista de la ciencia se
buscan por lo menos las leyes de la evolución de los fenómenos, lo que es razonable ya
que sin ellas no habría ni control ni predicción -todo lo cual presupone el determinismo.
En física cuántica el principio de incertidumbre no significa una refutación de la
causalidad. Por ejemplo Grete Hermann explica que después de haber efectuado
concretamente una medida y tomado nota del resultado, el fisico puede restituir, hacia
atrás y completamente, el encadenamiento causal que produjo necesariamente tal
resultado (cf. Los fundamentos filosóficos de la mecánica cuántica, 1935). El desafío
difícil para el mecanicismo causal y determinista es, como se sabe, la espontaneidad del
“salto cuántico”. Retomemos el hilo de Vogel. Para este fisico, las perturbaciones
imprevisibles que introduce el azar en la explicación no significan una eliminación ni un
reemplazo del determinismo “sino que lo difuminan, y los contornos del determinismo
quedan perceptibles bajo la bruma de las perturbaciones”. Sin el determinismo el
científico se siente desarmado, “y la conclusión práctica que sacaremos es que habrá que
evitar toda teoría que conduzca a una ley estructuralmente inestable, y de utilizar los
sistemas inestables en el sentido de Liapunov solamente si lo son en una región limitada
que habría precisamente que cercar, y donde el experimento produce resultados no
reproductibles” (p. 49).
En el mecanicismo renovado que desarrolla Vogel hay un lugar para la causa final,
situación inusitada dado que tradicionalmente el mecanicismo y la finalidad han sido
considerados incompatibles; el rechazo de la finalidad por parte de la ciencia moderna
se presenta corrientemente como una de las diferencias entre el pensamiento moderno y
el medieval. Los mecanicistas clásicos no podían aceptar que un estado futuro pueda
afectar la evolución de un sistema, pero Vogel no ve razón a priori para descartar la
causa final (p. 105). Ella existe de manera evidente en el comportamiento animal y
humano, es reconocida por la biología molecular, y por ejemplo no se pueden estudiar ni
la balística, ni la navegación ni los servomecanismos sin hacer intervenir el objetivo, un
estado final predeterminado, como causa que contribuye a la evolución del sistema
finalista. Reconozcamos que la diferencia principal entre esta concepción de la finalidad
28

y la finalidad biológica es que en esta última, en algún momento, no hubo programador


(en algún momento el aparato visual emergió). Los ejemplos que más interesan a Vogel
cuando menciona los diferentes tipos de sistemas dinámicos muestran que lo que tiene
en mente es la idea de programación, de predeterminación. Esto no tiene nada de
misterioso porque el objetivo, el mecanismo de regulación, se programa en el presente:
se preserva el orden temporal y causal. Lo astucioso de los sistemas finalistas consiste,
primero, en que leen o escanean los datos que reciben mientras actúan; segundo,
proceden a comparar los datos con los valores predeterminados, y tercero, son capaces
de adaptar el comportamiento para mantener la identidad entre los datos recibidos
mientras actúan y los valores prefijados. Puesto que la programación es de orden
matemático y que la forma predeterminada es matemática, pienso que sería más
apropiado calificar a este modo de causa final “causa formal”: aquí la causa formal
asimila a la causa final.
Una palabra sobre las probabilidades. El autor no revisa las diferentes
interpretaciones de las probabilidades (subjetivista, propensionista, frecuentista,
logicista, etc.), tema tantas veces tratado en los gruesos volúmenes de los filósofos
analíticos anglosajones. Entre los malentendidos que habría que disipar está la creencia
de que la explicación probabilista pone el azar en la base de la ciencia. Contrario a lo
que se cree comúnmente, el cálculo de probabilidades se opone fundamentalmente al
azar, es determinista en su principio aunque no en el mismo estrato en que actúan las
teorías mecanicistas clásicas: mientras que en la física clásica el determinismo puede
describir en algunos casos el comportamiento individual de los fenómenos, el cálculo de
probabilidades describe solamente el determinismo de una clase de ellos. El cálculo de
probabilidades atribuye a los objetos a los cuales se aplica una medida p ε [0, 1] regida
por una ecuación de derivadas parciales (por ejemplo, la ecuación de Fokker-Planck
para los procesos markovianos, la ecuación de Schrödinger o de Klein-Gordon para la
mecánica ondulatoria en su interpretación probabilista). La solución de este tipo de
ecuación no es estocástica, salvo si se introduce el azar axiomáticamente. El cálculo de
probabilidades concluye en un enunciado perfectamente determinista: si A, entonces p =
p1.
Otra observación de Vogel (aunque expuesta en un párrafo tan conciso que su
comprensión es ardua, por lo tanto interpreto) es que él considera que un punto débil de
la ideología del azar es haber reconocido al tiempo un carácter absoluto: el tiempo no
está sometido al azar. Así, quienes, como Jacques Monod, han puesto el azar en el
29

centro de sus sistemas del mundo, tienen que admitir que dado un tiempo absoluto
infinito, una combinación de elementos a primera vista improbable puede ser tal que su
producto puede dar 1. Y dado que nosotros mismos formamos parte de la combinación a
priori improbable, ella es para nosotros una certeza, y el tiempo que pasó antes que
existamos con ella ya no cuenta. Ahora bien, para que las piezas del sistema encajen,
hay que postular que el azar lo rige todo: las combinaciones de los elementos, las leyes
que gobiernan las combinaciones. “Una vez realizada esta doble configuración, se cuaja
y persiste, al menos el tiempo que podamos teorizarla, y presenta entonces un aspecto
finalista...” (p. 50).
Ansiosos de novedad, recientemente varios científicos y filósofos han intentado
construir un nuevo concepto de la razón o de la ciencia. La tentación habría sido, si no
frenada, al menos disminuida por el estudio del presente libro, texto que merece
reedición. El lector cautivado, por ejemplo, por la retórica de un Prigogine, encontrará
en Vogel un retorno al equilibrio. En lo concerniente a la comprensión y al control de
los fenómenos, ninguna doctrina en la historia de la ciencia supera al mecanicismo, por
eso uno no puede sino alentar todo ensayo conducente a mejorarlo.

* * *

Você também pode gostar