Você está na página 1de 70

CENTRO SALESIANO DE ESTUDIOS SUPERIORES

Bernardo Van Hagens

APUNTES DE
EPISTEMOLOGÍA
(FILOSOFIA DE LA CIENCIA)

Traducción y adaptación: P. SERGIO CHECCHI

Roma 1980 - Guatemala 2014


INDICE

1. Qué es la Epistemología.
2. Necesidad de la Epistemología.
3. Los primeros epistemólogos.
4. Las varias corrientes filosóficas.
5. Características de la Ciencia:
5.1 Universalidad.
5.2 Necesidad.
5.3 Otras.
6. Método de la Ciencia:
6.1 La Ciencia requiere un método científico apropiado.
6.2 Tres aspectos del método científico.
6.3 Necesidad de cada uno de los aspectos.
7. Teoría y práctica:
7.1 La práctica como aplicación de la ciencia pura.
7.2 La práctica como preparación de la ciencia pura.
7.3 Interacción entre teoría y práctica.
8. Las tres fases de la actividad científica:
8.1 Los hechos.
8.2 Las leyes.
8.3 Las hipótesis
9. Los hechos científicos:
9.1 Observación simple:
9.1.1 Repetibilidad.
9.1.2 Existencia objetiva.
9.1.3 Selectividad.
9.1.4 Reconocimiento de clases.
9.1.5 Proposición que exprese los hechos observados.
9.2 Observación cualificada o experimentación:
9.2.1 Regulación de las condiciones de la observación.

2
9.2.2 Instrumentos de medida: hecho concreto y hecho teórico.
9.2.3 La medida como definición operativa de una propiedad.
9.2.4 Algunas críticas a la definición operativa.
9.2.5 Una palabra sobre la medida de las cualidades.
10. Las leyes científicas:
10.1 Observaciones generales:
10.1.1 Leyes físicas y leyes morales.
10.1.2 Leyes condicionales y leyes definitorias.
10.1.3 Las leyes y la causa eficiente.
10.1.4 Las leyes y la causa formal.
10.2 Justificación de las leyes.
10.3 Propiedades de las leyes.
10.4 Leyes y principios.
10.5 Las leyes estadísticas.
11. Las hipótesis científicas:
11.1 En qué sentido son explicativas.
11.2 Su verificabilidad.
11.3 Su falsificabilidad.
11.4 El valor noético de las hipótesis.
12. División de las Ciencias:
12.1 Premisa general sobre la contingencia de las leyes naturales.
12.2 La división de las ciencias en concreto.

  

3
CAP. I - ¿QUÉ ES LA EPISTEMOLOGÍA?

La palabra griega episteme significa “ciencia”. La Epistemología tiene


entonces como objeto el estudio de la “ciencia” como tal, en su estructura formal.
En dos palabras, responde a la pregunta “¿qué es la ciencia y qué hace?”
Más precisamente: la Epistemología es una Filosofía de la ciencia. Decimos
filosofía, porque sólo en sede filosófica se puede decir algo sobre la naturaleza de
las ciencias inferiores. Estas últimas, en efecto, se ocupan solamente de su objeto
propio y no de su propia naturaleza. Es verdad que también la filosofía debe
ocuparse de su objeto proprio, pero – como ciencia racional suprema – puede
además reflexionar sobre sí misma, examinando su propia naturaleza. Y esta
capacidad suya le permite examinar también la naturaleza de las ciencias no
filosóficas.
Esta investigación filosófica se refiere a los varios aspectos de la ciencia.
Citemos en primer lugar la división de la ciencia en múltiples ramas (como la
geometría, la biología, la sociología, etc.) y el consiguiente problema de una
razonada clasificación de las ciencias. Por esto se usa también la expresión en
plural de Filosofía de las ciencias. Otro examen importante se refiere al método
científico en general y a sus adaptaciones particulares a las distintas ciencias. Este
método determina también los límites y el alcance de las conclusiones científicas,
ya sea que tengan valor de simple observación científica, o de ley científica, o de
teoría científica.
Es claro que la filosofía no pretende enseñar al científico el modo de hacer
ciencia, ni pretende aventurarse ella misma en el campo propio de la ciencia. Pero
analiza minuciosamente todo el proceso del conocer científico: los conceptos y
definiciones, la observación y el experimento, los axiomas y los postulados, la
inducción y las leyes, la hipótesis y la verificación. Todo con el fin de comprobar
críticamente su alcance y consistencia, o también de poner en evidencia sus
eventuales flaquezas o incertidumbres.
Por esto la Epistemología es llamada también Crítica de la ciencia (del
verbo griego crino = juzgar, decidir), evidentemente sin la connotación peyorativa
de ‘reproche’ o ‘desaprobación’. De esta denominación aparece claro que la
Epistemología es una parte de la Criteriología o filosofía general del conocimiento
(llamada también Gnoseología). Es por tanto impropio dar a esta última el nombre
de Epistemología, como lo hace, por ej., F. Van Steenberghen (Lovaina 1947).

4
CAP. II - ¿POR QUÉ NACIÓ LA EPISTEMOLOGÍA?

Digamos en seguida que la Epistemología no es un lujo para pensadores


desocupados. Es una necesidad por varios motivos, tanto filosóficos como
científicos.

A) A propósito de los MOTIVOS FILOSÓFICOS recordemos que una


vez todo el saber teórico o especulativo (el “saber por el puro saber”) estaba
concentrado en la filosofía. Después – al menos desde el siglo XVII en adelante –
comenzó a constituirse una “ciencia” diversa de la filosofía y a veces considerada
opuesta a ella. Así, por ejemplo, cierta ciencia llegó a negar la libertad humana y la
posibilidad de los milagros en nombre del determinismo científico.
Pero, a parte el hecho de que no podemos quedar indiferentes ante una clara
antinomia, está también el hecho más perjudicial de una insuficiente delimitación
entre los campos propios de la filosofía y de la ciencia. Allí era la ciencia la que
rebasaba sus competencias; pero el mismo desorden puede sucederle a la filosofía
(piénsese en el caso de Galileo).
Además, también las doctrinas filosóficas tienen su base en la experiencia
(¡la filosofía no se construye en las nubes!). Las más de las veces puede bastar la
experiencia común o vulgar, sobre todo cuando la atención se dirige no ya a su
infinita variedad, sino a los esquemas y modelos fijos que un poco en todas partes
se repiten. Pero no está dicho que la filosofía no pueda inspirarse en una
experiencia científicamente elaborada, que constituye, sin duda, un punto de
partida más profundo, más rico y – a veces – más sólido. En ese caso el peligro es
que, si no se conoce bien el alcance del lenguaje científico o no se comprende el
valor de sus hipótesis, podemos construir una filosofía errónea, incompatible con
las tesis más fundamentales sacadas de la experiencia precientífica.
Finalmente – en el siglo XX – el cientismo de la corriente neopositivista
tendía a quitarle a la filosofía toda búsqueda de la verdad. Según R. Carnap:
“Science in principle can say all that can be said” (= la ciencia en principio puede
decir todo lo que se puede decir). En otras palabras: la ciencia quisiera ahora
sustituirse a la filosofía, proclamándose la única fuente de verdad. Aristóteles, en el
Protrepticum, ya había visto que esta tesis se autodestruye. Dijo en efecto: “Si es
necesario filosofar, hay que filosofar; y si no es necesario filosofar, también hay
que filosofar (para demostrarlo); luego siempre hay que filosofar”. Es lo que
pretende hacer prácticamente la filosofía de la ciencia, cuando examina
críticamente las competencias propias de la ciencia.

B) Los PROBLEMAS CIENTÍFICOS surgieron desde la segunda


mitad del siglo XIX, sobre todo en aquella rama de la ciencia (la Física), que

5
parecía destinada a convertirse en el ideal de toda ciencia. Con mucha razón se ha
hablado aquí de una crisis de la ciencia.
La llegada de la teoría electromagnética (J. C. Maxwell, 1873), que unía en
un armonioso conjunto las acciones eléctricas y magnéticas, y era irreducible a la
mecánica newtoniana, puso en seria crisis la física clásica, toda impregnada de
espíritu mecanicista.
El segundo principio de la termodinámica (R. Clausius, 1850), que
enunciaba la irreversibilidad de los fenómenos naturales y sugería por tanto un
inicio y un fin del mundo, iba contra la reversibilidad general, propia de los
fenómenos mecánicos.
El posterior desarrollo de la termodinámica llevó al energetismo, que –
además de querer reducir la materia a la energía (W. Ostwald, 1895) – preconizaba
una física fundada explícitamente también en las cualidades (P. Duhem, 1906),
cosa inaudita para la física mecanicista, que admitía únicamente elementos
cuantitativos.
Con la teoría electrónica (H. A. Lorentz, 1895), se abrió camino la idea
inesperada de que el átomo no era un corpúsculo simple, sino compuesto de
electrones y de algo más, eléctricamente positivo.
Poco después, la teoría de los cuantos (M. Planck, 1900) extendió una forma
de atomismo también a la energía (radiante), que hasta entonces era considerada
por todos como divisible al infinito.
Para resolver el enigma del experimento de A. A. Michelson (de 1882 en
adelante), A. Einstein elaboró la teoría de la relatividad especial (1905), según la
cual las medidas espaciales y temporales ya no tienen un valor absoluto, sino que
dependen del estado de movimiento que existe entre el observador y el objeto
medido.
También la Geometría había entrado en crisis: los intentos que algunos
habían hecho para demostrar el quinto postulado de Euclides (G. Saccheri, 1733;
C. F. Gauss, 1792; N. I. Lobachewski, 1826; G. Bolyai, 1832) condujeron a B.
Riemann (1854) a fundar una geometría diferencial general, es decir ya no
exclusivamente euclidiana. Y simultáneamente se derrumbó también el dogma
(kantiano) de la necesaria tridimensionalidad del espacio.
Las mismas bases de la Aritmética fueron sacudidas, primeramente por los
vanos intentos de reducir toda la Matemática a la Aritmética (G. Peano, 1889) o
bien a la lógica (G. Frege, 1884); luego por la paradoja de la teoría de los
conjuntos (B. Russell, 1903), con la que también se relacionan las especulaciones
sobre el transfinito de G. Cantor (desde 1878).
No sólo; también la Biología – con la teoría del evolucionismo (Ch. Darwin,
1859) – puso en crisis la física mecanicista, que no podía aceptar tendencias
teleológicas o finalistas.

6
Hoy, además, con el dualismo corpúsculo-onda y el principio de
indeterminación (o de incertidumbre), pertenecientes ambos a la mecánica
cuántica (E. Schrödinger y W. Heisenberg, 1925-1927), ya no hay esperanza
alguna para la tradicional física mecanicista.
Por todos estos motivos vino a ser no sólo oportuno, sino también necesario
y urgente, iniciar una reflexión filosófica sobre la actividad científica; y así nació la
Epistemología o Filosofía de la Ciencia.

CAP. III - LOS PRIMEROS EPISTEMÓLOGOS

Quienes iniciaron la reflexión filosófica sobre la Ciencia no fueron los


filósofos de profesión; tuvieron que preocuparse los mismos científicos.
El motivo es que a ningún filósofo se le puede exigir que tenga
competencias específicas en todos los campos de las ciencias particulares. Antes
bien, no son muchos tampoco los filósofos verdaderamente competentes en un solo
campo científico fuera de la filosofía. Y sin embargo el examen crítico, aunque
limitado a un solo tipo de ciencia, requería precisamente una profunda familiaridad
con la ciencia en cuestión.
Este profundo conocimiento lo tienen los científicos, especialistas cada cual
en su propio sector. Pero, aquí también, si son científicos no serán, en general,
competentes en filosofía.
Sin embargo hay que decir que el hombre – todo hombre – es también un
poco filósofo. No será ciertamente un gran metafísico, pero si está entrenado en
una rigurosa disciplina científica estará seguramente capacitado para distanciarse
de su ciencia, reexaminar críticamente su método y sacar así conclusiones acerca
del valor y límites de los enunciados científicos.
Es difícil hacer epistemología pura. Existe a menudo como un trasfondo
filosófico contra el cual se proyectan las conclusiones alcanzadas o – dicho de otro
modo – existen corrientes filosóficas de las que uno podría dejarse arrastrar, más o
menos conscientemente.
Así, por ejemplo, el Círculo de Viena (el Wiener Kreis, fundado por M.
Schlick en 1929), formado por científicos de varios sectores, veía en la ciencia una
grandiosa confirmación del Neopositivismo. Otros, de tendencia idealista, trataron
de descubrir por todas partes lo que ellos creían que eran los elementos a priori de
todo conocimiento científico; así, por ejemplo, A. Eddington (+1944). Otros, en
cambio, como H. Reichenbach (+1953), más que de la ciencia misma se ocuparon
de su objeto.
Como quiera que sea, he aquí algunos nombres de los primeros
epistemólogos: E. Mach (+1916), H. Poincaré (+1912), P. Duhem (+1916), C. S.
Peirce (+1914), E. Boutroux (+1910), E. Meyerson (+1933), J. Dewey (+1937),
etc.

7
CAP. IV - LAS VARIAS CORRIENTES FILOSÓFICAS

Hemos hablado antes de un trasfondo filosófico y de corrientes filosóficas.


Para introducir en eso un cierto orden mnemónico, podemos distinguir “grosso
modo” tres direcciones principales: el idealismo, el empirismo y el racionalismo.
Esto vale en general, independientemente de la Epistemología.
Representante del Idealismo puede IDEALISMO
considerarse, entre los grandes nombres, J. G. F.
Hegel (+1831); del Empirismo, J. Locke (+1704) o
D. Hume (+1776); del Racionalismo, R. Descartes
(+1650). Al Empirismo están asociadas otras
corrientes, como el Positivismo, representado por EMPIRISMO
A. Comte (+1857) y J. S. Mill (+1873), y el EMPIRISMO RACIONALISMO
Pragmatismo, representado por W. James (+1910).

Naturalmente se dan corrientes intermedias. Entre el Idealismo y el


Racionalismo se encuentra, por ejemplo, E. Kant (+1804) y también G. Leibniz
(+1716). Entre el Idealismo y el Empirismo puede colocarse G. Berkeley (+1753).
Entre el Empirismo y el Racionalismo el puesto de honor le corresponde sin duda a
Aristóteles (+322 a.C.).
El esquema podría enriquecerse aún más – como la rosa náutica –
introduciendo otras corrientes, intermedias entre las ya nombradas; pero, aparte los
inevitables forzamientos, se perdería luego su utilidad. Como quiera que sea, el
escepticismo y el agnosticismo quedan fuera del esquema.
Observemos, finalmente, que el esquema refleja las actitudes gnoseológicas o
sea la teoría del conocimiento. No se toman en consideración las doctrinas
metafísico-dogmáticas, como el espiritualismo, el materialismo, el sensismo, el
panteísmo, el pesimismo, etc.

CAP. V - CARACTERÍSTICAS DE LA CIENCIA

5.1 LA UNIVERSALIDAD

La Ciencia parte de la experiencia, que es siempre particular, más aún,


singular (hoc, hic, nunc, esto, aquí, ahora).
La Ciencia analiza, por ejemplo, este trozo de hierro y observa su
comportamiento bajo diversos estímulos. Pero la ciencia no se detiene en este
particular trozo de hierro: su interés va al hierro en general, del cual este trozo es
sólo un ejemplo, una muestra. De alguna manera, pues, la ciencia quiere formarse
un concepto universal del “hierro”, aunque este concepto necesitará todavía
muchos retoques.

8
Esto vale para el hierro, que es un cuerpo, una sustancia. Pero vale también
para su comportamiento, que es un fenómeno (por ejemplo, la dilatación del hierro
cuando se lo calienta): la ciencia lo estudia sólo de forma universal. No importa
esta concreta dilatación, observada hoy aquí, sino la dilatación en general, como
fenómeno siempre repetible, también en otros lugares y en otro tiempo.
En otras palabras, el objeto de la ciencia es lo universal, lo que puede
repetirse y reproducirse a gusto en el espacio y en el tiempo. O también: la
ciencia presupone que el mundo tiene una estructura específico-individual (A. Van
Melsen), en el sentido de que toda sustancia y todo fenómeno, aun teniendo una
realidad muy suya e intangible, admite y no excluye la existencia de otras
sustancias y de otros fenómenos de esa misma especie.
En tal sentido, también la Geología, por ejemplo, es una ciencia, si bien
estudia solamente esta nuestra Tierra: pues son posibles otras “tierras” en otros
sistemas planetarios. Por lo demás, el hecho de que el hombre haya ido a buscar y
a recoger piedras en la Luna y en Marte, demuestra que la Geología abarca también
la… “selenología”!
Diverso, en cambio, es el razonamiento para la Geografía, la cual estudia la
superficie de la Tierra tal como es actualmente. La existencia de Francia o del Mar
Caribe, por ejemplo, es un hecho único e interesa sólo como información, para que
uno pueda regularse. Y lo mismo debe decirse de la Historia: las guerras
napoleónicas o el descubrimiento de América son irrepetibles. Se dice a veces que
“la historia se repite”; la verdad, en cambio, es que la historia no se repite: ¡si no
no sería Historia! En todos esos casos, si se quiere hablar de “ciencia”, sería sólo
en el sentido de que aquellos datos geográficos o históricos pueden servir como
modelos para estudiar situaciones análogas.
En conclusión: la Ciencia no estudia nunca la cosa individual en cuanto tal,
sino sólo los aspectos universales que encuentra en las cosas individuales.

5.2 LA NECESIDAD

Como hemos dicho, la Ciencia parte de la experiencia. Y ésta es no


solamente particular, sino también contingente, es decir, su contenido no se
presenta dotado de necesidad.
Mientras la expresión “todos los peces” representa un concepto
verdaderamente universal (aplicado a un número ilimitado de peces posibles), la
expresión “todos los peces de este lago” es sólo un universal factual: indica estos
peces y ningún otro. Así también la oración “todos los peces de este lago son
rojos” es sólo factualmente necesaria. Su verdad se asienta en la observación y
enumeración completa de todos estos peces. Ahora bien, a la verdadera Ciencia no
le interesan estas informaciones contingentes. Al máximo se puede hablar aquí de
ciencia descriptiva, como lo son por ejemplo la Botánica y la Anatomía
descriptiva.
9
El impulso a cultivar la Ciencia no es la pura curiosidad, sino una curiosidad
racional: el hombre quiere comprender los hechos de los que tiene noticia. Surge
entonces la ciencia explicativa, que descubre conexiones necesarias entre los
hechos, de manera que, dado un hecho, es necesario que suceda también otro
hecho.
En el ejemplo anterior supóngase que no se trate ya de un lago, sino de un
estanque de un piscicultor, que comercia con peces rojos. En tal caso no se necesita
controlar todos los peces del estanque para afirmar universalmente que contiene
sólo peces rojos.
El siguiente ejemplo es más eficaz, porque no depende de decisiones
humanas: los terrícolas observamos un eclipse solar cuando la Luna pasa entre la
Tierra y el Sol. Ahí tenemos un inicio de ciencia verdadera, es decir explicativa:
hace comprender este impresionante fenómeno indicando su causa. Por tanto todas
las veces que la Luna se interpone entre la Tierra y el Sol debe tener lugar un
eclipse solar. Están aquí reunidas las dos características de la ciencia: la
universalidad y la necesidad. Y está claro ahora que la universalidad es una
consecuencia de la necesidad.
Análogamente, en Geometría se demuestra el teorema sobre la suma de los
ángulos de un triángulo. La única diferencia es que aquí no se aducen causas sino
razones: pues en la Geometría nada “sucede”, como para requerir causas; las cosas
simplemente “son” así y de ello se dan las razones.

5.3 ALGUNAS OTRAS CARACTERÍSTICAS DE LA CIENCIA

Exponemos aquí brevemente algunas otras características de la Ciencia, que


sirven para distinguir mejor el conocimiento científico del conocimiento vulgar.

5.3.1 SISTEMATICIDAD
Toda Ciencia se presenta como un cuerpo de doctrinas orgánicamente
enlazadas. Y este cuerpo crece y se enriquece como un organismo vivo a través de
la aplicación sistemática de un método de investigación.
No sucede lo mismo en el conocimiento vulgar, popular. Por ejemplo, los
conocimientos meteorológicos del campesino contienen muchas verdades
científicas, que el que vive en la ciudad no conoce; pero no están organizados
metódicamente; no hay investigación sino sólo conocimientos desorganizados.
Dígase lo mismo de la así llamada “sabiduría popular”, que se expresa en refranes,
proverbios y máximas.

5.3.2 LA PRECISIÓN
Dijo Galileo que “el Gran Libro de la Naturaleza está escrito en lengua
matemática”. Y nosotros vemos hoy que las ciencias tienden a revestir la forma
matemática, comenzando por la observación de los datos, que se traduce siempre
10
más en una medición, lo más precisa posible. Es verdad que la precisión absoluta
no es alcanzable; pero el científico sabe perfectamente entre cuáles límites su
medida es absolutamente exacta. Por ejemplo, él indica la velocidad de la luz como
297,925.5 ± 0.3 km/seg, queriendo con esto significar que ella está comprendida
entre 297,925.2 y 297,925.8 km/seg.
Algunos auténticos progresos de la ciencia se debieron precisamente a la
obtención de un decimal más. Por ejemplo, el nitrógeno obtenido químicamente
del nitrito de amonio tenía una densidad de 1.2505, mientras que el extraído del
aire tenía una de 1.2567; esta pequeña diferencia, en el tercer decimal, permitió a
A. Ramsay y Lord Rayleigh (1895) descubrir el argón y después toda la familia de
los gases nobles. También los transistores nacieron de medidas de corriente
extremadamente precisas.
Agreguemos que aun en sus partes no-cuantitativas el lenguaje científico es
siempre muy preciso: todos los términos técnicos son definidos con exactitud. Por
eso no le sucederá jamás a un científico confundir, por ejemplo, la fuerza con la
potencia, la artritis con la artrosis, las tasas con los impuestos, etc.
Distinto sucede en el conocimiento vulgar. Ahí se hablará vagamente, por
ejemplo, de la resistencia mecánica de un material, pero sin distinguir entre la
resistencia a la compresión, a la tracción, a la flexión, a la torsión, etc.; o se dirá
que el sol nace por el oriente, un poco más al sur en invierno, un poco más al norte
en verano (en el hemisferio boreal); pero sin precisar más (con grados, minutos y
segundos).

5.3.3 LA OBJETIVIDAD
La sensación, sobre la que se funda la experiencia, es parcialmente
subjetiva. Pues es el fruto de una reacción vital del organismo sensorial ante un
estímulo físico-químico que parte del objeto sensible. Y, como tal, debe contener
informaciones sobre ambas cosas: sujeto y objeto. Sumergiendo una mano en agua
hirviendo se siente calor, ¡pero al mismo tiempo también dolor! Una persona que
entra a un ambiente tibio lo sentirá caliente o frío según que venga de un ambiente
frío o caliente. Y en general la temperatura del sujeto marca la frontera entre las
sensaciones de calor y de frío.
Esta parcial subjetividad es aceptada pacíficamente en el conocimiento
vulgar. En cambio la ciencia no quiere hablar del sujeto: desea únicamente
informaciones referentes al objeto. Por ejemplo, la línea de demarcación entre
caliente y frío será dada por un criterio más objetivo: la temperatura de fusión del
hielo. Aún más, el binomio mismo de caliente y frío es demasiado “humano”:
existe únicamente el más o menos caliente en relación al Cero Absoluto. Así
también, en lugar de hablar de cierta gama de colores, el científico indicará su
longitud de onda, que es un dato plenamente objetivo.

11
Se debe resaltar, por otro lado, que también la experiencia sensible presenta
ciertos datos objetivos; tales son las distancias, las figuras, los ángulos y, en
general, los elementos cuantitativos. El motivo es que estos elementos son
accesibles a más de un sentido. Así la redondez de una moneda es percibida a
través de su color (con la vista) y de su dureza (con el tacto), de manera que las
subjetividades inherentes a la percepción visual y a la táctil, se eliminan
mutuamente en la percepción común de la redondez. Es por razón de esta
heterogeneidad (o distribución cuantitativa de elementos cualitativos) que la
experiencia sensible es también parcialmente objetiva y hace posible la objetividad
de la Ciencia.
Considerando, sin embargo, las cosas más en general, una observación
verdaderamente objetiva no es de fácil realización. Basta pensar en los testimonios
sinceros pero divergentes que se dan en los tribunales: los prejuicios inconscientes
y la involuntaria selectividad en el registro mental de los hechos, juegan un papel
no indiferente.

5.3.4 LA IMPERSONALIDAD
La Ciencia quiere ser también impersonal, para poder lograr un consenso
universal. No expresa jamás maravilla o disgusto, que son sólo sentimientos
personales. Excluye también de su campo las revelaciones privadas y todas
aquellas experiencias individuales y mal definibles que son propias de los artistas.
Con mayor razón se aparta de la magia, que cultiva el arte del encantamiento con
ritos místicos, en los cuales el protagonista es la persona del hechicero. Pero es ya
evidente en sí que estas prácticas son extrañas a la Ciencia.
Más bien hay que enfatizar que los enunciados científicos deben ser
independientes de las particulares condiciones (objetivas) en las que se encuentra
el observador. Y aquí “observador” significa no sólo el observador humano sino
también cualquier instrumento de medida.
Los habitantes de la Tierra ven el Sol salir y recorrer el firmamento; pero se
sabe que ésta es una impresión puramente “local”. La posición aparente de las
estrellas es distinta de la real a causa de la refracción atmosférica, que crece del
cenit al horizonte (donde alcanza más de medio grado). La Ciencia trata de
eliminar esos errores introduciendo en sus observaciones las oportunas
correcciones, o también haciendo las observaciones fuera de la atmósfera, con
satélites artificiales.
La teoría de la relatividad ha descubierto que las medidas espaciales y
temporales dependen del estado de movimiento del observador respecto al objeto
medido. Y en la física moderna se ha encontrado que el mismo procedimiento de
medida perturba siempre, en modo incontrolable, el estado de las cosas
preexistente. Ahora bien, estas particulares dependencias no se pueden eliminar;
pero la Ciencia conoce con precisión todas sus posibles modalidades y las tiene

12
debidamente calculadas. También esto es un modo de colocarse por encima de las
situaciones particulares.

5.3.5 LA TRANSMISIBILIDAD INTERSUBJETIVA


La sensación es un mundo definitivamente cerrado e incomunicable. Sólo
yo sé qué es lo que veo cuando examino un paño rojo y no alcanzo a comunicar
esta experiencia mía a los demás. Así mismo ignoro qué es lo que los demás ven en
él, y no entiendo por qué esa visión deba irritar al toro!
Son, en cambio, comunicables, y por ende intersubjetivas, las relaciones
entre percepciones, por ejemplo que el color de ese paño es el mismo que el de la
sangre. En este último caso hay un ver los colores y al mismo tiempo un notar que
son iguales. Esta igualdad no se ve, por ser una relación y las relaciones no son
visibles (¡no tienen color!), son cosas del entendimiento.
Tenemos aquí – en el hombre – una especie de amalgama entre ver y notar
que, entre el conocimiento sensible y el conocimiento intelectivo. El conocimiento
sensible es pictórico: procede por imágenes (visivas, gustativas, etc.), que no son
comunicables. En cambio, el conocimiento intelectivo es fundamentalmente
lingüístico: se expresa en descripciones y afirmaciones, que son comunicables. La
diferencia es más o menos la que existe entre una partida de fútbol, vista en el
estadio, y un reportaje de ella, escuchada en la radio.
Newton, Galileo y Einstein han cambiado nuestro conocimiento del mundo,
no ya con sus geniales intuiciones, sino con las verdades que nos han transmitido.
La intuición – aquel sexto sentido de los jugadores de ajedrez, de los grandes
estrategas, de los operadores económicos, etc. – puede ayudar también a los
científicos a orientar su investigación; pero esas cosas impalpables raramente
forman parte de la Ciencia que tiene su punto de partida en esas intuiciones.
El conocimiento científico del mundo no es, pues, una reproducción de sus
objetos, colores, sonidos, etc., sino que es un sistema de proposiciones, que no
reproducen nada, pero dicen lo que es (en nuestro ejemplo, que “el color de la
sangre y del paño son iguales”). En otras palabras: como conocimiento científico
cuenta únicamente lo que se puede expresar.

CAP. VI - EL METODO DE LA CIENCIA


6.1 LA CIENCIA REQUIERE UN MÉTODO CIENTÍFICO APROPIADO

En el n. 5.3.1 hemos aludido al método, que hace de la ciencia una


investigación sistemática y organizada. Su falta se hizo sentir particularmente
durante el Humanismo (s. XV) y el Renacimiento (s. XVI).
Esos dos siglos se caracterizaron por un poderoso naturalismo, es decir por
una tendencia a indagar más atentamente la naturaleza por medio de la Ciencia y a
acercarse a ella con el Arte. Y justamente llegó a ser convicción creciente que la
13
naturaleza poseía en sí la clave de sus secretos: no había ninguna necesidad de
consultar cualquier otra “autoridad”, como por ej. la de Aristóteles.
Este nuevo interés naturalista no debe considerarse como opuesto a lo
sobrenatural, que simplemente es puesto entre paréntesis. El aspecto teológico-
religioso y el científico-artístico no se excluyen mutuamente, sino que se
complementan: unidos forman el rostro de la plena humanidad.
Es cierto que las filosofías medievales y antiguas eran sentidas como
insuficientes para el renovado espíritu del hombre. Pero el drama fue que se
buscaba sustituirlas con una filosofía naturalista, mientras que lo que se necesitaba
era crear lo que ahora llamamos Ciencia en el sentido estricto.
De ahí el carácter equívoco o ambiguo de muchas especulaciones de aquel
tiempo. Incluso entre grandes pensadores como B. Telesio (+1588), G. Bruno
(+1600) y T. Campanella (+1639) encontramos extrañas mescolanzas de profundas
intuiciones y de creencias pueriles (cábala, magia, astrología, viejas doctrinas
jónicas, etc.). En lugar de la Ciencia se desarrollaba una pseudo ciencia, no libre de
fantasías, charlatanería y supersticiones, a causa sobre todo de la abundante
presencia de elementos ocultistas y místicos, además de los ya mencionados arriba
para los filósofos. Entre los grandes nombres de ese tiempo citamos aquí a A. de
Nettesheim (+1541) y G. Cardano (+1571).
Es verdad que en esa mezcla de filosofía y ciencia, de intereses
especulativos y prácticos, se encuentran también cosas apreciables, entre las que
hay observaciones a menudo escrupulosas e intuiciones muy audaces. Pero la
impresión global es de superficialidad, de presunción de explicarlo todo, de
desorganización y confusión, como signo externo de una profunda desorientación
y de la existencia de contrastes insanables entre fermentos de renovación y
tradiciones conservadoras.
Lo que se necesitaba era un decidido método científico. Pero para esto era
necesario esperar el siglo siguiente, del cual recordamos a este propósito los
nombres de F. Bacon (+1625), G. Galilei (+1642) y R. Descartes (+1650).

6.2 LOS TRES ASPECTOS DEL MÉTODO CIENTÍFICO

Al menos a posteriori, o sea, por el modo como se ha ido formando, se puede


decir que el método científico es juntamente experimental, matemático y teórico.
Y debemos subrayar que esos tres aspectos son solidarios entre sí, en el
sentido de que sólo juntos hacen posible el funcionamiento del método científico.
Siguen ahora algunas anotaciones generales para cada uno de ellos.

6.2.1 ES UN METODO EXPERIMENTAL


Aquí la “experiencia” debemos entenderla en sentido pasivo y activo, es
decir como observación y como experimentación. Entendemos además toda la

14
experiencia, no sólo la común, relativa al mesocosmos, sino también la exploración
del microcosmos y del macrocosmos. En fin, toda la naturaleza, en su aspecto
sustancial y en el fenoménico; por tanto: piedras, plantas, animales, galaxias,
ciudades, comportamientos, etc.
La naturaleza la tomamos aquí en su sentido más amplio. Frecuentemente,
en cambio, se entiende por “naturaleza” sólo el mundo externo, en oposición al
mundo humano. En ese caso se acostumbra distinguir entre ciencias naturales
(Naturwissenschaften) y ciencias morales o humanas (Geisteswissenschaften). A
esas últimas pertenecen entonces la Psicología humana, la Antropología, la
Lingüística, la Economía, etc. Esa distinción, sin embargo, no sirve en el presente
contexto, porque – como hemos dicho – consideramos aquí toda la experiencia,
extendida a toda la naturaleza.
Es importante, en cambio, la distinción hecha arriba entre observación y
experimentación.
Hay que recurrir a la observación cuando los fenómenos que vamos a
estudiar no son reproducibles a voluntad del científico, como en la Astronomía, en
la Geología, en la Lingüística, etc. Aunque se trate de una experiencia pasiva, el
científico no es, sin embargo, un espectador puramente pasivo: él observa
selectivamente, con un fin, teniendo ya en la mente alguna idea, sugerida quizás
por experiencias anteriores o consideraciones teóricas. Una simple acumulación
indefinida de observaciones puramente pasivas (como de quien mira por la
ventanilla del tren) no conduce a ningún resultado.
Mucho más eficaz es la experimentación, que consiste en la producción
artificial y controlada de los fenómenos que queremos estudiar. En el fondo es
también ella una observación, pero provocada por una idea anticipada, que
organiza y dirige todo el experimento, teniendo cuidado de hacerlo repetible a
voluntad, en las más variadas circunstancias. Galileo habló, a este propósito, de
“sensatas experiencias”, y podemos pensar aquí en sus famosos experimentos con
el plano inclinado.
El método experimental resuelve también un grave problema que todavía
ahora divide a los filósofos empiristas de los racionalistas. Los primeros son
partidarios de la percepción sensible, los segundos del razonamiento, dos cosas
que parece que no pueden conciliarse entre sí en modo satisfactorio. Ahora bien,
ahí donde los filósofos no lograban llegar a un acuerdo, los científicos sí lo han
logrado; y esto mediante la acción, o sea la experimentación. Esta acción se realiza
fuera del hombre y por tanto fuera de sus convicciones empiristas o racionalistas,
en el campo externo, abierto a respuestas objetivas.
En otras palabras: en la experimentación la percepción sensible es objetivada
o exteriorizada, porque está confiada a instrumentos (aunque sean muy
elementales, como un lente o un filtro), y también el razonamiento es objetivado o

15
exteriorizado, porque está confiado al formalismo matemático, que a su manera es
también un instrumento (como puede serlo una computadora o un elaborador).
Es, pues, en la acción experimental que la percepción sensible y el
razonamiento se integran armoniosamente.

6.2.2 ES UN METODO MATEMÁTICO


Acabamos de aludir al formalismo matemático, que se relaciona también con
la precisión de la ciencia, que vimos en el punto 5.3.2.
El término “formalismo” no debemos entenderlo aquí primariamente en el
sentido de “fórmulas” matemáticas, sino en el sentido de abstracción formal.
Con Aristóteles podemos distinguir tres grados de abstracción. El primero –
llamado también natural o físico – es una abstracción total: con ella se traduce a
conceptos universales todo lo que la naturaleza nos ofrece a través de la
percepción sensible: árbol, hierro, casa, etc. El segundo grado – llamado
matemático – es una abstracción formal: con ella la atención se dirige hacia
aquellos aspectos (o “formalidades”) de la naturaleza que tienen entre sí relaciones
inteligibles, como la extensión y la división, el todo y la parte, etc. El tercer grado
– metafísico – es una nueva abstracción formal, que se apoya en el anterior pero es
muy superior a él: con él nos elevamos al orden existencial con la intuición de una
relación indisoluble entre inteligibilidad y realidad, presentándose la primera como
signo y garantía de la segunda (“ens et verum convertuntur”).
Hablando de formalismo matemático, entendíamos precisamente decir que el
método científico tiende a valerse de las evidencias de la abstracción matemática.
Para convencerse de ello basta abrir un libro de física; pero también las otras
ciencias tienden a esta forma, considerada ideal. Y el primer paso en esta dirección
son las medidas.
Sería erróneo pensar que las medidas sean posibles sólo en la cantidad.
También las cualidades son mensurables según su intensidad, y esto sin destruir su
carácter cualitativo. Pues una cosa es representar el color por su longitud de onda
(que es una cantidad) y otra cosa es medir su intensidad, que es una verdadera
cualidad.
Observemos además que, aun sin la ayuda de instrumentos, nuestros mismos
sentidos están perfectamente capacitados para apreciar no sólo las intensidades,
sino también las deferencias de intensidad (por ej.: esta camisa es más blanca que
aquélla); y tales diferencias son comunicables (n. 5.3.5) y por tanto objetivas.
La introducción del aspecto matemático no significa, pues, que hayamos
cedido al mecanicismo, que notoriamente admite sólo elementos cuantitativos
(además del movimiento local).
Añadamos que incluso la misma Matemática – considerada en este caso
como ciencia y no ya como método – introduce y define la medida de ciertas
cualidades matemáticas, como la continuidad de una curva, su pendiente, el grado

16
de coincidencia entre dos curvas, etc. Así que ni siquiera la Matemática – no
obstante ciertas definiciones apresuradas – se limita a la pura cantidad. Por lo
demás los Escolásticos clasificaban las “figuras” como la cuarta especie de la
cualidad!

6.2.3 ES UN MÉTODO TEÓRICO (= HIPOTÉTICO)


Aclaremos en seguida que el término “teórico” aquí no tiene nada en común
con la conocida pareja “teórico-práctico”, que estudiaremos en el Cap. VII.
El aspecto teórico consiste en hacer una hipótesis o conjetura sobre lo que
pudiera ser probablemente la causa de un fenómeno o de su ley, de forma que
“explique” o haga comprensible ese dato de la experiencia (n. 5.2). Dicha causa
puede ser otro fenómeno o una estructura. Por ej., el terremoto explica por qué el
campanario se derrumbó, y la estructura de un televisor explica por qué se forman
en él las imágenes. Pero el terremoto y el televisor no son hipótesis sino hechos
observables.
Una hipótesis, en cambio, habla de cosas que no podemos observar
directamente. Tales son, por ej., los electrones o “átomos” de electricidad,
postulados por H. A. Lorentz en 1883. Pero para tener un valor científicamente
aceptable, la hipótesis debe ser al menos indirectamente controlable, es decir en
las consecuencias que de ella se pueden deducir por la vía lógico-matemática.
Efectivamente Lorentz pudo deducir de esa hipótesis – y por tanto explicar – las
leyes de los fenómenos eléctricos. No sólo; la misma hipótesis explicaba también
un fenómeno hasta entonces desconocido (el efecto Zeeman, 1895), de manera que
la hipótesis electrónica era también fecunda: además del valor explicativo, tenía
también un valor heurístico o de invención.
Una hipótesis orgánicamente desarrollada – y por consiguiente de una cierta
consistencia – que tiene en su haber diversas verificaciones en diversos campos y
ha permitido prever también nuevos fenómenos, demostrando así su fecundidad, es
comúnmente aceptada como científica y llamada “teoría”. Brevemente: una idea
genial nace como simple hipótesis de trabajo (Arbeitshypothese) y sus éxitos la
elevan al rango de “teoría”. Tales son, por ej., la teoría molecular, la atómica, la
electrónica, la cuántica, etc.
Conviene agregar que la Ciencia, aun en su más alta expresión, es siempre
hipotético-deductiva; la filosofía, en cambio, es siempre categórica.
De cuanto hemos dicho se concluye fácilmente que el elemento más
dinámico y más creativo en el método científico es precisamente su aspecto teórico.
El progreso de la Ciencia depende en gran parte del método teórico; pero no
exclusivamente, como vamos ahora a ilustrar.

17
6.3 EL PROGRESO DE LA CIENCIA EXIGE LOS TRES ASPECTOS
JUNTOS

El método científico fue lento en nacer. Pero ahora que existe (desde el s.
XVII en adelante), es la cosa más estable en la Ciencia, en todas sus áreas.
Naturalmente, lo que se puede hacer en Biología no es aplicable en Astronomía: se
puede traer al laboratorio una colonia de células, pero no un cúmulo de estrellas.
Sin embargo, los tres aspectos del método son siempre los mismos, con sólo las
modificaciones de adaptación impuestas por las limitaciones humanas.

6.2.2 CARENCIA DEL ASPECTO EXPERIMENTAL


Nada diremos de Aristóteles, que por cierto no despreció la experiencia; hay
que recordar, sin embargo, que él vivió 2000 años antes del nacimiento de la
“ciencia” en sentido estricto.
Los Escolásticos medievales cultivaron sobre todo la Filosofía y más aún la
Teología. Se comprende así su práctico desinterés por los métodos experimentales.
De ahí que ellos no hayan hecho progresar la Ciencia.
Pero también entre los Escolásticos hubo precursores del método
experimental; entre ellos podemos citar a R. Grosseteste (+1253), a San Alberto
Magno (+1280) y sobre todo a R. Bacon (+1292), que con justicia fue considerado
como el precursor de Leonardo da Vinci, de F. Bacon y de G. Galilei. En el s. XIV
se da otra terna de precursores importantes del método experimental: J. Buridán
(+1358), N. de Oresme (+1382) y Alberto de Sajonia (+1390).
De los siglos XV y XVI ya hemos hablado en el n. 6.1: poco o nada han
contribuido a potenciar el método experimental, aunque no despreciaban
completamente la experiencia; hubo efectivamente descubrimientos, incluso
clamorosos, como el de la gran circulación sanguínea (W. Harvey, publicada hasta
1628); y L. da Vinci (+1519) proclamaba que la Ciencia es hija de la experiencia.
Queda sobre todo un hecho positivo: la creciente convicción de que la naturaleza
encerraba en sí misma la clave de sus secretos.
Por el contrario R. Descartes despreciaba la experiencia y llegó incluso a
afirmar que en las obras de Galileo no encontraba nada que desease considerar
como propio. No quería ser un humilde discípulo de la Naturaleza. Él quería una
ciencia a priori, de tipo mecanicista, con rigurosas deducciones matemáticas. La
experiencia carecía de este rigor; por consiguiente a ésta le correspondía solamente
un papel marginal: mostrar cuál – entre los múltiples efectos previstos en las
deducciones más particularizadas (donde las complicaciones matemáticas hacen
difícil el cálculo) – ha sido efectivamente realizado.
Él tenía, pues, un método teórico (el mecanicismo) y también el método
matemático. De él obtuvo incluso algunas geniales deducciones concretas, como la
teoría de los torbellinos para los movimientos planetarios y las leyes de la

18
refracción de la luz. Pero, privándose voluntariamente de toda la riqueza del a
posteriori, - que habría podido obtener sólo del método experimental –, no pudo
personalmente aportar mayor cosa al progreso de la Ciencia.

6.2.3 CARENCIA DEL ASPECTO MATEMÁTICO


La Matemática tuvo un notable desarrollo en el Renacimiento, también
porque no tenía necesidad del método experimental. Así N. Tartaglia (+1557)
encontró la solución a las ecuaciones cúbicas, junto con J. Cardano, quien además
introdujo los números negativos. Y se puede decir que F. Viete (+1603) fue el
verdadero creador del simbolismo algebraico.
Además, desde hacía siglos, después del trivium (gramática, retórica,
dialéctica), se estudiaban las cuatro ciencias del número, llamadas quadrivium
(Música, Geometría, Aritmética, Astronomía). Y San Agustín (+430), bajo el
influjo del neoplatonismo, de las doctrinas pitagóricas y de la cábala hebraica (s. II
a.C.), vio números por todas partes, dándoles una interpretación mística, simbólica
y alegórica. Y así lo hicieron muchos otros después de él.
Pero una cosa es la Matemática pura o esa última forma de matematicismo
perfectamente estéril, y otra es cultivar la Ciencia con el método matemático.
Consideremos, por ejemplo, a los alquimistas, que encontramos en todo el
Medioevo, incluido también el Renacimiento. Evidentemente no todos ellos eran
charlatanes: también san Alberto Magno y aun I. Newton (+1727) practicaron la
alquimia, y Sto. Tomás (+1274) la llama un arte “verdadera, pero difícil”. Si bien
sus primeros orígenes datan de antes de Cristo y están esparcidos un poco en todas
partes (China, India, Babilonia, Persia, Egipto, Grecia, etc.), el alquimista por
excelencia parece haber sido un cierto Geber o Jabir (por el año 760), un personaje
parcialmente legendario, de origen islámico.
Estos alquimistas, acumularon numerosos datos experimentales y crearon
variadas técnicas y aparejos todavía hoy en uso (calcinación, sublimación,
destilación, bañomaría, alambiques, etc.). El mismo Geber habría destilado agua
hasta unas 700 veces! Se puede decir que los primeros verdaderos laboratorios
fueron los de los alquimistas. Ellos tenían pues cierto método experimental.
Y seguían también un cierto método teórico. Habiendo comprendido con
Aristóteles que las mutaciones intrínsecas son verdaderamente posibles, ellos
trataban de realizar la transmutación de metales viles en sustancias preciosas (oro,
plata). Pero hay que reconocer que esta teoría, fundamentalmente exacta, ellos la
integraban con especulaciones acerca del nacimiento del oro y la existencia de una
“piedra filosofal”, que tendría la propiedad milagrosa de acelerar al máximo este
nacimiento. Creían ingenuamente que incluso una sustancia amarilla (oropimente =
auri pigmentum!) podría servir a ese fin. Otra búsqueda, vinculada esta vez con la
curación o “transmutación” de un enfermo, fue la de la “panacea” o también del
elixir de larga vida.

19
Les faltaba el método matemático, es decir el control con el cálculo y las
medidas, la búsqueda de leyes o relaciones universales, la redacción de tablas de
materias. Ellos indicaban el peso de los ingredientes (una onza de esto, tres onzas
de aquello), pero sin precisar más; a veces dividían un producto intermedio en
partes iguales; pero jamás una sola alusión al peso o a la composición del producto
final. De éste observaban únicamente las cualidades: la forma, el color, el olor, el
aspecto turbio o claro, espumoso o menos, etc. Y así perdían de vista las innegables
reacciones químicas que se daban en sus matraces.
El método matemático exige también un lenguaje claro y bien definido. El
de ellos, en cambio, era un lenguaje hermético, voluntariamente secreto para
esconder su contenido a los profanos. Por “oro”, además, no entendían una
sustancia única: había varias especies de oro, más o menos buenas, etc.
No; el alquimista no hizo progresar la Ciencia: estaba demasiado ocupado en
cumplir la “gran obra” y muy poco en adquirir el conocimiento de la Naturaleza.

6.3.3 CARENCIA DEL METODO TEÓRICO


Decíamos (n. 6.2.3) que el aspecto teórico (o hipotético) es el elemento más
dinámico en el método científico. Esto vale también cuando una teoría se apoya en
una concepción filosófica fundamentalmente falsa, como era el mecanicismo.
Efectivamente, ninguna doctrina es tan falsa que no contenga algún elemento de
verdad.
En cambio, en los pseudo-científicos del s. XVI (que vimos en el n. 6.1), se
hacía sentir fuertemente la ausencia de una segura orientación teórica. Habiendo
abandonado la metafísica aristotélica sin sustituirla con alguna otra luz intelectual,
el Renacimiento se quedó sin criterios para decidir lo que era posible y lo que no.
Así, sin criterio de verdad, pasaron fácilmente a una especie de magia, astrología y
cábala, es decir a elementos a-científicos, introducidos por el Humanismo.
Para corregir este defecto no bastan las experiencias y el cálculo, o sea el
uso del método experimental y matemático. Sería como guiar una nave con mano
experta en medio de la tempestad y determinar todos los días la posición exacta, el
exacto rendimiento de los motores, etc., pero sin tener una meta a donde dirigirla
(C. Colón sí sabía a dónde quería llegar!).
En cambio los tres aspectos del método se encuentran reunidos en hombres
como G. Galilei, I. Newton, A. L. Lavoisier (+1794), J. Dalton (+1844), C. Bernard
(+1878), M. Berthelot (+1907), E. Rutherford (+1937), etc. Y fueron éstos los
verdaderos constructores de la ciencia.

CAP. VII - TEORIA Y PRÁCTICA

A propósito del método teórico (n. 6.2.3) hicimos alusión a otro significado
de “teoría”, en la que ésta se opone a la “práctica”.

20
En sentido peyorativo “teoría” sería aquello que no se verifica en la
práctica; “teoría” se opondría a “práctica” como el sueño a la realidad.
Pero, en sentido más ortodoxo, en el binomio teoría-práctica entendemos
por “teoría” la ciencia pura, del todo desinteresada, que tiene como único objetivo
el conocimiento del mundo o de la naturaleza. Hablando del triple aspecto del
método teníamos en mente cabalmente la Ciencia pura.
A ésta contraponemos ahora la “práctica”, y lo hacemos bajo dos aspectos
diversos: como aplicación de la Ciencia pura y como preparación a ella.

7.1 LA “PRÁCTICA” COMO APLICACIÓN DE LA CIENCIA PURA

Se la llama ciencia aplicada, en cuanto utiliza la Ciencia pura para la


realización de ciertos fines humanos. Le interesa únicamente el control de la
naturaleza, mediante el conocimiento de las leyes que recibe de la Ciencia pura. Ya
que estas leyes son recabadas de la experiencia, deben poder aplicarse nuevamente
a ella, esta vez para nuestros fines particulares.
La Ciencia aplicada da origen a nuevas máquinas (instrumentos de medida,
motores, osciladores, etc.) y sobre todo a nuevas técnicas (electromagnéticas,
crioscópicas, químicas, psicológicas, etc.). Se puede pensar aquí en los
“inventores”, como T. A. Edison (+1931). Pero la distancia entre Ciencia pura y
aplicada puede también que no sea superable con un solo paso.
Pueden transcurrir muchísimos años entre la elaboración de un capítulo de
Ciencia pura y una aplicación práctica del mismo; esto porque tal vez falta todavía
un descubrimiento intermedio que la haga posible. Por ej., las secciones cónicas
(elipse, parábola, hipérbola), estudiadas como ciencia pura por Apolonio de Perge
en el 210 a. C., fueron aplicadas al análisis de las órbitas planetarias, de las
trayectorias de los proyectiles, de los cables de los puentes colgantes, etc., sólo
después del descubrimiento cartesiano de la Geometría Analítica. Otro ejemplo: la
aplicación de la mecánica cuántica y relativista a la construcción del reactor
nuclear en 1942, vino a ser posible sólo con el descubrimiento de la fisión del
Uranio (O. Hahn, 1939).
Son posibles también aplicaciones de aplicaciones. Por ej., la teoría de
los grupos de transformación, fundada como ciencia pura por S. Lie en 1871, halló
una primera aplicación en la cristalografía, la cual a su vez (como ciencia pura) ha
sido aplicada en la industria de los embalajes. Y así la distinción entre Ciencia pura
y aplicada llega a ser un poco menos rígida.

7.2 LA “PRÁCTICA” COMO PREPARACIÓN A LA CIENCIA PURA

Se dan algunas praxis, de tipo más bien especulativo u ocioso, que han
contribuido al menos indirectamente a la formación de una Ciencia pura. Como
tales se podrían considerar las investigaciones sobre los números y los cuadrados

21
mágicos (que dieron gran impulso para la Aritmética), las elucubraciones de los
astrólogos (que preludian, aunque muy de lejos, a la Astronomía), los problemas de
quién de los jugadores de naipes o de dominó gana, cuando el juego queda
interrumpido (de ellos tuvo inicio con B. Pascal – póstumo, en 1665 – el Cálculo
de probabilidades).
Pero existen otras praxis, menos ociosas y mucho más utilitaristas, porque
exigidas por las necesidades humanas, que han dado un fuerte impulso al
desarrollo de las ciencias puras. Se puede decir que todos los aspectos de la
actividad humana han conducido primero a una ciencia práctica, que se resumía en
reglas de acción, y después – bajo forma de auténticas leyes – confluyeron en una
ciencia pura. Estamos diciendo “ciencia práctica” y no “ciencia aplicada”, porque
antes de la ciencia pura no puede existir una ciencia aplicada.
Gran parte de la tecnología (aunque no toda) está así en la base de alguna
ciencia pura (aunque no de todas). Sugerimos aquí algunos ejemplos.
Los aportes a la Geometría de parte de los agrimensores egipcios, que
después de las periódicas inundaciones del Nilo debían redescubrir los límites de
las diversas propiedades. La contribución a la Mecánica de parte de la arquitectura
(la estática) y del arte militar (la balística). Los aportes a la Física de parte de los
fabricantes de instrumentos de precisión. La contribución a la Química de parte de
las industrias metalúrgicas (minas, talleres de fundición), de la industria del queso
y de la cerveza (fermentación), de las curtidurías, de las industrias de los
colorantes, de los cosméticos y de los explosivos. El aporte a la Termodinámica de
parte de la ingeniería que tendía a mejorar la eficiencia de las máquinas de vapor y
de los motores de explosión. La contribución a la Biología de parte de la medicina,
de la ganadería y de la agricultura. Etc., etc.

7.3 INTERACCIÓN ENTRE TEORÍA Y PRÁCTICA

Comprendemos que, en la realidad concreta, las cosas son sensiblemente


más complejas de cuanto aparezca en la anterior presentación esquemática.
La tecnología, por ejemplo, procede a menudo con el método de ensayos y
errores (“trial and error”); así también el médico, cuando ensaya la aplicación a un
caso particular de un nuevo fármaco o del electroshock, que por otro lado sabe que
no son peligrosos para su paciente, pero de los cuales no conoce el funcionamiento
exacto ni si producirán el efecto deseado.
Por otra parte la tecnología de los instrumentos de precisión debe tener en
cuenta la existencia de ciertos límites que son propios de la naturaleza de las cosas
y que le son suministrados por la Ciencia pura (por ejemplo, la velocidad de la
corriente eléctrica, que impone un límite a la construcción de computadoras
ultrarrápidas).

22
El ideal de la tecnología es la eficiencia, es decir, el máximo rendimiento
con el mínimo costo en materiales, trabajo y tiempo. Piénsese en el transporte
aéreo, en la extracción y distribución del petróleo, en la codificación y transmisión
de la información, en la automatización y en la cibernética (no sólo en la industria
pesada, sino también en la didáctica e incluso en los diagnósticos médicos), en el
estudio de un sistema posiblemente equitativo y cómodo de distribución de
impuestos, necesarios para sostener la economía social; en una palabra: en los
varios problemas de optimización. Estos problemas no existían para los Romanos:
sus puentes, por ejemplo, eran capaces de soportar cargas muy superiores a las que
debían transitar por ellos. Pues bien, todos estos esfuerzos tan “prácticos” crean
inevitablemente nuevos capítulos de Ciencia pura.
Tenemos luego la ayuda mutua entre las varias ciencias. La farmacología
moderna no podría existir sin la Química. Todos saben cuán abundantemente la
medicina se sirve hoy de los modernos aparatos electrónicos (encefalogramas,
electrocardiogramas) o también de los radio-isótopos artificiales. Y no basta: la
ciencia aplicada localiza el petróleo y la tecnología lo encuentra y lo extrae (G. L.
Drake fue el primero en hacerlo, en 1859 en Pennsylvania, pero lo que halló fue un
pozo artesiano!).
Y para terminar, existen campos en los que concurren simultáneamente
las ciencias más variadas. Citemos sólo: la biblioteconomía, el periodismo, la
urbanística, la criminología (policía científica), las guerras...

CAP. VIII - LAS TRES FASES DE LA ACTIVIDAD CIENTÍFICA


Vamos ahora al grano. Enumeraremos con breve descripción las fases por
las que pasa idealmente el camino de la Ciencia. Decimos “idealmente”, porque las
varias etapas no siempre siguen ese orden, ni es necesario que las encontremos
todas reunidas en el mismo investigador. Además, a veces es difícil trazar
rigurosamente la línea de demarcación entre esas fases. Hablamos – por supuesto
– de ciencia pura, no de ciencia aplicada.
Esas fases son tres: la observación de los hechos, el descubrimiento de las
leyes y la invención de las hipótesis. Hay que notar bien que esa división no
coincide absolutamente con los tres aspectos del método (de los que hemos
hablado en el cap. VI); más bien, el triple aspecto del método opera en cada una de
las fases de la actividad científica.

8.1 LOS HECHOS

Punto de partida – y a menudo también de llegada – es la observación de los


hechos, porque el método científico debe ser experimental. Y porque dicho método
es también matemático, la observación debe ser posiblemente cuantitativa o sea
traducirse en medidas; y no hay que olvidar (n. 6.2.2) que también las cualidades
23
son mensurables. Finalmente, esos hechos deben ser expresados en proposiciones
transmisibles intersubjetivamente (n. 5.3.5).
He aquí, a título de ejemplo, algunos hechos: el hervir del agua en un
recipiente puesto sobre el fuego, el salir del sol (hora, día, grados), las mareas, las
fases lunares, una reacción química (como la oxidación del acero), el crecimiento
de una planta, la distribución de los fósiles en un terreno estratificado, el
comportamiento de un sujeto sometido a stress (estímulos intensos), el desarrollo
de la periferia de una ciudad, el aumento del precio del café, etc.

8.2 LAS LEYES

Mientras los hechos los describimos mediante proposiciones particulares, las


leyes las expresamos con proposiciones universales: describen las relaciones
invariables entre los hechos. Esa universalidad debe entenderse en sentido estricto,
como derivada de un vínculo necesario: es decir, no basta una simple universalidad
factual o accidental, como cuando digo, por ejemplo, que todas las piedras de mi
colección contienen hierro (generalización puramente empírica; cfr. n. 5.2).
Se trata en primera instancia de leyes experimentales, cuya necesidad es
determinada, por inducción, a partir de los datos experimentales. Pero en segunda
instancia esta necesidad adquiere un carácter más intrínseco y lógico cuando se la
puede hacer derivar, por deducción, de una explicación teórica de la ley (cfr. el
eclipse, n. 5.2).
Por efecto del método matemático las leyes tienden a expresarse en
fórmulas algebraicas. Pero estas leyes cuantitativas son generalmente precedidas
de leyes cualitativas, que en ciertos sectores de la Ciencia son incluso las únicas
hasta ahora conocidas.
He aquí algunos ejemplos de leyes cualitativas: el calor y la humedad
favorecen la formación del moho; un tiempo frío y húmedo favorece el aparecer de
la gripe; en el aire húmedo el hierro se oxida; el ámbar frotado atrae cuerpecillos
livianos; la corriente eléctrica hace que se desvíe una aguja magnética puesta en su
vecindad; cuando en un mercado en equilibrio el precio de la demanda comienza a
superar el precio de oferta, la producción tiende a aumentar, mientras en caso
contrario tiende a disminuir. Ejemplos de leyes cuantitativas son: en la refracción
de la luz es constante la relación entre los senos de los ángulos de incidencia y de
refracción (Snellius, 1618); el espacio recorrido por un cuerpo en caída libre es
proporcional al cuadrado del tiempo empleado (Galileo, 1638); en las
transformaciones isotérmicas de los gases la presión es inversamente proporcional
al volumen (Boyle-Mariotte, 1662); el decaimiento radiactivo es una función
exponencial inversa al tiempo, etc.

8.3 LAS HIPÓTESIS


24
De éstas ya hemos hablado en el n. 6.2.3: sirven para explicar los hechos y
sus leyes.
Añadamos únicamente que las hipótesis son libres creaciones de la mente,
que no pretenden alcanzar un consenso universal (n. 5.3.4). Los hechos se
observan, las leyes se descubren, pero las hipótesis se inventan.
Ejemplos: la hipótesis copernicana (heliocentrismo), la hipótesis de la gran
explosión inicial (big bang, Urknall), la hipótesis de la onda asociada a los
corpúsculos (De Broglie), la hipótesis de la existencia de los neutrinos, de los
genes, de la antimateria, de los agujeros negros (black holes), del complejo de
Edipo, etc.
Debemos ahora someter a crítica cerrada estas tres fases de la actividad
científica, para apreciar exactamente su valor y sus límites.

IX - LOS HECHOS

9.1 OBSERVACIÓN SIMPLE DE LOS HECHOS

Como sugieren las palabras de este título, se trata de una observación pasiva,
en la cual el científico nada hace para provocar el fenómeno o para modificar
artificialmente las circunstancias. Al máximo enriquecerá sus propios sentidos con
instrumentos oportunos (por ejemplo, con un microscopio o un telescopio) para
hacer posible o para mejorar la observación misma.
Pero aun siendo pasiva, la observación debe ser científica, o sea atenta y
empeñativa: quien mira los juegos de un niño pensando en otra cosa, o quien mira
distraído por la ventanilla de un tren en movimiento, no observa absolutamente
nada.

9.1.1 ES NECESARIA SU REPETIBILIDAD


Para que la observación sea científica, otros deben poder repetirla. Esto es
exigido por la universalidad de la Ciencia y permite también corregir los
inevitables errores humanos.
Queda así excluida la observación artística, que no es repetible. Existen sin
duda escuelas artísticas (impresionismo, cubismo, abstractismo, etc.), que siguen
una dirección común; pero los verdaderos grandes artistas (como por ejemplo
Cézanne o Goya) son originales. El artista, por otro lado, trata de simbolizar
valores, cosa que a la Ciencia no le interesa.
Queda excluida también la introspección, que otros no pueden repetir.
Esto vale, en particular, contra el empiriocriticismo de E. Mach. Este
primer epistemólogo redujo la realidad a sólo nuestras sensaciones, que según él no
representarían ni objetos ni acontecimientos: la “cosa” – dice – la creamos

25
nosotros, indicando, por economía de pensamiento, con un solo nombre (por ej.,
“perro”) un conjunto coherente de sensaciones. Aun el “yo” se reduce, para él, a
una pasajera conexión de elementos mudables! Reconocemos aquí las ideas de D.
Hume, con la diferencia que según Mach todo en la Ciencia tiene una función de
economía (ideas, leyes, hipótesis, palabras, enseñanza, sistema), una economía que
simplifica las cosas en vista de la acción. Análoga es la posición de R. Avenarius
(+1896). También en el instrumentalismo de J. Dewey las ideas valen sólo como
instrumentos de acción: no tienen un valor noético, no hacen conocer nada
verdaderamente. Estas doctrinas tienen sus lejanas raíces en el nominalismo del
siglo XIV, con G. de Ockam (+1350).
Queda excluida también la búsqueda de la pura casualidad, que es
irrepetible. No era científica, por ejemplo, la observación de los antiguos arúspices,
que – con el objeto de adivinar el futuro – examinaban las entrañas de las víctimas
o escrutaban el cielo para ver el vuelo de un ave en el momento justo en una
posición de buen presagio. ¿Y qué decir de aquéllos que hoy van a caza de los
Ovnis?

9.1.2 ES NECESARIA LA EXISTENCIA OBJETIVA DE UN MUNDO EXTERNO


Efectivamente, la observación científica pueden repetirla otros, porque
consiste en recoger mensajes provenientes del mundo externo, el cual es accesible
también a los demás. Ella por tanto presupone la existencia de un mundo externo
(no la demuestra, pues esto le corresponde a la Filosofía, no a la Ciencia!). Por lo
demás ella debe presuponerla, porque las referencias de cada uno de los sentidos
pueden vincularse entre sí únicamente en un objeto que sea externo a los mismos
sentidos (por ejemplo, en la rosa objetiva – real, externa a mí – se unifican mis
sensaciones de color, de perfume, de suavidad, etc.).
Pero, ¿existe al fin ese mundo externo? Aunque el problema está fuera del
ámbito de la Epistemología, respondemos brevemente con dos argumentos:
En primer lugar, mis sensaciones son internas a mí. Pero distingo claramente
entre ciertos actos mentales que son totalmente internos y otros que revelan un
mundo externo. Yo recuerdo, por ejemplo, mis percepciones, las llamo a la
memoria y las comparo entre sí, las considero agradables o desagradables, las
deseo o las detesto. Éstos son estados totalmente internos, en los cuales hay una
gran posibilidad de control (aunque no siempre logro recordar, por ejemplo, lo que
quisiera). Cuando en cambio oigo que llaman a la puerta o camino bajo una lluvia
helada, refiero estas percepciones auditivas o táctiles mías a un mundo externo a
mí, contra el cual poco o nada puedo hacer (únicamente puedo taparme los oídos o
no salir).
En segundo lugar, existen los otros (mis semejantes) que concuerdan
conmigo en aquellas percepciones que refiero al mundo externo. Es verdad que
aquí se puede repetir la pregunta sobre la existencia objetiva de estos “otros”. Pero

26
una breve reflexión permitirá responderla. Cuando toco inadvertidamente un plato
demasiado caliente, retiro rápidamente la mano, porque he sentido dolor. Ahora
bien, veo el mismo comportamiento en los otros, pero no percibo su dolor! Para
comprender esta conducta de ellos debo admitir necesariamente que ellos
distinguen entre el mundo externo y su propio mundo interno. Por tanto si a mí no
me fuera permitido distinguir entre un mundo externo y mi mundo interno, ¿por
qué debería mantener esta misma distinción en aquellos “otros” (para
comprenderlos), que sin embargo formarían parte de mi único mundo interno?

9.1.3 ES NECESARIA LA SELECTIVIDAD


La observación científica es selectiva, es decir, intencional. Entre las mil
cosas observables el científico elige de antemano la clase de cosas que quiere
observar. De alguna manera él ya sabe lo que busca. Su atención se posa sobre
ciertas cosas y deja a un lado otras; al microscopio, por ejemplo, él observa
atentamente los glóbulos y no se digna mirar las formas filamentosas. Sólo
después del descubrimiento de los positones de parte de C. Anderson (1932), los
científicos reconocieron la clara presencia de positones sobre placas fotográficas
más viejas.
Sin una selección el científico andaría a la búsqueda del puro azar y no
observaría nada que valga la pena. Es verdad que se dan casos de descubrimientos
casuales, como por ejemplo el de la radiactividad (H. Becquerell, 1896). Pero tales
descubrimientos suceden normalmente durante observaciones rigurosamente
científicas, donde precisamente la atención del científico no puede dejar pasar la
anomalía de una excepción. Así Becquerell estaba examinando sistemáticamente la
emisión de “rayos penetrantes” (los rayos X, descubiertos un año antes por W. K.
Roentgen) de parte de cristales vueltos fluorescentes por una irradiación luminosa,
y ciertamente no esperaba encontrar que también las sales de uranio – aun sin
previa exposición a la luz – pudieran emitir rayos similares.
Sin embargo esta selección, necesaria para dar un objetivo preciso a la
observación, constituye para ella también un condicionamiento restrictivo, porque
excluye deliberadamente algunos otros resultados que de otra manera se habrían
podido obtener. Cuando se conozca la verdadera causa de los tumores malignos y
su cura eficaz, se verá cuáles aspectos del problema del cáncer habían sido
deliberadamente dejados a un lado. Además, hay peligro de que las observaciones
así seleccionadas no sean ya totalmente objetivas, porque ya vienen cargadas de
prejuicios y de anticipaciones a la experiencia. Piénsese sólo en ciertos exámenes
psicoanalíticos y todo el arco de investigaciones en torno al evolucionismo.
Pero no todos los males vienen para perjudicar. Pues siempre que una
anticipación es desmentida por la experiencia, nuestro conocimiento del mundo se
enriquece con un nuevo dato. Por ejemplo, el ámbar frotado levantaba corpúsculos
ligeros contra la gravedad; de esta anomalía nació la electrostática. Otro ejemplo:

27
perfeccionando las observaciones de L. Galvani (1780) sobre las contracciones de
una pata posterior de rana (que el mismo Galvani interpretó erróneamente como
“electricidad animal”), A. Volta (+1827) descubrió que lo esencial era tocar el
nervio crural y el músculo externo con un arco hecho de dos metales diversos; este
descubrimiento, del todo inesperado (¿qué tenía que ver el contacto entre dos
metales diversos?), llevó a la construcción de la famosa “pila de Volta” (1800), el
primer aparato capaz de abastecer ininterrumpidamente una corriente eléctrica;
siguió luego (1820) el descubrimiento inesperado de H. C. Oersted sobre los
efectos magnéticos de la corriente, que dio inicio a la electrodinámica.

9.1.4 ES NECESARIO EL RECONOCIMIENTO DE CLASES


La observación científica no puede detenerse en el individuo (a la ciencia le
interesa lo universal); debe, por tanto, reconocerlo como perteneciente a una clase.
Y este reconocimiento implica ciertos conocimientos previos. Sin estos
conocimientos no podría decir que he bebido una taza de café (y no de te), que he
observado un caso de poliomielitis (y no de tétano), que he visto al microscopio el
bacilo del tifus (y no el vibrión del cólera), etc.
No basta, pues, el simple “ver”; es necesario un “ver-como”, un “reconocer-
como”. Por ejemplo, yo y un niño observamos con distintos ojos una página
impresa, un reloj, la bandera nacional, la fotografía de una famosa cantante, una
herida infectada, etc. Esto porque una cierta cantidad de conocimientos previos se
descarga en la observación pura.

Puede suceder que a una misma persona una determinada figura se le


presente diversa en cada caso, con un paso instantáneo y espontáneo de una
percepción a otra. Ejemplos: el cubo reversible de Necker (1832), el cáliz-o-caras

28
de Köhler (1929), la vieja-o-joven de Boring (1930), las manchas de Rohrschach,
toda una serie de dibujos de Escher, etc.
Comentemos brevemente el caso del cubo de Necker. Para comenzar, la
figura lo representa como transparente; por lo tanto, algunos lo ven como un
recipiente de vidrio, algunos como un cristal, otros como un acuario (o pecera),
otros como un retículo metálico, etc. Pero también hay ambigüedad en la relación
figura-fondo: por momentos veo el cubo desde abajo (y un poco hacia la
izquierda), y por momentos desde arriba (y un poco hacia la derecha). Si bien yo
tengo siempre delante de los ojos la misma idéntica figura, sin embargo la veo
alternativamente como perteneciente a dos clases diversas.
Esto es debido a la dimensión de profundidad, que no veo directamente.
Pues mi visión directa es únicamente bidimensional: la tercera dimensión es una
integración, en la cual se proyectan otros conocimientos míos, provenientes de
experiencias táctiles o también visivas (que acompañan, por ejemplo, mi
movimiento alrededor de los objetos).
Es de notar que en todos estos ejemplos el reconocimiento de la clase de
pertenencia no es todavía una interpretación, sino simplemente un “reconocer-
como”. Por lo demás ¿qué sería el “ver según una interpretación”? El ver es un
estado experiencial, mientras el interpretar es ya una actividad del pensamiento.

9.1.5 ES NECESARIA UNA PROPOSICIÓN QUE EXPRESE LOS HECHOS


OBSERVADOS
El “reconocer-como” está normalmente seguido de un sustantivo, que
expresa una clase o concepto: y se sabe que los conceptos no son ni verdaderos ni
falsos. Pero los hechos de experiencia no son clases y no basta un concepto para
expresarlos. Se necesita un juicio, o sea una proposición, introducida con
expresiones del tipo “observo que” o “noto que”. Éstas, en efecto, son
transmisibles intersubjetivamente (n. 5.3.5) y gozan de la propiedad de ser
verdaderas o falsas.
Mientras el “reconocer-como” es sólo un estado experiencial, el “notar que”
es un acto de la mente, un juicio (al menos implícito) que interpreta esta
experiencia, extrayendo de ella el hecho que en ella está contenido. Un buen
ejemplo es el ciego de Betsaida (Mc 8,24), cuando dijo: “Veo a hombres, porque
veo como árboles que caminan”. Sabiendo que los árboles no acostumbran
caminar, interpretó (correctamente) esa experiencia suya afirmando que veía a
hombres. Pediríamos en vano un juicio de tal clase a una computadora, a una
fotocélula e incluso al ojo: es el hombre el que ve y puede decir que ha observado
algo.
Daremos ahora varios grupos de ejemplos (todos de percepciones visivas)
para hacer comprender mejor qué se entiende por observación interpretada. Pero
no está dicho que todas las interpretaciones sean verdaderas.

29
1. Veo que una rueda puede girar alrededor de su eje; veo que una lámina de
vidrio cayendo puede romperse; veo que una bandera puede ondear al viento
y que una bombilla inserta en un circuito eléctrico puede iluminarse.
Observando una huella de pie, digo que alguien ha pasado por aquí.
2. Veo un hongo y digo que es venenoso; veo que la cebra tiene una piel
blancuzca con rayas transversales negras; al amanecer veo que el Sol se
levanta. Mirando con el telescopio una especie de pústulas sobre la Luna,
digo que estoy observando sus cráteres.
3. Reconozco la reina sobre el tablero de ajedrez y me doy cuenta de que está
en una posición peligrosa; viendo la bandera ante un edificio, digo que se
trata de una embajada; asistiendo a una ceremonia militar, veo que el general
está colocando una medalla en el pecho de un héroe; veo que el sacerdote
está celebrando la Misa. Viajando en automóvil, veo que alguien más
adelante agita un banderín rojo y lo interpreto como señal de emergencia.
4. Observando esta hoja de papel, noto que tiene también otra cara, como la
Luna tiene una cara posterior y como detrás de una facha se esconde la casa.
Observando un armario, adivino que en su interior hay puesto para meter
diversas cosas. Veo que esta figura representa un cubo.
En el primer grupo se trata de interpretaciones evidentes, de la vida diaria;
en el segundo ya se necesita una mayor información previa; en el tercero entran
también elementos convencionales; por fin, en el cuarto se pone en evidencia la
tridimensionalidad del mundo (cfr. n. 9.1.4).
En conclusión: no basta memorizar, asociar y comparar entre ellas nuestras
percepciones sensibles: sería como revolver mecánicamente los vocablos de un
diccionario – a la manera de R. Lulio (+1315) – para obtener así quién sabe qué
verdades. No; los hechos no se pueden fotografiar, sino sólo describirlos,
expresando lo que la observación nos ha presentado como conocimiento nuevo.

9.2 OBSERVACIÓN CUALIFICADA (experimentación) DE LOS HECHOS

Es aquí, sobre todo, donde interviene la acción (cfr. n. 6.2.1), que provoca la
producción controlada y repetible del fenómeno a observar, regulando las
condiciones de la observación misma y traduciéndola a un lenguaje unívocamente
transmisible mediante las medidas. Éstas transforman un hecho bruto-concreto-
práctico en un hecho científico-abstracto-teórico.

9.2.1 REGULACIÓN DE LAS CONDICIONES DE LA OBSERVACIÓN


Como preámbulo el científico debe aislar y preparar de alguna manera el
objeto en el que quiere estudiar el proceso de un determinado fenómeno.
Negativamente esto significa que, por ejemplo, evitará perturbar el objeto,
como cuando está observando pájaros empollando o hace ciertas investigaciones

30
psicológicas. Positivamente, él prepara cultivos bacterianos o también portaobjetos
para luego observarlos con el microscopio.
A menudo el científico debe fijar las condiciones externas naturales, como la
temperatura, la humedad y la ventilación en un invernadero experimental; o bien
crea condiciones artificiales, como en las centrifugadoras o en los aceleradores de
partículas.
Otras veces necesita efectuar las observaciones fuera de la atmósfera
terrestre, con sondas o laboratorios espaciales, por ejemplo para estudiar la
intensidad de ciertas radiaciones o los efectos fisiológicos debidos a la ausencia de
la gravedad.
Pero las más de las veces el científico trata de hacer observable, al menos
indirectamente, aquello que no lo es directamente. Los ejemplos abundan. Así,
estudia la composición de la luz estelar usando filtros o el espectroscopio; observa
las trayectorias de las partículas subatómicas en la cámara de Wilson; ciertas
estructuras internas de las células las vuelve visibles mediante colorantes o con el
microscopio de contraste de fases; la deformación de objetos en movimiento rápido
(por ejemplo, de una hélice) la vuelve observable con el método estroboscópico; el
crecimiento de una planta, por más que lentísimo, llega a serle apreciable con
fotografías intermitentes; de alguna manera percibe las psicosis profundas en el
comportamiento externo del paciente; en fin, los fenómenos más diversos y
generalmente escondidos a nuestros sentidos el científico los releva con la lectura
de cuadrantes y observaciones en el osciloscopio.
Se entiende que en todas estas manipulaciones juegan un rol de creciente
importancia las hipótesis y las interpretaciones. Pero, no obstante todas nuestras
intervenciones, esperamos siempre la respuesta de la Naturaleza, que puede ser
también un solemnísimo “no”, como en el experimento de Michelson (n. 2 B). Por
lo demás, para garantizar la objetividad, los científicos multiplican las
observaciones con otros instrumentos y otros métodos.

9.2.2 INSTRUMENTOS DE MEDIDA. HECHO CONCRETO Y HECHO


TEÓRICO
La observación científica se sirve normalmente de instrumentos de medida.
Éstos superan las prestaciones de los sentidos: en precisión, porque distinguen
también allí donde los sentidos ya no distinguen; en sensibilidad, porque funcionan
también más allá de los límites extremos de los sentidos; en flexibilidad, porque a
un único sentido le sustituyen a menudo instrumentos y procedimientos diversos;
en riqueza, porque los sentidos son pocos y las cosas que se necesita medir son
muchas.
En el uso de los instrumentos de medida hay que distinguir entre el hecho
concreto y el hecho teórico que se le asocia.

31
Es un “hecho concreto”, por ejemplo, que en un termómetro la columna de
mercurio llega al signo 30; pero el “hecho teórico” es que la temperatura es de 30
grados centígrados. La temperatura en sí – como estado térmico de un cuerpo – es
naturalmente un hecho concreto; pero como tal no tiene nada en común con la
altura de una columna de mercurio. Se puede decir también que la temperatura es
una entidad abstracta, en el sentido de que ella es representada idénticamente por
hechos concretos muy diversos: tanto que se trate de la altura de una columna de
mercurio o de alcohol, como de la posición de un indicador o de una plumilla
escribiendo o bien de cifras que se forman electrónicamente, siempre se dirá que
“la temperatura es tanta”. Lo mismo vale para la presión, la masa, la intensidad de
una corriente eléctrica, la inducción magnética, etc.
Los conceptos del lenguaje científico se refieren precisamente a esas
entidades abstractas o hechos teóricos. No hay que confundir ese lenguaje con el
lenguaje técnico, propio de las artes y oficios, como la heráldica, el lenguaje de
marineros o de los radioaficionados, y todas las jergas en general. Estos lenguajes,
en efecto, aunque estén lejos del uso común, se refieren siempre directamente a
hechos concretos bien especificados.
Al contrario, en el lenguaje científico una expresión del tipo "hay corriente
eléctrica" puede significar uno cualquiera de los siguientes hechos concretos: un
filamento se recalienta, la mancha luminosa de un galvanómetro se desplaza a lo
largo de una escala graduada, tiene lugar la electrólisis en un voltámetro, se
magnetiza una bobina, etc. Todos estos hechos concretos traducen un mismo hecho
teórico: la existencia de una corriente eléctrica.
Se entiende que la relación entre el hecho teórico y los varios hechos
concretos es el resultado de una elaboración intelectual compleja, en la que
intervienen varias leyes y teorías.
Por eso E. Le Roy (+1954) dijo que la ciencia (pero no la filosofía!) es obra
del entendimiento esquematizador; el científico crea el hecho, si no el hecho bruto,
al menos el hecho científico o teórico, mediante una fragmentación conceptual, y
por tanto subjetiva, de la realidad; la ciencia no sería un sistema de conocimientos,
sino un sistema de reglas que tienen éxito.
A eso H. Poincaré respondió justamente que el científico crea
únicamente el lenguaje científico con el que traduce el hecho bruto
en un hecho teórico. El hecho bruto es, por ejemplo, que la columna
de mercurio en el aparato (aquí al lado) es alta 735 mm y eso se
traduce diciendo que la presión atmosférica (hecho teórico!) es en
este momento de solos 735 mm (hoy estas presiones se miden en
milibares y serían respectivamente de 980 y 1013 mb, donde el
último número se refiere a la presión atmosférica "normal", que es lo
que miden los 760 mm de mercurio). Un piloto de avión, en cambio,
usará ese aparato como altímetro y en él leerá su altitud sobre el
nivel del mar.
32
9.2.3 LA MEDIDA COMO DEFINICIÓN OPERATIVA DE UNA PROPIEDAD
Toda medida es, en fin de cuentas, una observación, que constata la
presencia de alguna propiedad, o cualidad, y da de ella también una apreciación
cuantitativa.
Si en el mundo la temperatura fuese en todas partes y siempre la misma, las
operaciones de medida de la temperatura ya no funcionarían: la altura de la
columna de mercurio en el termómetro sería inmutable y también el sentido
térmico de la mano (o de la mejilla) ya no acusaría ninguna sensación calorífica,
porque - como dijo T. Hobbes (+1679) - sentir siempre lo mismo equivale a no
sentir. La percepción sensible, en efecto, requiere cierta heterogeneidad, es decir
una diversidad cualitativa, distribuida espacialmente o temporalmente. En la
hipótesis que estamos considerando el científico ya no hablaría de "temperatura":
esa palabra habría perdido para él todo significado.
Efectivamente hoy - después de la teoría de la relatividad especial (A.
Einstein, 1905) - ya no se habla de movimiento real ("absoluto") del Sol o de la
Tierra, porque no existe ningún criterio operativo capaz de revelarlo. La misma
suerte le tocó - por los mismos motivos - al concepto de simultaneidad de dos
acontecimientos distantes.
Todo esto nos obliga a decir que los procedimientos de medida definen las
propiedades; ejemplo: "temperatura" es aquello que se observa aplicando
debidamente un termómetro. Y así hemos llegado a las llamadas definiciones
operativas (T. W. Bridgman, 1927). Una definición de ese tipo describe las
operaciones capaces de observar (medir) una determinada propiedad; es un criterio
para reconocer su presencia (por ejemplo: cierto líquido es un ácido si el tornasol
azul sumergido en él se vuelve rojo); y a menudo da de ella también una medida
cuantitativa, como el uso de la balanza para las masas, el uso del contador Geiger-
Müller para la radiactividad, el empleo médico del esfigmómetro para la tensión
arterial, la aplicación de los "tests" para el índice de inteligencia, etc. Notemos que,
contrariamente a los términos psicológicos, los términos psicoanalíticos son por lo
general menos bien definidos.
Ya H. Poincaré había dicho que la definición de fuerza debe únicamente
enseñamos a medirla (por ejemplo, con el dinamómetro); no necesitamos saber -
dice - qué es la fuerza en sí misma, ni si ella es la causa o el efecto del movimiento.
Y podemos añadir que el peso atómico tiene un valor indiscutible (porque sabemos
cómo medirlo), aunque los átomos no existieran; dígase lo mismo de la longitud de
onda de la luz, aunque ésta última no fuese un fenómeno ondulatorio.

9.2.4 ALGUNAS CRÍTICAS A LA DEFINICIÓN OPERATIVA


Según Bridgman, pues, un concepto científico es sinónimo de un grupo de
operaciones, cambiando el cual cambia también el concepto, y debería cambiar
también el nombre. Piénsese, por ejemplo, en las varias especies de resistencia
mecánica (n. 5.3.2).

33
La ventaja de esa tesis es que tiene bajo control riguroso las definiciones
científicas. Si primero se define (en términos no-operativos) para luego medir, hace
falta asegurarse muy bien de que esa medida se refiere exactamente a la magnitud
así definida. En cambio con el método de la definición operativa hay menos
peligro de equivocarse.
Naturalmente ese método es absolutamente inaplicable en el campo
filosófico-metafísico; el alma de los vivientes, por ejemplo, no es - y no debe ser -
definible operativamente. Pero también en el campo puramente científico dicho
método llega a ser insostenible, si se lo lleva a los extremos.
La "longitud", por ejemplo, es definida mediante repetidas aplicaciones, una
tras otra, de una vara rígida y recta. Pero sucede que hay que modificar el
procedimiento de medida: la longitud de una circunferencia debe medirse con una
cinta flexible; las profundidades marinas se miden con ecos "sonar" (ultrasonidos);
las grandes distancias (terrestres y extraterrestres) con triangulaciones ópticas o
con ecos "radar" o "láser"; el diámetro del electrón con fenómenos
electrodinámicos. Si con el procedimiento de medida cambia también la magnitud
específica, ya no podremos hablar aquí de "longitudes".
Sin embargo, si diversos procedimientos de medida son coherentes, o sea
dan resultados concordes, no hay motivo para hablar de propiedades diversas. Es el
caso, por ejemplo, del termómetro de mercurio o de alcohol, del barómetro de
mercurio o metálico, etc. Naturalmente, nunca hay que generalizar: el agua, por
ejemplo, no sería un buen líquido termométrico, porque alrededor de los 4 grados
Cº tiene un comportamiento irregular.
Más bien hay que subrayar el hecho de que los conceptos científicos tienden
a formar un sistema con múltiples conexiones internas; están vinculados por
numerosas leyes que brindan nuevos criterios operativos; son como nudos de una
red, cuyos hilos son las leyes. Ejemplo: cuando crece la temperatura, crece también
la longitud de una espiral metálica (de ahí viene el termómetro metálico); crece la
resistencia eléctrica de un alambre (de ahí viene el bolómetro de resistencia); crece
la presión de un gas en un volumen constante (de ahí el termómetro de gas); crece
el efecto termoeléctrico (de ahí el termómetro de termopareja); crece la
luminosidad de un cuerpo muy caliente (de ahí el pirómetro óptico), etc.
Aún más, el enriquecimiento de esta red de conceptos-y-leyes induce a veces
a modificar los criterios operativos originalmente adoptados. Así sucedió, por
ejemplo, para la definición del "tiempo". Considerando constante la rotación diaria
de la Tierra, se define el día sideral como el intervalo entre dos culminaciones
sucesivas de una estrella. Pero la fricción causada por las mareas frena la rotación
terrestre, que por tanto es sólo aproximativamente constante. De ahí una primera
corrección al "tiempo" antes definido. También otros procesos dinámicos crean
irregularidades en la rotación terrestre, lo cual nos obliga a corregir nuevamente la
definición de "tiempo". Por último hoy tenemos relojes de cuarzo y hasta atómicos,
que armoniosamente forman parte de una amplísima red de leyes e imponen una
34
ulterior corrección del "tiempo". Si se siguiera la tesis de Bridgman, cada
corrección definiría una nueva propiedad, a la que correspondería cada vez un
nombre nuevo...

9.2.5 UNA PALABRA SOBRE LA MEDIDA DE LAS CUALIDADES


Como ya hemos dicho (n. 6.2.2), también las cualidades se prestan a un
procedimiento de medida.
Un primer método - directo - consiste en ponerlas en relación con una escala
discontinua de grados cualitativos preestablecidos. Un segundo método - indirecto
- consiste en medirlas basándose en sus efectos cuantitativos y continuos. Un tercer
método, finalmente, perfecciona el anterior haciendo que esas medidas puedan
entrar en fórmulas algebraicas.

A) Escala ordinal discontinua


Intuyo más o menos qué puede saber un alumno de 1°, de 2°, de 3er. grado
de Primaria. Entiendo también qué significa café de 1ª, de 2ª, de 3ª calidad (con la
salvedad de que ahí el número más bajo indica la calidad más alta). Lo mismo vale
también para las magnitudes estelares (m): una estrella de 3ª magnitud nos aparece
más luminosa que una estrella de 4ª, de 5ª... magnitud.
Cuando oigo la noticia de que un terremoto fue del 7° grado de la escala
Mercalli (1889), sé que la sacudida debió de ser muy fuerte; bajo la voz
"terremoto" la Enciclopedia describe los fenómenos observables que caracterizan
ese grado.
En la escala de las durezas (F. Mohs, 1811) son catalogados y enumerados
diez minerales de dureza creciente. Cada uno de ellos puede rayar el anterior, pero
a su vez es rayado por el siguiente. El mismo criterio se aplica a todos los demás
cuerpos; así la plata raya el yeso (que es de 2° grado), pero es rayada por la calcita
(que es de 3er. grado), por lo que su dureza está comprendida entre el 2 y el 3.
Obsérvese que en estas escalas cuenta únicamente el orden (creciente o
decreciente, no importa), de modo que aquellos números sólo tienen un valor
ordinal. No se pretende que la "distancia" o "diferencia" entre el 5 y el 4 sea igual a
la que existe entre el 6 y el 5. Antes bien, se tiene la impresión de que el salto de
dureza entre el corindón (que es de 9° grado) y el diamante (que es de 10° grado)
es más grande que el que existe entre el talco (que es de 1er. grado) y el corindón
(de 9°).

B) Escala ordinal continua


Se puede también utilizar un efecto cuantitativo, que crece continuamente a
lo largo de la escala discontinua de la cual hablamos ante. Así con el esclerómetro
se puede medir el grado de dureza de un cuerpo por la profundidad de la incisión
producida por una punta durísima, porque se ha observado que cuanto más duro es

35
un cuerpo, según la escala de Mohs, menos profunda es la incisión producida. De
forma similar, cuanto más caliente es un cuerpo según nuestro sentido térmico, más
aquél se dilata: de ahí la idea de un termómetro, que contenga un líquido dilatable.
Es verdad que en estos casos se mide directamente una cantidad
(profundidad de una incisión, longitud de una columna de mercurio, etc.). Pero se
trata de cantidades cualificadas, o sea obtenidas en ciertas circunstancias con
aparatos específicos; será por ejemplo la longitud de la columna de mercurio de un
"termómetro", que desde hace al menos 10 minutos está en buen contacto con el
cuerpo del cual se desea conocer la temperatura.
Por lo demás, también en esos casos los números son sólo ordinales; nada
nos asegura que los saltos cualitativos (por ejemplo de 14 a 15 grados centígrados
y de 15 a 16 grados) sean "iguales" entre sí; aún más, no está dicho que la cosa
tenga un sentido. Preguntémonos, por ejemplo, si acelerar el carro de 50 a 100
km/h sea un salto cualitativo comparable a una aceleración de 100 a 150 km/h.
En lugar que por los efectos, una cualidad puede ser medida también por sus
causas. Una candela cerca ilumina mejor que una candela lejos (causa continua); y
dos candelas iluminan mejor que una sola (causa discontinua). También ahí los
números permanecen ordinales: no está dicho que dos dosis de una medicina
procuren un beneficio doble.

C) Escala pseudo-cardinal
¿Cómo es que la temperatura (T), indicada con números ordinales, puede
entrar en fórmulas algebraicas - como pV = RT - donde es sometida a operaciones
aritméticas como si fuera un número cardinal?
Respondemos brevemente, sin perdemos en detalles técnicos. Los números
ordinales se pueden desplazar arbitrariamente para adelante y para atrás, siempre
que sea respetado su orden. Se entrevé entonces la posibilidad de que - después de
una oportuna distribución de estos números (ordinales) - ellos se comporten como
si fueran números cardinales.
Consideremos, por ejemplo, la iluminación de esta página, que es
ciertamente una cualidad. Si la expresamos con números (ordinales), directamente
proporcionales al número de las candelas utilizadas (que suponemos cercanas entre
sí) e inversamente proporcionales al cuadrado de la distancia variable, obtenemos
un sistema de números con los cuales pueden realizarse operaciones aritméticas,
que no conducen a resultados en contraste con la percepción sensible.

X - LAS LEYES
10.1 OBSERVACIONES GENERALES

10.1.1 LEYES FÍSICAS Y LEYES MORALES

36
Etimológicamente la palabra "ley" viene del verbo "ligar", "obligar". Por eso
originalmente se usaba en sentido ético, como imposición moral.
Pero la existencia de una obligación o de una orden se refleja luego
normalmente en un comportamiento uniforme, constante en el espacio y en el
tiempo. Así la obligación de mantener la derecha en el tráfico tiene como efecto
visible que los vehículos fluyan siempre por su carril derecho. O sea, la orden
permite hacer una previsión y la consiguiente comprobación.
A nosotros ahora nos interesa ese último aspecto de la ley: la constatación
de un comportamiento uniforme, siempre y en todas partes. Y consideramos sólo
ese aspecto, prescindiendo de cualquier eventual orden que podría estar a la base
de esa constatación. De ahí que la ley para nosotros no implique ningún vínculo
"misterioso", de origen "superior", como si fuese impuesto por una "voluntad", a la
que correspondería en el agente una especie de "deber". Excluimos también toda
eventual consecuencialidad, lógica o matemática (según la cual, por ejemplo, "todo
hombre es mortal", o "2+3 = 5"), ya que sólo nos interesa el comportamiento, que
no es un modo de "ser" sino de "actuar".
Sin prejuzgar lo que será discutido más adelante, decimos en seguida que ese
comportamiento uniforme es evidente en los seres no-libres y se expresa en leyes
físicas, como ésta: "todo cuerpo no sostenido cae"; pero también en los seres libres
se observa un comportamiento uniforme, expresado en leyes morales, como ésta:
"toda madre ama a su hijo" (notemos que ahí no se trata de la conocida orden del 4º
mandamiento, sino de una simple constatación).
La diferencia entre esas dos especies de leyes estriba en que en la primera no
hay excepciones (salvo por intervención milagrosa), mientras que en la segunda
son posibles las excepciones, como en los casos de degeneración moral; pero esas
excepciones no anulan las respectivas leyes.
Más bien digamos que debe existir, a la base de ambas leyes (físicas y
morales), una necesidad interna - física e ineludible en el primer caso, moral y de
rigor vencible en el segundo - que impele a actuar y reaccionar de determinada
manera. Añadamos sólo que en los seres libres esa necesidad moral no destruye su
libertad, ya que al fin y al cabo es vencible y también porque la misma libertad
necesita ser encauzada para no volverse puro capricho y arbitrariedad; pues es una
facultad racional, cuya guía es la razón.
En lo que viene a continuación tendremos presentes las dos clases de leyes,
aunque el acento caerá más frecuentemente sobre la primera.

10.1.2 LEYES CONDICIONALES Y LEYES DEFINITORIAS


Hemos descrito la ley como constatación de un comportamiento uniforme,
constante en el espacio y en el tiempo. Obsérvese que esta superación espacio-
temporal es condición indispensable para que la ciencia sea universal y por ende
sea ciencia. Los animales no se interesan de todo el espacio ni de todo el tiempo:

37
su conocimiento se limita a una pequeña zona de ambos (poco más grande del "hic
et nunc").
Sabemos ya (n. 9.1.4) que la ciencia no se ocupa en hechos singulares. Más
bien, en la multitud variable de los hechos ella trata de aprehender la constancia.
La ciencia de hecho debe unificar o no es ciencia. Lo sugiere, entre otras cosas, el
título "Identidad y realidad” del libro de E. Meyerson; pero la idea ya había sido
fuertemente subrayada por I. Kant.
La ciencia por lo tanto enuncia: a) relaciones invariables entre hechos
particulares, y b) asociaciones invariables entre determinadas propiedades que
caracterizan una misma especie corpórea o un mismo tipo de hechos.

a) Las relaciones invariables entre hechos particulares es la forma más común de


las leyes o - más precisamente - la forma en que primero pensamos cuando se
habla de leyes. Ejemplos: en el aire húmedo el acero se oxida, nadie miente sin
motivo. Esa clase de leyes pueden también enunciarse bajo forma de condicionales
universales; así: si se expone al aire húmedo el acero se oxida, si no hay motivos
especiales nadie dice mentiras. Las llamaremos, por tanto, leyes condicionales.
Cuando esas leyes se vuelven cuantitativas, su expresión es una fórmula
algebraica, o sea una relación constante entre medidas. Así V' = V (1+ 0.00366 t)
expresa cómo se dilata un gas a presión constante, donde V y V' son los volúmenes
del gas a 0° y a tº centígrados respectivamente.

b) Menos comúnmente pensamos en las asociaciones invariables entre


determinadas propiedades: sin embargo es una ley, por ejemplo, que el oro funde a
1063° C, o sea que ese metal amarillo-rojizo, muy dúctil y maleable, que tiene una
densidad de 19,300 kg/m³, que en resumen tiene todas las apariencias del oro,
tenga también esa otra propiedad: de fundirse a 1063° C. En último análisis esa ley
sanciona el hecho de que el oro es una determinada especie corpórea. Se puede
decir que ella es una ley definitoria del oro. Análoga podría ser la ley definitoria de
un hecho específico, como por ejemplo el decaimiento radiactivo del cobalto-60.
Buscaríamos en vano una ley similar para definir a un individuo, como por
ejemplo Napoleón, o un hecho único, como por ejemplo la batalla de Waterloo;
pues sus primeras propiedades no evocan las otras.

Entre estas dos especies de leyes - condicionales y definitorias - existe un


mutuo juego de ajustes. Así, la relación acero-óxido resulta que no es siempre
invariable, porque existen aceros inoxidables. Pero al mismo tiempo se descubre
que "acero" no es un término unívoco: existen varias especies de acero que se
diferencian entre sí por su dosis de Fe, C, Cr, Ni y Mn y por el temple. El
inoxidable, por ejemplo, contiene un 20% de Cr, un 5% de Ni y poco C (menos del
0.4%).

38
Análogo es el caso del agua, que comúnmente se dice que se congela a 0º C,
aunque eso no se verifica siempre. Pues por un lado se usa el término "agua" para
indicar líquidos bastante diversos (agua de lluvia, agua de manantial, agua termal,
agua estancada, agua de río, agua marina, etc.), y por otro lado no se lo usa para
indicar el sudor, jugos, bebidas y caldos que sin embargo física y químicamente
son muy parecidos a las "aguas" antes mencionadas.
Lo que queremos decir con todo eso es lo siguiente: la ciencia progresa
mejorando su conocimiento de las varias clases corpóreas con nuevas leyes
definitorias; y éstas siempre van seguidas de nuevas leyes condicionales.

10.1.3 LAS LEYES Y LA CAUSA EFICIENTE


Muchos creen que las leyes hablan de la causa eficiente de los fenómenos,
en el sentido de que esas leyes enunciarían relaciones invariables entre causa y
efecto.
Después de D. Hume esa relación generalmente es reducida a una mera
sucesión o secuencia temporal, sin verdadera causalidad. Habría sólo un "post hoc"
("después de"), que falsamente sería interpretado como un "propter hoc" ("por
tanto"). Así lo hacen, por ejemplo, todos aquellos que ven en cualquier accidente o
enfermedad un castigo por los pecados cometidos (cfr. Jn 9, 2 ss).
Ahora, siempre que la ciencia predice, ella se ocupa efectivamente de
secuencias temporales invariables. Pero hay que observar - contra Hume - que
muchas secuencias invariables no sugieren en absoluto la idea de causalidad;
piénsese en las secuencias nacimiento-muerte o día-noche-día. Además, si bien el
efecto a menudo necesite tiempo para realizarse plenamente y si bien la "causa" a
menudo sea una "cadena" de causas, el efecto siempre es simultáneo con la acción
del último eslabón de la cadena causal y no posterior a él. Ejemplo: quedo herido
en el mismo momento en que mi adversario me hiere con el arma.
Sin embargo no siempre la ciencia se ocupa de secuencias. Primeramente no
lo hace en las leyes definitorias: un cuerpo, por ejemplo, no es primero porcelana y
después malo conductor de la electricidad.
Además, muchas leyes condicionales enuncian simplemente
proporcionalidades, como por ejemplo la ley de la proporcionalidad inversa entre
el volumen y la presión de una masa gaseosa a temperatura constante. Ahora bien,
esas leyes son reversibles o simétricas: si crece el volumen disminuye la presión y
viceversa; en cambio la relación causal es asimétrica. Es verdad que en ese caso
uno piensa en una causalidad, porque esa ley se demuestra con un procedimiento
experimental causal. Pero una cosa es el enunciado de una ley, otra cosa es la
evidencia en la que se apoya.
Finalmente, la fórmula fundamental de la mecánica (F = m·a) parece indicar
claramente una causalidad eficiente: la fuerza (F) como proporcional a la
aceleración (a) que comunica a la masa (m). Y en cierto sentido es verdad; pero no
es lo que la fórmula expresa, porque el signo de igualdad la vuelve simétrica.
39
Efectivamente el científico se contenta con medir la cantidad m·a: es ésa la que
para él es tangible, mientras que la fuerza (F) permanece siempre como algo
misterioso (como la misma gravitación universal). Al máximo el científico usará
también la palabra "fuerza", pero sólo para indicar brevemente el producto m·a
(cfr. en el n. 9.2.3 lo dicho por Poincaré).

10.1.4 LAS LEYES Y LA CAUSA FORMAL


Más en general debemos decir que la ciencia nunca habla explícitamente de
la causa eficiente. En términos fuertes: la búsqueda de las causas eficientes sólo es
tarea de los tribunales.
No es que la ciencia no vaya a la búsqueda de tales causas: R. Koch, por
ejemplo, buscó y halló (1882) el bacilo responsable de la tuberculosis. Pero lo que
cuenta no es este bacilo individual, sino su naturaleza maléfica, su
comportamiento específico y la típica reacción del organismo humano. En otras
palabras: la ciencia trata de conocer las causas formales de las cosas.
No le importa a la ciencia que Fulano haya sido la causa eficiente del
aumento de presión de un gas, sino que el gas es un cuerpo de tal naturaleza
(¡causa formal!) que tiene un volumen inversamente proporcional a la presión. Tan
es así que la fórmula más completa (que comprende también la temperatura, o sea
pV=RT) se llama ecuación de estado: es como decir que esta fórmula define el
"estado gaseoso". Y si las estrellas son globos de gas, ésa es su fórmula.
En el átomo de N. Bohr (1913) no se pregunta quién ha hecho saltar un
electrón de una órbita a otra; sólo se describe el átomo como capaz de regular su
energía interna (absorbiendo o emitiendo energía electromagnética) según el ajuste
electrónico interno.
Al economista no le interesa saber quién ha acaparado cierta mercancía en el
mercado, sino el hecho de que los precios del mercado varían según la demanda-
oferta, que en este caso ha sido alterada artificialmente.
Pero el calor ¿no es acaso la causa (eficiente) de la dilatación de los cuerpos?
Puede ser; pero la naturaleza (¡causa formal!) de los cuerpos es tal que su
temperatura está ligada al volumen, de modo que quien aumenta la temperatura
también hace crecer el volumen.
Aun cuando creemos que aspiramos activamente el aire, en el fondo no
hacemos más que ensanchar el tórax para que el aire entre por sí mismo, evitando
que se forme un desnivel de presión entre lo externo y lo interno.
Las leyes dicen pues algo en torno a la naturaleza o causa formal de los
cuerpos, aun sin revelar nunca totalmente su íntima naturaleza (¿qué es un gato,
qué es un electrón?). Pero el científico gira en torno a esta naturaleza según una
espiral siempre más estrecha. Como ejemplo sirva el sistema periódico de los
elementos químicos. Habiendo ordenado estos elementos según su peso atómico,
D. Mendeleyeff (1869) descubrió que sus propiedades se repetían periódicamente;
esto le permitió predecir las propiedades de algunos elementos hasta entonces
40
desconocidos. El sistema periódico definitivo fue luego descubierto por H.
Moseley (1913), que - en base a su emisión de rayos X - ordenó los elementos no
ya según el peso atómico sino según la carga eléctrica del respectivo núcleo (el así
llamado número atómico).
Veremos luego (n. 10.2.3) que precisamente el paso a través de la naturaleza
de los cuerpos puede garantizar la constancia y uniformidad expresada por las
leyes.

10.2 JUSTIFICACIÓN DE LAS LEYES

10.2.1 PLANTEAMIENTO DEL PROBLEMA


Como hemos dicho, las leyes expresan un comportamiento uniforme,
constante en el espacio y en el tiempo. Ahora bien, aquí se presenta la pregunta
fundamental: ¿cómo sé que dicho comportamiento es uniforme, no sólo aquí sino
también en otros lugares, no sólo en el pasado sino también en el futuro?
Ciertamente no puedo ir a controlar todos los casos (ni siquiera si me limitara al
solo pasado o al solo lugar donde ahora me encuentro!); y por otra parte sería
anticientífico generalizar.
Puedo decir que Pedro es mortal porque - como hombre - es compuesto y
por tanto descomponible. Pero esto no es un generalizar sino un "universalizar", o
sea un referirse a una esencia universal.
No basta responder, a la pregunta antes planteada, que el curso de la
Naturaleza es uniforme.
En efecto, si por Naturaleza se entiende el mundo exterior (el de la
experiencia cotidiana), entonces no existe esa uniformidad: ciertas cosas suceden
una sola vez y no más (piénsese en el desastroso viaje inaugural del Titanic en
1912). Precisamente por eso hablamos de Historia, distinguiendo entre el pasado y
el futuro; y se sabe que la historia no se repite (n. 5.1).
Si en cambio por Naturaleza se entiende el mundo de la ciencia, que
considera únicamente las uniformidades ya encontradas, entonces se cae en la
siguiente tautología: Naturaleza = Naturaleza!
Nótese bien que, según eso, admitimos que en la Naturaleza hay
efectivamente regularidades y uniformidades. Pero la cuestión es: ¿cómo estar
seguros de una uniformidad? Aquí tocamos el espinoso problema de la inducción.
Entre tanto, para preparar una respuesta a la pregunta, conviene distinguir
entre nuestra actitud mental ante el pasado y la actitud ante el futuro. Si la primera
se llama "saber", la segunda debería llamarse "creer", "esperar", "tener por cierto",
o algo semejante. Y entonces, para no comparar entre sí dos cosas heterogéneas,
nos limitaremos sólo a las predicciones del futuro y consideraremos dos de ellas,
una más cierta y otra menos cierta; por ejemplo, "mañana saldrá el sol" y "mañana
lloverá". Naturalmente estas predicciones no deben tomarse como "profecías":
deben estar fundadas sobre nuestros conocimientos del pasado.

41
10.2.2 UN PRIMER PASO HACIA LA SOLUCIÓN DEL PROBLEMA
¿Por qué pues estamos tan seguros de que el sol saldrá mañana? ¿Acaso por
el inmenso número de observaciones realizadas, sin nunca una excepción? No; esa
condición no es ni suficiente ni necesaria. No es suficiente, porque antes de
descubrir Australia (1788) todos los cisnes eran blancos; no es necesaria, porque
basta una sola medida para establecer la densidad de una especie química.
Es necesario recordar aquí el concepto de ley definitoria (n. 10.1.2). Esa ley
enuncia una asociación invariable entre ciertas propiedades características de una
especie corpórea o de un determinado tipo de hechos.
Ahora bien, consta por la experiencia que existe en el mundo una estructura
específico-individual (n. 5.1), en el sentido de que su inmensa variedad de cuerpos
y de hechos individuales se reduce a relativamente pocos tipos de cuerpos y de
hechos, caracterizados cada uno por un cierto número de propiedades específicas.
Además, la experiencia nos enseña que entre estas propiedades se dan - para
los minerales - la densidad, el punto de fusión, etc. y - para los vivientes - la forma
de las hojas, la anatomía de las extremidades, etc., pero no, por ejemplo, el color de
los vivientes, que en muchos casos puede no ser uniforme (piénsese en el pelaje de
los caballos).
Esto sugiere la respuesta por lo que se refiere a los cisnes negros de Australia
y a la única medida, suficiente para establecer la densidad.
Volvamos ahora a nuestra certeza de que el sol saldrá mañana. Ése es un
hecho de tipo específico, del que los repetidos retornos del sol fueron, son y serán
únicamente instancias individuales. Ese hecho típico es una propiedad
característica del sistema Tierra-Sol y es expresado por la siguiente ley definitoria:
"el sol sale periódicamente".
Por tanto estamos ciertos de que el sol saldrá mañana como estamos ciertos
de que mañana encontraremos como densidad del oro 19,300 kg/m³. El mero
transcurrir del tiempo (de hoy a mañana) no puede cambiar nada, a menos
precisamente que entre tanto suceda algo que cambie las cosas. Así estamos ciertos
de la vuelta (en el año 2062) del cometa de Halley, a menos que algún cataclismo
lo vaya a destruir durante su largo viaje interplanetario hasta casi la órbita de
Urano.

10.2.3 LA SOLUCIÓN HAY QUE BUSCARLA EN LAS LEYES DEFINITORIAS


Y ahora nuestra certeza de que mañana lloverá. La lluvia en sí misma es un
hecho típico de la atmósfera terrestre, pero no es típico el hecho de que mañana
lloverá. Esto depende de ciertas condiciones; por eso aquí entran en juego las leyes
condicionales (n. 10.1.2). Pero en ese caso las condiciones son tan numerosas y
complejas (formaciones nubosas, disminuciones de la temperatura,
desplazamientos de masas de aire, etc.), que aun hoy los institutos de meteorología
no siempre aciertan.

42
Esto reduce mucho nuestra certeza al respecto. Pero no precisamente porque
esperamos excepciones (que en el n. 10.1.1 hemos llamado "milagrosas"), sino
porque nuestro conocimiento de las condiciones es muy incompleto.
Tomemos entonces otro ejemplo: el agua hierve a 100º C. Se podría pensar
que ésa es simplemente una ley definitoria del agua, por cuanto ahí también basta
hacer la medida una vez por todas. Pero no es así. En efecto la ebullición de un
líquido no es más que la manifestación externa del hecho de que la presión de su
vapor (dentro de la masa líquida) llegó a ser igual que la presión externa (por
ejemplo, la presión atmosférica). Para el agua eso significa que a 100º C su tensión
de vapor es igual a 1013 mb (que es la presión atmosférica normal).
Existe también una ley condicional, según la
cual con el crecimiento de la temperatura crece
también la tensión del vapor, pero en distinta
medida para las distintas sustancias. No queremos
aquí defender la validez general de esa ley. Pero
ella vale sin más para el caso específico del agua,
como demuestra la tabla parcial de al lado.
Ahora bien, esa tabla es característica del
agua y puede por tanto considerarse como su ley
definitoria. Nótese, por ejemplo, que también el
alcohol secundario n-butílico hierve a 100° C bajo 1013 mb, pero no sigue el resto
de la tabla.
Se ve así cómo una ley, que en su generalidad es condicional, puede llegar a
ser definitoria si es aplicada a una sustancia específica. Por tanto, aunque no
sepamos cómo garantizar la uniformidad expresada por la ley condicional, sin
embargo estamos ciertos de la uniformidad expresada por la correspondiente ley
definitoria. El motivo profundo es que las leyes tratan de decir algo de la
naturaleza o causa formal de los cuerpos (n. 10.1.4), que está a la base de toda
constancia y uniformidad. Si el mundo material no tuviera una estructura
específico-individual (es decir, muchos individuos pero pocas naturalezas), no
existirían ni leyes ni ciencia experimental.
Todo eso podrá parecer una defensa-en-tono-menor de la inducción. Pero las
leyes no están aisladas: se sostienen mutuamente como en una red, que además
recibe solidez de las teorías científicas explicativas.

10.3 PROPIEDADES DE LAS LEYES

10.3.1 LAS LEYES SON APROXIMATIVAS

Aun las medidas más exactas se quedan en una cierta cifra decimal y nada
dicen de la cifra siguiente. Por ejemplo, la longitud de onda de la línea espectral

43
standard del kriptón-86 es de 0.6057802105 micras; la precisión excepcional es de
10 cifras significativas (como si midiéramos la distancia Guatemala-Managua
hasta la décima de milímetro!); pero a pesar de todo ignoramos el valor de la
undécima cifra decimal.
Como las medidas, también las leyes son aproximativas. Un termómetro
ordinario da como temperatura (T) del hombre sano 37°C; por lo cual la "ley" es:
en el hombre sano T = constante (= 37°C). Pero un termómetro médico da un
decimal más y decide: T no es constante. La primera ley es sólo
aproximativamente verdadera (o sea, dentro de los límites de la aproximación).
Lo mismo puede suceder (¡y sucede!) para la ley de los gases (p V = K),
porque las presiones (p) y los volúmenes (V) son conocidos sólo
aproximativamente. Nótese a propósito de esa fórmula y otras similares, que no
tiene sentido multiplicar presiones por volúmenes (como no tiene sentido dividir
ovejas por hectáreas); la fórmula dice únicamente que realicemos una operación
aritmética con los números que indican sus respectivas medidas.
Con J. Kepler (+1630) las órbitas de los planetas pasaron de circulares a
ovoidales (un solo foco), después a elípticas (dos focos) y finalmente a elípticas
abiertas o rosetas (con perihelio móvil).
En la refracción de la luz al principio era "constante" la
relación entre el ángulo de incidencia (i) y el de refracción (r);
pero medidas más precisas le hicieron ver a Descartes y a Snell
(n. 8.2) que es constante, en cambio, la relación entre los senos
de esos ángulos: sen i / sen r = constante = n (índice de
refracción).

10.3.2 LAS LEYES SON ESQUEMÁTICAS


En una figura esquemática se omiten voluntariamente detalles no esenciales.
Así es la representación de la Tierra como una esfera perfecta: se omiten en ella las
depresiones polares y las montañas. También un procedimiento de medida es
descrito a menudo de modo esquemático. Por ejemplo, el dinamómetro debería
usarse sólo en París, porque mide el peso y éste varía con la latitud geográfica (eso
no vale en cambio para la balanza, que mide las masas). Además, las medidas de
peso deberían corregirse por el empuje de Arquímedes.
La ley pV = constante (K) es altamente esquemática, por cuanto no
contempla la temperatura (T), que sin embargo se supone explícitamente constante.
Teniendo en cuenta la temperatura, la ley se transforma en la ecuación de estado:
pV = RT (donde R sigue siendo una constante). Sin embargo aun así se está
dejando a un lado el volumen propio de las moléculas (V'), que no es variable; si lo
tenemos en cuenta, se obtiene: p (V-V') = RT. Pero todavía estamos dejando a un
lado la atracción entre las moléculas (p'), que colabora con la presión externa;
teniendo en cuenta también esto, se obtiene: (p+p') (V-V') = RT. Y la fórmula
puede afinarse aún más...
44
El índice de refracción (n) de un medio transparente no es realmente
constante; depende de la temperatura y sobre todo de la longitud de onda: a través
de un prisma se forma un espectro de dispersión, porque el color violeta es
refractado más fuertemente que el rojo.
La órbita de un planeta no es exactamente una roseta regular, porque se
deforma bajo la influencia perturbadora de los otros planetas que gravitan
alrededor del Sol.
En rigor, para enunciar una ley cualquiera, deberíamos tener en cuenta el
estado de todo el universo. Dice W. Heisenberg (+1976): "Cuando un niño en su
cuna tira al suelo su juguete, Sirio mismo se tambalea". Innumerables son pues las
variables que no tenemos en cuenta, porque la experiencia nos enseña que su
influencia es insensible en los límites de la aproximación usada.

10.3.3 LAS LEYES ¿SON PUESTAS POR LOS CIENTÍFICOS?


Vuelve aquí bajo otra forma la duda de E. Le Roy (n. 9.2.2): ¿es el científico
quien acaso crea la ley? También ahora respondemos con H. Poincaré que el
científico crea únicamente el lenguaje científico.
El científico está obligado a mantenerse dentro
de los datos experimentales, como un esquiador está
obligado a pasar en medio de todas las banderitas.
Ahora, dentro de esos límites experimentales - por
defecto o por exceso - la ley puede presentar una
infinidad de recorridos (curvos o rectilíneos), con
otras tantas fórmulas diversas. Pero el científico debe
escoger, por interpolación, la más simple y más
esquemática para no ostentar una precisión o un conocimiento de detalles, que él
en realidad no posee.
Por lo demás, aunque diversas medidas del peso de un cuerpo inorgánico dan
resultados ligeramente diversos, sabemos bien - por experiencia - que sus pesos no
crecen ni disminuyen delante de nuestros ojos (sería distinto si se pesara un perro
antes y después de comer!).
Es de notar que en general los datos experimentales se refieren sólo a una
limitada excursión de las variables: lo demás es extrapolación, permitida con tal
que no siga un recorrido arbitrario; pero ese permiso no implica ninguna garantía
experimental.
Ya que el científico escoge el procedimiento y la unidad de medida, se puede
decir que el enunciado o la fórmula de la ley dependen de él, pero no la ley misma.
La velocidad de la luz, por ejemplo, es una constante si mido el tiempo con
el reloj; en cambio es variable si mido el tiempo con el pulso (Galileo constató así
- naturalmente "grosso modo" - el isocronismo de las oscilaciones de una lámpara
en la catedral de Pisa).

45
Otro ejemplo: la variación del precio del oro durante el año pasado,
expresada en dólares y en quetzales. Se trata de un único fenómeno, pero
representado por dos curvas muy diversas, porque el quetzal fluctúa con respecto al
dólar. y nótese que ambas leyes (o curvas) son igualmente verdaderas.
En el número siguiente veremos otra posible intervención del científico.
Resumamos. Siendo aproximativas y esquemáticas, las leyes científicas son
provisionales o relativas: provisionales, porque serán sustituidas por leyes más
precisas y más circunstanciadas; relativas, porque valen - aún hoy - dentro de los
límites de precisión y de esquematicidad de un tiempo y también porque su
enunciado depende del lenguaje adoptado.

10.4 LEYES Y PRINCIPIOS

Aún siendo provisional, una ley puede transformarse en definitiva haciendo


de ella una definición o ley definitoria (n. 10.1.2); la ley queda entonces elevada a
principio científico (¡no metafísico!).
Por ejemplo, la velocidad constante de la luz en cualquier dirección era
simplemente una ley provisional; pero A. Einstein (1905) la elevó a principio,
extendiendo su validez a todos los sistemas de referencia (en movimiento
uniforme) y definiendo así una nueva constante del Universo (c). Lo hizo porque
intuyó genialmente su importancia excepcional.
También la ley pV = RT se reveló tan fundamental para el estado gaseoso
que llegó a ser su ley definitoria (n. 10.1.4). Naturalmente que así la fórmula
representa ya sólo "un gas ideal: para los gases reales hay que recurrir a todos los
términos correctivos, contenidos por ejemplo en: (p+p') (V-V') = RT.
Parecidos al caso del gas ideal son los principios del péndulo matemático y
de la caída libre.
También el llamado principio de inercia no es otra cosa que la ley
definitoria del cuerpo aislado. Los cuerpos reales no obedecen al principio de
inercia y por lo tanto no son aislados; en efecto están siempre sujetos a varios
campos gravitacionales, y los terrestres también a las resistencias del roce.
A su vez la ley de la gravitación universal (F = m'·m''/r²), por su
importancia, es elevada a principio. El comportamiento de los cuerpos reales se
aleja un poco de ella; pero también aquí existen correctivos (fricción de las mareas
y del magma, perturbaciones externas, presión de la luz, etc.).
Semejante es el caso del principio de conservación de la energía, que define
un sistema cerrado. Pero ya que, por ejemplo, en la fusión desaparece algo de calor
sin producir ningún aumento de temperatura, se introduce como correctivo el
concepto de calor latente (¡!) de fusión. Y ya que los "rayos beta" de una sustancia
radiactiva no poseían todos la misma energía característica para aquella sustancia,
W. Pauli (+1958) supuso que juntamente también eran emitidos neutrinos,
encargados de transportar la energía que faltaba (fueron luego descubiertos en Los
Álamos en 1956).
46
Es de notar que esos principios y otros parecidos no son propiamente
demostrados. Según H. Poincaré son "cómodos" (útiles). Según E. Meyerson son
"recomendables": entre menos se cambia - dice - mejor es (el ideal mecanicista!).
Concluyamos con Poincaré, diciendo que toda ley puede descomponerse en
un principio y una corrección o ley complementaria. Pero es justamente esa última
la que impide a la ciencia transformarse en una pura construcción del espíritu.

10.5 LAS LEYES ESTADÍSTICAS

10.5.1 NOCIONES GENERALES


Llamaremos dinámicas las leyes que describen el comportamiento de
cuerpos individuales, y estadísticas las que describen el comportamiento de una
muchedumbre como tal.
Las leyes estadísticas implican los conceptos de probabilidad matemática y
de frecuencia relativa, pero se fundan en la ley empírica del azar.

a) Probabilidad matemática
La probabilidad matemática (p) es una fracción entre 0 y 1, que indica la
relación entre el número de casos favorables (F) y el número de casos posibles (P);
en fórmula: p = F/P. Así la probabilidad de extraer una canica blanca de una bolsa
que contiene 7 canicas blancas y 9 negras es: p = 7 / 16. Esa probabilidad se puede
calcular a priori, por los datos del problema. Se supone únicamente que los 16
casos posibles sean todos igualmente posibles (¡no digo "probables"!), en el
sentido de que las canicas sean indistinguibles, salvo por el color que - por
hipótesis - no influye en la extracción.
En otros casos la probabilidad matemática es dada a posteriori, por tablas de
frecuencia relativa, fundadas sobre el pasado. Así, por ejemplo, la probabilidad
para un guatemalteco de 37 años de morir durante el año es p = 0.002 = 1/500
(según las Tablas de mortalidad del período 2000-2002).

b) Frecuencia relativa
La frecuencia relativa (f) de un hecho futuro, no predispuesto, es la relación
entre el número de éxitos (E) y el número de tentativas (T); en fórmula: f = E/T:
Así, si lanzo 40 veces una moneda (ó 40 monedas de una sola vez) y obtengo 13
veces "cara", la frecuencia relativa de "cara" es de 13/40. Nótese que ese resultado
no es generalmente igual a la probabilidad matemática de "cara", que es de 1/2.

c) Ley empírica del azar


La ley empírica del azar o ley de los grandes números (J. Bernoulli, 1713)
dice que, al crecer indefinidamente el número de tentativas (T) la frecuencia

47
relativa (f) tiende a coincidir con la probabilidad matemática (p), tanto si ella ha
sido calculada a priori o a posteriori; en fórmula: para T→ ∞ tenemos f → p.
Aun siendo empírica, esta ley es también racionalmente justificable. En
efecto, si con muchas tentativas la frecuencia relativa tuviese una persistente
tendencia a diferenciarse de la probabilidad matemática, habría que sospechar de la
presencia oculta de un privilegio o factor determinante, por lo cual, por ejemplo,
pensaríamos que la moneda tiene truco. Análogamente, si aun con pocas tentativas
se obtuviese regularmente un resultado conforme a la probabilidad matemática,
sospecharíamos de algún truco en el procedimiento del lanzamiento. En efecto la
ley presupone el "puro azar", o sea un hecho enteramente causado, sí, pero no por
causas que estén determinadamente a favor o en contra del resultado que se
pretende.
Esa ley capta un orden en el desorden, casi una sobreestructura.

10.5.2 EJEMPLOS DE LEYES ESTADÍSTICAS


La presión de un gas (¡que en condiciones normales contiene más de 10
trillones de moléculas por cm³!) es el resultado estadístico o global de sus choques
incesantes contra las paredes del recipiente. De ahí se sigue entonces (con volumen
y temperatura constantes) que la presión de un gas permanece constante; en otras
palabras: pV = K es una ley estadística.
También la ley de Ohm (I = E / R) es estadística: expresa el flujo constante
de un grandísimo número de electrones (más de un trillón por segundo, a través del
filamento de un foco de 40W).
También las leyes de la herencia son estadísticas: la frecuencia de los
nacimientos masculinos o de la transmisión de una enfermedad tiende a las
respectivas probabilidades, cuando crece el número de los nacimientos. Y este
número es enorme, si se piensa no sólo en las generaciones humanas sino también
en tantas otras generaciones de los vivientes.
Así también son estadísticas las leyes que describen la marcha de las
reacciones químicas y nucleares, ya sean naturales o artificiales.
En fin (y precisamente aquí es donde nació la ciencia "estadística") existen
todos los fenómenos demográficos y gran parte de los comportamientos sociales,
económicos y políticos (piénsese en la previsión de los resultados de las
elecciones).
Sin embargo, por más numerosas que sean las leyes estadísticas, no pueden
serlo todas: de otro modo los cuerpos singulares o corpúsculos no tendrían
ninguna ley. En efecto las leyes estadísticas nada dicen acerca de los cuerpos o
hechos individuales, que están sumergidos en las llamadas fluctuaciones
estadísticas.
Por el contrario las leyes estadísticas dan una certeza casi absoluta acerca
del comportamiento de grandes muchedumbres (lo saben bien las Compañías

48
Aseguradoras). Y en esto superan seguramente a las leyes ordinarias, las
dinámicas.

XI - LAS HIPÓTESIS O TEORÍAS


11.1 ¿EN QUÉ SENTIDO SON EXPLICATIVAS?

Vamos ahora a la tercera fase de la actividad científica, como anunciamos en


el n. 8: invención de hipótesis y elaboración de teorías.
Ya dijimos (n. 6.2.3) que su fin es el de explicar los hechos y las leyes,
mediante una deducción lógico-matemática, a partir de una hipótesis no
directamente controlable o sea no-experimental. Veámoslo ahora más en detalle.

11.1.1 EXPLICACIONES NO PROPIAMENTE HIPOTÉTICAS


Explicar es responder al "por qué", hacer comprender, hacer racionalmente
aceptable, o al menos reconducir a algo más familiar. Es lo que pide el niño cuando
pregunta a la mamá por qué las nubes se mueven; y es lo que esperamos de un
amigo cuando le pedimos que nos explique un modo suyo de comportarse.
Los hechos se pueden explicar directamente con una causa, eficiente o final,
que es otro hecho. Ejemplos: este hombre murió porque le cayó un ladrillo en la
cabeza (causa eficiente); la gallina empolla los huevos para que se abran (causa
final).
Pero este recurso a hechos experimentales no se considera como explicación
teórica, porque no tiene nada de hipotético. Así también las ondas sonoras no
constituyen una explicación teórica de los fenómenos acústicos, porque estas ondas
pueden volverse directamente observables.
Los hechos también se pueden explicar indirectamente, con una ley.
Ejemplos: las perlas cuestan mucho porque toda cosa rara es cara; el relámpago
precede al trueno porque la luz es más veloz que el sonido; las tuberías congeladas
estallan porque el agua al congelarse se dilata.
Ahí la explicación consiste en ordenar lo particular bajo lo general. Nuestra
experiencia nos parece menos sorprendente y misteriosa cuando se nos asegura que
"siempre es así". Sin embargo, aunque sepamos que una cosa siempre es así,
todavía no se comprende su verdadero "porqué".
También las leyes pueden explicarse reconduciéndolas a una ley más
general. Así pV = K y pV= K' y pV= K" etc., son casos particulares de pV = RT,
que es una ley más general. Las leyes de la gravedad y de la caída libre (recuérdese
la proverbial manzana de Newton), son casos particulares de la gravitación
universal. La aerostática, la aerodinámica, la hidrostática, la hidrodinámica, la
termología y la acústica, son casos particulares de la mecánica. La electricidad, el
magnetismo y la óptica son casos particulares del electromagnetismo. A su vez la
mecánica y el electromagnetismo son absorbidos de alguna forma en la mecánica

49
ondulatoria (L. de Broglie, 1924; E. Schrödinger, 1925). Siguiendo ese camino,
¿no se podría llegar a la ecuación del universo? (A. Einstein trató, en vano, de
encontrar una teoría unitaria de los campos).
Pero la inserción en leyes superiores, aunque dé gran satisfacción intelectual
por el descubrimiento de un orden mayor, es solamente una explicación parcial,
porque la misma pregunta hecha para la ley inferior puede repetirse para la
superior. Ejemplifiquemos. Pregunta: ¿por qué el hidrógeno se expande?
Respuesta: ¡porque es un gas! Nueva pregunta: ¿por qué los gases se expanden?...
Observemos finalmente que también una ley puede revestir inicialmente la
forma hipotética, como se ve, por ejemplo, en las tentativas hechas por Galileo
para hallar la ley de la velocidad en la caída libre. Pero en este caso es mejor hablar
únicamente de "prototesis", reservando el término "hipótesis" sólo para aquellas
suposiciones no directamente controlables de las que se trata de deducir la
explicación de las leyes.

11.1.2 UN CLÁSICO EJEMPLO DE TEORÍA EXPLICATIVA


La teoría molecular cinética de los gases (D. Bernoulli, 1738) lanza la
hipótesis de que un gas está constituido por una gran multitud de pequeñísimas
partículas duras y elásticas (llamadas moléculas), relativamente distantes entre sí y
en estado de continua agitación desordenada, de modo que entran en frecuentes
colisiones elásticas entre ellas mismas y con las paredes del recipiente.
Lo que experimentalmente se observa como presión del gas es interpretado
en esta teoría como efecto global de los choques de las moléculas contra las
paredes del recipiente (cfr. n. 10.5.2).
A ese sistema hipotético se le aplican luego las leyes ordinarias y estadísticas
de la mecánica, después de atribuir a las moléculas singulares una masa (m) y una
velocidad (v).
Una rigurosa deducción lógico-matemática lleva entonces a reencontrar la
ley de Boyle (1662), o sea: pV = K; más aún, se encuentra también el valor medio
de las velocidades moleculares, que para el aire en condiciones normales resulta
siendo más o menos de 450 m/s.
En 1851 W. Thomson (Lord Kelvin) agrega a ello la interpretación
hipotética de que el calor del gas consiste en la energía total de las moléculas y
que la temperatura no es otra cosa que la energía cinética media de las moléculas.
De ello se deduce entonces la ecuación de estado (pV = RT) y la ley de la
dilatación de los gases (de L. J. Gay-Lussac, 1802; cfr. n. 10.1.2).
Si a ello añadimos todavía la hipótesis de A. Avogadro (1811), de que
volúmenes iguales de gases diversos en las mismas condiciones de presión y de
temperatura contienen siempre el mismo número de moléculas (hipótesis hecha
para explicar ciertas leyes químicas), se encuentra también el peso molecular
relativo de los varios gases (relativo al hidrógeno).

50
Determinado este número (a partir de varios fenómenos, a principios del
siglo XX), se encontró también el peso molecular absoluto de las moléculas (del
orden de 10-27 kg), que permitió luego calcular su diámetro (del orden de 10 -10 m),
así como sus mutuas distancias dentro del gas (del orden de 10-9 m).
Esta teoría molecular cinética de los gases es también fecunda. De hecho
explica fenómenos para los que no había sido concebida, como el llamado
movimiento browniano (R. Brown, 1827), presente también en las partículas
microscópicas que flotan en el aire. Aún más, permitió prever fenómenos nuevos
(J. C. Maxwell, 1860): en los gases la fricción interna o viscosidad crece con la
temperatura, al contrario de lo que se observa en los líquidos. Y la experiencia
confirmó esa previsión (A. Kundt y E. Warburg, 1875).
Nótese que la aplicación de las leyes de la mecánica no significa que en esta
teoría las propiedades de los gases sean simplemente reconducidas a estas leyes
más generales (cfr. n. 11.1.1). El mérito propio de esta teoría consiste en cambio: a)
en la hipótesis no directamente controlable de que existan moléculas y que ellas se
agiten en modo caótico, y b) en las reglas de correspondencia, que permiten
interpretar en términos de esta agitación molecular la presión y la temperatura
(ambas observables).

11.1.3 OTROS EJEMPLOS DE TEORÍAS EXPLICATIVAS


Enumeramos algunas de ellas, de diverso tipo y de valor desigual, indicando
para cada una sólo la hipótesis fundamental y la categoría general de fenómenos
que quiere explicar.

a) Además de la teoría molecular existen otras teorías "corpusculares", si bien


estos corpúsculos no sean puramente mecánicos. Citemos la teoría atómica (J.
Dalton, 1808), que sirve para explicar ciertos fenómenos químicos, sobre todo las
leyes estequiométricas generales (stoicheion = elemento) de la química; y la teoría
electrónica (H. A. Lorentz, 1883), con la que se explican varios fenómenos
eléctricos, electromagnéticos y electroquímicos (por ejemplo, la electrólisis).
Nótese que los átomos - contrariamente a las moléculas - son los representantes de
una determinada especie química y actúan precisamente en virtud de esa particular
naturaleza química suya. Los electrones, de su parte, tienen un comportamiento
muy particular, en cuanto portadores de una (misteriosa) carga eléctrica.

b) Al lado de estas teorías corpusculares encontramos una teoría ondulatoria (Ch.


Huygens, 1678), que - en oposición a las ideas de l. Newton - explica la luz y las
modalidades de su propagación (rectilinearidad, reflexión, refracción, difusión,
etc.) como un fenómeno ondulatorio. Mientras para Huygens esas ondas luminosas
eran todavía de naturaleza mecánico-elástica (como las ondas sonoras), para J. C.
Maxwell (1865) son en cambio de naturaleza electromagnética.

51
c) Con la teoría de los cuantos (M. Planck, 1900) una especie de
"corpuscularidad" quedó introducida también en la teoría ondulatoria. Según esa
nueva concepción la energía ondulatoria o radiante es emitida, se propaga y es
absorbida bajo forma de "paquetes" indivisibles (llamados "cuantos" o más a
menudo "fotones"), tanto más grandes cuanto más elevada es la frecuencia de las
ondas. Con esta teoría se explica cómo es que con las frecuencias superiores los
cuerpos emiten menos energía, dado que la agitación térmica es siempre menos
capaz de excitar los emisores de fotones grandes. Pero ése era sólo el inicio, ya que
muchos otros fenómenos han sido explicados con la teoría de los cuantos.

d) Como contraataque la teoría de la onda asociada (L. de Broglie, 1924)


introdujo una especie de "ondulatoriedad" en las teorías corpusculares. Según esta
audaz hipótesis los corpúsculos en movimiento se comportan como ondas dando
lugar a los fenómenos de difracción (por interferencia), que precisamente son
característicos de las ondas. Esta teoría está a la base de la mecánica ondulatoria,
que describe adecuadamente los niveles energéticos de los átomos y las moléculas.
Como brillante confirmación ha permitido la construcción del microscopio
electrónico.

e) La teoría del heliocentrismo (N. Copérnico, 1543) supone que la Tierra y los
otros planetas giran alrededor del Sol (y que la Tierra gira en torno a su propio eje).
Con esta hipótesis la descripción de los movimientos observables en la bóveda
celeste adquiere una simplicidad sorprendente en comparación con los ciclos y
epiciclos del viejo sistema tolemaico (C. Ptolomeo, 150 d. C.). Añádase a eso que,
si los modernos astronautas tuvieran que hacer sus cálculos según ese último
sistema, estarían perdidos para siempre.

f) La teoría de la deriva de los continentes (A. Wegener, 1914) supone una


insospechada evolución de la superficie terrestre, por la cual la delimitación entre
océanos y continentes ya no sería inmutable. En concreto, en la era mesozoica
(más o menos de 200 a 100 millones de años hace) los continentes habrían
comenzado a separarse de la hasta entonces única Pangea, circundada por un único
océano. Si, por ejemplo, América del Sur y luego la del Norte se han separado de
África y de Europa, se encuentra una explicación para la configuración de ciertos
límites continentales (como los de Brasil y del Golfo de Guinea), y también para la
larga cadena de ondulaciones y levantamientos montañosos que se extienden sin
interrupción desde Alaska hasta la Tierra del Fuego.

g) La teoría del evolucionismo (Ch. Darwin, 1859) supone que el fijismo de los
organismos es sólo aparente. Se habría dado en cambio una lenta evolución
biológica desde las formas más simples hasta las más complejas, mediante la

52
acumulación de pequeñas variaciones que se heredan y que logran pasar el control
de la selección natural, la cual permite sólo a los más aptos el sobrevivir en la
lucha por la vida. Esa hipótesis quisiera dar un sentido a las evidentes
interrelaciones entre los varios organismos y también a la distribución cronológica
de sus fósiles en los sucesivos estratos de la corteza terrestre.

h) En el campo genético la teoría de los genes (G. Mendel, 1865) supone que los
responsables de los varios caracteres hereditarios son ciertos factores
determinantes, que dirigen la síntesis del nuevo viviente. Hoy esos "factores" se
llaman "genes" y serían segmentos más o menos extensos de un filamento
cromosómico, o sea de una larga cadena de ácido desoxirribonucleico (ADN); de
algunos cromosomas se ha logrado incluso redactar el llamado mapa genético. Se
explican así las posibles aberraciones hereditarias, debidas a mutaciones génicas
(por transición, transversión, deleción o inserción). Otras aberraciones son debidas
en cambio a mutaciones cromosómicas o también genómicas, las cuales interesan
directamente a un entero cromosoma o a la entera dotación cromosómica de una
especie viviente, pero que en último análisis actúan sobre la herencia mediante los
genes.

i) La teoría de la población (T. R. Malthus, de 1798 en adelante) presupone que


todos los animales se multiplican en progresión geométrica (duplicando su número
cada 25 años) y que los medios de subsistencia crecen a lo más en progresión
aritmética; y de ahí concluye que debe ejercerse un control poderoso y continuo
para reducir esa desproporción a la igualdad. Malthus lanza luego la hipótesis de
que para ejercer ese control existen dos factores principales: el primero es
preventivo y proviene de la miseria, del vicio y también de frenos morales (él es
contrario a la contracepción); el segundo es positivo y proviene de las varias causas
de muerte (pobreza, trabajo malsano, guerra, etc.). Así él intenta explicar por qué
una población no crece nunca más allá de los límites de los recursos naturales.

j) En el ámbito del psicoanálisis tenemos la teoría del inconsciente (S. Freud,


1900), en la que se supone que la vida psíquica está organizada con elementos
conscientes e inconscientes; y se trata de descubrir su enlace mediante la
observación de las asociaciones libres, o sea no controladas por la conciencia,
como son las que se manifiestan por ejemplo en los sueños. El elemento
inconsciente (id) es la sede impersonal de las manifestaciones de la vida instintiva,
de la cual - bajo el influjo del mundo externo - se forma el ego consciente. Existe
luego un super-ego, que se forma en la niñez por un proceso de identificación con
una figura ideal y que ejerce una función crítica sobre la actividad del ego. Ese
control es en parte inconsciente, como también ciertos mecanismos de defensa del
ego (inhibición, remoción, sublimación, etc.). Todos esos elementos inconscientes
deberían servir para explicar las ansiedades, los sentimientos de culpa, las neurosis,
los famosos "lapsus" freudianos, etc.
53
11.2 VERIFICACIÓN (o COMPROBACIÓN) DE LAS HIPÓTESIS

11.2.1 RECORDANDO ALGUNAS NOCIONES DE LÓGICA


Es principio lógico que de la verdad se sigue siempre y sólo la verdad,
mientras que de lo falso se puede seguir tanto lo verdadero como lo falso.
En efecto la verdad no puede contener nada falso, dado que la mínima
falsedad la destruiría. Ejemplos: en español no puede usarse la "z" delante de la "e"
(falso, porque en la palabra "zeta" se usa la "z"); otro: las medidas científicas
modernas se basan todas en el sistema decimal (falso, porque la medida del tiempo
sigue el sistema sexagesimal).
En cambio lo falso no necesariamente es falso en todos sus aspectos: puede
contener algo verdadero. Ejemplo: "todos los hombres son médicos" es, sin más,
falso; pero muchos hombres son efectivamente médicos. A veces el núcleo de
verdad no aparece inmediatamente a primera vista. Ejemplo: "Napoleón descubrió
América y murió antes de 1500" es doblemente falso, pero de ello se deduce
lógicamente que América fue descubierta antes de 1500, lo cual es verdadero!
Enunciado de otro modo, el anterior principio suena así: de la falsedad del
consiguiente se sigue sin más la falsedad del antecedente, mientras en cambio de
la verdad del consiguiente no se sigue necesariamente la verdad del antecedente.
Esto se ilustra enseguida con la conocida proposición condicional: "donde
hay humo, hay fuego; pero no inversamente".
Por lo tanto el silogismo condicional (cuya premisa mayor es precisamente
una proposición condicional) admite sólo dos modos correctos de sacar una
conclusión: el modus ponens, en el cual la menor afirma el antecedente (la
condición) y la conclusión afirma el consiguiente, y el modus tollens, en el cual la
menor niega el consiguiente y la conclusión niega el antecedente.
Ejemplo de modus ponens: si llueve, llevo el paraguas; llueve; luego llevo el
paraguas. Un modus ponens ilícito sería en cambio: si llueve, llevo el paraguas;
llevo el paraguas; luego llueve (pues puedo haberlo llevado para hacerlo arreglar!).
Ejemplo de modus tollens: si Killer es un perro, es un cuadrúpedo; Killer no
es un cuadrúpedo; luego Killer no es un perro. Un modus tollens ilícito sería en
cambio: si Killer es un perro, es un cuadrúpedo; Killer no es un perro; luego no es
un cuadrúpedo (pues podría ser un elefante al que se ha dado ese nombre!).

11.2.2 APLICACIÓN AL CASO DE LAS TEORÍAS (o HIPÓTESIS)


Según los principios que acabamos de enunciar, si de una hipótesis se
deduce una consecuencia falsa, o sea contraria a la experiencia, la teoría es falsa,
es decir queda invalidada. Tal vez no será enteramente falsa, porque - como hemos
señalado - podría contener un núcleo de verdad. Pero en ese caso la teoría deberá al
menos ser corregida.

54
He aquí un ejemplo de teoría falsificada por la experiencia. Según I. Newton
(1666) un rayo luminoso está constituido por una emanación de partículas
luminosas, las cuales, atravesando oblicuamente la superficie de separación entre
un medio menos denso y otro más denso, son atraídas por éste último de manera
que el rayo mismo se acerca a la perpendicular a la superficie. Se explica así el
fenómeno de la refracción de la luz (cfr. fig. pág. 44). Pero la atracción tiene
también el efecto de acelerar estas partículas; por lo tanto la luz debería tener una
velocidad mayor en el medio más denso. En cambio la experiencia (L. Foucauld,
1854) dice exactamente lo contrario.
Y observemos que la caída de las teorías no quita nada al valor de la Ciencia;
antes bien es un índice de su poder y de su capacidad de progreso. Por lo demás,
las teorías no desaparecen casi nunca enteramente: se las corrige en sus partes
defectuosas o se las incluye como casos-límite en concepciones teóricas más
amplias. Así la mecánica newtoniana, falsa si se la confronta con la de Einstein, sin
embargo queda incluida en ésta como caso particular, para cuando se trata de
velocidades pequeñas respecto a la velocidad de la luz.
Según los mismos principios antes dichos, si de una hipótesis o teoría se
deduce una consecuencia verdadera, es decir conforme a los datos de la
experiencia, la teoría puede decirse confirmada, corroborada o también
"verificada", pero no necesariamente verdadera: pues aun de lo falso puede
obtenerse algo verdadero.
Para ilustrarlo sirva la siguiente explicación teórica de la gravitación
universal. Según G. L. Lesage (1747) "el Universo es atravesado en toda dirección
por una inmensa multitud de corpúsculos que, como una continua lluvia de
granizo, impactan los cuerpos celestes. Pero el hecho de que la Tierra se halle
frente al Sol hace que una parte de los corpúsculos destinados al Sol sean
interceptados por la Tierra y que una parte de los destinados a la Tierra sean
interceptados por el Sol. Por tanto las caras que el Sol y la Tierra se presentan son
menos impactadas que las respectivas caras opuestas. De este empuje desigual
resultaría la aparente atracción gravitatoria". Pero he aquí que la hipótesis es falsa:
un impacto inelástico de tantos corpúsculos habría recalentado la Tierra (y el Sol)
en forma desmedida, mientras que un impacto elástico habría devuelto del Sol a la
Tierra tantos corpúsculos cuantos el Sol había interceptado (y viceversa).
En conclusión: aunque la teoría molecular cinética explica bien el
comportamiento de los gases, aún no está dicho que las moléculas existan
verdaderamente. Y así para cualquier otra teoría.

11.2.3 TESTIMONIOS AUTORIZADOS


De lo dicho se sigue que una teoría se encuentra siempre en condiciones
muy precarias: nunca puede ser declarada "verdadera", a menos que la hipótesis
deje de ser una hipótesis y llegue a ser un hecho comprobado. Es como si un juez

55
no declarara jamás a nadie "inocente", sino solamente "todavía no culpable".
Conviene invocar aquí a algunos testimonios autorizados.
Aristóteles (Met. XI, 8), después de suponer la existencia de 55 esferas
celestes, reconoce: "Parece lógico admitir tantas; pero si eso sea necesario lo
dejamos decidir a quien sea más versado en estas materias".
Sto. Tomás (S. Th. I, q. 32, a. 1) declara: "En la astronomía se hace la
hipótesis de los excéntricos y de los epiciclos, porque así se pueden salvar las
apariencias visibles respecto de los movimientos celestes; pero esa hipótesis no
está suficientemente probada, porque quizás también con otra hipótesis se pueden
salvar las apariencias". Y de nuevo sobre el mismo argumento (In II de Coelo et
Mundo, lectio 17): "Si bien puestas tales hipótesis se pueden explicar los
fenómenos celestes, sin embargo éstos podrían explicarse también con otras
hipótesis todavía desconocidas a la humanidad".
Osiander (Hausmann), en su prefacio al libro de N. Copérnico (De
revolutionibus, 1543), advierte: "No es necesario que estas hipótesis sean
verdaderas y ni siquiera verosímiles; basta únicamente que sus cálculos sean
conformes a la experiencia"; y concluye: "Por lo que respecta a las hipótesis nadie
debe esperarse algo de cierto de la astronomía, porque ella no puede dar nada de
cierto".
El mismo Card. Belarmino (Carta a Foscarini, 1615), tendiendo una mano a
Galileo, escribe: "El señor Galilei actuará prudentemente contentándose con hablar
ex suppositione, y no absolutamente, como - creo - ha hecho siempre Copérnico;
en efecto, decir que con la Tierra móvil y el Sol inmóvil se explican las apariencias
mucho mejor que con los excéntricos y con los epiciclos es decir muy bien; eso no
presenta ningún peligro yeso le basta al matemático".
R. Descartes (1644), al final de sus Principia Philosophiae (IV, n. 204), casi
anticipando la idea moderna de "caja negra" (black box), afirma: "Si bien de esa
manera se comprende quizás cómo todos los fenómenos naturales puedan suceder,
no por eso hay que concluir que las cosas estén realmente así. En efecto, así como
un mismo artesano puede construir dos relojes externamente idénticos e
igualmente exactos en indicar la hora, pero con mecanismos internos muy
distintos, así también el Sumo Artífice pudo sin duda haber realizado las cosas
visibles a nosotros en muchos modos diversos... A mí me basta que las cosas que
yo propongo sean tales que correspondan exactamente a los fenómenos naturales".
Isaac Newton en una carta a H. Oldenberg (1672) dice que siempre es
posible ensartar hipótesis tras hipótesis, procurándose siempre nuevas
"tribulaciones", por lo cual conviene abstenerse de ello. Pero en la edición latina de
su Óptica (1706), él se pregunta (Q. 21) si la atracción gravitatoria no debería
explicarse suponiendo que las zonas más lejanas del éter cósmico son más densas y
así empujan los planetas hacia el Sol, en donde el éter es menos denso. Pero
después, en la 2ª edición de sus Principia (1713) aparece el famoso Scholium

56
Generale, en el que confiesa no haber podido hallar la causa de la gravedad y
añade su célebre "hypotheses non fingo".

11.3 LA FALSIFICABILIDAD DE LAS HIPÓTESIS

11.3.1 LOS PUNTOS DE VISTA DE POPPER


Según K. Popper, cuando una teoría ostenta un excesivo poder explicativo,
ella es por lo menos sospechosa. En concreto, cuando existe un flujo incesante de
confirmaciones que "verifican" determinada teoría, hay que dudar seriamente de su
contenido y valor.
Para empezar, una teoría científica que nunca pudiera ser contradicha por la
experiencia, nada diría de la experiencia. Una teoría tal estaría siempre en pie,
cualquier cosa suceda experimentalmente; pues ella no tiene ningún vínculo con la
experiencia y no amerita ser llamada "teoría científica".
Aquí se impone un paréntesis importante. Lo que acabamos de decir vale
únicamente para la ciencia, que es hipotético-deductiva; no vale en cambio para la
filosofía, que es siempre categórica (cfr. n. 6.2.3). No se pregunte por tanto si la
proposición "el mundo ha sido creado por Dios" o bien "el hombre es libre", pueda
ser contradicha por la experiencia. Pues en estos casos no se trata de teorías o
hipótesis, sino de verdades o doctrinas recabadas racionalmente de los datos de la
experiencia. Al máximo el hombre (el filósofo) puede haberse equivocado y se lo
mostrará la experiencia misma, analizada mejor; pero las conclusiones filosóficas
nunca esperan una confirmación de la experiencia; ellas en efecto la trascienden.
También Popper reconoce aquí un criterio de delimitación entre la filosofía y la
ciencia. Cerrado este paréntesis, volvamos a las teorías científicas.
Popper quedó impresionado por el hecho de que, por ejemplo, un marxista
no puede abrir un periódico sin encontrar en cada página una confirmación de su
interpretación de la historia. La misma observación vale para la elasticidad de las
teorías psicoanalíticas: si alguien quiere ahogar salvajemente a un niño que no
conoce o salvarlo valerosamente con peligro de su propia vida, A. Adler lo explica
en ambos casos por la voluntad de superar un fastidioso sentido de inferioridad
mediante un acto de valor (en uno u otro sentido), mientras que S. Freud lo explica
en el primer caso como una represión mal lograda del "complejo de Edipo" (querer
matar a otro varón) y en el segundo caso como una sublimación (el sacrificio en
lugar de la "libido").
Por eso Popper prefiere que, en lugar de confirmar una teoría, se intente
refutarla (no ciertamente - se entiende - por el placer de verla derrumbarse). Para
casi todas las teorías es fácil obtener confirmaciones si lo que se busca son
precisamente confirmaciones: Pero estas confirmaciones o verificaciones tienen
valor únicamente si la teoría hace conjeturas audaces, previsiones arriesgadas,
como lo fueron, por ejemplo, las de A. Einstein sobre la deflexión gravitatoria de

57
un rayo de luz. Una teoría científica es verdaderamente tal en la medida en que
puede ser invalidada, refutada o falsificada.
Naturalmente que si la teoría es verdaderamente refutada es falsa y debe ser
corregida o sustituida por otra. Pero esta corrección no debe ser a su vez una
estratagema para hacer la teoría inmune a una ulterior refutabilidad, porque esto le
haría perder su carácter científico.
Es verdad - como observa C. G. Hempel - que el criterio de falsificabilidad
no es universalmente aplicable. Así una hipótesis puramente existencial (por
ejemplo, "existen hombres extraterrestres") no puede ser jamás falsificada, porque
nunca se podrá saber si se han examinado todos los casos posibles. Pero esto no le
quita valor al susodicho criterio, porque una hipótesis tan descarnada no sirve para
nada si no se la enriquece con otras hipótesis (falsificables).

11.3.2 EJEMPLOS DE PREDICCIONES FALSIFICABLES

a) Ya que las bombas aspirantes no sacan el agua de los pozos


de más de 10 metros, V. Viviani (1643) supuso que la
aspiración no era debida al tradicional "horror vacui'" (miedo
al vacío), sino al peso (y por ende a la presión) del aire que
está sobre el agua del pozo, a la que haría precisamente
contrapeso la columna de 10 metros de altura. De lo cual E.
Torricelli dedujo en seguida que en lugar de la columna de
agua se podía poner una columna de mercurio alta sólo 0.76
metros (que en peso equivale a la mencionada columna de
agua). Deducción falsificable, pero confirmada por la
experiencia y que desembocó en la invención del barómetro.

b) Pocos años después, B. Pascal (1647) sugirió una ulterior falsificabilidad de la


teoría que sustituía la presión atmosférica en lugar del "miedo al vacío": en la cima
de una alta montaña esa presión debería ser menor y con ella la altura de la
columna de mercurio en el barómetro. Y tampoco esta vez la experiencia invalidó
la teoría.

c) Para explicar por qué los metales fuertemente calentados perdían su brillo
característico, transformándose en sustancias de aspecto terroso (calcinación), G.
E. Stahl (1702) supuso que en el calentamiento ellos perdían una sustancia
calórica, llamada "flogisto". Se seguía de ahí que el metal calentado debería pesar
menos que antes del calentamiento; predicción falsificada por la experiencia: el
metal pesaba más! (H. Boerhaave, 1732; A. L. Lavoisier, 1783).

d) Desde los tiempos antiguos (Plinio el Viejo, 78 d. C.; pero ya antes había
hablado de ello Aristóteles) se sabía que el aceite calmaba las olas del mar. Pero B.
58
Franklin (1774) reflexionó que determinada cantidad de aceite no puede extenderse
indefinidamente; se alcanza el límite cuando la capa de aceite se reduce a un
espesor monomolecular. De ahí dedujo que el diámetro de las moléculas de aceite
es de aproximadamente 10-9 metros. Hipótesis no falsificada por los actuales
conocimientos.

e) Para explicar el origen de los atolones, o sea de aquellas islas coralinas en


forma de anillo que encierran una laguna y a menudo un peñasco en el centro de la
laguna, Ch. Darwin (1842) supuso que ahí había una alta montaña sobre cuyas
laderas se habrían formado colonias coralinas; esta montaña se habría hundido
lentamente, mientras nuevos corales habrían seguido recubriendo las viejas
colonias. Ya que los corales sólo pueden vivir hasta una profundidad de 40 metros
bajo el nivel del mar, la hipótesis darwiniana llevaba a prever que incluso mucho

más abajo de esa profundidad se deberían encontrar formaciones calcáreas, pero de


corales ya muertos. Previsión falsificable, pero no falsificada, porque las
perforaciones realizadas en el atolón Eniwetok mostraban que el banco coralino
alcanzaba una profundidad de 1,300 metros y más, por lo cual la cumbre del
volcán primitivo se erguía algunos kilómetros sobre el nivel del mar.

f) Para explicar ciertas irregularidades en las órbitas de Saturno y de Urano, U. J.


Leverrier (1846) conjeturó la existencia de un nuevo planeta (Neptuno) más allá de
la órbita de Urano e indicó su posición prevista. Ese Neptuno podía también no
existir, pero menos de un mes más tarde fue divisado por J. Galle, en la posición
prevista.

g) También se daba una irregularidad en la precesión del perihelio de Mercurio, el


planeta más cercano al Sol. El mismo Leverrier, animado por el primer clamoroso
éxito, trató de explicar la cosa mediante la existencia de otro planeta (Vulcano).
Pero la hipótesis fue falsificada por la experiencia: Vulcano no existía! A. Einstein
(1915) encontró otra explicación, corrigiendo la mecánica newtoniana.

h) El doctor I. Semmelweis (1847) supuso que los frecuentes casos de fiebre


puerperal en la 1ª Sección Maternidad de su hospital, se debían a una infección
debida a material orgánico cadavérico, presente quizás en las manos de los
59
médicos, que precedentemente habían realizado autopsias. De ahí dedujo que,
obligándolos a lavarse las manos en una solución desinfectante (estamos a 15 años
antes de los descubrimientos de L. Pasteur!), se habrían reducido los casos de
infección. Y efectivamente, después de tantas otras hipótesis falsificables y
falsificadas, ésta no fue invalidada por la experiencia.

i) Habiendo observado por casualidad que un conejo tenía la orina clara y ácida, y
sabiendo que esto es una característica de los animales carnívoros, mientras que los
herbívoros tienen ordinariamente una orina turbia y alcalina, C. Bernard (el gran
teórico del método experimental en biología, 1865) supuso que ese conejo había
estado mucho tiempo en ayunas y que por eso se había vuelto momentáneamente
carnívoro, digiriendo las sustancias de su propio cuerpo. Para controlar si esa
hipótesis era falsa, dio a comer hierba al conejo y observó que pocas horas después
la orina se volvió normal. Repitió varias veces el experimento, en uno y en otro
sentido, también con otros animales herbívoros (como los caballos), siempre con el
mismo resultado. Luego su hipótesis no era falsa: durante el ayuno todos los
animales consumen carne (la de ellos mismos!).

j) De su teoría de la Relatividad General, A. Einstein (1915)


dedujo que el campo gravitatorio de todo cuerpo produce en su
proximidad inmediata una especie de "curvatura" en el espacio-
tiempo, proporcional a la masa gravitante. De ahí previó que un
rayo de luz, al pasar cerca del Sol, debía curvarse ligeramente
hacia el mismo y hacemos visibles (durante un eclipse solar)
estrellas que en realidad se encontraban detrás del borde del Sol.
El ángulo de deflexión era mínimo (1.75"), pero la predicción fue
confirmada en el eclipse de 1919.

l) Con una fuente de neutrones es posible volver artificialmente radiactivos un


gran número de elementos químicos. Pero en los años treinta E. Fermi y sus
colaboradores notaron que la interposición de un pedazo de parafina entre la fuente
de neutrones y el elemento bombardeado intensificaba enormemente la
radiactividad inducida. Considerando que la parafina contiene muchos átomos de
H, cuyos núcleos (llamados protones) tienen la misma masa de los neutrones,
Fermi supuso que éstos últimos, entrando en colisión con los protones (de igual
masa), perdían gran parte de su energía y que así frenados eran más fácilmente
capturados por los núcleos del elemento que servía de blanco. Pero entonces -
pensó - también el agua, con su contenido de hidrógeno debería producir el mismo
efecto que la parafina! No había más que probar; y la experiencia no falsificó la
predicción, que desembocó después en la construcción del reactor atómico (1942).

60
Concluyamos. No podemos comparar esas precisas y específicas
predicciones falsificables (y a veces falsificadas) con las predicciones vagas y
genéricas de los astrólogos o de sus horóscopos, ni con las explicaciones verbales
de ciertas filosofías decadentes u oscurantistas. El científico auténtico teme (y sin
embargo busca) una posible falsificación de sus predicciones. Newton mismo hasta
1671 consideraba falsificada su gravitación universal, porque el movimiento de la
Luna no correspondía a sus cálculos. Pero aquel año J. Picard le suministró el
verdadero radio de la Tierra, que Newton había creído más pequeño (cerca del
13%); y con esa corrección también el movimiento de la Luna se reveló exacto.
(Hay que observar que el radio terrestre ya había sido medido bien por Eratóstenes
en el 220 a.C.; pero en el Medioevo se había atribuido por error un valor
demasiado pequeño a sus "estadios").

11.4 EL VALOR NOÉTICO DE LAS HIPÓTESIS (o TEORÍAS)

Después de esas premisas nos debemos preguntar cuál es el estado "jurídico"


de las teorías, o sea su valor noético o cognoscitivo. Notemos sin embargo que
consideramos la ciencia desde su punto de vista, sin particulares preocupaciones
metafísicas, para no ir a parar de la filosofía de la ciencia a la filosofía de la
naturaleza.

11.4.1 LA TEORÍA NO ES UNA SIMPLE SÍNTESIS LÓGICA DE LEYES


Ya hemos dicho (n. 11.1.1) que el incluir leyes menos generales dentro de
una ley más general no es propiamente "explicarlas", porque el problema queda
simplemente postergado. La diferencia entre las dos especies de leyes es sólo una
diferencia de grado y el pasar de una a la otra no es una operación específicamente
nueva.
Sin embargo, muchos epistemólogos ven en esa síntesis superior la finalidad
de las teorías. Así H. Poincaré, E. Mach (una teoría economiza el pensamiento: n.
9.1.1), P. Duhem, F. Renoirte.
Es verdad que las teorías se nos presentan como un sistema lógico, que
contiene un mínimo de premisas y un máximo de deducciones para someterlas a la
experiencia. Se diría que la finalidad de las teorías es la de encontrar "formas"
matemáticas (casi "moldes") en las que alojar los fenómenos observables.
Pero todo esto es sólo un aspecto de las teorías: su poder sistematizador,
coordinador, economizador, etc., pero que no ofrece ideas nuevas. Según este
punto de vista las teorías no son propiamente explicativas, sino únicamente
descriptivas, aunque sea en términos muy abstractos y muy alejados del lenguaje
común.
Ejemplos de "teorías" puramente descriptivas podrían ser la termodinámica
(S. Carnot, 1824; J. Joule, 1842; R. Clausius, 1850 y 1865; W. J. M. Rankine,
1855), que describe a nivel macroscópico (o sea, no molecular) los intercambios
61
entre energía térmica y trabajo mecánico; y la teoría de la relatividad (A. Einstein,
1905 y 1915), que tiene el mérito de describir los fenómenos mecánicos y
electromagnéticos (es decir, todos los fenómenos físicos) en modo independiente
de cualquier sistema de referencia.
Una opinión no muy diversa es la de S. Toulmin, según la cual una teoría es
comparable a un mapa geográfico construido sobre la base de algunos relieves bien
seleccionados, que permita después leer en él muchas otras relaciones locales, aún
no directamente relevadas. Esta imagen subraya en cierto sentido la función
instrumental de las teorías. Pero en realidad un mapa geográfico es sólo una
descripción o transposición en un lenguaje nuevo, que pone en evidencia toda una
serie de hechos íntimamente conexos con pocos datos inicialmente observados; no
es un instrumento de deducción propiamente dicho, porque el lenguaje cartográfico
es muy diverso del que debería unir las premisas con las conclusiones, como
reconoce el mismo Toulmin.

11.4.2 LA TEOR/A NO ES UNA SIMPLE EXPLICACION MODELISTICA


Por mucho tiempo se había creído que éste era el fin - aún más, el ideal - de
toda explicación teórica. La naturaleza era considerada como una inmensa máquina
y, si bien no se hablara siempre de palancas, de poleas, de engranajes, etc., no se
renunciaba sin embargo a considerarla como un conjunto de pequeñas masas (o
partículas) en continuo movimiento bajo el influjo de ciertas fuerzas. Los cambios
de configuración geométrica que de ahí resultaban debían entonces dar cuenta de
los fenómenos observados. Basta recordar a este propósito la teoría molecular
cinética de los gases (n. 11.1.2).
He aquí cómo se expresaba Lord Kelvin (1884) a este propósito: "Me parece
que el verdadero sentido de la pregunta: '¿comprendemos o no cierto objeto de la
física?' es éste: '¿podemos construir un modelo mecánico correspondiente?'... No
estaré nunca satisfecho mientras no logre construir un modelo mecánico del objeto
que estoy estudiando. Si puedo construirlo, comprendo. Mientras no pueda, no
comprendo".
J. Maritain (1932) ilustra bien esa mentalidad mecanicista con un ejemplo
que aquí resumimos. Un científico, que tiene sólo un contacto telefónico con el
mundo, tiene noticia de una máquina capaz de lanzar su propio peso a una altura
300 veces superior a la propia. Él pensará en una especie de catapulta, que luego
corregirá según las ulteriores informaciones que reciba. Después llega a saber que
esta máquina tiene también una especie de "memoria", ya que ella modifica su
propio funcionamiento basándose en funcionamientos pasados. Aquí la corrección
es más profunda y requiere quizás la introducción del tiempo como cuarta
dimensión; etc. - Nosotros, que paseamos por las calles y nos alojamos en los
hoteles, podemos saber que esta máquina se llama Pulga! Nuestro científico no lo
sabrá, pero su máquina presentará en todo momento la suma de todas las

62
propiedades hasta ahora descubiertas. - Y Maritain concluye justamente que tal
conocimiento es "místico y simbólico".
Por lo demás, si bien en el caso de los gases los modelos mecánicos se han
demostrado muy fecundos, en los otros capítulos de la Física - y en particular en la
física nueva (s. XX) - han fracasado. J. C. Maxwell (1865) opuso a las ondas
mecánico-elásticas de Huygens sus ondas electromagnéticas, hoy universalmente
admitidas; N. Bohr (1913) opuso al mecanicismo de la emisión según Lorentz su
edificio atómico, en el que la emisión de la luz ya no sucede con el ritmo de las
revoluciones electrónicas alrededor del núcleo; finalmente W. Heisenberg (1927)
ha destruido radicalmente todo ideal modelístico, ya que sus célebres relaciones de
indeterminación excluyen que se pueda conocer simultáneamente la exacta
posición y velocidad de un corpúsculo, premisa indispensable para prever sus
ulteriores evoluciones.
Eso no quita la utilidad que tienen los modelos mecánicos como sostén
momentáneo de la imaginación y como valor heurístico. Pero entonces no debemos
extrañamos si a veces se pasa bruscamente de un modelo (por ej., corpuscular) a
otro diametralmente opuesto (por ej., ondulatorio) para "explicar" el mundo
material. En efecto la realidad es siempre una sola, pero el modelo no es la
realidad.

11.4.3 LA TEOR/A NO ES SOLO UN INSTRUMENTO DE DEDUCCIONES


Un cierto número de epistemólogos - entre los cuales citamos a M. Schlick,
J. Dewey, W. H. Watson - opina que las teorías son como instrumentos lógicos
para derivar proposiciones observables de otras proposiciones observables. Es
decir, son reglas o guías para hacer transiciones lógicas de un conjunto de datos
experimentales a otro conjunto experimental. No son, pues, premisas de las cuales
puedan deducirse conclusiones experimentales, sino técnicas según las cuales
pueden deducirse conclusiones experimentales a partir de premisas experimentales.
Como un martillo no produce objetos nuevos, sino que transforma objetos ya
dados, así la teoría no enuncia nuevas proposiciones, sino que hace posible el paso
de unas proposiciones a otras.
Así pues, ya que la teoría no enuncia ninguna proposición (no dice nada!),
ella no es propiamente ni verdadera ni falsa, ni traducible a proposiciones
verdaderas o falsas. Por eso ella puede pacíficamente tratar por ejemplo de la luz
como si fuera un fenómeno ondulatorio, cuando estudia su difracción o su
polarización, y como si fuera un fenómeno lineal (una especie de "radio"
geométrico), cuando estudia su reflexión o la formación de las sombras. No existe
ahí ninguna contradicción, porque la teoría no afirma nada: es solamente un
principio-guía que permite sacar inferencias; y nada nos impide servimos
alternativamente de dos guías o instrumentos diversos.
Se sabe que la ciencia específica de las inferencias es la Lógica formal. Pero
la lógica es un esqueleto sin carne; más precisamente: opera sobre conceptos que

63
no son suyos, como el álgebra que opera sobre números, que ella misma no posee.
Por tanto la lógica es solamente un instrumento de deducción.
Una teoría en cambio es algo más que la lógica formal: ella utiliza conceptos
suyos propios, como el de "molécula", "onda", "cero absoluto", "velocidad
instantánea", "fluctuación estadística", "gene", "evolución", "moneda", "valor
agregado", etc. Ahora bien, esos conceptos tienen indudablemente un contenido
extra-lógico. La cuestión ahora es ver cuál es la naturaleza de ese contenido.

11.4.4 LA TEORÍA NO TIENE COMO OBJETO EXPLÍCITO LA "REALIDAD"


No se puede decir sin más que las teorías pretendan ser explicaciones reales.
Y esto por varios motivos.
Ante todo el criterio que guía al científico en la verificación y control de sus
hipótesis no es su "realidad" o "verdad", sino la coincidencia de sus conclusiones
con el material experimental, que consiste únicamente en medidas (los hechos) y
en relaciones algebraicas entre las medidas (las leyes). Y la lógica (cfr. n. 11.2.1)
nos prohíbe considerar esa concordancia como suficiente para afirmar la "verdad"
de una teoría.
Luego está el hecho significativo de que existen a veces diversas teorías
rivales que explican los mismos hechos de experiencia. Un ejemplo nos lo ofrecen
I. Newton (con P. S. Laplace y J. B. Biot) de un lado y Ch. Huygens (con T. Young
y A. J. Fresnel) del otro; para los primeros la luz consistía en una serie de
proyectiles lanzados a gran velocidad, para los segundos consistía en vibraciones
que se propagaban ondulatoriamente en un medio etéreo. Ese estado de cosas
podría revelarse como una ocasión oportuna para decidir una vez por todas cuál de
las dos teorías debería ser la "verdadera": bastaría en efecto organizar - como
sugería ya F. Bacon - un "experimentum crucis", fundado precisamente sobre la
diferencia entre las dos teorías. Pero - como observó justamente P. Duhem - tal
experimento es imposible: ante todo es dificilísimo decidir que dos teorías son tan
opuestas que hay que excluir cualquier camino intermedio; y además hay algo no
menos importante y es que todo experimento ya está cargado de teorías (no existe
el hecho bruto, n. 9.2.2).
Finalmente, a menudo las teorías trabajan con conceptos considerados
ficticios. Clásico es el ejemplo de los cuantos de Planck, que él mismo introdujo
como pura ficción matemática, con la esperanza de eliminarlos luego al final de
sus cálculos. El hecho de que esos "cuantos" se mostraran luego tan "invadentes" y
se hicieran aceptar universalmente, no cambia nada de su estado original. Otro
ejemplo son los hilos elásticos con que M. Faraday (1852) intentaba visualizar los
campos eléctricos y magnéticos. Y el mismo I. Newton (1704) parece que no
atribuyó mucha realidad a los "accesos" (fits) de fácil reflexión y de fácil
transmisión, con los que "explicaba" la formación de los célebres anillos de colores
que llevan su nombre.

64
11.4.5 LA TEORÍA TRATA DE DESCUBRIR ALGO NUEVO EN LA REALIDAD
Ya hemos visto (n. 10.1.4) que las leyes dicen algo acerca de la causalidad
formal, o sea de la naturaleza de las cosas. Y lo hacen mediante la descripción
circunstanciada de fenómenos directamente observables.
Añadamos ahora que las teorías tratan de ir más allá de las leyes,
revelándonos nuevos aspectos de la realidad.
Las entidades postuladas por una teoría no son directamente observables,
pero pueden ser asociadas - mediante reglas de correspondencia - a fenómenos
directamente observables y por ende también a leyes experimentales. Hemos visto
por ejemplo (n. 11.1.2) que ése es el caso de la agitación desordenada de las
moléculas (no observables!), a la que corresponde por un lado la presión del gas y
por el otro su temperatura, observables ambas experimentalmente. Además dicha
teoría explica efectivamente el origen profundo de esas dos propiedades, así como
las leyes que describen su comportamiento (como son las de Boyle y de Gay-
Lussac).
Pero aún hay mucho más. Según la hipótesis de Avogadro esas moléculas
invisibles son igualmente numerosas en volúmenes iguales de gases diversos, bajo
la misma temperatura y presión. Y esto permite - como ya se ha dicho - determinar
su peso molecular relativo (respecto al hidrógeno). De ahí se sigue inversamente
que una "molécula-gramo" de una sustancia cualquiera, o sea un número de
gramos igual al que expresa el peso molecular relativo, debe contener el mismo
número de moléculas. Este número se llama "número de Avogadro" (N) y vale
aproximadamente 6 · 1023 (más exactamente 6.02217 · l0²³).
Ahora bien, es sumamente importante señalar algunos métodos con los que
se determinó ese número (J. Perrin, 1912). Son: el estudio de la viscosidad de los
gases, de la repartición vertical de las emulsiones, del movimiento browniano, de
la velocidad de difusión de las sustancias disueltas, de la intensidad de las varias
radiaciones emanadas por un horno de alta temperatura, de la coloración azul del
cielo, de la difusión de la luz en los gases, de la discontinuidad de las cargas
eléctricas, de la cantidad de helio que se forma alrededor de una sustancia
radiactiva, etc. La explicación de todos esos fenómenos tan distintos conduce
siempre a una ecuación en la que entra el número de Avogadro (N); y, medidas las
otras cantidades que entran en esas ecuaciones, se encuentra invariablemente para
N el valor susodicho.
No podemos quedar indiferentes ante esa convergencia de resultados, que
atañen una entidad propiamente teórica, como lo es esa multitud de corpúsculos
hipotéticos. Por eso aun sin atribuir categóricamente una realidad ontológica a las
moléculas, podemos muy bien decir que la teoría molecular penetra mucho más
profundamente en la naturaleza de las cosas de lo que lo hacen las leyes.
Y aún más: eliminando la N entre dos de las susodichas ecuaciones,
obtenemos relaciones nuevas, por ejemplo entre el azul del cielo y la repartición
vertical de una emulsión, que nunca habríamos encontrado sin la teoría.
65
Análoga es la historia de la hipótesis de los cuantos, que une la radiación del
llamado "cuerpo negro" o radiador integral (1900) con el efecto fotoeléctrico
(1905), con los calores específicos (1907) y con los niveles energéticos del átomo
(1913).

CAP. XII: LA DIVISION DE LAS CIENCIAS


Como último problema examinemos brevemente la división de las ciencias.
Seguiremos en esto el método de E. Boutroux, que no obstante sus tendencias
kantianas logra presentar una división eficaz.

12.1 PREMISA GENERAL SOBRE LA CONTINGENCIA


DE LAS LEYES NATURALES
Es éste el elemento de sabor kantiano, que sin embargo - como toda
reflexión seria - contiene una parte de verdad, la única que aquí nos interesa.
Según Boutroux el principio de identidad (A es A) enuncia una verdad
analítica, absolutamente necesaria; es en efecto una tautología, en la que ni siquiera
se especifica qué es A, si es un ser determinado o no. A ese principio está asociado
el de contradicción, que dice que A y no-A no pueden estar juntos. Tenemos
además el principio del tercero excluido, según el cual no existe ningún término
intermedio entre A y no-A; en efecto, ese término medio, por ser tal, no sería A y
no sería no-A, lo cual nos llevaría otra vez a la contradicción.
Ésas son las leyes absolutamente necesarias de la lógica pura. Pero ellas no
constituyen toda la lógica. Pues la lógica ordinaria o aristotélica comprende
también los conceptos, las proposiciones y los silogismos. Y aquí ya comienza la
contingencia o sea la no-necesidad.
El concepto difiere de A, porque se refiere ya a una cosa determinada (por
ejemplo "hombre"). Goza de cierta unidad, pero abraza analíticamente una
multitud, desde la cual sin embargo el retorno a la unidad del concepto se realiza
sólo por síntesis, o sea contingentemente, no-necesariamente, ya que la
multiplicidad no contiene la razón de su unidad.
La proposición A es A no dice nada. Para tener una proposición que
signifique algo hay que poner A es B (como "el hombre es bípedo"), enunciando
así una identidad entre dos términos que por lo demás son diversos. Y ésa es
nuevamente un síntesis, una añadidura no-necesaria; en otras palabras: un elemento
de contingencia (el verbo latino "contingere" significa también ad-venir, ad-caecer,
que connotan un añadirse, un sintetizarse, una síntesis).
Finalmente también el razonamiento silogístico no hace más que multiplicar
las síntesis, ya que el término medio se sintetiza con el sujeto (S es M) y el
predicado con el término medio (M es P). En suma, el término medio hace menos
brusco el paso entre S y P, pero la discontinuidad y por ende la contingencia
permanece.

66
En conclusión, la lógica pura es totalmente a priori; pero en la lógica
ordinaria aparecen ya elementos a posteriori.
Y así, en la siguiente reconstrucción del edificio de la ciencia, Boutroux
piensa como en unos planos sucesivos, sobrepuestos unos a otros y
jerárquicamente subordinados; un plano superior presupone el que está
inmediatamente debajo, como el plano del hombre presupone el de la vida, y éste
último el plano de los compuestos químicos.
De aquí se sigue una división de las ciencias que nos parece verdaderamente
jerárquica.

12.2 LA DIVISIÓN DE LAS CIENCIAS EN CONCRETO

Describimos aquí las ciencias en su orden jerárquico, con las respectivas


novedades que en ellas entran a posteriori. No señalamos en cambio las teorías que
ellas utilizan para explicar los fenómenos pertinentes.

1ª Ya hemos hablado del primer piso, donde hay que colocar la LÓGICA
ORDINARIA, mientras la base última del entero edificio científico es la LÓGICA
PURA. Ahora siguen los pisos sucesivos, con las respectivas novedades a
posteriori que se van agregando ("contingunt").

2ª La MATEMÁTICA es irreducible a la Lógica: no se puede "logicizar" la


Matemática como quería hacer G. Frege. El elemento nuevo que caracteriza la
Matemática es la intuición. Ella aparece ya en la llamada inducción matemática o
razonamiento recurrente, con el que se demuestran las propiedades aritméticas más
elementales, como por ejemplo la propiedad asociativa de la suma. Habiendo
demostrado que ella vale en el caso de un número particular, hago ver que logro
demostrarla válida también para el número siguiente; después de lo cual intuyo en
la potencia de mi espíritu la capacidad para demostrarla válida sucesivamente para
todos los números. También la Geometría parte de una intuición, la del espacio (o
extensión), codificada - por comodidad - en los postulados que están como
fundamento de toda Geometría.

3ª La MECANICA, aun estando muy cerca de la matemática (se la llama en efecto


"Matemática aplicada"), introduce otro elemento nuevo, la fuerza, conocida sólo a
posteriori. Que dos fuerzas puedan equilibrarse, eliminare o componerse según la
conocida regla del paralelogramo (esto equivale científicamente a decir que la
fuerza es un vector) no es evidente a priori, sino que se apoya sobre datos
experimentales, a menudo elementales e inconscientes, adquiridos en la noche de
los tiempos. ¡Cuántos datos mecánicos no se imprimen automáticamente en el
cerebro de un niño aún en pañales! En particular sobre la superficie de la Tierra
tenemos una experiencia casi congénita de la fuerza-peso, que nos desorienta
totalmente si nos hallamos sobre la Luna donde un cuerpo humano de 72 kg pesa
67
ya sólo 12 kg. Añadamos que la fuerza como también cualquier actividad causal,
esconde en sí algo misterioso.

4ª Con la FÍSICA se introduce otra novedad: las cualidades corpóreas, de las que
se originan los varios fenómenos físicos. Los cuerpos no son únicamente materia
en movimiento, sino que están dotados de cualidades, como temperatura
magnetismo, gravedad, etc., y tienen un comportamiento multiforme, regulado por
estas cualidades como por fuerzas particulares. Además los fenómenos físicos son
irreversibles, en el sentido que por ejemplo un péndulo nunca vuelve exactamente
a su posición anterior: gasta energía contra diversos roces y, si bien la energía se
conserva cuantitativamente, ella se deteriora en calidad (un Joule de calor es
cualitativamente inferior a un Joule de energía eléctrica).
5ª Contrariamente a las ciencias anteriores, que se ocupan del mundo corpóreo en
general, la QUÍMICA estudia otra novedad: la existencia de varias especies
corpóreas, como el hierro, el cianuro de potasio, el propano, etc. Estas especies se
caracterizan cada una por un conjunto estable de propiedades (como el color, el
punto de fusión, la solubilidad en agua, el sistema de cristalización, etc.), que las
distingue permanentemente entre sí y desemboca en la formación de una multitud
profundamente heterogénea: el plomo, por ejemplo, no es la sal gema, no es el
amoníaco, no es la anilina, etc. Pero no obstante esta heterogeneidad, son posibles
entre las especies ciertas combinaciones y descomposiciones, gobernadas por
precisas leyes de afinidad química y de proporciones ponderales, que regulan las
transformaciones de una especie química a otra.

6ª Objeto de la BIOLOGÍA es otra novedad: la vida. No sabemos en qué consiste


intrínsecamente la vida, pero la misma ignorancia circunda también las cualidades
de la física y las especies de la química. Es cierto sin embargo que los fenómenos
vitales, aun sin ofender las leyes físico-químicas, se despliegan con modalidades
que estas leyes no logran captar. El viviente se presenta como el fruto de una idea
directriz (piénsese en el huevo que se convierte en mamífero, ave o pez), su
organización se encuentra siempre en un delicado equilibrio dinámico y en todas
sus formas - tanto en el reino vegetal como en el animal - se presenta como un
complicado sistema de circuitos internamente abiertos pero externamente cerrados.

7ª La PSICOLOGÍA está dominada por otra novedad: la conciencia, que es


irreducible a los fenómenos vitales e incluso a aquellas particulares actividades del
sistema nervioso que forman el objeto de la fisiología, capítulo particular de la
biología. La irritabilidad, los reflejos automáticos y los fenómenos estímulo-
respuesta (S-R), ya presentes de alguna manera en el reino vegetal, alcanzan una
notable perfección en el reino animal, donde entre otras cosas los reflejos se
vuelven condicionados (I. P. Pavlov, de 1902 en adelante), porque guiados por
sensaciones, por asociaciones entre sensaciones y por deseos. Pero en el hombre
todos esos elementos adquieren una luz nueva, porque pueden ser interiorizados en
68
su conciencia. El hombre no sólo tiene sensaciones y deseos, sino que también
tiene conciencia de tenerlos; y de esto no existe ningún verdadero paralelo en la
fisiología animal. El hombre - y sólo él - se conoce (autoconciencia del yo) y se
determina (auto-posesión del yo). En esa conciencia del yo todo se unifica y llega a
ser un mundo aparte, cerrado a todas las demás conciencias.

8ª El edificio culmina finalmente en la SOCIOLOGÍA, donde aparece una última


novedad: la historia, entendida como historia humana. Se trata no ya de las vidas
singulares y de los episodios individuales, sino de la evolución de la sociedad
humana como tal, en la que ciertamente tienen su importancia las experiencias del
pasado y su influjo sobre el futuro, pero (en una medida no menor) también las
iniciativas .propiamente humanas. Éstas en su conjunto revelan un proyecto que
supera las disposiciones del momento, los caracteres individuales, las costumbres
del tiempo, los varios nacionalismos e incluso los períodos de progreso y de
decadencia. Denominador común es la naturaleza humana, que no se deja
aprisionar en el espacio y en el tiempo; no en el espacio, como demuestra la
inmensa red de comunicación con la que el hombre trata de invadir y llenar el
universo; no en el tiempo, porque el hombre mismo hace historia, no la padece (y
por eso la historia no se repite).

Concluimos, recordando que lo que acabamos de exponer es el edificio de la


Ciencia. Pero la Ciencia no lo es todo. Si el proyecto que unifica la sociedad
humana es algo que trasciende a la humanidad misma, él será objeto de la Filosofía
de la historia; y en último análisis - dada la caída original y la elevación del
hombre al orden sobrenatural - de la Teología de la historia.

♫ ♫ ♫ ♫ ♫

TRABAJOS:

1. Trazar una breve historia de alguna de estas ciencias: Matemática,


Astronomía, Física, Química, Biología, Psicología, Sociología. (Sus
orígenes, desarrollo, crisis, estado actual).
2. Trazar un breve perfil de uno de estos científicos: G. Galilei, I. Newton, Ch.
Darwin, A. Einstein. (Sus datos biográficos, escritos, aportes a la ciencia y al
método de la ciencia).
3. Presentar las ideas originales de uno de estos epistemólogos: K. R. Popper,
Th. S. Kuhn, P. K. Feyerabend, I. Lakatos.
4. Hacer un estudio de la inducción en la Lógica y en las Ciencias Naturales.
(Historia del método inductivo, su fundamento, sus dificultades, su uso).
5. Hacer un estudio de Neopositivismo (o Positivismo Lógico, o Círculo de
Viena): antecedentes, representantes, doctrinas, consecuencias, críticas.

69
BIBLIOGRAFÍA:

1. ARTIGAS Mariano, Filosofía de la ciencia experimental, Eunsa, Pamplona


1989.
2. BONIOLO G. - P. VIDALI, Filosofía della scienza, Milano 1999.
3. BROWN Harold. La nueva filosofía de la ciencia, Tecnos, Madrid 1983.
4. BUNGE Mario, Epistemología, Ariel, Barcelona 1981.
5. FEYERABEND P. K., Contro il metodo, Milano 1987.
6. FRANK Philipp, Filosofía de la ciencia, Herrero Hnos., México 1965.
7. GARCÍA PRADA J. M., La ciencia y sus métodos, San Esteban, Salamanca
1983.
8. GEYMONAT L., Lineamenti di filosofia della scienza, Milano 1985.
9. HEGENBERG Leónidas, Introducción a la filosofía de la ciencia, Herder,
Barcelona 1969.
10. HEMPEL C. G., Filosofía delle scienze naturali, Bologna 1968.
11. HULL L. W. H., Historia y filosofía de la ciencia, Ariel, Barcelona 1970.
12. KUHN Th. S., La struttura delle rivoluzioni scientifiche, Torino 1969.
13. LAKATOS Imre, La metodología de los programas de investigación
científica, Alianza, Madrid 1983.
14. LOSEE John, Introducción a la filosofía de la ciencia, Alianza, Madrid
1976.
15. MENDIZÁBAL PREM F., Apuntes de filosofía e historia de la ciencia, Ed.
Universitaria, Guatemala 1983.
16. NICOL Eduardo, Los principios de la ciencia, Fondo de Cultura Económica,
México 1974.
17. PEZZIN Claudio, Teoria e pratica della scienza (Appunti di filosofia della
scienza), Bastogi, Foggia 2002.
18. POPPER K. R., Lógica della scoperta scientifica, Torino 1974.
19. SEIFFERT Helmut, Introducción a la teoría de la ciencia,Herder, Barcelona
1977.
20. UDÍAS A. - M. LLORENTE, Introducción a la historia y filosofía de la
ciencia, U. P. C. M., Madrid 1983.

70

Você também pode gostar