Você está na página 1de 183

PÉREZ RANSANZ, Ana Rosa, Kuhn y el cambio científico.

Fondo de Cultura
Económica, México 1999.

AGRADECIMIENTOS

En la elaboración de este libro he acumulado incontables deudas. Entre quienes han


sido mis maestros, debo un agradecimiento especial a Ulises Moulines, cuyos formativos
cursos en filosofía de la ciencia me permitieron aquilatar la importancia de las tesis de
Kuhn sobre el cambio científico y vencer las reticencias que éstas me provocaban en mis
años de estudiante de maestría. A Luis Villoro, cuyas lúcidas enseñanzas en teoría del
conocimiento y agudas críticas a posiciones ontológicas, como la que aquí intento
defender, me permitieron ver ciertos problemas de fondo en la discusión del realismo. A
Fernando Salmerón, cuya irreparable pérdida siempre lamentaremos, quien con toda
amabilidad pero sumo rigor crítico discutió los borradores de la reconstrucción que aquí se
hace de la idea kuhniana de racionalidad, y cuyo profundo conocimiento de los clásicos me
salvó de varios errores y planteamientos ingenuos. A Bas van Fraassen, quien me brindó la
oportunidad de pasar un año sabático (1994-1995) en la Universidad de Princeton, donde
reescribí algunos capítulos de este libro motivada por sus cursos y seminarios, de los
cuales no pocas veces salí con la tarea de tener que reconfigurar alguna parte de mis es-
quemas previos. A Larry Laudan, cuya generosidad al comentar en detalle una versión
previa del capítulo sobre inconmensurabilidad me señaló problemas que requerían mayor
elaboración, y cuyas acuciantes críticas al relativismo de Kuhn me obligaron a revisar y
apuntalar mi interpretación de este autor. Finalmente, mi deuda más antigua es con León
Olivé, quien a lo largo de veinticinco años de amistad y constante diálogo filosófico me ha
brindado su apoyo en las diversas tareas que he emprendido desde que me interesé en la
filosofía de la ciencia; tanto como director de la tesis de doctorado que presenté en 1991
en la Facultad de Filosofía y Letras de la UNAM -la cual constituye la primera versión de
este libro- y como lector atento e inmisericorde de mis trabajos en este campo, su crítica
siempre constructiva ha sido un fuerte contrapeso frente a mis recurrentes inseguridades.
Dentro del Instituto de Investigaciones Filosóficas de la Universidad Nacional
Autónoma de México, al que me incorporé en 1985, la discusión con mis compañeros del
área de filosofía de la ciencia ha sido una fuente constante de estímulo intelectual, en
particular con Ambrosio Velasco, quien es el principal artífice de la buena marcha del área.
También he recibido valiosas observaciones de otros colegas de nuestro medio a través de
réplicas y comentarios a versiones previas de materiales aquí contenidos, entre ellos de
Isabel Cabrera, Mario Casanueva, Adolfo García de la Sienra, Raúl Orayen, Carlos Pereda,
Salma Saab y Antonio Zirión. Sobra decir que el beneficio recibido, tanto de mis maestros
como de mis colegas, no los inculpa de las limitaciones o errores no superados, y tampoco
implica su acuerdo con las tesis aquí defendidas.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 1
2

En la Universidad de Salamanca, durante una estancia de investigación con apoyo


del Ministerio de Educación y Ciencia de España, entablé un fecundo diálogo con Fernando
Broncano y Miguel Ángel Quintanilla, el cual se refleja en ideas aquí desarrolladas. Otras
amables invitaciones a participar en reuniones y proyectos académicos me han permitido
discutir y afinar diversas partes de este libro. Agradezco dichas oportunidades a Manuel
Comesaña, Cristina Di Gregori, Javier Echeverría, Eduardo Flichman, Nélida Gentile, Andoni
Ibarra, César Lorenzano, Óscar Nudler, Ezequiel de Olaso, Juan Rodríguez Larreta, David
Sobrevilla y Carlos Solís.
Por otra parte, la interacción con mis alumnos y becarios de distintas generaciones
e instituciones ha sido uno de los incentivos más poderosos en el desarrollo de este
trabajo. Sus cuestionamientos frescos y vivaces han sido una guía básica en la manera de
formular los problemas que aquí se abordan. Ellos son sus principales destinatarios.
Para la redacción de este libro conté con el apoyo del Consejo Nacional de Ciencia y
Tecnología, a través de una Cátedra de Excelencia Nivel III. Agradezco a esta institución
su valiosa ayuda.
Finalmente, el respaldo moral y afectivo que en todo momento me ha dado mi
familia Ransanz es invaluable, así como el de Miguel Hernández Cota, Ángela Galindo y mis
amigos más entrañables. A mis hijos Ana y Toño, lo mismo que a Isabel, les debo mi
agradecimiento más profundo por su paciencia infinita, su inmenso cariño y su alegría de
vivir. Sin ellos y sin todo el amor de mis añorados padres nada hubiera sido posible. A ellos
dedico el esfuerzo aquí vertido.

PREFACIO

En una cultura como la nuestra, donde la ciencia ocupa un lugar preponderante y


donde además se cultiva la capacidad de reflexión y la autocrítica, resulta imprescindible el
estudio de los procesos de cambio y desarrollo del conocimiento científico. Esta necesidad
de comprender la dinámica de la ciencia obedece a factores que abarcan desde cuestiones
muy prácticas, como el interés en diseñar políticas adecuadas de investigación, hasta
motivaciones puramente teóricas, como es elucidar la naturaleza y el alcance del
conocimiento humano.
El propósito de este libro es abordar los problemas conceptuales que plantea el
desarrollo de la ciencia, a través de un estudio detallado del modelo propuesto por uno de
los autores más discutidos e influyentes del siglo XX: Thomas S. Kuhn. La estructura de las
revoluciones científicas, su texto más conocido, constituye el punto de partida de una
nueva manera de entender la ciencia. Hasta hace unos treinta años nadie hubiera puesto
en duda que la actividad científica consiste en realizar experimentos, reunir datos,
explicarlos por medio de hipótesis teóricas simples, progresando así racionalmente hacia la
verdad. La crítica de Kuhn a esta imagen de la ciencia vino a poner en tela de juicio sus
supuestos más básicos, entre ellos el carácter neutral de la observación, la noción de una

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 2
3

verdad absoluta, la elección de teorías como una actividad gobernada por principios
autónomos y universales de racionalidad, y la añeja idea de que la filosofía de la ciencia
tiene una función exclusivamente normativa. El modelo alternativo que elabora Kuhn,
donde la preocupación por dar cuenta de los procesos de cambio científico pasa a ocupar
el lugar central, prescinde de todos esos supuestos tradicionalmente arraigados.
El impacto de las revolucionarias ideas de este autor se ha dejado sentir en los
diversos campos donde se estudia la empresa científica. Sus puntos de vista han sido el
punto focal de fuertes controversias no sólo entre los filósofos sino también entre los
historiadores, los psicólogos y los sociólogos de la ciencia, ya que su modelo toma en serio
el carácter complejo y multifacético de esta empresa cognitiva. De hecho, la inmensa
mayoría de los análisis de la ciencia que se han realizado en los últimos años, desde las
perspectivas teóricas más diversas, hacen constante referencia a las tesis kuhnianas, ya
sea para adoptarlas, objetarlas o modificarlas. De aquí que un examen de estas tesis,
además del interés que puede tener para quienes trabajan en el campo de la epis-
temología y la metodología, resulte un buen punto de partida para comprender y aquilatar
el cúmulo de estudios de distinta índole generados en fechas recientes. Por otra parte,
también puede servir como una guía útil para aquellos científicos y estudiantes de ciencias
que se preocupan por reflexionar críticamente sobre su quehacer.
El análisis que aquí se hace del modelo de Kuhn se centra en sus implicaciones de
carácter filosófico. Se destaca, sobre todo, la transformación que este modelo ha
producido en la manera de analizar las formas en que se conduce la investigación y se
evalúan sus resultados, así como en la manera de establecer la relación entre la ciencia y
el mundo. El eje que vertebró los análisis de Kuhn sobre el cambio científico, la tesis de
inconmensurabilidad, obligó a replantear el problema de la comparación y elección de
teorías, renovando con ello la discusión sobre la racionalidad científica. También introdujo
un enfoque relativista en el ámbito de las ciencias naturales, hasta entonces considerado
como un territorio independiente de las diversas perspectivas locales. Pero además dicha
tesis imprimió un nuevo impulso en la vieja polémica sobre el realismo -sobre las
relaciones entre nuestro conocimiento y la realidad-, así como sobre el espinoso problema
de la verdad. Estas repercusiones son objeto de especial atención a lo largo del presente
estudio.
Como la intención es que este libro resulte accesible tanto a estudiantes como a
lectores no especializados en el tema, se ha procurado que la presentación de los
problemas y conceptos centrales proporcione al lector el marco teórico que requiere el
análisis de la dinámica científica, así como los antecedentes que permiten enmarcar la
perspectiva kuhniana. Aunque también hay que señalar que uno de los objetivos
perseguidos es llegar al estado actual de la discusión, al menos en algunas de las
cuestiones más debatidas en torno al problema del cambio en la ciencia.
También cabe advertir que aquí se presenta una reconstrucción del pensamiento de
Kuhn que difiere, en aspectos básicos, de una buena parte de las interpretaciones usuales.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 3
4

Si bien se reconoce el hecho de que, como en todo pensamiento original y creativo, las
ideas de este autor sufrieron una notable evolución, sin embargo el interés no ha sido
rastrear sus posibles tensiones o inconsistencias, sino destacar los ejes de continuidad que
permiten una mejor comprensión de su perspectiva teórica. Por ello se ha hecho especial
hincapié en los textos posteriores a La estructura, menos conocidos, donde Kuhn
desarrolla e intenta precisar sus intuiciones originales. Aunque ciertamente se argumenta
en favor de la plausibilidad de la presente reconstrucción, se deja al lector la tarea de
aquilatarla frente a interpretaciones alternativas e incluso contrapuestas.
El trabajo resultante es en parte una reflexión sobre Kuhn, y en parte una reflexión
a partir de Kuhn. En este sentido, los capítulos se pueden dividir básicamente en dos
grupos: los cuatro primeros intentan ser una exposición argumentada y sistemática de las
tesis centrales de este autor, mientras que los cuatro restantes intentan desarrollar las
principales consecuencias metodológicas, epistemológicas y ontológicas de dichas tesis. EL
primer capítulo sirve de hecho como una introducción general a los propósitos de este
libro, ya que en él se exponen las divergencias de fondo entre la concepción tradicional de
la ciencia y la concepción alternativa que Kuhn contribuye a conformar. Y en el último
capítulo, donde se ofrece una visión panorámica de otros modelos del cambio científico, se
delinean las principales tendencias en la discusión reciente en este campo de investigación.
Por último, cabe señalar que algunos de los materiales aquí contenidos han sido
publicados en versiones previas, la mayoría de las cuales han resultado modificadas -a
veces de manera considerable- a raíz de comentarios críticos, o bien debido a su inserción
en la estructura de este trabajo. Las referencias de los materiales que se han retomado se
hacen a lo largo del texto.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 4
5

I. THOMAS S. KUHN Y LA "NUEVA" FILOSOFÍA DE LA CIENCIA

LA NUEVA FILOSOFÍA DE LA CIENCIA FRENTE A LA TRADICIÓN

Una de las principales razones de que en el siglo XX Se haya desarrollado una


disciplina filosófica específica, la filosofía de la ciencia, la encontramos en el supuesto de
que la ciencia se distingue del resto de actividades culturales por haber adquirido un
método especial, "el método científico", el cual constituye un modo privilegiado de conocer
el mundo. Hasta los años cincuenta, dentro de la tradición anglosajona, los filósofos de la
ciencia compartieron la idea de que los sorprendentes logros científicos -especialmente los
de la física- se alcanzaban gracias a la aplicación de un poderoso conjunto de principios o
reglas, tanto de razonamiento como de procedimiento, que permitían evaluar ob-
jetivamente las hipótesis y teorías que se proponen en la actividad científica. Se pensaba
que el método constituido por dichas reglas ofrecía, por decirlo así, un riguroso control de
calidad de las hipótesis y teorías, junto con una forma de calibrar su éxito, que permitía a
los científicos decidir con total acuerdo sobre su aceptación o rechazo. De aquí que la tarea
central de la filosofía de la ciencia se haya concebido como la de formular con precisión las
reglas del método que garantizaban la correcta práctica científica y el auténtico
conocimiento. En otras palabras, el objetivo era codificar las reglas metodológicas que
encerraban el núcleo de la racionalidad científica.
Esta idea general sobre el método científico, común a las dos corrientes que
conforman la filosofía "clásica" de la ciencia: el empirismo lógico y el racionalismo crítico,
resulta severamente cuestionada -en los años sesenta- por una serie de concepciones que
responden al interés por explicar cómo, de hecho, la ciencia cambia y se desarrolla. Estas
concepciones surgen, por tanto, de una reflexión filosófica muy ligada a los análisis
históricos de la práctica científica. Si bien es cierto que los autores de las primeras
concepciones altemativas -entre los que destacan Norwood Hanson, Paul Feyerabend,
Stephen Toulmin y, sobre todo, Thomas Kuhn- provienen de diversos campos y corrientes
de pensamiento, todos ellos coinciden en poner en duda la existencia de un conjunto de
reglas metodológicas del tipo que los filósofos clásicos habían estado buscando. Es
entonces cuando comienza a perder su carácter hegemónico el supuesto de que la ciencia
debe su enorme éxito a la aplicación de un método universal.
El movimiento de los años sesenta ha sido identificado de varios modos: nueva
filosofía de la ciencia, corriente historicista, teoreticismo, análisis de las cosmovisiones e,
incluso, filosofía blanda de la ciencia. La denominación de "nueva filosofía de la ciencia",
que persiste en la actualidad, destaca simplemente su oposición a las tesis básicas tanto
del empirismo lógico como del racionalismo crítico, que ahora se consideran las
concepciones clásicas o tradicionales. El calificativo de "corriente historicista" obedece a
que en este enfoque la atención se concentra en la dinámica del proceso mediante el cual
cambia y evoluciona el conocimiento científico, más que en la estructura lógica de sus

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 5
6

resultados. En opinión de los nuevos filósofos, el análisis del desarrollo del conocimiento
exige tener en cuenta el modo como de hecho se trabaja en la ciencia, y sólo la
investigación histórica nos puede dar esa información. En consecuencia se otorga primacía,
como instrumento de análisis, a los estudios históricos frente a los análisis lógicos. EL
escaso uso de herramienta formal, característico de este enfoque, es lo que le ha valido el
título de "filosofía blanda de la ciencia".
La denominación de "teoreticistas" responde a otra de las tesis que comparten los
nuevos filósofos: toda observación, y en general toda experiencia, está "cargada de
teoría". No hay observaciones puras, neutras, independientes de toda perspectiva teórica.
En lugar de suponer que las observaciones proporcionan la base firme, los datos
absolutamente estables contra los cuales se ponen a prueba las teorías, se intenta mostrar
que los marcos teóricos contribuyen en buena medida a determinar qué es lo que se
observa. También se considera que la importancia de los datos varía en función de las
distintas perspectivas teóricas. Aunque desde luego se reconoce el papel central que tiene
la experiencia en la adquisición de conocimiento, se enfatiza que la mayor parte de la
investigación científica consiste en un intento por comprender la naturaleza en términos de
algún marco teórico presupuesto.
Estos dos aspectos, el enfoque histórico (contra la primacía del análisis lógico) y el
acento en el carácter teórico de la investigación (contra la existencia de una base empírica
neutral), conducen al cuestionamiento de la tajante distinción entre "contexto de des-
cubrimiento" y "contexto de justificación", distinción que está en el núcleo de las
concepciones clásicas. Pero sobre todo, conducen a la idea de que para entender qué es el
conocimiento -tarea de la epistemología- no basta considerar el "contexto de justificación".
Hans Reichenbach, uno de los principales representantes del empirismo lógico, quien en
1938 introdujo la distinción bajo esa nomenclatura, pretende marcar la diferencia entre los
procesos por los cuales los individuos llegan a concebir o descubrir nuevas hipótesis, y los
procesos por los cuales dichas hipótesis se evalúan y se justifican ante la comunidad de
especialistas. Las cuestiones que atañen a la racionalidad sólo se plantean en el segundo
contexto, el de la justificación o validación. Los factores involucrados en la producción
creativa de una idea son irrelevantes para la cuestión de si tenemos buenas razones para
aceptar o rechazar esa idea; dichos factores pueden ser estudiados por los psicólogos,
sociólogos, historiadores, biógrafos, etc., pero los resultados de esos estudios no son de
interés para la filosofía de la ciencia.
Reichenbach afirma que la epistemología -a la que identifica con la filosofía de la
ciencia- se distingue de la psicología en que la primera "intenta reconstruir los procesos de
pensamiento como deberían suceder si han de ser ordenados en un sistema coherente"
(Reichenbach, 1938, p. 5). Esto es, se busca reemplazar los procesos de pensamiento que
de hecho ocurren por series de pasos lógicamente justificados que conduzcan al mismo
resultado; la epistemología trabaja entonces con "sustitutos lógicos" más que con procesos
de pensamiento efectivos. Por tanto, afirma este autor, "nunca será una objeción

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 6
7

permisible a una construcción epistemológica el que el pensamiento efectivo no se


conforme a ella" (ibid., p. 6). Esta reconstrucción lógica es, justamente, la reconstrucción
racional del conocimiento, reconstrucción que permite decidir si una hipótesis está
justificada por la evidencia empírica, y en consecuencia si es racional su aceptación.
Desde esta perspectiva clásica, resulta natural que sólo se examinen productos de
la investigación que se consideran terminados. El análisis lógico opera aquí
sincrónicamente, contentándose con "fotografías" del estado final de los sistemas
científicos. Este carácter estático del análisis está íntimamente relacionado con el carácter
universal que se otorga a la reconstrucción racional: al utilizar sólo métodos lógicos se
pretende que los resultados del análisis filosófico de la ciencia tengan una aplicación y
validez generales y, por tanto, un carácter definitivo. El filósofo debe reconstruir la
estructura lógica del lenguaje científico, de las leyes, de las teorías, de las explicaciones
que éstas ofrecen, así como la estructura de las relaciones de justificación entre las
hipótesis y la evidencia. Como señala Wolfgang Stegmüller, la idea era que "con métodos
lógicos sólo se puede llegar a aseveraciones válidas para todas las ciencias posibles"
(Stegmüller, 1973, p. 19). De esta manera, la atención exclusiva en la reconstrucción
lógica eliminaba del ámbito filosófico, como cuestiones no pertinentes, los procesos de
producción y desarrollo de los resultados científicos, así como la posible influencia de
"factores externos" -que no sean de tipo experimental o lógico- en la aceptación de dichos
resultados. Este conjunto de cuestiones se consideró como parte del contexto de
descubrimiento, contexto que era de la competencia de la historia, la psicología, la
sociología o la pragmática de la ciencia.
La distinción de contextos, así como la exclusiva importancia epistemológica del
contexto de justificación, fueron defendidas no sólo por los empiristas lógicos, cuyo
principal líder fundador es Rudolf Carnap, sino también por los racionalistas críticos en-
cabezados por Karl Popper. Si bien es cierto que las diferencias entre el empirismo lógico y
el racionalismo crítico son muchas y muy importantes -diferencias que incluso los
colocaron como enfoques rivales-, también es cierto que presentan acuerdos de fondo.
Pero sólo cuando surgió un enfoque radicalmente divergente, dentro de la misma tradición
anglosajona de pensamiento, se pudieron poner de relieve esos acuerdos básicos. Es decir,
la situación que prevalecía antes del surgimiento de la nueva filosofía de la ciencia podía
hacer pensar que coexistían dos concepciones básicamente distintas; sin embargo, el
contraste que establece la nueva perspectiva resalta los acuerdos de fondo entre las con-
cepciones clásicas, a la vez que permite acotar sus diferencias específicas. Como señala
Ian Hacking refiriéndose a Carnap y a Popper, "ellos discrepaban en mucho pero sólo
porque estaban de acuerdo en lo básico" (Hacking, 1983, p. 3).
En cuanto a las diferencias entre estos dos filósofos clásicos, la más importante se
encuentra precisamente en la manera de concebir y reconstruir el método científico.
Carnap defiende un método de justificación de tipo inductivo: partiendo de los enunciados
de observación, que son la base segura (el fundamento) de nuestro conocimiento,

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 7
8

debemos establecer qué tan bien confirmada (justificada) queda una hipótesis de
aplicación más general. El problema de caracterizar formalmente la confirmación es, para
Carnap, el problema de construir una lógica de tipo inductivo que permita establecer qué
tanto apoyo (justificación) presta la evidencia empírica a las hipótesis generales. Se trata
entonces de formular un algoritmo que permita determinar, de acuerdo con los datos
disponibles, el grado preciso de justificación de cualquier hipótesis general. Este grado
indicaría la medida de la confianza que es razonable tener en una hipótesis.
La búsqueda de una lógica inductiva ha sido históricamente la vía más transitada en
el intento de formular las reglas de evaluación de las hipótesis científicas; sin embargo,
también han proliferado las objeciones a los distintos intentos. En el siglo XVIII, David
Hume, quien suponía que la existencia de una liga necesaria entre premisas y conclusión
era un requisito de todo argumento racional, afirmaba que no tenemos ninguna base para
aceptar los argumentos inductivos, ya que en ellos siempre es posible que las premisas
sean verdaderas y falsa la conclusión. En el siglo XIX, John Stuart Mill, quien estaba
convencido de que existían reglas para la inducción correcta, consideraba que el hecho de
que los lógicos no hubieran logrado formularlas explica que en ocasiones aceptemos
generalizaciones basadas en inducciones incorrectas. En el siglo XX, dentro del programa
del empirismo lógico, se abandona la exigencia de consecuencia necesaria para los
argumentos inductivos; se trata ahora de precisar el sentido o el grado, según el carácter
cualitativo o cuantitativo del análisis, en que la evidencia disponible confirma una hipótesis.
Dentro del análisis cuantitativo de la confirmación se ha recurrido a la teoría matemática
de la probabilidad, y también a una variante del enfoque probabilista basada en el teorema
de Bayes. Sin embargo, el problema de evaluar el grado de probabilidad que un cuerpo de
evidencia confiere a una hipótesis universal, problema que ocupó a Carnap hasta sus
últimos años, continúa siendo objeto de investigación (cf. Carnap, 1951; un tratamiento
clásico de la confirmación, de tipo cualitativo, es el de Hempel, 1945; una clara exposición
de las dificultades que enfrentan las lógicas inductivas se puede ver en Brown, 1988; un
examen de la evolución del análisis de la confirmación se encuentra en Pérez Ransanz,
1985b).
Popper, por su parte, es uno de los filósofos más convencidos de que el problema
de la inducción es irresoluble. Argumenta ampliamente que la inducción no puede ser un
método de justificación, y subraya que los enunciados que describen nuestras
observaciones también son corregibles, y en consecuencia no constituyen ningún
fundamento último de nuestro conocimiento, como pensaban los empiristas. Tampoco cree
que sea posible establecer fundamentos a priori, como suponían los racionalistas
tradicionales. La racionalidad, según Popper, no requiere de puntos de partida
incuestionables -pues no los hay-; se trata solamente de una cuestión de método: la
ciencia es una empresa racional porque la racionalidad reside en el proceso por el cual
sometemos a crítica y reemplazamos nuestras creencias. Frente al fracaso de los diversos
intentos por encontrar un algoritmo que nos permita decidir -de manera efectiva- cuándo

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 8
9

debemos aceptar una hipótesis, Popper propone en cambio una serie de reglas
metodológicas que -a su juicio- nos permiten decidir cuándo debemos rechazarla.
La piedra de toque de la metodología popperiana está en la regla lógica del modus
tollens. Esta regla da lugar a inferencias estrictamente deductivas -las únicas seguras- que
permiten establecer la falsedad de hipótesis universales a partir de enunciados sobre
hechos singulares. Popper reconstruye el método científico como un método de conjetura
y refutación: se propone una conjetura (hipótesis) arriesgada de gran alcance, y se
deducen consecuencias observables que se ponen a prueba; si alguna de estas
consecuencias falla, la conjetura ha quedado refutada y debe rechazarse; en caso
contrario, se repite el proceso considerando otras consecuencias contrastables. Cuando
una hipótesis ha sobrevivido, a diversos intentos de refutación, se dice que está
"corroborada" pero esto no nos autoriza a afirmar que ha quedado justificada por la
evidencia empírica. La racionalidad de nuestras creencias no depende de su corroboración,
sino del estar siempre sujetas a revisión y expuestas a la refutación (cf. Popper, 1935,
capítulos 1 a 5; y 1963, capítulo 10).
Ahora bien, a pesar de las fuertes diferencias apuntadas, el empirismo lógico y el
racionalismo crítico coinciden, en primer lugar, en su objetivo básico: se trata de destilar lo
esencial del método científico y justificar nuestra confianza en él. En ambas concepciones
se supone que la pregunta por las reglas metodológicas -aquellas que garantizan la
correcta práctica científica y el auténtico conocimiento- conduce a los cánones universales
de racionalidad. Esto es, se parte de la idea de que en la situación de evaluación de
hipótesis todos los sujetos que manejan la misma evidencia (información) deben llegar a la
misma decisión, si proceden racionalmente. La racionalidad se concibe, entonces, como
enclavada en reglas de carácter universal, las cuales determinan las decisiones científicas;
el énfasis se pone en las relaciones lógicas que conectan las hipótesis con la evidencia, y
se minimiza el papel de los sujetos.
En cuanto a las tesis que configuran la concepción de ciencia que también
comparten los filósofos clásicos, se destacan las siguientes: 1) hay un criterio general de
demarcación que permite identificar lo que cuenta como ciencia; 2) es posible distinguir
con nitidez la teoría de la observación, y siempre existe una base de observación
relativamente neutral frente a hipótesis alternativas; 3) el desarrollo del conocimiento
científico es progresivo en el sentido de que tiende hacia la teoría correcta del mundo; 4)
las teorías científicas tienen una estructura deductiva bastante rígida; 5) los términos
científicos son definibles de manera precisa; 6) todas las ciencias empíricas, tanto
naturales como sociales, deben emplear básicamente el mismo método, y 7) hay una
distinción fundamental entre contexto de descubrimiento y contexto de justificación, y sólo
el segundo es importante para dar cuenta del conocimiento científico.
Esta lista condensa la concepción tradicional que constituyó el blanco de ataque del
movimiento filosófico de los años sesenta. La imagen de la ciencia como algo que a fin de
cuentas está fuera de la historia, y que gracias a su método resulta ser independiente de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 9
10

los sujetos que la producen -de sus intereses, prácticas, supuestos, condicionamientos,
interacciones, etc.- provocó la reacción de reivindicar la dimensión histórica, social y
pragmática de la empresa científica, y de explorar su impacto en la dimensión
metodológica.
Así, autores como Toulmin y Hanson parten de la idea de que para comprender una
teoría científica es necesario tomar en cuenta tanto aquello que se intenta resolver con
ella, su uso, como su proceso de evolución. No basta con reconstruir lógicamente teorías
que se consideran suficientemente desarrolladas. El análisis de una teoría debe tomar en
cuenta, de manera primordial, que la ciencia siempre se hace desde alguna perspectiva
determinada, desde cierta forma de ver e interactuar con el mundo, y esto significa que
"no hay una ciencia libre de presupuestos", una ciencia que se desarrolle en un aséptico
vacío de compromisos. De aquí el nombre de "análisis de las cosmovisiones” que también
ha recibido este enfoque alternativo.
Las teorías científicas se generan y desarrollan, siempre, dentro de un marco de
investigación más comprehensivo, un marco que abarca diversos tipos de compromisos o
supuestos básicos que comparte la comunidad de especialistas en un campo. De aquí que
las teorías no puedan cumplir el papel de unidades básicas de análisis en el estudio de la
ciencia -papel que les habían asignado los filósofos clásicos-, y se introduzcan unidades de
análisis más complejas, como son los marcos de compromisos o presupuestos. Un marco
de investigación comprende, para empezar, compromisos de tipo pragmático: cuál es el
interés en construir determinadas teorías y lo que se espera de ellas, es decir, qué
problemas deben resolver y a qué campo de fenómenos se pretenden aplicar. También
comprende compromisos de carácter ontológico: qué tipo de entidades y procesos se
pueden postular como existentes en el dominio de investigación; compromisos de carácter
epistemológico: a qué criterios se deben ajustar las hipótesis -que se proponen como
solución a problemas- para calificar como conocimiento; así como compromisos sobre
cuestiones de procedimiento: qué técnicas experimentales y qué herramientas formales se
consideran más adecuadas o confiables. El marco condiciona, incluso, la manera de
conceptualizar la experiencia y clasificar los fenómenos, ya que ante todo implica el
compromiso con un determinado esquema conceptual -sistema de categorías- y un
conjunto de principios teóricos (de aquí la oposición al supuesto de una base empírica
neutral).
Ahora bien, otra idea clave de este enfoque alternativo es que los marcos generales
de investigación también cambian. Si bien es cierto que de acuerdo con los distintos
autores estas unidades de análisis adquieren características peculiares y nombres dife-
rentes: paradigmas, programas de investigación, tradiciones científicas, teorías globales,
cosmovisiones, etc., también es cierto que todos ellos coinciden en que los
acontecimientos más importantes de la historia de la ciencia son aquellos que involucran
cambios en los marcos que guían la investigación en una disciplina. De aquí la
preocupación, que ha llegado a ser la preocupación central de muchos filósofos de la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 10
11

ciencia, por proponer modelos de desarrollo que den cuenta de los cambios más
profundos, y a más largo plazo, en el nivel de los compromisos básicos (o presupuestos)
de las comunidades científicas. Esto es, se vuelve imprescindible explicar el cambio de
paradigmas o marcos generales.
La tesis de que en el desarrollo científico ocurren cambios profundos, cambios que
revolucionan tanto la perspectiva teórica como las prácticas de una comunidad, cuyo
defensor más destacado es Thomas S. Kuhn, es una tesis que surge de la investigación
histórica. Kuhn intenta mostrar, con base en el estudio de casos de la historia de la ciencia,
la incapacidad de las metodologías ofrecidas hasta entonces -tanto inductivistas como
deductivistas- para explicar los grandes logros científicos. Este autor encuentra que buena
parte del proceder científico viola las reglas metodológicas propuestas tanto por los
empiristas lógicos como por los racionalistas críticos, y que ello no ha impedido el éxito de
la empresa científica. Esta objeción de falta de adecuación histórica revela un claro
desacuerdo con el carácter normativo del análisis metodológico, es decir, con la idea de
que la filosofía se ocupa de especificar cómo se debe hacer ciencia. Se establece entonces
la famosa controversia entre quienes consideran (los nuevos filósofos) que el objetivo es
entender la estructura del desarrollo científico y explicar los cambios que en él se generan,
y quienes consideran (los filósofos clásicos) que el objetivo es codificar los criterios y
procedimientos, de carácter universal, que regulan la correcta práctica científica.
Desde su perspectiva histórica, los nuevos filósofos encuentran que tanto los
criterios de evaluación de hipótesis como las normas de procedimiento también se
modifican con el desarrollo de las distintas tradiciones científicas. Esto es, los cambios en
los marcos de investigación-dentro de los cuales se desarrollan las teorías- implican
también cambios en los métodos. Pero entonces, si los métodos no son fijos ni
universalizables, una teoría acerca de la ciencia (que incluye una metodología) tiene que
poder dar cuenta de su evolución y diversidad. De aquí que la tarea se conciba ahora como
la de construir modelos de la dinámica científica que permitan explicar el cambio no sólo
en el nivel de las hipótesis y teorías (el nivel de los contenidos), sino también en el nivel de
los procedimientos experimentales y los criterios de evaluación (el nivel de los métodos).
Este profundo viraje en la manera de concebir el quehacer metodológico viene
acompañado de una aproximación distinta al problema de la racionalidad. En un enfoque
como éste, la vía para abordar el problema de la racionalidad científica es la investigación
empírica de sus mecanismos y resultados a través del tiempo. Los principios normativos y
evaluativos se deben extraer del registro histórico de la ciencia exitosa, en lugar de
importarlos de algún paradigma epistemológico preferido -sea de corte inductivo o
deductivo- y tomarlos como la base de "la reconstrucción racional", a priori, de la ciencia.
A este respecto, vale la pena citar extensamente el testimonio de Carl Hempel -uno
de los representantes más brillantes y creativos del empirismo lógico- sobre su encuentro
con las tesis de Kuhn. Este testimonio deja en claro el cambio de perspectiva que introdujo
Kuhn en la filosofía de la ciencia.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 11
12

Cuando conocí a Tom Kuhn en 1963, en el Centro para Estudios Avan-


zados en las Ciencias de la Conducta, me acerqué a sus ideas con desconfiada
curiosidad. Mis concepciones en aquel tiempo estaban fuertemente influidas por
el antinaturalismo de Carnap, Popper y pensadores afines pertenecientes o
cercanos al Círculo de Viena, quienes sostenían que la tarea propia de la
metodología y la filosofía de la ciencia era proporcionar "elucidaciones" o
"reconstrucciones racionales" de la forma y función del razonamiento científico.
Tales elucidaciones debían suministrar las normas o criterios de racionalidad
para el seguimiento de la investigación científica, y debían ser formulados con
rigurosa precisión mediante el aparato conceptual de la lógica [...]. El
acercamiento de Kuhn a la metodología de la ciencia era de una clase
radicalmente diferente: se dirigía a examinar los modos de pensamiento que dan
forma y dirigen la investigación, la formación y el cambio de teorías en la
práctica de la indagación científica pasada y presente. En cuanto a los criterios
de racionalidad propuestos por el empirismo lógico, Kuhn adoptó el punto de
vista de que si esos criterios tenían que ser infringidos aquí y allá, en instancias
de investigación que eran consideradas como correctas y productivas por la
comunidad pertinente de especialistas, entonces más nos valía cambiar nuestra
concepción sobre el proceder científico correcto, en lugar de rechazar la
investigación en cuestión como irracional. La perspectiva de Kuhn consiguió
atraerme cada vez más (Hempel, 1993, pp. 7-8).

También cabe mencionar que fue nada menos que el propio Carnap, como editor
asociado de la International Encyclopedia of Unified Science, quien recomendó con gran
entusiasmo la publicación de La estructura de las revoluciones científicas, el libro de Kuhn
que representa el parteaguas en el desarrollo de la filosofía de la ciencia. Lo cual no es
más que otra muestra de la aguda visión y gran capacidad de autocrítica por las que
siempre se distinguió este autor.
Hasta aquí hemos presentado en forma muy somera las tesis que constituyen el
principal común denominador de la "nueva" filosofía de la ciencia, planteando su
surgimiento por contraposición al núcleo de las concepciones clásicas. El propósito ha sido
bosquejar el ámbito de problemas y discusiones que, en buena medida, Kuhn contribuyó a
conformar, y dentro del cual está inserta su obra. En este primer acercamiento se ha
procurado destacar el sentido y la importancia que adquiere, bajo el nuevo enfoque, la
construcción de modelos que den cuenta del cambio científico, especialmente en el nivel
metodológico. Desde luego, cada una de las cuestiones mencionadas en esta sección intro-
ductoria tendrán que ser analizadas con mayor detenimiento.

“LA ESTRUCTURA DE LAS REVOLUCIONES CIENTÍFICAS”

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 12
13

Se puede afirmar, sin lugar a dudas, que el libro de Kuhn La estructura de las
revoluciones científicas (ERC, en adelante) es uno de los trabajos académicos más
influyentes de las últimas décadas. Una clara medida de su impacto social la da el hecho
de que desde su publicación, en 1962, se hayan vendido alrededor de un millón de
ejemplares, incluyendo sus traducciones a diecinueve idiomas. Otro indicador de este
impacto es la cantidad, prácticamente inmanejable, de bibliografía secundaria a que ha
dado lugar. También resulta revelador el que términos centrales característicos de este
texto, tales como ‘paradigma', 'ciencia normal' y 'revolución científica' hayan pasado a
formar parte del vocabulario corriente no sólo entre los estudiosos de la ciencia sino en las
mismas comunidades científicas, e incluso en medios menos académicos.
Analizada esta obra en perspectiva histórica, se puede ver que varias de las tesis
que ahí se defienden habían sido anticipadas por autores como P. Duhem, A. Koyré, E.
Meyerson, L. Fleck, B. L. Whorf, M. Polanyi, W. V. Quine y N. R. Hanson, entre otros. Sin
embargo, el gran mérito de Kuhn es haberlas articulado, junto con sus tesis más
originales, en una concepción global donde cristaliza una nueva imagen de la ciencia. La
agudeza, el vigor y la amplia documentación de los análisis kuhnianos, junto con sus
aportaciones de indudable originalidad, marcaron una nueva pauta en el estudio de la
empresa científica.
Al referirse al impacto profesional de ERC, Richard Bernstein afirma: "Es como si
Kuhn hubiera tocado un nervio intelectual muy sensible, y sería difícil nombrar otro libro
publicado en las últimas décadas que haya resultado, a la vez, tan sugerente y provocador
para pensadores de casi todas las disciplinas, así como tan persistentemente atacado y
criticado, con frecuencia desde perspectivas antitéticas" (Bernstein, 1983, p. 21). En
cuanto a la suerte que ha corrido la concepción plasmada en ERC, a partir de su
publicación, Bernstein atinadamente le aplica la aguda descripción que hace William James
de las distintas etapas en la carrera de una teoría: "Primero, ustedes saben, una nueva
teoría es atacada como absurda; luego se admite que es verdadera, pero obvia e
insignificante; finalmente se considera tan importante que sus adversarios afirman que
ellos mismos la descubrieron" (citado en íbid., p. 51). En efecto, algo muy similar le ha
sucedido a la teoría de la ciencia propuesta por Kuhn en ERC. Después de la primera
reacción virulenta de sus críticos -algunos de los cuales llegaron a caricaturizar sus tesis-,
autores más moderados comenzaron a reconocer que no sólo no se trataba de ideas
descabelladas, sino de ideas para las cuales existía fuerte evidencia en su favor. Fi-
nalmente encontramos el indicador más claro de su impacto intelectual: el hecho de que
muchos de los estudiosos de la ciencia más destacados en la actualidad -algunos de los
cuales fueron originalmente duros críticos de Kuhn- hayan incorporado en sus teorías
elementos característicos de la concepción kuhniana. Este sería el caso de los modelos de
desarrollo propuestos por I. Lakatos, S. Toulmin, D. Shapere, W. Stegmüller, L. Laudan y
P. Kitcher, por mencionar sólo algunos de los más importantes.
Al referirnos a ERC no podemos dejar de señalar que si bien en ella se configura la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 13
14

primera versión global de una concepción alternativa de la ciencia, se trata también de una
obra embrionaria que deja sobre la mesa de discusión una buena cantidad de problemas
sin resolver (como sucede con toda obra pionera que abre nuevos horizontes). Sin
embargo, hay que decir que algunos de esos problemas ni siquiera habían sido
vislumbrados, y otros, a pesar de que tenían una larga historia, reciben una formulación o
un peso específico diferente. Pero lo más importante es que todos esos problemas se
plantean ahora insertos en una nueva red de conexiones y se abordan desde otra
perspectiva. Esto permite afirmar, hablando en términos kuhnianos, que en ERC cuaja un
nuevo paradigma en la investigación sobre la ciencia. Sus planteamientos sobre las
revoluciones científicas constituyen, a su vez, una revolución metacientífica, es decir, una
revolución en el nivel del análisis de la ciencia.
Mucho se ha discutido a qué campo de investigación pertenecen los análisis y tesis
contenidos en ERC: a la epistemología, a la filosofía de la ciencia, a la historia de la ciencia,
a la sociología de la ciencia o a la psicología de la ciencia. Sin embargo, es muy probable
que no se pueda llegar a ningún acuerdo sobre este asunto. La mera discusión muestra
que las ideas de Kuhn han tenido incidencia y repercusión prácticamente en todos los cam-
pos donde se estudia el fenómeno científico, lo cual no es de extrañar si se advierte que
una de las peculiaridades de su análisis es, justamente, poner de relieve la naturaleza
compleja y polifacética de este fenómeno. De aquí que los intentos por encasillar el trabajo
de Kuhn parezcan destinados al fracaso.
Lo que sí se puede afirmar, a juzgar por la magritud y el tipo de reacción, es que la
comunidad que resultó más sacudida fue la de los filósofos de la ciencia. La recepción que
tuvo ERC en la comunidad filosófica, y lo que ocurrió a continuación, se ajusta en buena
medida a la reconstrucción kuhniana de las etapas de cambio revolucionario. Como afirma
Hacking, inspirado en Nietzsche, los filósofos anteriores a Kuhn habían hecho de la ciencia
una "momia", pues suele suceder que cuando los filósofos quieren mostrar su respeto por
algo tienden a deshistorizarlo (cf. Hacking, 1983, p. 1). Era de esperar entonces que
cuando Kuhn proclama -en el capítulo introductorio de ERC- que la ciencia es fundamental-
mente un fenómeno histórico, se generara una crisis en los cimientos de la filosofía
tradicional de la ciencia.
También cabe decir que no pocos de los planteamientos hechos en ERC son
ambiguos o insuficientes; que la retórica ahí empleada da lugar con frecuencia a
interpretaciones equivocadas, y que hasta la fecha no hay acuerdo sobre el contenido de
sus tesis básicas. Kuhn mismo, a pesar de haber lamentado la cantidad de lecturas
distorsionadas de esta obra (cf Kuhn, 1993a, p. xi), no dejó de reconocer su parte de
responsabilidad en el asunto y emprendió -desde los primeros embates- la tarea de
precisar y desarrollar sus planteamientos originales. De todos modos, una lectura atenta
que persiga comprender las intuiciones básicas y los `núcleos de verdad" que encierra ERC
sabrá valorar la riqueza de problemas y líneas de investigación que generó esta visión más
compleja, más flexible, más cercana a la práctica científica y a su historia, contra el

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 14
15

trasfondo de las concepciones tradicionales.


Por último, es importante observar que la teoría del cambio científico que Kuhn
presenta en ERC está respaldada por su práctica como científico en el campo de la física
(que transcurre en los años cuarenta), pero sobre todo por su trabajo como historiador de
la ciencia (que se inicia en 1947). Sin embargo, la ineludible tarea de clarificar las tesis
centrales de ERC lo llevó a internarse cada vez más en el análisis filosófico, con una
atención creciente en los problemas semánticos, ontológicos, metodológicos y epis-
temológicos que plantean los procesos de cambio y desarrollo científico. Es así como la
trayectoria intelectual de Kuhn fue incorporando su experiencia como científico, historiador
y filósofo.

PRESENTACIÒN ESQUEMÁTICA DEL MODELO KUHNIANO

La siguiente formulación del modelo de Kuhn intenta ofrecer una visión de conjunto
que permita ubicar, a la manera de un mapa, los análisis más detallados que se hacen en
los siguientes capítulos. Esta presentación se basa en la versión original del modelo, como
se expone en ERC, incorporando algunas precisiones que hace Kuhn en la "Posdata-1969"
y en la primera respuesta que da a sus críticos, publicada en 1970. Los posteriores
desarrollos, clarificaciones y modificaciones que sufren sus tesis sobre el cambio científico
no se recogen por ahora. Con esta presentación sólo se pretende un primer acercamiento
intuitivo a las tesis kuhnianas, de aquí que se omitan las referencias textuales.
En una visión de conjunto de este modelo lo primero que se destaca es el siguiente
supuesto básico: las diversas disciplinas científicas se desarrollan de acuerdo con un patrón
general. Esto es, como el propio Kuhn afirma en ERC, su modelo intenta describir "la
estructura esencial de la continua evolución de una ciencia". Esta estructura se refleja en
una serie de fases o etapas por las que atraviesa toda disciplina científica a lo largo de su
desarrollo.
Dicho patrón o estructura general comienza con una etapa "preparadigmática", en
la cual coexisten diversas "escuelas" que compiten entre sí por el dominio en un cierto
campo de investigación. Entre estas escuelas existe muy poco acuerdo con respecto a la
caracterización de los objetos de estudio, los problemas que hay que resolver, las técnicas
y procedimientos que deben utilizarse, etc. Lo característico de esta etapa es que las
investigaciones que realizan los distintos grupos no logran producir un cuerpo acumulativo
de resultados. Este periodo de las escuelas termina cuando el campo de investigación se
unifica bajo la dirección de un mismo marco de supuestos básicos, que Kuhn llama "pa-
radigma". Los investigadores llegan a considerar que uno de los enfoques competidores es
tan prometedor que abandonan los demás, y aceptan ese enfoque como la base de su
propia investigación. Esta transición, que ocurre sólo una vez en la vida de cada disciplina
científica y es por tanto irreversible, crea el primer consenso alrededor de un paradigma y
marca el paso hacia la ciencia madura.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 15
16

Conviene aclarar desde ahora, siguiendo a Kuhn, que el término ‘paradigma' se


utiliza básicamente en dos sentidos: 1) como logro o realización concreta, y 2) como
conjunto de compromisos compartidos. El primer sentido se refiere a las soluciones
exitosas y sorprendentes de ciertos problemas, las cuales son reconocidas por toda la
comunidad pertinente. Estos casos concretos de solución -o aplicación de un enfoque
teórico- funcionan como ejemplos que deben seguirse en las investigaciones subsecuentes.
El segundo sentido se refiere al marco de presupuestos o compromisos básicos que
comparte la comunidad encargada de desarrollar una disciplina científica. Este marco
incluye el compromiso con leyes teóricas fundamentales, con postulaciones de entidades y
procesos, con procedimientos y técnicas experimentales, así como con criterios de
evaluación. La relación entre los dos sentidos de paradigma se podría ver como sigue:
paradigma como conjunto de compromisos compartidos (segundo sentido) es aquello que
presuponen quienes modelan su trabajo sobre ciertos casos paradigmáticos (primer
sentido).
El consenso acerca de un paradigma (segundo sentido) marca el inicio de una etapa
de "ciencia normal". La ciencia normal consiste, básicamente, en una actividad de
"resolución de rompecabezas" (puzzle-solving). A través de esta actividad el enfoque
teórico del paradigma aceptado se va haciendo cada vez más preciso y mejor articulado.
La etapa de ciencia normal es conservadora, pues el objetivo no es la búsqueda de
novedades, ni en el nivel de los hechos ni en el de la teoría. Se trata de desarrollar al
máximo, tanto en alcance como en precisión, el potencial explicativo y predictivo del
enfoque teórico vigente. Los científicos son premiados, como dice Hacking, "por hacer más
de lo mismo" y hacerlo cada vez mejor.
En la investigación normal, el marco de supuestos básicos no se considera
problemático ni sujeto a revisión; se acepta sin discusión. Los fracasos en la resolución de
problemas se toman, regularmente, como falta de habilidad de los científicos y no como
contraejemplos a la teoría vigente. Así, en esta etapa se trabaja todo el tiempo con las
mismas reglas del juego, y esto permite que los resultados se produzcan básicamente en
la misma dirección y sean claramente acumulables. De aquí que el sentido y la medida del
progreso, dentro de cada periodo de ciencia normal, estén bien definidos para la
comunidad de especialistas.
El papel que juegan los paradigmas en tanto logros concretos o soluciones
ejemplares (primer sentido) resulta decisivo en el desarrollo de la investigación normal. Los
científicos resuelven nuevos problemas, identifican nuevos datos y los juzgan como
significativos al reconocer sus semejanzas con los ejemplares paradigmáticos. Por otra
parte, las nuevas generaciones aprenden el significado de los conceptos básicos de una
teoría resolviendo los problemas que corresponden a las soluciones modelo. Estas
soluciones o aplicaciones exitosas muestran la conexión entre la teoría y la experiencia;
muestran cómo ver y manipular la naturaleza desde cierta perspectiva teórica. De aquí que
el contenido cognitivo de una disciplina se encuentre incorporado, sobre todo, en sus

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 16
17

ejemplares paradigmáticos más que en un conjunto de definiciones y reglas explícitamente


formulables. De esta manera, los paradigmas, en los dos sentidos del término, son la guía
imprescindible de la investigación en los periodos de ciencia normal.
Contrariamente a sus propósitos, la investigación normal, con su creciente
especialización y extensión del campo de aplicaciones, conduce tarde o temprano al
planteamiento de problemas ("anomalías") que se resisten a ser resueltos con las
herramientas conceptuales e instrumentales del paradigma establecido. Si bien es cierto
que la adecuación entre teoría y experiencia nunca es total o perfecta -siempre y desde un
principio existen problemas no resueltos-, el surgimiento de ciertas anomalías hace pensar
que algo anda mal en el fondo y que sólo un cambio en los supuestos básicos permitirá
encontrar una solución. Esta etapa en que se pone en duda la eficacia y la corrección del
paradigma vigente es la etapa de "crisis".
Con la crisis comienza la "ciencia extraordinaria", esto es, la actividad de proponer
estructuras teóricas alternativas que implican un rechazo o una modificación de los
supuestos aceptados hasta entonces. En estos periodos en que, como dice Kuhn, "los
científicos tienen la disposición para ensayarlo todo", proliferan las propuestas alternativas,
proliferación que cumple un papel decisivo en el desarrollo de las disciplinas, ya que los
científicos no abandonan un paradigma a menos que exista un paradigma alternativo que
les permita resolver las anomalías. Las crisis se terminan de alguna de las siguientes
maneras: 1) el paradigma en tela de juicio se muestra finalmente capaz de resolver los
problemas que provocaron la crisis; 2) ni los enfoques más radicalmente novedosos logran
dar cuenta de las anomalías, por lo cual éstas se archivan en espera de una etapa futura
donde se cuente con mejores herramientas conceptuales e instrumentales; 3) surge un
paradigma alternativo que parece ofrecer una solución a las anomalías, y comienza la
lucha por lograr un nuevo consenso.
Kuhn describe un cambio de paradigma como una "revolución". Sus tesis sobre el
cambio revolucionario tienen en la mira los modelos tradicionales de evaluación de teorías
(tanto confirmacionistas como refutacionistas), y por ende la noción de racionalidad que
éstos presuponen. Al describir un cambio de paradigma como una revolución, Kuhn está
cuestionando que la elección entre teorías rivales -integradas en paradigmas distintos- sea
una cuestión que pueda resolverse mediante algún procedimiento efectivo (algorítmico) de
decisión. Es decir, se trata de una elección que no se puede resolver apelando sólo a la
lógica y la experiencia neutral (como pretendían los empiristas lógicos), ni tampoco
mediante decisiones claramente gobernadas por reglas metodológicas (como proponen los
popperianos). Las diferencias entre paradigmas alternativos impiden el acuerdo sobre qué
cuenta como un argumento decisivo, sea en favor o en contra de alguna de las teorías en
competencia.
Los cuerpos de conocimientos separados por una revolución son
"inconmensurables", esto es, no son completamente traducibles entre sí, y por tanto no se
pueden comparar de manera directa y puntual mediante algún procedimiento algorítmico.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 17
18

En pocas palabras, no hay una medida común de su éxito. Las diferencias que acompañan
a la inconmensurabilidad son diferencias en los compromisos básicos de los paradigmas:
diferencias en los criterios sobre la legitimidad y el orden de importancia de los problemas;
diferencias en las leyes que se consideran fundamentales; diferencias en la red de
conceptos a través de la cual se estructura el campo de investigación y se organiza la
experiencia; diferencias en los supuestos sobre qué entidades y procesos existen en la na-
turaleza, y diferencias en los criterios de evaluación, es decir, en la manera de aplicar
valores epistémicos tales como simplicidad, consistencia, fecundidad, alcance, etcétera.
Un cambio de paradigma, dice Kuhn en sus primeros escritos, es análogo a un
cambio gestáltico: los mismos objetos se ven desde una perspectiva diferente. Se trata de
una transición a una nueva forma de ver y manipular el mundo e incluso se puede decir
que se trabaja en un mundo diferente: el nuevo paradigma da lugar a nuevos fenómenos y
problemas, algunos de los viejos problemas se olvidan, y algunas soluciones dejan de ser
importantes o incluso inteligibles. Si esto es así, el desarrollo de una disciplina científica, a
través del cambio de paradigmas, no puede ser acumulativo.
Como las diferencias entre paradigmas sucesivos implican ciertos cambios de
significado en los términos básicos de las teorías rivales, y como además no existe una
instancia de apelación por encima de los paradigmas, es decir, un conjunto de reglas
metodológicas universales, en los debates no se puede partir de una base común que
permita probar que una teoría es mejor que otra. Esto es, no puede haber argumentos
concluyentes, argumentos que dicten una y la misma decisión a todos los científicos que
participan en la controversia. De aquí que el único camino que se puede seguir sea el de la
"persuasión": los partidarios de teorías rivales esgrimen argumentos de plausibilidad, es
decir, razones que pudieran convencer a los otros de cambiar su marco de investigación.
La ausencia de argumentos concluyentes hace que no se pueda tachar de ilógico o de
irracional a quien se niegue a aceptar el nuevo paradigma; y por lo mismo, esta aceptación
no ocurre de manera simultánea. Cuando finalmente, después de un proceso de debate y
deliberación, se conforma un nuevo consenso alrededor de uno de los paradigmas,
comienza una nueva etapa de ciencia normal. De esta manera, una vez que una disciplina
científica ha alcanzado la madurez, pasa repetidamente a través de la secuencia: ciencia
normal - crisis - revolución - nueva ciencia normal.
Hasta aquí la descripción esquemática del modelo de Kuhn para el desarrollo
científico, en su primera formulación. Pasemos a un examen más detallado de sus
conceptos y tesis centrales.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 18
19

II. LA CIENCIA NORMAL

NATURALEZA Y FUNCIÓN DE LOS PARADIGMAS

La investigación que se realiza durante un periodo de ciencia normal es aquella que


se lleva a cabo bajo un mismo paradigma o marco de supuestos: "la ciencia a la que he
llamado normal es precisamente la investigación dentro de un marco general" (Kuhn,
1970b, p. 242). Kuhn y Popper están de acuerdo en que "los científicos necesariamente
desarrollan sus ideas dentro de un determinado marco teórico general [...] el trabajo
'normal' de un científico presupone una estructura organizada de supuestos" (Popper,
1970, p. 51). Pero, a diferencia de Popper, Kuhn se preocupó por indagar algo más sobre
la naturaleza y funciones de estos marcos generales que llamó "paradigmas" en ERC, y
"matrices disciplinarias" en la "Posdata-1969".
La razón es que Kuhn necesitaba partir de una unidad de análisis más amplia y más
compleja que las teorías, entendidas a la manera tradicional: "tal como se emplea en la
filosofía de la ciencia el término ‘teoría', da a entender una estructura mucho más limitada
en naturaleza y dimensiones de la que requerimos aquí" (Kuhn, 1969, p. 182; p. 279). * Las
teorías concebidas como meros sistemas deductivos de enunciados -consideradas además
como productos terminados y al margen de las condiciones que las posibilitan y
constriñen- no podían servir como unidades adecuadas en un enfoque donde se persigue
explicar cómo evolucionan las creencias y prácticas científicas, teniendo en cuenta que los
marcos de investigación también cambian. De aquí que Kuhn haya introducido los
paradigmas como unidades de análisis de la empresa científica.
La investigación normal está guiada por un paradigma en los dos sentidos del
término ya apuntados: 1) paradigma como ejemplo de solución exitosa (y sorprendente)
de cierto tipo de problemas, que es reconocido por toda la comunidad pertinente, y 2)
paradigma como conjunto de compromisos compartidos por una comunidad de
especialistas. De acuerdo con el primer sentido, se trata de maneras novedosas de
solucionar con éxito viejos problemas, las cuales implican la utilización de nuevos
conceptos. Estas soluciones sirven como modelo para la siguiente generación de
científicos, quienes tratan de abordar otros problemas siguiendo el mismo patrón. De
acuerdo con el segundo sentido, se trata del marco de supuestos que se aceptan sin
discusión, el cual establece las líneas y formas básicas de la investigación en un campo,
delimitando el conjunto de problemas que importan y las soluciones que son admisibles.
En este sentido, también se podría afirmar que el paradigma dominante en una disciplina
tiene efectos en la forma de distribuir los recursos para la investigación, en los criterios de

Cuando se cita de Kuhn (1962) o de Kuhn (1969), los primeros números de página corresponden a The Structure of Scientific Revolutions, 2a
*

edición aumentada con "Postscript-1969", University of Chicago Press, 1970; los segundos números corresponden a la traducción al español La
estructura de las revoluciones científicas, Fondo de Cultura Económica, México, 1971. En aras de la fidelidad al texto original, hemos modificado
algunas de las las citas de esta traducción.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 19
20

los comités editoriales, e incluso en las promociones académicas institucionales.


Cuando Kuhn reconoce en la "Posdata-1969" que no existe en ERC una cuestión
que haya quedado más oscura que la noción de paradigma, hace un intento de
clarificación y distingue los dos sentidos aquí apuntados. Al segundo, que es el sentido
amplio de marco de investigación, lo llama "matriz disciplinaria" y lo describe como "la
constelación de compromisos del grupo". El carácter compartido de esta constelación de
compromisos tácitos es lo que explicaría que la comunicación entre los miembros de una
comunidad de especialistas -a lo largo de un periodo de investigación normal- sea
prácticamente completa, y explicaría también la usual unanimidad en sus juicios
profesionales.
Kuhn distingue cuatro tipos de componentes o compromisos básicos -estrechamente
vinculados- en la matriz disciplinaria. El primero se refiere a lo que él llama
"generalizaciones simbólicas", que son lo que tradicionalmente se conoce como leyes o
principios fundamentales de una teoría (por ejemplo, las tres leyes de la mecánica de
Newton). "Tales son los componentes formales, o más fácilmente formalizables, de la
matriz disciplinaria" (ibidem), y se puede decir que cumplen el papel de sintetizar las rela-
ciones conceptuales que determinan el enfoque teórico de una tradición de investigación.
Por tanto, es claro que este componente siempre viene acompañado de un determinado
sistema de conceptos (categorías). Por otra parte, estos principios presentan una
característica peculiar -destacada por el propio Kuhn- y es que, por un lado, parecen tener
el carácter de generalizaciones empíricas sobre cuestiones de hecho, pero, por otro,
parecen cumplir la función de definiciones al establecer el modo como los científicos deben
usar ciertos conceptos básicos. Incluso podrían considerarse como una especie de
herramientas conceptuales a priori, en el sentido de guía previa indispensable para
caracterizar los fenómenos y resolver problemas que sólo adquieren significado dentro del
marco de dichos principios. Se trata, además, de principios que tienen un contenido
empírico muy poco específico, pues sólo establecen la Gestalt -la forma básica y global-
con la cual se deben ver las situaciones empíricas del campo de estudio.
No es de extrañar, entonces, que la controversia sobre la naturaleza de este tipo de
principios o leyes tenga una larga historia. Quienes han defendido su carácter empírico
argumentan que si sólo fueran definiciones, la ciencia en su conjunto estaría basada en
meras tautologías -lo cual resulta difícil de aceptar-. Pero los oponentes argumentan que
frente a este tipo de leyes fundamentales no es posible especificar los hechos que
pudieran refutarlas, ya que en principio cualquier situación empírica observable es
compatible con ellas. Sin embargo, como afirma Ulises Moulines, esta discusión parte de
una doble dicotomía entre enunciados empíricos y definiciones, y entre principios
descriptivos y prescriptivos, dicotomía que al parecer resulta demasiado simplista. Si bien
Kuhn mismo no llegó a proponer una solución explícita en cuanto a este debate, su análisis
de las generalizaciones simbólicas tiene el mérito de haber mostrado la necesidad de
plantear su discusión sobre nuevas bases. Como veremos al analizar el tipo de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 20
21

contrastación que tiene lugar en la ciencia normal, Kuhn de hecho supuso que ciertas leyes
tienen un doble carácter, cuasi empírico y a priori, que las exime de ser sometidas a
prueba contra la experiencia.
Con base en un detallado análisis de la estructura y función de las leyes
fundamentales, Moulines ha mostrado que las peculiares características de esta clase de
principios explican algunos de los principales rasgos que Kuhn atribuye a los paradigmas, y
que tanto extrañaron a sus críticos: a) que la forma de conceptualizar el campo de
fenómenos bajo estudio, que proporciona un paradigma, sea más una promesa de futuros
éxitos que una realización acabada; b) que los paradigmas generen la peculiar actividad de
"resolución de rompecabezas" (puzzle-solving), esto es, que den lugar a un periodo de
ciencia normal; c) que los paradigmas sean altamente inmunes a la refutación (cf.
Moulines, 1982, pp. 88-107). Volveremos en breve sobre estos rasgos de los paradigmas,
en su función de guiar la investigación normal.
El segundo tipo de componentes que comprende una matriz disciplinaria se refiere a
los compromisos ontológicos, los cuales se expresan en los modelos que los científicos
utilizan para representar su campo de estudio. Algunos de estos modelos llevan consigo un
compromiso ontológico literal con la existencia de ciertas entidades o procesos, como
cuando se afirma que "todos los fenómenos perceptibles se deben a la interacción, en el
vacío, de átomos cualitativamente neutrales; o bien, de manera alternativa, a la materia y
a la fuerza; o bien, a los campos" (Kuhn, 1969, p. 184; p. 282). Otros modelos de
representación tienen más bien un carácter analógico y sólo cumplen una función
heurística, como cuando se asume que "el circuito eléctrico puede ser considerado como
un sistema hidrodinámico en estado estacionario" (ibidem). Los modelos, tanto ontológicos
como analógicos, proporcionan las representaciones y las metáforas que son admisibles,
con lo cual contribuyen a acotar el tipo de explicaciones y preguntas que tiene sentido
formular en un dominio científico.
El tercer tipo de compromisos compartidos se refiere a los valores metodológicos. A
este respecto, Kuhn hace una afirmación que resulta clave, sobre todo en relación con el
problema del cambio de paradigmas: "usualmente [los valores metodológicos] son
compartidos entre las diferentes comunidades más ampliamente que las generalizaciones
simbólicas o los modelos [ontológicos], y contribuyen en mucho a dar un sentido de
comunidad a los científicos naturales en conjunto” (ibid., p. 184; p. 283). Estos valores, si
bien operan todo el tiempo al evaluar las soluciones a los problemas de la investigación
normal, se vuelven especialmente importantes en los periodos en que los científicos de una
comunidad tienen que elegir entre teorías rivales. Por ello dejaremos su discusión para
cuando abordemos el problema de la racionalidad en los cambios de paradigma.
Por ahora sólo señalaremos que se trata de valores tales como adecuación empírica
(concordancia entre las consecuencias o predicciones de una teoría y las observaciones o
resultados de la experimentación; tanto en sentido cualitativo como en el sentido de
precisión o exactitud), alcance (extensión del campo de aplicaciones de una teoría),

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 21
22

simplicidad (capacidad de una teoría para dar cuenta de fenómenos diversos de manera
sistemática y con el menor número de supuestos), consistencia (coherencia lógica, tanto
interna como con otras teorías aceptadas), fecundidad (capacidad de generar nuevas
soluciones y nuevas líneas de problemas), etcétera.

Probablemente, los valores más profundamente sostenidos se refieren a


las predicciones: éstas deben ser exactas, las predicciones cuantitativas son
preferibles a las cualitativas, y sea cual fuere el margen de error permisible, éste
debe ser continuamente respetado en un cierto campo, etc. Sin embargo,
también existen valores que deben utilizarse al juzgar teorías completas: éstas
deben, ante todo, permitir la formulación y la solución de problemas [puzzles]; y
hasta donde sea posible deben ser simples, consistentes y plausibles, esto es,
compatibles con otras teorías aceptadas en el momento (ibidem).

Por último, el cuarto tipo de compromisos se da precisamente con los ejemplos


paradigmáticos. Como se puede ver, al aclarar y precisar la noción de paradigma Kuhn
incorpora los paradigmas en sentido restringido, de soluciones ejemplares, como uno de
los componentes de los paradigmas en sentido amplio, de matriz disciplinaria. Ambos
sentidos se podrían relacionar -como se sugirió- considerando que un paradigma, en tanto
marco de investigación, es aquello con lo que los científicos quedan comprometidos al
modelar su trabajo sobre ciertos casos ejemplares.
La importancia fundamental que tienen los ejemplos paradigmáticos está
estrechamente ligada a la primacía que Kuhn otorga al "conocimiento tácito", conocimiento
con el que se topa gracias a su interés en los procesos de aprendizaje. Kuhn afirma que,
en general, los filósofos de la ciencia no han prestado suficiente atención a los problemas y
ejemplos concretos con que se encuentra el estudiante tanto en los libros de texto como
en el laboratorio, pues al parecer consideran que estos ejemplos y problemas sólo le
permiten practicar lo que ya sabe; es decir, suponen que el estudiante no puede resolver
problemas a menos que primero haya aprendido la teoría junto con algunas reglas para
aplicarla (reglas de interpretación que conectan los términos teóricos con los ob-
servacionales, del estilo de las llamadas "reglas de correspondencia"). Esto revela que para
un buen número de filósofos "el conocimiento científico se encuentra empotrado en la
teoría y en las reglas; los problemas se ofrecen sólo para ganar facilidad en su aplicación"
(ibid., p. 187; p. 287).
Kuhn rechaza esta forma de ubicar el contenido cognitivo de la ciencia -que lo
restringe a lo expresable en sistemas de enunciados-, pues se da cuenta de que sólo
cuando el estudiante resuelve los problemas modelo, tanto teóricos como experimentales,
es cuando realmente aprende el significado de las leyes y conceptos básicos de su
disciplina; y sólo por esa vía aprende a ver y manipular la naturaleza desde cierta
perspectiva teórica. Se podría decir que la práctica de resolución de problemas enseña

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 22
23

cómo procesar la información sensorial bajo un modelo teórico determinado. De aquí que
los ejemplos paradigmáticos permitan conectar directamente un sistema conceptual
complejo (una teoría) con el mundo, sin necesidad de recurrir a un lenguaje neutral de
observación -como intermediario- en el que se especifiquen, mediante definiciones o reglas
de correspondencia, los significados de los conceptos básicos de una teoría. Las aplica-
ciones paradigmáticas, entonces, constituyen la instancia concreta donde se muestra (y
aprende) la conexión entre teoría y experiencia.
Analizando la situación de la famosa segunda ley de Newton, f = ma, que es una
generalización simbólica con las características apuntadas, Kuhn se pregunta ¿cómo
aprenden los científicos, ante una situación experimental dada, a elegir las fuerzas, masas
y aceleraciones pertinentes? Se trata de un principio teórico muy general, con un
contenido empírico muy poco específico, que sólo indica a los científicos qué tipo de
aspectos deben considerar para resolver un problema. De aquí que dicho principio no se
pueda aplicar directamente a las situaciones concretas. Se podría decir que más que una
ley es un esquema de ley, que adopta formas muy diversas según el tipo de situación
mecánica a la que se aplique. Es necesario añadir una serie de parámetros más
específicos, según el tipo de fuerzas en juego, para obtener leyes con un contenido
empírico más definido: las llamadas "leyes especiales” . Incluso llega a ser difícil reconocer
las distintas leyes especiales -como la ley de la caída libre, la del péndulo simple, la de los
osciladores armónicos, la del giroscopio, etc.- como especificaciones de la misma segunda
ley, y no existe un procedimiento mecánico para diseñar versiones específicas de f = ma
que resulten ser las adecuadas para las distintas situaciones físicas. E1 esquema de ley, al
establecer la forma -la estructura conceptual básica- en que se deben enfocar las diversas
situaciones empíricas, sólo indica qué semejanzas buscar. Y esto sucede, al parecer, con
todas las leyes fundamentales de las teorías fecundas.
Si esto es así, los ejemplos paradigmáticos cobran una importancia fundamental
tanto en el proceso de aprendizaje de una teoría como en la tarea de extender su campo
de aplicaciones. El aprendizaje

no se logra por medios exclusivamente verbales; más bien surge cuando


las palabras se dan junto con ejemplos concretos de cómo funcionan en su uso;
las cosas y las palabras se aprenden juntas. Tomando prestada una vez más la
útil frase de Michael Polanyi, lo que resulta de este proceso es un "conocimiento
tácito" que se adquiere haciendo ciencia más que aprendiendo reglas para
hacerla (ibid., p. 191; p. 292).

De aquí que Kuhn se ocupe de reivindicar la dimensión de las prácticas -que


entrañan el conocimiento no verbalizado- frente a la filosofía tradicional de la ciencia. Los
filósofos clásicos, al considerar que los procesos de aprendizaje y aplicación de una teoría
no revelaban ningún componente esencial de la empresa científica, relegaron el conjunto

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 23
24

de las prácticas al contexto de descubrimiento (un examen más detallado de los procesos
de aprendizaje y aplicación de las teorías se hace en la sección "Taxonomías, significado y
aprendizaje", del capítulo IV).
En estrecha liga con lo anterior está el hecho de que Kuhn haya encontrado en los
ejemplos paradigmáticos la clave para dar cuenta de los acuerdos que prevalecen en los
periodos de ciencia normal. Como él mismo refiere en el Prefacio a La tensión esencial,
cuando buscaba explicar -entre 1958 y 1959- la manera en que los científicos de una
comunidad conducen su investigación así como la unanimidad con que suelen evaluar las
propuestas de sus colegas, se dio cuenta de que la explicación no podía consistir en
atribuirles un acuerdo con respecto a características definitorias de términos como 'fuerza'
y 'masa', o 'mezcla' y 'compuesto'. Su experiencia como científico y como historiador le
indicaba que rara vez se enseñan tales definiciones, y que los ocasionales intentos de
formularlas suscitaban por lo general profundos desacuerdos. La clave había que buscarla,
entonces, en el hecho de que "a los científicos no se les enseñan definiciones, pero sí
formas estandarizadas de resolver problemas selectos en los que figuran términos como
`fuerza` o `compuesto"' (Kuhn, 1977, pp. 18-19). Cuando los científicos aceptan un
conjunto suficiente de estos ejemplos estandarizados sobre los cuales modelar su in-
vestigación, no necesitan estar de acuerdo sobre las formulaciones lingüísticas de sus
conceptos o creencias para poder trabajar en una misma dirección.
En cuanto al componente cognitivo que aporta un paradigma a través del sistema
de conceptos (categorías) y principios teóricos que lo caracterizan, por ahora sólo
adelantaremos que Kuhn otorga a los marcos conceptuales un carácter a priori -de
raigambre kantiana- pero a la vez histórico y social (y por tanto relativo). Esto es, si bien
los marcos conceptuales son constitutivos de la experiencia, su diversidad no es reducible
a un sistema único de categorías (en vista de la inconmensurabilidad). Por otra parte, los
marcos conceptuales tienen eficacia sólo en la medida en que son comunitarios, en que
son compartidos por un grupo o colectividad; de aquí que la constitución de los fenómenos
adquiera una dimensión social, dimensión que se introduce en el análisis epistemológico de
la ciencia (retomaremos estas complejas cuestiones al analizar la idea de
inconmensurabilidad y el problema del realismo).
Una vez examinada la naturaleza de los paradigmas, veamos cómo ellos conducen
la investigación durante los periodos de ciencia normal. Como se dijo, la investigación
normal tiene como meta aumentar el alcance y la precisión con que se aplica el enfoque
teórico de un paradigma. El objetivo no es la búsqueda de novedades, ni en el nivel de los
hechos ni en el de la teoría. Se trata de una actividad conservadora. Al adoptar un
paradigma se asume, implícitamente, una red de compromisos que conforman la manera
en que el científico concibe no sólo su campo de estudio sino también su misma disciplina,
y esto le permite concentrar su energía en la resolución de problemas específicos. De aquí
que la actividad que se desarrolla en estos periodos sea de resolución de problemas y no
de cuestionamiento o crítica de supuestos básicos.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 24
25

El paradigma proporciona las herramientas para formular y seleccionar los


problemas legítimos. En algunos casos, problemas que incluso pudieran ser apremiantes,
por ejemplo desde un punto de vista social, son dejados de lado porque “no pueden
formularse de acuerdo con las herramientas conceptuales e instrumentales que
proporciona el paradigma" (Kuhn 1962, p. 37; p. 71). Se trabaja entonces en problemas
para los cuales puede suponerse, dado el paradigma vigente, que existe una solución. En
muchos casos -según Kuhn en la mayoría- se conoce de antemano con bastante precisión
el resultado o la predicción que se debería obtener. El reto es justamente encontrar el
camino, “llenar los huecos", para llegar a ese resultado. De aquí la caracterización de esta
actividad como resolución de rompecabezas (la traducción de 'puzzle’ como ‘rompecabezas'
refleja mejor en ciertos contextos la idea original de Kuhn; sin embargo, las más de las
veces nos apegaremos a la traducción usual de 'enigma'). “Llegar a la solución de un
problema de investigación normal es alcanzar lo anticipado en una forma nueva, y ello
requiere la solución de toda clase de complejos rompecabezas instrumentales, concep-
tuales y matemáticos" (ibid., p. 36; p. 70). Si se falla en esta empresa, se ponen en duda
el ingenio y el talento de los científicos, pero no se cuestiona la corrección de los
supuestos básicos del paradigma. Es en la investigación normal donde mejor se aplica el
proverbio de que "el mal carpintero echa la culpa a sus herramientas”.
El sentido y la medida del progreso son muy claros durante los periodos de ciencia
normal. Los científicos se concentran en problemas cuya solución es altamente probable,
dado que abordan problemas análogos a los problemas modelo y diseñan su solución
tomando como guía las soluciones paradigmáticas. Esto permite que los resultados se
produzcan básicamente en la misma dirección y sean claramente acumulables. La
"abrumadora mayoría" de la investigación que se considera exitosa es de este tipo: "la
ciencia normal es la que produce los ladrillos que la investigación científica está
continuamente añadiendo al creciente edificio del conocimiento científico" (Kuhn, 1981, p.
7). Así, la investigación en ciencia normal, que parte de una forma incipiente de ver y
manipular cierta gama de fenómenos -una forma no muy articulada ni con demasiado
apoyo empírico-, es un proceso progresivo en sentido acumulativo, en el cual se refuerzan,
articulan y desarrollan las creencias y herramientas que adopta una comunidad científica.
Este tipo de actividad es la que realizan los científicos la mayor parte del tiempo, es
lo que están habituados a hacer y para lo cual fueron entrenados. Por ejemplo: algunos
científicos se ocupan de la articulación lógica y matemática de las teorías, lo cual permite
identificar con mayor claridad sus consecuencias empíricas y su trabazón con los
fenómenos; otros se ocupan de diseñar o de realizar los experimentos que deberían
producir los hechos predichos por las teorías; otros trabajan en precisar ciertas constantes
o magnitudes que se consideran importantes; otros intentan eliminar los conflictos o
inconsistencias que surgen entre distintas aplicaciones de una teoría, o entre la teoría del
paradigma y aquellas teorías que se utilizan como auxiliares; y también hay quienes se
dedican a las aplicaciones tecnológicas. Pero lo característico de todas estas tareas es que

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 25
26

los científicos las realizan bajo el supuesto de que sus herramientas teóricas e
instrumentales son adecuadas y suficientes.
De esta manera, entre los objetivos que se persiguen durante la investigación
normal se destacan los siguientes:
-ampliar el alcance, es decir, el campo de aplicaciones de la teoría que se desarrolla
bajo un paradigma;
-lograr una mayor precisión en los resultados de los experimentos o aplicaciones;
-mejorar el ajuste entre experimento y teoría;
-eliminar los conflictos entre las diferentes teorías que los científicos emplean en su
trabajo, y
-eliminar los conflictos entre las distintas aplicaciones de una misma teoría (cf.
Kuhn, 1970b, p. 246).

Un ejemplo sencillo del tipo de desarrollos que ocurren en ciencia normal es el


siguiente: quienes formularon la ley de Boyle ya contaban con los conceptos de presión y
volumen de un gas, así como con los instrumentos y procedimientos para determinar sus
magnitudes. El descubrimiento de que el producto de la presión por el volumen de una
muestra de gas es una constante, a temperatura constante, simplemente se añadió al
conocimiento del modo como funcionaban esas variables previamente comprendidas (cf.
Kuhn, 1981, p. 8). En consecuencia, el cambio normal consiste simplemente en el aumento
o desarrollo acumulativo de lo que ya se conoce.
Ahora bien, los científicos no aceptan un paradigma, donde se proponen alcanzar
los objetivos anteriores, sólo por una actitud crédula o ingenua. Un paradigma se adopta y
se establece -generando una tradición de investigación- cuando provee a la comunidad de
una teoría y una técnica que, por más incipientes y rudimentarias que sean, permiten
hacer ciertas predicciones concretas acerca de una gama de fenómenos naturales, y
cuando además al menos algunas de esas predicciones han resultado acertadas (los casos
paradigmáticos). Por otra parte, las técnicas predictivas deben estar engarzadas en la
teoría naciente de tal manera que ésta permita hacer inteligible su relativo éxito, y sugiera
algunos medios para mejorarlas tanto en precisión como en alcance. Esto es, un
paradigma se adopta cuando existen buenas razones para pensar que es fecundo y
prometedor, cuando abre campos de problemas y genera líneas de investigación al dar
muestras patentes de soluciones exitosas.
Una vez que se llega a una situación como ésta, ya no es el momento de la crítica y
el cuestionamiento tenaz de los supuestos básicos (como recomendaría Popper); es el
momento de adoptarlos y emprender la tarea de desarrollarlos. Es decir, es el momento de
iniciar un periodo de investigación normal y perseguir los objetivos mencionados. "Debido
a que normalmente pueden dar por supuesta la teoría vigente, y explotarla en lugar de cri-
ticarla, quienes trabajan en las ciencias maduras son libres de explorar la naturaleza con
un detalle y una profundidad que de otro modo serían inimaginables" (Kuhn, 1970b, p.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 26
27

247).
A estas alturas resulta pertinente una aclaración terminológica. Si bien ya dijimos
que el modelo kuhniano requiere de unidades de análisis más amplias y complejas que las
teorías (entendidas a la manera tradicional), también es cierto que con frecuencia Kuhn
emplea los términos 'paradigma' y 'teoría' de manera indistinta. Este uso aparentemente
descuidado se puede explicar apelando al hecho de que una vez que se introducen los
paradigmas como marcos de investigación -una vez que se reconoce que no hay ciencia
libre de presupuestos- debería quedar claro que toda teoría sustantiva se desarrolla dentro
de algún paradigma. Así, 'teoría' nos remite no sólo a un conjunto de afirmaciones
empíricas explícitas, sino también al conjunto de compromisos implícitos que la
acompañan. Toda teoría es teoría inserta en un marco de investigación.

DIFICULTADES DE LAS METODOLOGÍAS CLÁSICAS


La caracterización de la ciencia normal como una actividad de resolución de
problemas (enigmas o rompecabezas) podría parecer, en una primera aproximación, como
una propuesta bastante innocua y sin mayores implicaciones. Sin embargo, esta caracte-
rización encierra consecuencias de largo alcance en la manera de concebir la investigación
científica, especialmente con respecto a los procesos de evaluación. Para aquilatar estas
consecuencias conviene examinar las objeciones de Kuhn a las teorías clásicas sobre los
procesos de prueba y evaluación de las hipótesis científicas.
Destaquemos primero que el modelo de desarrollo propuesto por Kuhn supone dos
maneras fundamentalmente distintas de hacer ciencia: la que se realiza en los periodos de
ciencia normal y la que se lleva a cabo en los periodos extraordinarios. Si esto es así, en la
ciencia tienen lugar dos tipos básicamente distintos de desarrollo, y por tanto de cambio,
los cuales involucrarían procesos distintos de evaluación. Estos procesos, a los que
podríamos denominar "evaluación intraparadigmática" y "evaluación interparadigmática",
responden a situaciones notablemente diferentes: una situación es la de tener que evaluar
hipótesis específicas que se proponen como solución a un problema de ciencia normal
(evaluación intraparadigmática), y otra situación, muy distinta, es la de tener que elegir
entre teorías que suponen paradigmas rivales (evaluación interparadigmática). Esta
distinción constituye la piedra de toque de la crítica de Kuhn a las metodologías clásicas.
Al referirse a estas metodologías, tanto de confirmación como de refutación, Kuhn
comienza con las siguientes observaciones. Como la actividad científica que abarca la
mayor parte del tiempo (investigación normal) es una actividad de resolución de enigmas,
básicamente encaminada a mejorar el ajuste entre la teoría y los hechos, la actividad
científica suele interpretarse como una búsqueda de confirmación o refutación de teorías.
Y esta interpretación refuerza la idea de que "la verdad y la falsedad se determinan única e
inequívocamente por medio de la confrontación de los enunciados con los hechos" (Kuhn,
1962, p. 80; p. 132). Sin embargo, la actividad de resolución de enigmas supone la validez
de una teoría (de las leyes fundamentales que la definen), ya que sin esa suposición ni

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 27
28

siquiera serían formulables dichos problemas. Por tanto, en los periodos de ciencia normal
las teorías no están en tela de juicio, esto es, no son objeto de evaluación ni en el sentido
de la confirmación ni en el sentido de la refutación.
Estas observaciones apuntan a la objeción de fondo a las metodologías
tradicionales, la cual se podría formular como sigue: los filósofos clásicos, por no distinguir
entre ciencia normal y extraordinaria, supusieron que el desarrollo científico es siempre del
mismo tipo y por ello fundieron y confundieron los procesos de evaluación que ocurren en
fases distintas de la investigación. De aquí que hayan equivocado el blanco y las
condiciones de aplicación tanto del método de confirmación como del de refutación. Ahora
bien, aunque Kuhn no formula sus críticas más específicas en términos de esta objeción
básica, dichas críticas de hecho la presuponen, por lo cual conviene tenerla presente desde
ahora.
En cuanto a las críticas específicas a la metodología inductivista de los empiristas
lógicos, Kuhn señala un hecho que refuerza especialmente la difundida idea sobre la
confirmación, y es que la enseñanza de las teorías siempre va acompañada de ejemplos
paradigmáticos de sus aplicaciones exitosas. Esto hace que las aplicaciones aparezcan
como evidencia a favor de las teorías, como razones por las cuales "debe creerse en ellas”.
Sin embargo, desde una perspectiva histórica, no tiene demasiado interés afirmar que la
confirmación o verificación consiste en establecer el acuerdo de la teoría con los hechos,
ya que "todas las teorías importantes desde el punto de vista histórico han logrado un
acuerdo con los hechos, aunque sólo sea en forma relativa" (ibid., p. 229; p. 147); y esto
incluye todas aquellas teorías que han sido descartadas.
Ahora bien, un problema serio que subyace en las teorías sobre la confirmación -
incluyendo las versiones probabilistas- es el recurso a un lenguaje neutral de observación
en el que supuestamente se expresan los datos puros, no contaminados de teoría, y se
formulan las pruebas experimentales que conforman la base contra la cual se ponen a
prueba las teorías. Siguiendo la línea de análisis desarrollada por N. R. Hanson (1958),
Kuhn emprende una crítica directa a la tesis empirista de la existencia de una base de
observación neutral, y de su lenguaje correspondiente. De acuerdo con Kuhn, dicho
brevemente, lo que depende del marco conceptual de un paradigma no es sólo la
interpretación que los científicos hacen de sus observaciones, como dirían quienes
consideran que las observaciones quedan completamente determinadas por la naturaleza
del entorno y del aparato sensorial, y en consecuencia pueden seguir afirmando que éstas
son independientes de los distintos marcos teóricos. La tesis de la "carga teórica", como la
entienden Hanson y Kuhn, va mucho más lejos; afirma que incluso las mismas
posibilidades perceptuales dependen del paradigma dentro del cual alguien esté inmerso:
"Lo que un hombre ve depende tanto de aquello que mira como de lo que su experiencia
visual y conceptual previas lo han enseñado a ver" (ibid., p. 113; p. 179). De esta manera,
si toda percepción depende -aunque sólo sea en forma parcial- de algún sistema de
conceptos, no puede haber una base de experiencia completamente neutral ni un lenguaje

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 28
29

semejante que la describa.


Con base en detallados análisis de casos de la historia de la ciencia, y utilizando
ciertos resultados de la psicología de la percepción sobre el procesamiento de la
información sensorial, Kuhn intenta mostrar que las observaciones están, a la vez,
posibilitadas y constreñidas por nuestros sistemas de conceptos y creencias, y por tanto no
hay datos absolutamente estables (cf. capítulo X de ERC). Pero entonces, en ausencia de
datos fijos, la actividad científica no es reducible a una mera tarea de proponer
interpretaciones (teorías) y someterlas a prueba contra una base empírica incuestionable.
Ciertamente, una vez que está dado un paradigma, el cual condiciona la manera de
percibir el mundo y elaborar los datos, la interpretación de esos datos se vuelve una tarea
central en la investigación normal, es decir, en el proceso de articulación, refinamiento y
ampliación del enfoque teórico de dicho paradigma. Pero sólo en virtud de un paradigma
aceptado el científico sabe qué cuenta como dato, qué instrumentos puede utilizar para
captarlo y qué conceptos son pertinentes para interpretarlo (el problema de la relación
entre lo teórico y lo observacional se analiza desde diversos enfoques en los trabajos
compilados en Olivé y Pérez Ransanz, 1989).
Ahora bien, aunque las distintas versiones probabilistas de la confirmación han
llegado a ser más refinadas que los análisis de tipo cualitativo (cuyo modelo clásico es el
de Hempel, 1945), siguen presentando básicamente el mismo problema. Todas ellas
parten de la pregunta por la probabilidad que tiene una teoría de ser verdadera, dada la
evidencia disponible. Pero mientras una corriente considera que se debe comparar la
capacidad de diferentes teorías para dar cuenta de un mismo cuerpo de evidencia -es
decir, comparar la teoría bajo escrutinio con otras teorías que pudieran ajustarse al mismo
conjunto de datos-, otra corriente propone la construcción de pruebas alternativas a que
pudiera someterse la teoría examinada. Aunque ciertamente es un adelanto que la
evaluación de teorías se analice de manera comparativa, o a la luz de nuevos tipos de
pruebas, sin embargo, en sus formulaciones habituales, estas propuestas siguen
suponiendo un lenguaje neutral de observación. Pero

si no puede haber ningún sistema de lenguaje o de conceptos que sea


científica o empíricamente neutral, la construcción propuesta de pruebas y
teorías alternativas deberá proceder de una u otra tradición basada en cierto
paradigma. Restringida de esta manera, dicha construcción no tendría acceso a
todas las experiencias posibles o a todas las teorías alternativas posibles (ibid.,
p. 146; pp. 226-227).

De aquí que Kuhn afirme que las teorías de tipo probabilista enmascaran la
situación de contrastación tanto como la iluminan.
En cuanto a la metodología popperiana de refutación, Kuhn señala que así como
encontramos que toda teoría históricamente importante ha contado con casos

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 29
30

confirmatorios (sus aplicaciones paradigmáticas), de igual manera encontramos que "no


existe la investigación sin contraejemplos" (ibid., p. 79; p. 131). Si existen los enigmas de
la ciencia normal es porque ningún paradigma que proporcione una base para la
investigación resuelve por completo todos sus problemas.

Ninguna teoría resuelve nunca todos los problemas a que se enfrenta en


un momento dado, ni es frecuente que las soluciones ya alcanzadas sean
perfectas. Al contrario, es justamente lo incompleto y lo imperfecto del ajuste
entre la teoría y los datos existentes lo que, en cada momento, define muchos
de los problemas que caracterizan a la ciencia normal (ibid., p. 146; p. 228).

Tan así es que en los contados casos en que una teoría parece haber resuelto todos
sus problemas, como por ejemplo en la óptica geométrica, deja de existir una tradición de
investigación y, en lugar de ello, la teoría se convierte en herramienta del trabajo
tecnológico.
Aquí se le podría replicar a Kuhn que está identificando, indebidamente, enigma con
contraejemplo, pues mientras el contraejemplo tiene la connotación de poner en
entredicho una teoría, el enigma sólo se refiere a un problema que la teoría aún no
resuelve pero se espera que pueda hacerlo. Esta réplica se vería reforzada por algunas
frases célebres de Kuhn, como cuando afirma que "toda teoría nace refutada" o que
"existen sólo dos alternativas: o bien ninguna teoría científica se enfrenta nunca a un
contraejemplo, o bien todas las teorías se enfrentan a contraejemplos todo el tiempo"
(ibid., p. 80; p. 132). A pesar de estos giros retóricos, otros pasajes de ERC dejan ver cuál
es la crítica específica al refutacionismo.
El método popperiano pone todo el peso de la contrastación en las experiencias
refutadoras, es decir, en las pruebas experimentales cuyos resultados implicarían el
rechazo de la teoría considerada. Kuhn, en pocas palabras, niega que existan experiencias
que por sí solas impliquen la falsedad de una teoría, es decir, niega la existencia de
experiencias refutadoras en sentido popperiano. La principal razón es que para que una
anomalía, una discrepancia entre teoría y experiencia, pueda ser considerada como un
auténtico contraejemplo -con la capacidad de poner en tela de juicio y echar abajo una
teoría- se requiere de una perspectiva teórica alternativa desde la cual se pueda emitir ese
juicio. Es más, una vez que existe esa teoría -que supone un paradigma distinto-, todos los
desajustes o discrepancias que desde la teoría anterior se veían como simples enigmas son
considerados como contraejemplos desde la nueva perspectiva.

Copérnico vio como contraejemplos lo que la mayoría de los sucesores de


Ptolomeo habían visto como enigmas en el ajuste entre la observación y la
teoría. Lavoisier vio como contraejemplo lo que Priestley había visto como un
enigma exitosamente resuelto en la articulación de la teoría del flogisto. Y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 30
31

Einstein vio como contraejemplos lo que Lorentz, Fitzgerald y otros habían visto
como enigmas en la articulación de las teorías de Newton y de Maxwell (ibid.,
pp. 79-80; p. 132).

Esto revela que ningún problema, aun cuando llegue a representar una seria
anomalía, constituye por sí mismo un contraejemplo. El carácter de contraejemplo es
relativo, no se puede establecer por la sola comparación entre las consecuencias de una
teoría y los resultados de la observación y experimentación. En el modelo de Kuhn, una
teoría se pone realmente en tela de juicio sólo cuando existe una teoría alternativa que
parece resolver sus principales anomalías, anomalías que adquieren entonces el carácter
de contraejemplos. De esta manera, la evaluación de teorías es una tarea
fundamentalmente comparativa. Si no existe una opción, más vale mantener la teoría que
hasta entonces se ha mostrado eficaz para resolver al menos algunos de los problemas
que se consideran relevantes. Se sigue trabajando en esa teoría aunque no permita
resolver muchos de los problemas planteados, aunque no se aplique con un alto grado de
precisión, o aunque emplee técnicas matemáticas o instrumentales bastante complicadas.
Basta con que la teoría no entre en conflicto con otras teorías que en ese momento se
consideran fundamentales, y con que haya indicios de que su alcance no se restringe a los
problemas ya resueltos.
La crítica de Kuhn a Popper es radical: "las contrastaciones que Sir Karl enfatiza son
aquellas que se realizaron para explorar las limitaciones de una teoría o para amenazar lo
más posible a una teoría vigente" (Kuhn, 1970a, p. 5), pero contrastaciones como esas son
más bien la excepción que la regla; sólo tienen lugar en los episodios extraordinarios. Pero
además, cuando eso llega a ocurrir, el enjuiciamiento de una teoría no se ajusta al modelo
de refutación tal como Popper lo concibe (en la sección "Evaluación de teorías
inconmensurables", del capítulo V, se analiza la elección de teorías rivales). La evaluación
de una teoría, entonces, sólo tiene lugar como parte de la competencia con una teoría rival
por obtener la aceptación de la comunidad pertinente.
Durante los periodos de ciencia normal no se ponen a prueba las teorías, no se
intenta confirmarlas ni refutarlas, como han supuesto los filósofos clásicos. Por lo
contrario, las teorías fungen como la base que permite proponer soluciones a los
problemas que surgen en la investigación normal, y son precisamente esas soluciones
tentativas las que se someten a prueba. La evaluación intraparadigmática no tiene como
blanco las teorías sino sus aplicaciones. Examinemos este proceso.

EVALUACIÓN EN CIENCIA NORMAL


En la investigación normal el científico se enfrenta a fenómenos cuya naturaleza
está determinada globalmente por el paradigma, pero cuya explicación detallada requiere
de una mayor articulación o desarrollo de la teoría. El objetivo, entonces, no es la crítica
sino el desarrollo de la teoría vigente. En el ensayo "¿Lógica del descubrimiento o

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 31
32

psicología de la investigación?", Kuhn sostiene que durante los periodos de ciencia normal
se ponen a prueba las hipótesis que expresan las conjeturas de un científico acerca del
modo más apropiado de relacionar un problema con el cuerpo de conocimientos que se
considera válido, que no se cuestiona. Esto es, lo que se pone a prueba son las hipótesis
que permiten aplicar las leyes fundamentales de una teoría a situaciones específicas, las
hipótesis que permiten explicar cierto tipo de fenómenos o resolver problemas concretos.
Si la hipótesis (conjetura) logra pasar suficientes pruebas o pruebas suficientemente
severas (de acuerdo con los criterios metodológicos que establece el propio paradigma), el
científico habrá resuelto el problema. De lo contrario, tendrá que intentar resolverlo
formulando otra hipótesis. Kuhn afirma que "tales contrastaciones no tienen por objeto la
teoría establecida. Por lo contrario, cuando está ocupado en un problema de ciencia
normal el científico debe contar con una teoría establecida que tiene como misión sentar
las reglas del juego" (Kuhn, 1970a, p. 4).
Con su estilo peculiar de esos años, un tanto psicologista, Kuhn describe este tipo
de situaciones diciendo que el científico "debe contrastar la conjetura que su ingenio le
sugiere como solución al enigma. Pero es sólo su conjetura personal la que se pone a
prueba. Si fracasa en la contrastación sólo su propia capacidad es impugnada, no el cuerpo
de la ciencia establecida" (ibid., p. 5). Incluso llega a afirmar que "a fin de cuentas, es el
científico [en lo] individual quien es sometido a contrastación más que la teoría vigente"
(ibidem). Sin embargo, es posible reformular esta descripción sin tintes psicologistas y sin
abusar de los términos, ya que por lo demás encierra un novedoso enfoque sobre la
contrastación. La distinción entre leyes fundamentales y leyes especiales, implícita en el
modelo kuhniano, ofrece el punto de partida para tal reformulación.
En las teorías maduras o establecidas, aquellas que han generado tradiciones
fecundas de investigación (como las teorías de Newton, Maxwell, Lavoisier, Mendel,
Darwin, etc.), se distinguen al menos dos tipos de leyes: fundamentales y especiales.
Como dijimos, las leyes fundamentales -las generalizaciones simbóIicas- no se pueden
aplicar directamente en la resolución de problemas, dado que son esquemas muy
generales con muy poco contenido empírico. Pero, por otra parte, se trata de leyes que
están presupuestas en todas las aplicaciones de una teoría. Moulines, en su artículo
"Forma y función de los principios -guía en las teorías físicas" (en Moulines, 1982), formula
la hipótesis metodológica de que todas las leyes fundamentales son empíricamente irres-
trictas, es decir, en principio cualquier situación empírica es compatible con ellas. Lo cual
implicaría, justamente, que las leyes fundamentales son inmunes a la refutación. Esta
hipótesis -que se basa en una detallada reconstrucción de la estructura lógica de este tipo
de leyes, así como en el análisis de su funcionamiento- encuentra un fuerte apoyo en el
hecho de que todas las leyes fundamentales examinadas hasta ahora (tales como la
segunda ley de Newton, el principio básico de la termodinámica, el de la hidrodinámica,
etc.) han presentado esta peculiar característica.
Este análisis explicaría el que las leyes fundamentales no se puedan confrontar

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 32
33

directamente con la experiencia, y que sólo den lugar a enunciados con un contenido
empírico más definido una vez que se han complementado con otros parámetros o
supuestos adicionales. Estos supuestos -que no se infieren de las leyes fundamentales- son
precisamente los elementos que especifican las posibilidades de aplicación de una teoría,
permitiendo la formulación de leyes especiales. Por ejemplo: la teoría de la gravitación
universal -que queda definida por las tres leyes de la mecánica newtoniana más la ley del
cuadrado inverso- no implica por sí sola ninguna consecuencia contrastable, ningún
enunciado observacional; es necesario añadir ciertos supuestos como, por ejemplo, acerca
de qué cuerpos se consideran existentes, en qué medio se mueven, a qué fuerzas están
sujetos, etc., para poder obtener predicciones contrastables, predicciones que serán más
exactas cuanto más se especifiquen las condiciones supuestas (este ejemplo se trabajará
en la siguiente sección).
Si ésta es la situación, cuando Kuhn habla de "conjeturas personales del científico"
podemos entender que se trata de esos supuestos adicionales que permiten la aplicación
de los principios básicos de una teoría. Y quedaría claro por qué Kuhn está en lo correcto
cuando afirma que el fracaso de una conjetura, al ser empíricamente contrastada, no
implica el fracaso de la teoría (de sus leyes fundamentales); sólo indicaría que algo anda
mal en la forma en que se intentó implementar esa aplicación particular. Esto se hace muy
patente cuando la teoría ya ha servido como base en la solución de una larga serie de
problemas. Es así como puede ocurrir que se rechace alguna de las hipótesis o leyes espe-
ciales, y se siga manteniendo con toda confianza la matriz o esquema que la generó: las
leyes fundamentales de la teoría. Pero, en cambio, nunca puede darse el caso inverso,
pues toda aplicación de una teoría presupone sus leyes fundamentales.
Por tanto, las teorías no se ponen a prueba de igual manera que sus aplicaciones.
Una vez que una teoría ha alcanzado el rango de paradigmática, es decir, una vez que ha
generado una tradición de investigación, deja de tener un carácter hipotético y se
convierte en la base de una serie de procedimientos explicativos, predictivos, e incluso
instrumentales, que la presuponen. En cambio, las hipótesis o leyes más específicas
quedan siempre sujetas a revisión conforme surgen nuevas situaciones y problemas. Y es
importante señalar que es en la evaluación de esta hipótesis donde se emplean los
métodos de confirmación y refutación.
Ahora se puede apreciar mejor el fondo de la crítica de Kuhn los metodólogos
clásicos. El error de estos filósofos ha sido suponer que lo que se confirma o se refuta son
las leyes fundamentales que definen una teoría, y no las hipótesis que permiten sus
aplicaciones concretas. Esto revela que han fundido dos proceso distintos en uno solo,
confundiendo la evaluación interparadigmática con la intraparadigmática. En palabras de
Kuhn, el error ha sido suponer que "una teoría puede juzgarse de manera global mediante
el mismo tipo de criterios que se emplean al juzgar las aplicaciones de una investigación
individual dentro de una teoría" (Kuhn, 1970a, p. 12). Como adelantamos en la sección
anterior, los filósofos de la tradición, al suponer que el desarrollo científico es siempre del

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 33
34

mismo tipo (pasando por alto la distinción entre ciencia normal y extraordinaria),
extrapolaron a la totalidad de la investigación científica lo que sólo sucede en ciertos
periodos. Los empiristas lógicos generalizaron el patrón de investigación normal,
interpretándolo como una búsqueda de confirmación de las teorías. Los racionalistas
críticos caracterizaron toda la actividad científica en términos que sólo se aplican a la
investigación extraordinaria, suponiendo de manera análoga que la refutación está dirigida
a las teorías. Sin embargo, si estos metodólogos tuvieran razón, muchos episodios de la
historia de la ciencia resultarían poco inteligibles o incluso irracionales, pues cómo se
podría explicar el hecho de que se siga trabajando en teorías que deberían considerarse
"refutadas" de acuerdo con el modelo popperiano, o que se abandonen teorías que
estarían "altamente confirmadas" según el modelo empirista.
Este problema no se presenta si se distinguen, al menos, dos tipos de evaluación, y
si se reconoce que las teorías no se abandonan por la vía de la refutación ni se mantienen
por la vía de la confirmación. Sin embargo, es importante subrayar que del modelo de
Kuhn no se desprende un rechazo de estos métodos tradicionales, sino más bien un
esclarecimiento de sus límites y condiciones de aplicación. Sólo son aplicables al evaluar
hipótesis con un contenido empírico bastante específico (que no tienen las leyes
fundamentales de las teorías), y en el marco de un conjunto de compromisos establecidos
(esto es, dentro de un paradigma). Además, esto significa que los métodos de
confirmación y refutación son insuficientes, por sí solos, para decidir sobre el éxito o el
fracaso de hipótesis específicas, pues sólo en el contexto de un paradigma aceptado queda
claro qué cuenta como evidencia relevante, como problema legítimo, como solución
aceptable, como técnica confiable, etc. Contrariamente a lo que suponían los filósofos
clásicos de la ciencia, dichos métodos resultan inoperantes en un aséptico vacío de
presupuestos.
Por último, debemos señalar un problema que encierra el enfoque de Kuhn sobre la
evaluación de hipótesis. Es un hecho que no todas las hipótesis que se formulan dentro del
marco de una teoría tienen el mismo nivel de especificidad. Entre las leyes fundamentales
y los enunciados más particulares hay una gama muy amplia de niveles de generalidad,
que se refleja en la amplitud del conjunto de aplicaciones que cubre cada hipótesis. Si esto
es así, surge la pregunta sobre si toda hipótesis -que no sea una ley fundamental- se pone
a prueba de igual manera. Existen leyes de alto nivel de teoricidad y generalidad que si
bien no están presupuestas en todas las aplicaciones de una teoría -como las leyes
fundamentales- lo están en gran parte de ellas. Incluso algunos autores las consideran
como "subteorías" dentro de un mismo paradigma, ya que cumplen funciones similares a
las de las leyes fundamentales dentro de su dominio de aplicación. De aquí que resulte
poco plausible que la evaluación de este tipo de leyes o subteorías se pudiera asimilar a la
evaluación de las conjeturas diseñadas para resolver problemas específicos.
Por otra parte, si fuera el caso de que todas las leyes no fundamentales se
evaluaran básicamente en la misma forma, y con la unanimidad de juicios profesionales

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 34
35

que refiere Kuhn, en los periodos de ciencia normal no se presentarían conflictos entre hi-
pótesis o "subteorías" alternativas, esto es, conflictos que versaran sobre aspectos del
enfoque teórico. Sin embargo, existen controversias como aquella que se dio cuando ya
había surgido el primer paradigma en el estudio de los fenómenos eléctricos, donde
compitieron por un buen tiempo la hipótesis de un fluido único contra la hipótesis de dos
fluidos básicos. Si bien el mismo Kuhn hace referencia a este caso, no lo utiliza para
reconocer el hecho de que dentro de los periodos de ciencia normal también se pueden
generar fuertes desacuerdos de orden teórico. Otro ejemplo sería el de la serie de
controversias que ha tenido lugar -en los últimos treinta años- en el desarrollo de la física
de altas energías, donde a pesar de que no se ponen en duda las leyes fundamentales del
paradigma vigente, de todos modos se trata de desacuerdos de carácter teórico que
claramente no se ajustan al esquema de resolución de enigmas (en McMullin, 1993, p. 62,
se refieren algunos otros casos de este tipo de desacuerdos).
Esto hace pensar que el contraste entre la resolución de enigmas -con sus
procedimientos efectivos para decidir con unanimidad cuándo un enigma ha sido
exitosamente resuelto- y la elección entre teorías de paradigmas rivales -donde no existen
semejantes procedimientos-, es un contraste todavía demasiado esquemático. La distinción
entre evaluación intraparadigmática e interparadigmática, implicada por el modelo
kuhniano, no cubre todos los casos de evaluación que se presentan en la investigación
científica. Sin embargo, es innegable que esta distinción ha tenido el mérito de poner al
descubierto que la evaluación de teorías no es reducible a una lógica efectiva de las
decisiones, y que la elección entre teorías rivales es mucho más compleja de lo que los
metodólogos tradicionales habían supuesto.
La manera general y abstracta en que aquí se ha reformulado la evaluación
intraparadigmática requiere de una ejemplificación detallada en un caso concreto. Es lo
que haremos en seguida.

UN EJEMPLO DE INVESTIGACIÓN NORMAL


La teoría de la gravitación universal

Para encarnar lo dicho hasta aquí acerca del tipo de evaluación que se realiza
durante los periodos de ciencia normal, utilizaremos como ejemplo una de las aplicaciones
de la teoría newtoniana de la gravitación universal (TGU, en adelante). Este ejemplo lo
elabora Hilary Putnam en su artículo "The ‘Corroboration' of Theories" (Putnam, 1974),
donde justamente examina la metodología popperiana y critica los supuestos que ésta
comparte con la concepción metodológica del empirismo lógico. El ejemplo sirve a Putnam
para ilustrar sus críticas a la ortodoxia, las cuales --como veremos- coinciden básicamente
con las formuladas por Kuhn, si bien Putnam no hace una alusión explícita a esta notable
coincidencia. La ventaja que ofrece este análisis es la claridad con que se exponen e
ilustran dichas críticas.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 35
36

La teoría elegida, TGU, es una teoría que nos resulta muy familiar. Putnam afirma
que ésta es la razón de su elección, ya que otras teorías podrían haber servido igualmente
bien a sus propósitos, como, por ejemplo, la teoría de Mendel, la de Maxwell o la de
Darwin. TGU consta de la ley que afirma que todo cuerpo a ejerce sobre todo otro cuerpo
b una fuerza Fab, cuya dirección es hacia a y cuya magnitud es el producto de una
constante universal G por MaMb/d2, es decir, Fab = GMaMb/d2, donde M es la masa y d
es la distancia que separa a los cuerpos. Las otras leyes que constituyen TGU son las tres
leyes de la mecánica clásica newtoniana (la ley de inercia, la segunda ley: f = ma, y la ley
de acción y reacción).
Lo primero que señala Putnam es que esta teoría, por sí sola (considerando sólo las
leyes que la definen) no implica ningún enunciado básico u observacional, es decir,
ninguna consecuencia contrastable. Recordemos aquí lo dicho acerca del carácter empí-
ricamente irrestricto de las leyes fundamentales, el cual va de la mano con su incapacidad
para implicar predicciones o descripciones de situaciones empíricas concretas. En este
caso, TGU no dice nada sobre qué fuerzas, aparte de la gravitacional, pueden estar
presentes, y la fuerza Fab no es medible de manera directa. Por tanto, ninguna predicción
es deducible de TGU. Pero entonces ¿qué es lo que se hace cuando se quiere aplicar la
teoría a una situación astronómica concreta? Como vimos, es necesario agregar supuestos
adicionales, que son lo que Kuhn llama "conjeturas del científico" y Putnam "afirmaciones
auxiliares". Putnam dice que lo típico es hacer ciertas suposiciones simplificadoras.

Por ejemplo, si estamos deduciendo la órbita de la Tierra, podríamos


suponer, como una primera aproximación, lo siguiente:

I) ningún cuerpo existe, excepto el Sol y la Tierra


II) el Sol y la Tierra existen en el vacío
III) el Sol y la Tierra no están sujetos a ninguna fuerza, excepto a las
fuerzas gravitacionaes mutuamente inducidas (Putnam, 1974, p. 65).

Estos tres supuestos adicionales, junto con TGU, ya nos permiten deducir
enunciados con un contenido empírico más definido, como las Leyes de Kepler. Y si
hacemos menos idealizados los supuestos adicionales, como por ejemplo considerando
otros cuerpos en el modelo del Sistema Solar, podemos obtener predicciones más exactas.
Conviene detenerse en el carácter epistémico que tienen los supuestos adicionales,
a diferencia del que tienen las leyes fundamentales. En muchos casos, son enunciados que
expresan idealizaciones o simplificaciones, las cuales son relativas a cada sistema empírico
particular; otras veces se trata de enunciados que expresan las "condiciones de la
frontera" (boundary conditions), esto es, condiciones que establecen ciertas restricciones
de carácter general sobre los sistemas empíricos en estudio; y también encontramos
enunciados sobre las "condiciones iniciales" de un sistema, las cuales se tienen que

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 36
37

establecer en toda solución de problemas concretos. Dada la naturaleza de este tipo de


supuestos, borrar la diferencia entre leyes fundamentales y supuestos adicionales sería
borrar la diferencia entre los enunciados a los que se les otorga (aunque sea
temporalmente) el rango de leyes de la naturaleza y los enunciados que se consideran
contingentes o circunstanciales.
Esta diferencia epistémica contribuye a explicar el hecho, antes señalado, de que los
supuestos adicionales estén mucho más sujetos a revisión que la teoría. En el caso de
TGU, por ejemplo, tenemos que durante casi doscientos años la ley de la gravitación
universal se aceptó como incuestionablemente verdadera, y se utilizó como premisa en
incontables argumentos científicos. Si los supuestos adicionales que de hecho permitieron
predicciones correctas no hubieran funcionado así, habrían sido modificados antes que
modificar la teoría.

Cuando resultó que estaban equivocadas las predicciones acerca de la


órbita de Urano, las cuales se hicieron con base en la teoría de la gravitación
universal y el supuesto de que los planetas conocidos eran todos los que existían,
Leverrier en Francia y Adams en Inglaterra predijeron de manera simultánea que
tenía que haber otro planeta. De hecho, este planeta fue descubierto, era
Neptuno. Si esta modificación de los enunciados auxiliares no hubiera resultado
exitosa, todavía se podrían haber intentado otras, como por ejemplo, postular un
medio a través del cual se mueven los planetas, en lugar del vacío, o postular
fuerzas no gravitacionales significativas (ibid., p. 66).

Frente al caso de la órbita de Mercurio, de la cual no se lograba dar cuenta con


base en TGU, Putnam opina exactamente lo mismo que Kuhn: en ausencia de una teoría
alternativa, como la teoría general de la relatividad, la órbita de Mercurio simplemente se
consideró como una ligera anomalía, es decir, no se le otorgó el carácter de contraejemplo
o instancia refutadora. Cabe señalar, como dato curioso, que con respecto a esta idea de
que las teorías no se desechan por un mero desacuerdo con la experiencia, sino sólo
cuando existen teorías alternativas, Putnam se adjudica la paternidad. Sin embargo, si nos
atenemos a las fechas de publicación de sus ideas, es claro que la paternidad la tendría
Kuhn. Incluso se puede afirmar que constituye una de sus tesis más novedosas y
difundidas en relación con la evaluación de las teorías.
Las implicaciones del caso de Mercurio para la doctrina de Popper son inmediatas y
directas: TGU no es refutable en el sentido popperiano, y sin embargo es un indudable
ejemplo de teoría científica. Los científicos, durante doscientos años, no la cuestionaron ni
intentaron refutarla, más bien la tomaron como base para construir predicciones que
dieran cuenta de los distintos fenómenos astronómicos. Si alguno se mostraba reacio,
como el caso de Mercurio, se hacía a un lado como una anomalía. Por tanto, afirma
Putnam, "la doctrina de Popper no da una explicación correcta, en este caso, ni de la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 37
38

naturaleza de la teoría ni de la práctica de la comunidad científica" (ibid., p. 67).


Popper podría replicar, como hizo en otras ocasiones, que él no está describiendo lo
que los científicos hacen, sino lo que deberían hacer. Pero incluso en ese caso los
científicos del ejemplo actuaron como deberían haberlo hecho:

Hubiera sido incorrecto rechazar TGU en virtud de la desviación de la órbita


de Mercurio. Dado que TGU predecía las otras órbitas dentro de los límites del
margen de error, no podía excluirse la posibilidad de que la desviación en este
caso se debiera a alguna fuerza desconocida, gravitacional o no gravitacional; y al
hacer a un lado el caso como uno que ni podían explicar ni podían atribuirle una
significación sistemática, los científicos estaban actuando como "deberían"
(ibidem).

Reconstrucción de un problema de ciencia normal


Putnam también coincide con Kuhn en que la actividad científica no se puede
reducir a una mera cuestión de derivar predicciones a partir de la conjunción de teorías y
supuestos adicionales, sea con miras a la confirmación o a la refutación. Para dar apoyo a
esta tesis Putnam propone una tipología de los problemas científicos, la cual contribuye a
aclarar la noción kuhniana de ciencia normal (como vimos, al describir la investigación que
se realiza en estos periodos como una actividad de resolución de enigmas, Kuhn está
queriendo decir que no se trata de una actividad encaminada a refutar o a confirmar la
teoría vigente). Putnam presenta tres esquemas básicos que corresponden a los distintos
tipos de problemas científicos (donde Putnam habla de 'auxiliary statements' aquí
seguiremos utilizando ‘supuestos adicionales'):

Esquema I
Teoría
Supuestos adicionales

Predicción ¿verdadera o falsa?

Esquema II
Teoría
???

Hecho que debe ser explicado

En el primer esquema el problema es determinar si la predicción que se deduce de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 38
39

la teoría y los supuestos adicionales (SA, en adelante) es verdadera o falsa. Este es el tipo
de situación en el que se han concentrado las metodologías tradicionales -tanto del
empirismo lógico como del racionalismo crítico- y al que han otorgado toda la importancia.
El segundo esquema representa un tipo de problema muy distinto: se trata de encontrar
los SA que, junto con la teoría, produzcan una explicación de un hecho conocido. Éste es
precisamente el tipo característico de los problemas (enigmas o rompecabezas) de la
ciencia normal.
Por último, en el trabajo científico también se presenta un tercer tipo de problemas,
el cual tampoco ha sido atendido en el análisis filosófico tradicional:

Esquema III
Teoría
Supuestos Adicionales

???

En este tipo de situación el problema es, por lo general, de índole matemática. Por
ejemplo: "en nuestros días se sabe muy poco acerca de cuáles son las consecuencias
físicas de la 'teoría del campo unificado' de Einstein, precisamente porque el problema
matemático de derivar dichas consecuencias es demasiado difícil" (ibid., p. 71). La
importancia de este tipo de problemas radica, justamente, en averiguar si un cierto
conjunto de leyes y supuestos tiene consecuencias contrastables. Los filósofos de la ciencia
usualmente han procedido como si siempre estuviera claro, en principio, cuáles son las
consecuencias observables o contrastables de un conjunto de enunciados empíricos. De
aquí su descuido por este tipo de problemas y su interés exclusivo por los problemas que
caen bajo el Esquema I.
Ahora seguiremos muy de cerca la utilización que hace Putnam de estos esquemas
al reconstruir una aplicación importante de TGU, aplicación que tuvo lugar durante el
periodo de ciencia normal de esta teoría (cf. ibid., pp. 72-73). Llamemos S1 al siguiente
conjunto de supuestos adicionales: los cuerpos se mueven en el vacío; sólo están sujetos a
las fuerzas gravitacionales mutuas; el Sistema Solar consiste de los siguientes cuerpos: el
Sol, Mercurio, Venus, Tierra, Marte, Júpiter, Saturno y Urano. El problema que se plantea
es el siguiente:

Teoría: TGU
SA: S1
Otros SA: ???

Explanandum: la órbita observada de Urano

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 39
40

Esto es, el problema consiste en encontrar otros supuestos acerca de condiciones


iniciales o de condiciones de la frontera que se apliquen al Sistema Solar, y que junto con
TGU permitan explicar la órbita observada de Urano. Con la información y los supuestos
que se manejaban hacia 1846, la órbita calculada de este planeta no coincidía
(considerando los márgenes de error permitidos) con los datos acerca de la órbita
observada. Notemos que se trata claramente de un problema que cae bajo el Esquema II.
Así las cosas, se propone el supuesto S2: existe un planeta más, y sólo uno más, en el
Sistema Solar. Considérese ahora el siguiente problema:

Teoría: TGU
SA: S1, S2

Consecuencia: ???

La consecuencia desconocida se refiere a la órbita precisa O que debe tener el


planeta recién postulado. Éste es un problema de tipo matemático que Leverrier y Adams
resolvieron al calcular la órbita de Neptuno (como se llamó al planeta postulado). Por
tanto, se trata de una instancia del Esquema III. Ahora considérese el siguiente problema
empírico:

Teoría: TGU
SA: S1, S2

Predicción: existe un planeta moviéndose en la órbita O


¿Verdadera o falsa?

Este problema es una instancia del Esquema I. Su importancia, en esos años,


radicaba en que la verificación de la predicción ofrecería la solución al problema
originalmente planteado. Esto es, la predicción es precisamente el enunciado que se
necesitaba para explicar (derivar) la órbita observada de Urano. Llamemos S3 a dicha
predicción, y sea S3: el planeta postulado en S2 (Neptuno) se mueve en la órbita O. Con
S3 ya se tiene la siguiente deducción:

Teoría: TGU
SA: Sl, S2, S3

Explanandum: la órbita de Urano

Podemos observar, entonces, que se comenzó con un problema del tipo II: el
problema de explicar la órbita observada de Urano. El afán de resolver este enigma

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 40
41

condujo a una nueva hipótesis S2 (la postulación de un planeta adicional, Neptuno); la


contrastación de S2 involucró la derivación de S3 (el cálculo de la órbita del nuevo
planeta), problema del tipo III, así como la contrastación de S3 (la órbita calculada de
Neptuno), que es un problema del tipo I. Y S3, a su vez, sirvió como solución al problema
original. Notemos que en este proceso se tuvo la suerte de poder deducir S3 a partir de
TGU, S1 y S2; y finalmente se tuvo la mejor suerte de verificar S3 en el Observatorio de
Berlín.
Putnam propone el Esquema II como la forma lógica de lo que Kuhn llama “puzzle”.
Al examinar dicho esquema se ve por qué este término resulta tan apropiado: en los
problemas de este tipo se está buscando algo que "llene un hueco" en un argumento ex-
plicativo, y que al llenarlo conduzca a cierto resultado que ya se conoce. No se trata de
contrastar empíricamente las predicciones que se derivan de una teoría y ciertos SA ya
dados (Esquema I); se trata justamente de encontrar los SA adecuados. La teoría no es
refutable en el contexto y tampoco está sujeta a confirmación, pues en este tipo de
situaciones la teoría no está en tela de juicio. Dice Putnam:

Los fracasos no refutan una teoría, porque el fracaso no es una falsa


predicción a partir de la teoría y unos hechos conocidos y confiables, sino el
fracaso en encontrar algo, de hecho, el fracaso en encontrar un enunciado auxiliar
[...]. Los éxitos no "confirman" una teoría, una vez que ha llegado a ser
paradigmática, porque la teoría no es una "hipótesis" que necesite confirmación,
sino que es la base de toda una técnica explicativa y predictiva, y también
posiblemente de una tecnología (ibid., p. 74).

Hasta aquí, como se puede observar, la coincidencia entre las tesis de Putnam y las
tesis de Kuhn -en las cuales fincan sus críticas a las metodologías tradicionales- es
prácticamente completa.

Tendencia explicativa y tendencia critica


Teniendo presente el ejemplo analizado, el proceso por el cual se llegó a explicar la
órbita observada de Urano, examinemos ciertas afirmaciones un tanto oscuras de Putnam
sobre la noción de ciencia normal. El ejemplo ilustra, en su opinión, la existencia de dos
tendencias en conflicto pero al mismo tiempo dependientes entre sí: la investigación
normal "muestra una dialéctica" entre dos tendencias y "es el conflicto de estas tendencias
lo que lleva adelante a la ciencia normal" (ibidem). Una de las tendencias es la tendencia
crítica, la representada por el Esquema I; la otra es la tendencia explicativa, representada
por el Esquema II.
Según Putnam: "El elemento de conflicto surge porque en una situación del tipo del
Esquema II uno tiende a considerar la teoría dada como algo conocido, mientras que en
una situación del tipo del Esquema I uno tiende a considerarla como problemática" (ibid.,

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 41
42

p. 75). A continuación afirma que la interdependencia es obvia: "la teoría que sirve como
premisa mayor en el Esquema II puede haber sido la sobreviviente de una prueba
popperiana [...] y la solución de un problema del tipo del Esquema II debe ella misma ser
confirmada, frecuentemente, por una prueba del tipo del Esquema I" (ibidem). De aquí
Putnam concluye que es un grave error creer que el Esquema II describe todo lo que
sucede en la ciencia normal, con lo cual estaría objetando implícitamente la concepción
kuhniana de esta actividad.
Sin embargo, esta conclusión resulta sorprendente a la luz del análisis que hace el
propio Putnam. En primer lugar, en el ejemplo examinado, la teoría (TGU) no se considera
"problemática' en ninguno de los pasos del proceso. Cuando se aplica el Esquema I, que
entraña la actitud crítica, se hace para poner a prueba una conjetura con un contenido
empírico muy específico (S3: el planeta postulado tiene la órbita O), y no a TGU. Si
Putnam fuera consecuente con el resto de sus tesis, no podría postular -al menos no en
este caso concreto- una dialéctica entre tendencias en conflicto como el motor del
progreso dentro de los periodos de ciencia normal. Esta idea tendría más sentido aplicada
al progreso global de una disciplina, es decir, al progreso a través de los sucesivos cambios
de paradigma (que es la idea que subyace en el modelo de Kuhn).
Cuando una teoría se ha atrincherado como paradigmática, cuando el sistema
conceptual y las leyes que la definen adquieren el carácter de herramientas a priori de la
investigación, no sucede que a ratos se le cuestione y a ratos se le considere válida. Sólo
así se podría hablar de tendencias en conflicto dentro de una fase de ciencia normal, en el
sentido que lo hace Putnam. Como él mismo reconoce, una vez que una teoría alcanza ese
rango deja de tener un carácter hipotético. Ciertamente, como señalamos en la sección
anterior, es posible que en la ciencia normal surjan conflictos de orden teórico entre leyes
alternativas de alto nivel, el cual es un problema que no se ajustaría al esquema de
resolución de enigmas (Esquema II), pero tampoco se podría reconstruir como una
dialéctica entre tendencias opuestas: explicativa y crítica.
Por otra parte, la concepción kuhniana de la ciencia normal no excluye de ninguna
manera que se aplique el Esquema I (el esquema crítico). A1 contrario, los métodos
críticos -confirmación y refutación- son necesarios para que se lleve a cabo la investigación
normal (para evaluar las conjeturas propuestas como solución a los enigmas). En términos
de Putnam, Kuhn diría que en esta etapa los científicos se concentran en problemas que
tienen como estructura básica el Esquema II, aunque desde luego su solución requiere de
la solución de problemas subsidiarios que se ajustan a los Esquemas I y III. En breve, la
tendencia dominante, la explicativa, puede coexistir pacíficamente con la tendencia crítica,
mientras el enfoque teórico del paradigma establecido siga siendo eficaz y fecundo.
Cabe una última observación sobre los supuestos adicionales, cuya naturaleza y
función se muestran en el ejemplo analizado. Los filósofos clásicos erraron el blanco de los
métodos críticos debido a que hacían recaer toda la responsabilidad de las predicciones en
las teorías, eximiendo con ello a los supuestos adicionales (si una predicción resultaba

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 42
43

fallida se inculpaba a la teoría, si resultaba exitosa se aumentaba su credibilidad). Sin


embargo, los supuestos adicionales pueden ser conjeturas arriesgadas que encierran
grandes dosis de simplificación o idealización con respecto a los sistemas empíricos en
estudio (como el conjunto S1 del ejemplo), o bien enunciados que expresan datos cuyo
proceso de obtención es en muchos casos altamente complicado o falible (como S3, y
como suele suceder con las condiciones iniciales de un sistema). De aquí que el hecho de
que los supuestos adicionales sean el primer blanco de crítica durante la investigación
normal, lejos de ser un síntoma de irracionalidad o de dogmatismo hacia la teoría vigente,
resulte muy entendible.
Nos hemos extendido en el análisis de la ciencia normal por varias razones. En
primer lugar, consideramos que las aportaciones de ERC mejor trabajadas y articuladas,
aunque menos espectaculares, son justamente las que se refieren a la ciencia normal;
además, éstas ponen al descubierto aspectos centrales de la práctica científica cotidiana
que el paradigma filosófico anterior había relegado o incluso pasado por alto. Considérese,
simplemente, la vuelta de tuerca que significó destacar la naturaleza y el papel que tienen
los marcos de presupuestos en la investigación, y esto forma parte del análisis de la
ciencia normal. Por otra parte, creemos que estas aportaciones no han recibido la atención
ni la importancia debidas. Si bien es cierto que las tesis expuestas en ERC sobre los
cambios revolucionarios resultaron las más controvertidas y provocadoras, generando una
revolución en el análisis filosófico de la ciencia, sin embargo también es cierto que eran
tesis muy embrionarias, débilmente ensambladas y argumentadas, cuyas implicaciones y
coherencia estaban aún por explorar. No es de extrañar, entonces, que la clarificación y
desarrollo de estas tesis acapararan la atención de Kuhn hasta sus últimos años. Por
último, un buen entendimiento de la ciencia normal es una condición para apreciar, por
contraste, lo que sucede en los periodos de crisis y revolución. Pasemos al análisis de la
ciencia extraordinaria.

III. LA CIENCIA EXTRAORDINARIA: PRIMER DIAGNÓSTICO

CONTRA LA IDEA DE ACUMULACIÓN


Si las teorías no se mantienen por la vía de la confirmación ni se rechazan por la vía
de la refutación, ¿cómo entonces se puede dar cuenta de su adopción o de su abandono?
¿Cómo explicar el cambio de un paradigma por otro? Qué respuesta queda a la pregunta
¿cómo eligen los científicos entre teorías rivales? Trabajando como historiador, Kuhn se
había topado con el siguiente hecho: los episodios de transición más notables en la ciencia,
como por ejemplo entre la astronomía de Ptolomeo y la de Copérnico, la teoría del flogisto
y la química de Lavoisier, la biología creacionista y la teoría darwiniana de la evolución, la
mecánica clásica y la mecánica relativista, etc., no se podían reconstruir como episodios
donde un cuerpo de evidencia compartida, más un conjunto de cánones de evaluación,
obligaran a los científicos involucrados a abandonar la vieja teoría en favor de la nueva.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 43
44

La idea básica de Kuhn sobre la evaluación interparadigmática, que permaneció


inalterada hasta sus últimas publicaciones, es que con respecto a las teorías empíricas no
podemos contar con procedimientos de evaluación que determinen decisiones unánimes, a
la manera como en las ciencias formales existen procedimientos que aplicados paso a paso
permiten identificar los errores en una demostración o aprobarla como correcta: "No hay
ningún algoritmo neutral para la elección de teorías, ningún procedimiento sistemático de
decisión que, aplicado adecuadamente, deba conducir a cada individuo del grupo a la
misma decisión' (Kuhn, 1969, p. 200; pp. 304-305). Para entender esta afirmación que
entraña un nuevo enfoque sobre la elección de teorías, y en consecuencia sobre el cambio
científico, debemos examinar primero la manera como originalmente Kuhn caracteriza las
situaciones donde impera el desacuerdo en una comunidad de especialistas, situaciones
que eventualmente desembocan en el desplazamiento de un paradigma por otro, es decir,
en una revolución.
Desde una perspectiva meramente histórica, la rivalidad y la competencia entre
enfoques teóricos alternativos, el abandono de unos y la adopción de otros, son hechos
bastante bien documentados. No hay duda de que en la historia de las diversas disciplinas
científicas se presentan situaciones que muestran esos desacuerdos y conflictos. Sin
embargo, lo que sí se puede poner en duda es que tales situaciones revelen aspectos
constitutivos, no meramente circunstanciales, sobre el modo como se desarrolla el co-
nocimiento científico. En palabras de Kuhn: "¿Hay razones intrínsecas por las cuales la
asimilación [...] de una nueva teoría científica deba exigir el rechazo de un paradigma más
antiguo?" (Kuhn, 1962, p. 95; p. 153). En otras palabras, ¿hay razones de fondo por las
cuales el desarrollo científico haya tenido que resultar discontinuo y no acumulativo?
En principio, una nueva teoría no necesariamente tiene que entrar en conflicto con
cualquiera de sus predecesoras: la nueva teoría puede tratar de fenómenos no estudiados
o no conocidos hasta ese momento, y simplemente ampliar las concepciones anteriores; o
bien, puede ser de un nivel de generalidad mayor y agrupar a sus antecesoras de manera
sistemática, sin modificar en lo sustancial a ninguna de ellas; o también puede bordar más
fino sobre lo ya dicho, precisando el contenido de teorías anteriores, etc. Esto es, pueden
existir, y de hecho existen, diversas relaciones de compatibilidad entre teorías sucesivas
(más precisamente, entre sus conjuntos de modelos o aplicaciones), como son las
relaciones de inclusión o subsunción, de especialización, de equivalencia, de aproximación,
etc. La cuestión es que si este tipo de relaciones interteóricas fueran las únicas que se
hubieran dado en la historia de las disciplinas, el desarrollo científico habría resultado
esencialmente acumulativo. Y como dice Kuhn: "En la evolución de la ciencia, los
conocimientos nuevos reemplazarían a la ignorancia en lugar de reemplazar a otros
conocimientos de tipo distinto e incompatible" (ibid., p. 95; p. 154).
Resulta notable la cantidad de autores que han pensado que el desarrollo científico
es realmente acumulativo. Esta difundida idea es el elemento clave de la imagen "oficial"
de la ciencia, que nace con el desarrollo mismo de la ciencia moderna en el siglo XVII, y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 44
45

que desde entonces ha sido alimentada por la gran mayoría de filósofos, historiadores y
científicos. De aquí que la noción de "progreso como acumulación" haya sido el primer
blanco que Kuhn tuvo en la mira cuando emprendió la redacción de ERC. Kuhn parte de la
idea de que la imagen dominante de la ciencia es, básicamente, resultado de una manera
particular de concebir y escribir su historia, la cual está estrechamente relacionada con la
pedagogía que se utiliza en el ámbito científico, con la manera como se enseña, transmite
y difunde el conjunto de teorías vigentes en una época.
Por una parte, los libros de texto en que se basa la enseñanza se reescriben cada
vez que tiene lugar un cambio de paradigma, y en ellos el pasado de una disciplina se
recupera con un enfoque "presentista", es decir, como la serie de escalones que
condujeron a su estado actual. Por otra parte, en la misma línea, la historiografía de corte
presentista tiene como rasgo distintivo el asimilar la ciencia pasada a la ciencia presente,
asimilación que básicamente se logra por dos vías: 1) la selección de lo que debe formar
parte de la narrativa histórica se hace con base en el contenido de la ciencia presente, es
decir, sólo aquellos elementos de las teorías previas que parecen estar incluidos en las
teorías presentes se consideran como históricamente relevantes y valiosos; 2) eso que se
considera históricamente relevante se expresa o reformula utilizando los conceptos de la
ciencia vigente. El resultado, naturalmente, es que la historia de la ciencia aparece como
un crecimiento acumulativo de conocimientos, donde no tienen cabida creencias o
supuestos que sean discordantes con los aceptados en la época del historiador.
Esta manera de reconstruir la historia es análoga a la forma en que opera la
antropología etnocéntrica, donde se pretende entender y evaluar otras culturas en
términos de los valores, creencias y prácticas de la cultura propia. Sin embargo, una de las
ideas rectoras del trabajo de Kuhn es que así como hemos aprendido a vencer "nuestras
arraigadas resistencias etnocéntricas" cuando se trata de entender el mundo social de
otras culturas, también podemos aprender a hacer lo correspondiente al estudiar las
concepciones del mundo natural vigentes en otros periodos históricos (cf. Kuhn, 1991a,
pp. 21-22). Quienes estudian la ciencia, sean filósofos, sociólogos, historiadores o
psicólogos, no tienen por qué partir de una imagen tan desvirtuada de esta empresa, la
cual resulta de proyectar en las fuentes históricas los conceptos, problemas y criterios de
la ciencia presente.
Kuhn mismo, con sus estudios de casos de historia de la ciencia, contribuyó a
consolidar un paradigma historiográfico no presentista. En su primera incursión en la física
de Aristóteles, en 1947, encontró que hay diferentes posibilidades de adscribir significado a
los conceptos clave de un texto científico, y que éstas traen consigo enormes diferencias
en la comprensión global del enfoque teórico plasmado en el texto. Kuhn también encontró
que una vía muy efectiva para descubrir interpretaciones alternativas es la de comenzar
por los pasajes anómalos de un texto, aquellos que en una primera lectura nos resultan
absurdos o sin sentido, intentando hacerlos inteligibles y coherentes por medio de
modificaciones en el significado de algunos de sus conceptos básicos. Cuando se tiene

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 45
46

éxito, usualmente se logra una forma de lectura alterativa del texto entero, donde éste
parece representar un mundo diferente (en el siguiente capítulo retomaremos la manera
como Kuhn concibe el trabajo del historiador).
Desde luego, estas intuiciones sobre la forma de llevar a cabo una reconstrucción
histórica no resultaban novedosas para alguien que estuviera familiarizado con la tradición
hermenéutica continental, con la cual, por cierto, Kuhn no lo estaba en aquel tiempo. Sin
embargo, la aplicación de las técnicas interpretativas -de la lectura hermenéutica- a textos
científicos de otra época, sí era una novedad. Era el rasgo distintivo de una nueva
generación de historiadores de la ciencia, a la cual pertenecía Kuhn, generación que estaba
fuertemente influenciada por el trabajo de Alexandre Koyré. De esta manera, la
transformación que sufre este campo de investigación -en los años cincuenta- se da al
mismo tiempo que comienza el desarrollo de la historia de la ciencia, como una disciplina
académica, en los Estados Unidos.
Ahora bien, en torno a la noción del progreso científico como acumulativo, también
es considerable el grupo de quienes aceptan que el desarrollo de la ciencia no siempre ha
sido acumulativo, pero piensan que ello sólo se debe a la interferencia de factores
subjetivos, a la distorsión que ejerce la idiosincrasia de los hombres en el camino hacia la
verdad. De aquí que sigan pensando que el incremento constante del conocimiento
científico es el ideal que hay que perseguir. Según Kuhn, este "ideal acumulativista"
encuentra su justificación en el paradigma epistemológico dominante, el positivista, "que
considera que el conocimiento es una construcción hecha por la mente directamente sobre
datos sensoriales no elaborados" (Kuhn, 1962, p. 96; pp. 154-155). De aquí que el
desarrollo científico se conciba como la continua incorporación de unas teorías en otras.
Las teorías más desarrolladas simplemente cubren más información empírica que sus
antecesoras, por lo cual éstas son -en principio- deducibles de (o subsumibles en) las
teorías posteriores.
Si bien esta explicación no es incorrecta, sin embargo no expresa el fondo del
asunto. Habría que rastrear la justificación del ideal acumulativista en el supuesto más
arraigado y extendido sobre un método universal de evaluación y elección de teorías. Este
método se ha considerado como la garantía de que las teorías sucesivas tiendan hacia la
descripción correcta del mundo, ya sea que el acercamiento se interprete en el sentido de
tener cada vez más verdades empíricas (paradigma epistemológico positivista), o en el
peculiar sentido popperiano de tener cada vez menos falsedades (paradigma
epistemológico del racionalismo crítico).
Un claro indicador de que el ideal acumulativista descansa en este supuesto
metodológico, lo encontramos en la estrategia que el mismo Kuhn utiliza al rebatir a los
defensores de dicho ideal. Esta estrategia argumentativa se podría delinear como sigue:
para entender por qué fracasa el ideal acumulativista hay que entender por qué la elección
entre teorías rivales no se puede resolver por un procedimiento sistemático de decisión
(apelando a una lógica inductiva y la experiencia neutral, como pretendían los empiristas

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 46
47

lógicos; o mediante decisiones claramente gobernadas por reglas metodológicas, como


proponen los racionalistas críticos). El desarrollo científico no ha sido acumulativo -y
difícilmente podría haberlo sido- porque las diferencias entre paradigmas rivales los hacen
inconmensurables.
La inconmensurabilidad es la noción clave del modelo de Kuhn para entender las
revoluciones científicas, y en ella se encuentra la raíz de las principales desviaciones
respecto de los enfoques tradicionales en la filosofía de la ciencia. A reserva de emprender
un análisis detallado en el siguiente capítulo, a continuación sólo enumeramos algunos de
los rasgos e implicaciones de esta noción. En primer lugar, la inconmensurabilidad
representa el arma más efectiva contra la idea de progreso acumulativo dado que es el
indicador más claro de rupturas y pérdidas en la evolución de una disciplina. Las
revoluciones científicas siempre tienen algún aspecto destructivo, y las teorías sucesoras, a
pesar de ser globalmente más exitosas que sus antecesoras, con frecuencia no pueden re-
producir todos los logros explicativos de éstas. En segundo lugar, como la
inconmensurabilidad implica un cambio de significado en los conceptos básicos de teorías
sucesivas, tenemos que se viene abajo la popular idea de que las teorías posteriores
incluyen las anteriores. De esta manera, la relación de subsunción o reducción interteórica
pierde su lugar central en la explicación del desarrollo científico. En tercer lugar, la
evaluación de teorías alternativas se vuelve una cuestión mucho más complicada, ya que el
fenómeno del cambio conceptual impide reconstruirla como una simple comparación,
enunciado por enunciado, entre las consecuencias de las teorías rivales. Como también
veremos, a esto se le suma el problema de que los criterios de evaluación no tienen una
aplicación unívoca. De todos modos, bastaría el fenómeno de la inconmensurabilidad para
mostrar que la elección de teorías no está gobernada por procedimientos algorítmicos de
decisión. Pero si no podemos contar con un método canónico y universalmente aplicable,
el ideal de desarrolle acumulativo se queda sin justificación.
Conviene aclarar que Kuhn de ninguna manera niega la idea de progreso en la
ciencia; lo que no comparte con la tradición es la interpretación del progreso como un
acercamiento a la descripción verdadera del mundo. Su planteamiento sería, más bien, el
inverso del tradicional: a juzgar por los sorprendentes logros alcanzados por la ciencia, tal
parece que no es necesario (y quizá ni siquiera conveniente) que el desarrollo científico
sea acumulativo. Sigamos entonces la estrategia que acabamos de delinear, comenzando
con el análisis de las situaciones donde se gestan las rupturas o discontinuidades.

LA SITUACIÓN DE CRISIS
Toda tradición de investigación normal, en su afán de mejorar y extender el ajuste
entre teoría y experiencia, se enfrenta tarde o temprano con anomalías que se muestran lo
suficientemente reacias a solución como para minar la confianza de la comunidad en su
enfoque teórico, provocando la búsqueda de posibles sustitutos. Es entonces cuando se
inicia un periodo de ciencia extraordinaria, el cual puede desembocar en el desplazamiento

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 47
48

de un paradigma por otro, esto es, en una revolución. Como vimos, sólo en estos periodos
se pone en tela de juicio una teoría que ha llegado a ser paradigmática -que ha generado
una tradición fecunda de investigación-, ya que dicho cuestionamiento no puede ocurrir si
no se cumplen al menos dos condiciones: que dicha teoría haya sido incapaz de resolver
ciertas anomalías, y que exista una teoría alternativa que parezca resolverlas. En palabras
de Kuhn: "la contrastación de un paradigma sólo tiene lugar cuando el fracaso persistente
en resolver un enigma importante ha producido una crisis. E incluso entonces, la
contrastación ocurre solamente después de que la sensación de crisis ha producido un
candidato alternativo a paradigma" (ibid., p. 145; p. 225).
Si bien no se puede caracterizar de manera general en qué circunstancias una
anomalía provoca una crisis, es decir, el brote de una serie de intentos de reajuste o
modificación de los supuestos básicos del paradigma vigente, no obstante queda claro que
las anomalías son una condición necesaria aunque no suficiente.

A veces, una anomalía pondrá claramente en entredicho generalizaciones


explícitas y fundamentales de un paradigma, como lo hizo el problema del
arrastre del éter para quienes aceptaban la teoría de Maxwell. O, como en la
revolución copernicana, una anomalía sin aparente importancia fundamental
puede provocar una crisis si las aplicaciones que inhibe tienen una importancia
práctica particular, en este caso para el diseño del calendario y la astrología. O,
como en la química del siglo XVIII, el mismo desarrollo de la ciencia normal
puede transformar una anomalía, que anteriormente sólo había sido una molestia,
en fuente de crisis: el problema de las relaciones de peso tuvo un carácter muy
diferente después de la evolución de las técnicas químico-neumáticas.
Presumiblemente, todavía hay otras circunstancias que pueden hacer que una
anomalía resulte especialmente apremiante, y ordinariamente se combinarán
varias de ellas (ibid., p. 82; pp. 135-136).

Ahora bien, la primera forma en que Kuhn intentó dar cuenta de los desacuerdos
que surgen una vez que se ha llegado a la situación de crisis dio lugar a mucha confusión.
Según decía, el conflicto entre el paradigma que descubre una anomalía y aquel que más
tarde hace que la anomalía deje de serlo era inevitable, dado que la teoría del nuevo
paradigma debería implicar algunas predicciones que fueran diferentes de las predicciones
derivadas de su antecesora para poder tener éxito en la solución de las anomalías. Y como
esa diferencia en las predicciones mostraba la incompatibilidad lógica entre las teorías
rivales, el proceso de aceptación de la nueva teoría debería implicar el rechazo de la teoría
anterior (cf. ibid., p. 97; p. 157).
Estas afirmaciones, que de entrada pueden sonar plausibles, resultaban sin
embargo poco coherentes con la tesis central de Kuhn sobre el cambio revolucionario, la
tesis de inconmensurabilidad; de aquí que hayan dado lugar a muchos malentendidos y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 48
49

algunas críticas justificadas (cf., por ejemplo, Shapere, 1964). La afirmación de


"incompatibilidad lógica", si no se circunscribe, da a entender que los términos de teorías
rivales tienen, todos, el mismo significado; los enunciados empíricos, para poder entrar en
contradicción, tienen que suponer la misma semántica. Pero la tesis de
inconmensurabilidad apunta justamente a una divergencia de significado entre los
términos básicos de teorías alternativas. Aunque estas teorías utilicen los mismos términos,
algunos de esos términos expresan conceptos distintos. Por tanto, cuando Kuhn en ciertos
pasajes de ERC habla de "contradicción" entre, por ejemplo, la mecánica relativista y la
mecánica clásica, hay que tener presente que ésa era una forma inadecuada de expresar
sus ideas -que más tarde rectificó y para nada significa que las teorías en competencia
compartan los mismos conceptos.
El conflicto que en efecto se presenta entre teorías alternativas no se reduce a una
cuestión de inconsistencia lógica, es decir, al hecho de que haya enunciados que son
verdaderos en una teoría y falsos en la otra. El problema de fondo -que examinaremos en
detalle en el siguiente capítulo- estriba en que las diferencias entre las estructuras
conceptuales de las teorías rivales impiden que éstas tengan el mismo poder expresivo: en
cada teoría se hacen algunas afirmaciones sobre el mundo que no son formulables o
expresables en la otra.
Otra cuestión que podría quedar velada por estas primeras formulaciones es el
hecho de que la solución de una anomalía, por más recalcitrante que sea, no
necesariamente tiene que provenir de una teoría rival. Recordemos que las vías por las
cuales se puede lograr el acuerdo entre una teoría y los hechos son sumamente diversas y
numerosas. Como muestra el análisis de la investigación normal, el espacio entre leyes
fundamentales y experiencia puede ser llenado con supuestos adicionales de muy distinto
tipo. Este resultado, que Kuhn utiliza en su crítica a las metodologías tradicionales, había
sido anticipado desde principios de siglo por P. Duhem y H. Poincaré, representantes de la
filosofía convencionalista, quienes mostraron que en principio siempre es posible
restablecer el acuerdo entre una teoría y los hechos sin modificar los principios
fundamentales de la teoría.
La importancia central de los supuestos adicionales en la derivación de predicciones
se pone claramente de manifiesto en los casos en que una anomalía, por largo tiempo
reacia a ser resuelta, encuentra finalmente acomodo dentro del mismo paradigma al añadir
o modificar algún supuesto adicional. Tomemos el caso, citado por el propio Kuhn, de la
predicción del movimiento del perigeo de la Luna. Esta predicción, utilizando el cálculo
newtoniano, era sólo de la mitad del movimiento observado. Durante sesenta años, los
mejores físicos y matemáticos de Europa se ocuparon sin éxito del problema, y mientras
tanto se hicieron algunas propuestas para modificar la ley fundamental de la gravitación,
propuestas que nadie llegó a tomar muy en serio. Finalmente, la paciencia con esta
importante anomalía resultó justificada: Clairaut demostró que la falla estaba en las
matemáticas utilizadas al aplicar la teoría, y por tanto la teoría podía seguir como hasta en-

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 49
50

tonces.
Ahora bien, decíamos que cuando una anomalía -o familia de anomalías- llega a
provocar una crisis, se inicia la transición a la ciencia extraordinaria. En este periodo, los
acuerdos básicos se resquebrajan, las "reglas del juego" de la ciencia normal pierden
fuerza y su aplicación se vuelve cada vez menos uniforme. Los intentos de solución, en la
medida en que persisten las anomalías, se vuelven cada vez más drásticos, es decir, se
dirigen al cuestionamiento y modificación de los componentes más atrincherados del
paradigma. Es en estos periodos cuando los científicos llegan incluso a interesarse por el
análisis filosófico de los supuestos de su disciplina. "No es un accidente que el surgimiento
de la física newtoniana en el siglo XVll, y el de la relatividad y la mecánica cuántica en el
siglo XX, hayan estado precedidos y acompañados por análisis filosóficos sobre los
fundamentos de su tradición de investigación" (ibid., p. 88; p. 144). También es en esta
etapa cuando los experimentos pensados o mentales cobran su mayor importancia,
experimentos que tienen como principal objetivo aislar la raíz de las anomalías al
cuestionar el paradigma en crisis de maneras no realizables en el laboratorio.
Así, las crisis debilitan los estereotipos pero al mismo tiempo generan los datos
necesarios para reconstruir el campo de investigación a partir de nuevos supuestos. Como
los científicos en esta situación "tienen la disposición para ensayarlo todo", proliferan los
intentos de articulación de estructuras teóricas alternativas, hasta que una de ellas logra
perfilarse como candidato rival del enfoque anterior. Ahora bien, es necesario insistir en
que no todas las crisis desembocan en el surgimiento de un candidato rival. Como vimos,
en algunas ocasiones el paradigma cuestionado se muestra finalmente capaz de resolver el
problema que provocó la crisis; en este caso se podría decir que la crisis sólo representó
un bache en el camino de la ciencia normal. En otras ocasiones, ni siquiera los enfoques
más radicalmente novedosos logran dar cuenta de las anomalías; esto hace pensar que en
el presente estado de la disciplina no es posible vislumbrar ninguna solución, y entonces
las anomalías se archivan y se les reserva para una etapa futura donde se cuente con
herramientas conceptuales o instrumentales más poderosas (cf. ibid, p. 84; en la
traducción al español no figura el párrafo donde Kuhn se refiere a estos dos casos). Sin
embargo, aquí examinaremos el caso que tiene repercusiones de mayor alcance, aquel
donde la crisis culmina con la aparición de un candidato rival y se inicia la competencia por
lograr la aceptación de la comunidad pertinente.

DIFERENCIAS ENTRE PARADIGMAS ALTERNATIVOS


¿Por qué la competencia entre enfoques teóricos alternativos no es el tipo de
competencia que pueda resolverse de manera concluyente? Las razones que ofrece Kuhn
se refieren a las diferencias que median entre paradigmas rivales, esto es, diferencias en el
nivel de los compromisos o supuestos básicos. En lo que sigue, examinaremos el repertorio
de estas diferencias de acuerdo con su presentación original, en ERC , pero al mismo
tiempo iremos destacando las conexiones entre ellas así como sus principales

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 50
51

implicaciones.
El análisis histórico-filosófico de los periodos donde impera el desacuerdo revela que
cualquier componente de una disciplina, por más esencial y constitutivo que hasta ese
momento se hubiera considerado, puede quedar sujeto a revisión. Las revoluciones
científicas no sólo muestran el reemplazo de principios teóricos fundamentales, en algunos
casos vigentes por siglos, como por ejemplo el principio del movimiento circular de los
cuerpos celestes, las leyes de Newton, el postulado de que la luz viaja en línea recta, la ley
de la conservación de la energía, la tesis de que las especies biológicas son fijas, el
principio de que todo suceso tiene una causa, etc. También muestran el cuestionamiento,
y eventual modificación, de otros ingredientes básicos de la empresa científica, como son
los datos o reportes de observación, los objetivos explicativos, los criterios de evaluación,
las normas de procedimiento, las técnicas experimentales, etc. Aunque conviene aclarar,
desde ahora, que esto no significa que en los periodos revolucionarios se pongan en duda,
y menos aún se lleguen a modificar, todos y cada uno de los componentes del marco de
investigación hasta entonces vigente. De cualquier manera, el análisis de las revoluciones
viene a prestar un refuerzo decisivo a la línea de argumentación contra la idea tradicional
de "fundamentos últimos del conocimiento" (fundamentos fijos, universales y necesarios),
sean del tipo que fueren.
Cuando Kuhn emprende la tarea de examinar, en casos concretos, las diferencias
que se dan entre quienes defienden teorías rivales, encuentra el siguiente repertorio. En
primer lugar, "cuando cambian los paradigmas, es usual que ocurran transformaciones
importantes en los criterios que determinan la legitimidad tanto de los problemas como de
las soluciones propuestas" (ibid., p. 109; p. 174). Y dos marcos de investigación que
difieren en qué representa un problema y qué cuenta como una buena solución, tendrán
que chocar al discutir los méritos de sus respectivos enfoques teóricos. Paradigmas
distintos suelen manejar normas de procedimiento distintas, e incluso pueden llegar a
discrepar en la manera de concebir su disciplina misma, en lo que ésta debe hacer y
explicar. En este sentido Kuhn llega a hablar, en ERC, de "inconmensurabilidad
metodológica".
Este tipo de diferencias se pueden ilustrar con el problema de la causa de la fuerza
de atracción entre partículas. La mecánica de Newton se topó -en sus inicios- con una
fuerte resistencia debido a que, a diferencia de las teorías aristotélica y cartesiana, no sólo
no ofrecía ninguna respuesta a este problema, sino que ni siquiera se lo planteaba. Así,
con la aceptación de la mecánica newtoniana se eliminó un problema que hasta entonces
había sido central en la disciplina. Sin embargo, la teoría general de la relatividad lo
retoma y pretende, nuevamente, haberle dado una respuesta. Esto revela que el
compromiso con ciertos postulados teóricos tiene repercusiones metodológicas, y que los
criterios de legitimidad para los problemas y de corrección para las soluciones pueden
variar de un marco de investigación a otro.
Otro tipo de diferencias, que son las que constituyen el núcleo de la tesis de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 51
52

inconmensurabilidad -como lo precisará Kuhn en los años setenta-, son las diferencias de
tipo conceptual: en el nuevo paradigma "los conceptos y los experimentos anteriores
entran en relaciones diferentes entre sí" (ibid., p. 149; p. 231). Por ejemplo: antes de la
teoría de la relatividad por "espacio" se entendía algo necesariamente plano, homogéneo,
isotrópico y no afectado por la presencia de materia; de otra manera la física de Newton
no hubiera funcionado. Para hacer la transición al universo de Einstein se tuvo que
modificar la red de relaciones entre los conceptos de espacio, tiempo, materia y fuerza, y,
a la vez, conectar esa nueva estructura conceptual con la naturaleza por medio de una
serie de supuestos igualmente novedosos. Este tipo de cambio conceptual, responsable de
que las teorías resulten inconmensurables, es lo que impide que las leyes fundamentales
de una teoría se deriven de las leyes de su sucesora. Los enunciados análogos a las leyes
de Newton -los cuales se deducen de la física de Einstein como un caso especial- no
pueden ser idénticos a las leyes newtonianas, pues al contener conceptos relativistas
(espacio, tiempo y masa einsteinianos) tienen un significado diferente. Éste es el
argumento central contra la concepción acumulativista del cambio científico, que como
vimos supone que el desarrollo consiste en la incorporación sucesiva de las teorías
anteriores en las posteriores, a través de un proceso de deducción (subsunción).
La tesis de que un cambio de paradigma lleva consigo cambios decisivos de
significado, cambios en la red conceptual a través de la cual los científicos estructuran su
campo de estudio, explicaría los problemas de comunicación que surgen en los periodos
revolucionarios. Los cambios conceptuales se reflejan en el lenguaje utilizado por los
especialistas de un mismo campo, en el significado diverso que adscriben a términos
comunes y en la manera en que determinan los referentes de dichos términos. De aquí
que quienes participan en los debates revolucionarios utilicen ciertas expresiones que, a
pesar de ser idénticas, se convierten en una fuente de malentendidos y pugnas
involuntarias. Sin embargo, como veremos, esta ruptura en la comunicación -que implica
un fracaso en establecer "un contacto completo con el otro punto de vista"- nunca es total
ni definitiva.
Ahora bien, el cambio conceptual no sólo abarca variaciones semánticas en los
términos teóricos (aquellos ligados a las leyes fundamentales), sino también se puede dar
en el nivel de los términos de observación. De esta manera, los científicos en pugna
también pueden discrepar en la caracterización y descripción del cuerpo de evidencia
observacional contra el cual juzgan sus hipótesis. Como vimos, Kuhn emprende una crítica
de fondo al supuesto empirista de una base de experiencia neutral y su lenguaje
correspondiente. No es posible contar con un lenguaje de observación neutral por la
sencilla razón de que tanto las operaciones de laboratorio como las mediciones están
condicionadas -posibilitadas y constreñidas- por algún marco conceptual previo. Para que
algo cuente como "dato" tiene que estar inmerso en algún sistema conceptual, el cual le
da un lugar en un mundo ya subdividido de cierta manera. Como veremos, esta tesis de la
"carga teórica" de la observación es uno de los pilares de la inconmensurabilidad.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 52
53

En cuanto a las diferencias en los compromisos ontológicos, se podría decir que


cuando mejor se aprecia que los marcos de investigación dan forma a la vida científica, no
sólo en los aspectos normativos o metodológicos sino también en los cognitivos, es
cuando se atiende a las diferencias en los supuestos de existencia, las cuales están
estrechamente relacionadas con los cambios conceptuales. "Los paradigmas sucesivos nos
dicen cosas diferentes acerca de la población del universo y acerca del comportamiento de
esa población. Esto es, ellos difieren acerca de cuestiones tales como la existencia de
partículas subatómicas, la naturaleza material de la luz, y la conservación del calor o de la
energía" (ibid., p. 103; p. 165). Estos supuestos sobre la existencia de ciertas entidades y
procesos, así como sobre su naturaleza y comportamiento, se reflejan en las categorías o
clases de cosas que supuestamente pueblan el mundo, y por tanto en la clasificación o
taxonomía del dominio de investigación. De aquí que un cambio en los compromisos
ontológicos vaya siempre emparejado con alguna modificación de la taxonomía con la cual
se trabaja en una disciplina.
En una visión retrospectiva del trabajo de Kuhn, se puede apreciar que este aspecto
del desarrollo científico, el cambio en las categorías y sistemas taxonómicos, adquiere una
importancia cada vez mayor. Aunque ciertamente es un aspecto que ya se destaca con
fuerza en ERC, como lo muestra la debatida afirmación de que "quienes proponen
paradigmas en competencia practican su profesión en mundos diferentes" (ibid., p. 150; p.
233), sin embargo la elucidación de los diversos problemas que plantea la in-
conmensurabilidad fue llevando a Kuhn a otorgar un peso cada vez mayor a los aspectos
ontológicos del cambio científico.
La controvertida idea de que los científicos, después de una revolución, "trabajan en
mundos diferentes", pone de relieve la estrecha relación entre los cambios conceptuales,
los cambios ontológicos y los cambios en la percepción del mundo. En ERC se dice que:
mientras el mundo aristotélico contiene cuerpos cuya caída hacia su lugar natural ha sido
obstaculizada, el mundo de Galileo contiene péndulos que podrían repetir su movimiento
una y otra vez hasta el infinito; mientras en un mundo químico las soluciones son
compuestos, en el otro son mezclas; mientras un mundo físico está inmerso en una matriz
plana del espacio, el otro lo está en una matriz curva, etc. Y de esto se concluye que: "AI
practicar en mundos diferentes, los dos grupos de científicos ven cosas diferentes cuando
miran desde el mismo punto en la misma dirección" (ibidem). Se podría decir entonces que
la inconmensurabilidad, cuyo núcleo es el cambio conceptual, condensa las diferencias en
los aspectos cognitivos. Por una parte, la divergencia de estructuras conceptuales refleja
las diferencias en los compromisos ontológicos, y por otra, induce diferencias en la
percepción del mundo (al discutir la posición de Kuhn frente al problema del realismo, en
el capítulo VII propondremos una forma de interpretar la idea del cambio de mundos así
como sus principales implicaciones).
El anterior recuento de las diferencias entre paradigmas rivales -entre normas de
procedimiento, estructuras conceptuales, supuestos ontológicos y percepción del mundo-

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 53
54

permite dar cuenta del siguiente hecho: quienes discuten los méritos de teorías al-
ternativas no parten de las mismas premisas, ni en los aspectos cognitivos ni en los
normativos. Por tanto, no pueden probar, con base en una argumentación que todos
deban aceptar, que una teoría es mejor que otra. "Precisamente porque es una transición
entre inconmensurables, la transición entre paradigmas en competencia no se puede hacer
paso a paso, forzada por la lógica y la experiencia neutral" (ibid., p. 150; p. 233).
Quienes participan en un debate argumentan frecuentemente de manera circular,
pues utilizan los elementos que les proporciona su propio marco de investigación. De esta
manera, resultará que cada teoría satisface bastante bien los criterios que dicta su
paradigma, y que falla con respecto a los criterios que establece su oponente. En el
modelo de Kuhn, los paradigmas, como marcos generales de investigación, son las
unidades máximamente comprehensivas dentro de las cuales se desarrolla la actividad
científica. No existe una instancia superior de apelación, a la manera de un árbitro
universal, a la cual se pueda recurrir en los periodos revolucionarios. Justo por eso son
revolucionarios. La existencia de una instancia semejante significaría que, a fin de cuentas,
no hay más que una manera correcta de hacer ciencia, como han supuesto los filósofos
clásicos. "Si no hubiera más que un conjunto de problemas científicos, un mundo en el que
poder ocuparse de ellos y un conjunto de normas para su solución, la competencia entre
paradigmas podría resolverse por medio de algún proceso más o menos rutinario, como
contar el número de problemas resueltos por cada uno de ellos" (ibid., pp. 147-148 y 229).
Por último, hay que decir que si bien las diferencias que campean en una
comunidad dividida revelan que el proceso de elección de teorías es mucho más complejo
de lo que hasta entonces se había supuesto, sin embargo el análisis detallado de la incon-
mensurabilidad -en el que Kuhn trabajó hasta sus últimos años- permitió poner en claro
que existen vías efectivas para restablecer la comunicación y el acuerdo en una comunidad
de especialistas, aunque ciertamente no se trata de las vías que desde la filosofía
tradicional de la ciencia se hubieran podido vislumbrar.

IV. LA NOCIÓN DE INCONMENSURABILIDAD

PRIMERAS FORMULACIONES
Se puede decir, sin temor a exagerar, que no existe en la filosofía contemporánea
de la ciencia una noción que se haya considerado más extravagante, que haya sido más
controvertida y más distorsionada, que la noción de inconmensurabilidad. También se
puede afirmar que ninguna noción tuvo un papel más decisivo que ésta en la trayectoria
intelectual de Thomas Kuhn. En una de sus últimas publicaciones Kuhn declara: "Mi
encuentro con la inconmensurabilidad fue el primer paso en el camino hacia La estructura,
y esta noción todavía me parece la innovación central que introdujo el libro" (Kuhn, 1993b,
pp. 314-315). Y en otro trabajo de los años noventa nos dice:

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 54
55

Ningún otro aspecto de La estructura me ha concernido tan profundamente


en los treinta años desde que se escribió el libro, y después de esos años emerjo
sintiendo más fuertemente que nunca que la inconmensurabilidad tiene que ser
un componente esencial de cualquier concepción histórica o evolutiva del
desarrollo del conocimiento científico (Kuhn, 1991, p. 3).

De aquí que la idea de inconmensurabilidad constituya un eje privilegiado para


rastrear las tesis centrales de Kuhn sobre el cambio científico.
En cuanto a la enorme controversia que desató esta noción, uno de los disparadores
se halla en su carácter eminentemente filosófico. Si bien las tesis filosóficas rara vez
reúnen un acuerdo significativo, la situación se agrava cuando se trata de tesis o nociones
que, como en este caso, tienen implicaciones de largo alcance. La inconmensurabilidad, al
poner al descubierto el cambio de significado que acompaña al cambio de paradigmas,
obligó a replantear el problema metodológico de la comparación y elección de teorías,
renovando con ello la discusión sobre la racionalidad científica. Pero no sólo eso. La
inconmensurabilidad tiene también implicaciones ontológicas, las cuales contribuyeron a
reavivar la vieja polémica sobre el realismo y, en particular, el debate sobre la relación
entre el conocimiento científico y el mundo. Se trata, entonces, de una idea que introdujo
nuevos vectores en los ejes centrales de la reflexión filosófica sobre la ciencia.
Por otra parte, la controversia se complicó por el hecho de que Kuhn no es el único
progenitor de la idea de inconmensurabilidad. Paul Feyerabend publica en 1962 -el mismo
año en que aparece ERC- "Explanation, Reduction and Empiricism", donde plantea una
noción que, a pesar de su parecido con la idea kuhniana, sin embargo presenta diferencias
de fondo. Esto ha dado pie para que con frecuencia se pasen por alto esas diferencias y se
confundan ambas nociones. A lo anterior se añade el hecho de que la idea de
inconmensurabilidad, en el pensamiento de Kuhn, atraviesa por un proceso de clarificación,
aunque no de modificación sustancial, como intentaremos mostrar; de aquí que un análisis
detallado deba tomar en cuenta que no hay una formulación única. Comenzaremos
entonces con un rápido cotejo de las formulaciones originales de Kuhn y Feyerabend, para
ubicar el punto del que arranca la evolución de la idea de inconmensurabilidad en el
pensamiento de Kuhn.
Feyerabend, desde un principio, ubica la inconmensurabilidad en el terreno
semántico: debido al cambio de significado que sufren sus términos básicos, las teorías
sucesivas no tienen consecuencias empíricas comunes, y esto impide que en una sucesión
de teorías las teorías anteriores se subsuman en las posteriores. Feyerabend, al igual que
Kuhn, tiene como uno de sus objetivos centrales atacar la concepción acumulativista del
desarrollo científico, pero le enfrenta una tesis mucho más radical: el cambio semántico se
extiende a la totalidad de términos descriptivos que ocurren en las teorías
inconmensurables, de aquí que estas teorías no puedan compartir ninguna afirmación
empírica. En cambio, para Kuhn, la variación de significado se queda confinada en un

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 55
56

grupo limitado de términos, que usualmente se interdefinen, pudiendo subsistir cierta base
semántica común entre las teorías rivales.
Al referirse a sus discrepancias y coincidencias originales con Feyerabend, veinte
años después, Kuhn afirma:
Mi uso del término [inconmensurabilidad] era más amplio que el suyo; sus
posiciones respecto del fenómeno eran más radicales que las mías; pero nuestra
coincidencia en aquel tiempo era sustancial. Cada uno de nosotros estaba
fundamentalmente preocupado por mostrar que los significados de los términos y
conceptos –‘fuerza' y 'masa', por ejemplo, o 'elemento' y 'compuesto'- cambiaban
con frecuencia según la teoría en que aparecían. Y ambos afirmábamos que
cuando ocurría este tipo de cambio era imposible definir todos los términos de
una teoría en el vocabulario de la otra. Cada uno de nosotros incorporaba esta
última afirmación al hablar de la inconmensurabilidad de las teorías científicas
(Kuhn, 1983, p. 669).

El uso "más amplio" del término inconmensurabilidad, al que se refiere Kuhn en esta
cita, abarcaba las diferencias entre paradigmas rivales señaladas en ERC, diferencias que
no se agotan en los aspectos semánticos. Como vimos en el capítulo anterior, después de
una revolución ocurren cambios en el campo de problemas que se consideran legítimos y
en el peso que se les otorga, cambios que con frecuencia vienen acompañados de
transformaciones en los procedimientos experimentales o en las herramientas formales, así
como en los criterios de evaluación de las soluciones propuestas. También ocurre que
"después de una revolución los científicos trabajan en un mundo diferente", esto es, se
altera la forma como se perciben y describen ciertos fenómenos -lo cual pone de
manifiesto la dependencia teórica de la observación-, y se dan cambios en los
compromisos ontológicos básicos, es decir, en las entidades y procesos que los científicos
postulan como existentes.
Podemos decir entonces que la inconmensurabilidad, en la versión de ERC, queda
caracterizada como una relación que se predica entre paradigmas sucesivos, es decir,
entre tradiciones de investigación separadas por una revolución. La inconmensurabilidad
entra en escena, como protagonista principal, en la situación que plantea la transición
revolucionaria entre paradigmas, y abarca las diferencias que se presentan tanto en los
aspectos cognitivos (en los sistemas conceptuales, los postulados teóricos, los supuestos
de existencia y la percepción del mundo), como en los aspectos metodológicos en los
criterios de relevancia evaluación, las estrategias de procedimiento, las técnicas
experimentales, etc.). Por tanto, a esta primera caracterización la podríamos llamar "la for-
mulación global" de la inconmensurabilidad. Pero notemos que su carácter global viene
acompañado de una gran falta de precisión. Los paradigmas, como "constelación de
compromisos compartidos", contienen componentes muy diversos: creencias, prácticas,
valores, intereses, etc. De aquí que una relación entre entidades internamente tan

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 56
57

heterogéneas resulte muy difícil de aprehender.


En sus trabajos de los años setenta, Kuhn restringe el dominio de la relación de
inconmensurabilidad, con lo cual se gana precisión. Las entidades de las que se predica
esta relación ya no son los paradigmas considerados globalmente, o las tradiciones de
investigación, sino las teorías que se proponen en paradigmas sucesivos, y más
precisamente, sus léxicos o vocabularios. De esta manera, la inconmensurabilidad queda
acotada en el terreno semántico: dos teorías son inconmensurables cuando están
articuladas en lenguajes que no son completamente traducibles entre sí. El cambio de
significado que sufren ciertos términos al pasar de una teoría a otra impide que todos sus
enunciados sean mutuamente traducibles. Cuando dos teorías contienen términos básicos
que no son interdefinibles habrá afirmaciones de una teoría que no se puedan formular o
expresar en el léxico de la otra.
En el desarrollo de esta formulación semántica se destacan las siguientes tesis. 1)
Dadas dos teorías, la comparación uno-a-uno entre sus enunciados requiere que sean
formulables en un lenguaje común: "La comparación punto por punto de dos teorías
sucesivas exige un lenguaje en el cual puedan traducirse, sin pérdidas ni cambios, por lo
menos las consecuencias empíricas de ambas" (Kuhn, 1970b, p. 266). 2) En el caso de
teorías inconmensurables tal lenguaje es imposible: "No existe un lenguaje común en el
cual se puedan expresar completamente ambas teorías, y al que por tanto se pudiera
recurrir en una comparación punto por punto entre ellas" (Kuhn, 1976, p. 191).
Notemos que estas tesis suponen el carácter transitivo y simétrico de la relación de
traducibilidad, tanto entre términos como entre enunciados. Si hubiera un tercer lenguaje
en el que se pudieran traducir completamente dos teorías rivales, por transitividad y
simetría tendríamos que todos sus términos y enunciados resultarían traducibles entre sí.
De este modo, a través de ese tercer lenguaje, los enunciados de una teoría se podrían
comparar uno-a-uno con los de la otra, y juzgar su ajuste con la experiencia. Pero
justamente la divergencia semántica entre teorías inconmensurables cancela la posibilidad
de disponer de un lenguaje semejante. Como afirma Ulises Moulines: "enfrentados a dos
teorías inconmensurables, si son realmente tales, no podemos echar mano de algún
recurso indirecto, quizás una serie de teorías intermedias, que permita, aunque de manera
muy complicada, a la postre establecer una traducción adecuada de una teoría en la otra
[...]" (Moulines, 1991, p. 139).
De lo dicho hasta aquí, tenemos que la inconmensurabilidad queda ligada al fracaso
de traducción completa entre teorías, fracaso que repercute de manera directa en el tipo
de comparación que se puede establecer entre ellas. Y queda claro, por lo pronto, que la
inconmensurabilidad sólo impide un tipo determinado de comparación, la "comparación
punto por punto” a la que se refiere Kuhn. También se avizora que la clave para entender
esta situación se encuentra en un tipo peculiar de cambio semántico. Como veremos, un
léxico -un vocabulario estructurado- puede sufrir diversos y sucesivos cambios de
significado sin que ello conduzca a algún fracaso de traducción, como de hecho sucede en

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 57
58

los periodos de investigación normal.


Antes de examinar el tipo de cambio semántico que da lugar a la
inconmensurabilidad, debemos eliminar un grave malentendido que sigue rondando en las
discusiones metodológicas, malentendido que está en la base de buena parte de las
acusaciones de "irracionalista" que se le han hecho a Kuhn.

INCONMENSURABILIDAD Y POSIBILIDAD DE COMPARACIÓN


La tesis de inconmensurabilidad va directamente en contra de un supuesto muy
arraigado, que Kuhn considera un resabio del siglo XVll: la idea de que todo lo que se
puede decir en un lenguaje determinado puede ser dicho en cualquier otro lenguaje, al
menos aquello que sea suficientemente elemental, como es lo relacionado con la
percepción sensorial. Y Kuhn insiste, desde ERC hasta sus últimas publicaciones, tanto en
sus críticas a Quine como a Davidson y a Van Fraassen, en que hay que abandonar el
supuesto de la "traducibilidad universal" de los enunciados de observación, como quiera
que éstos se conciban (véase por ejemplo su crítica a Van Fraassen en Kuhn, 1992, pp. 4-
5).
Aquí se pone de relieve la estrecha relación entre la tesis de inconmensurabilidad y
la tesis epistemológica de la "carga teórica" de la observación, la cual encierra la idea de
que lo que vemos depende en alguna medida de nuestros sistemas de conceptos. Cuando
Kuhn emprendió el ataque al supuesto empirista de una base de experiencia neutral,
independiente de toda perspectiva teórica, su principal objetivo era mostrar que las
predicciones o consecuencias contrastables (observacionales) de las teorías no siempre son
formulables en un lenguaje común, esto es, no siempre son traducibles entre sí.
Considérese el caso de la mecánica clásica newtoniana y la teoría especial de la relatividad:
la segunda, a diferencia de la primera, entraña el carácter relacional de toda longitud,
masa y duración, sin que importe si estas propiedades mecánicas se predican de entidades
observadas o inobservadas, observables o inobservables. De aquí que aunque dichas
propiedades puedan, en algunos casos, tomar valores idénticos en sus respectivas escalas
--casos donde la mecánica clásica y la relativista dan predicciones numéricamente
idénticas- no por ello podemos afirmar que se trata de propiedades conceptualmente
idénticas. Como dice Feyerabend: "Esta disparidad conceptual, si se la toma en serio,
infecta hasta [las descripciones de] las situaciones más 'ordinarias"' (Feyerabend, 1970a,
p. 123).
Pero si no hay una base semántica, ni siquiera en el nivel de la experiencia
sensorial, que garantice la traducibilidad universal de las predicciones o afirmaciones
empíricas, se viene abajo el enfoque tradicional de la comparación de teorías. Justamente,
cuando las teorías son inconmensurables, cada una de ellas contendrá algunos conceptos y
afirmaciones sobre el mundo que no son expresables en el léxico de la otra. Y este límite
en el poder expresivo de tales teorías -su incapacidad para articular todo el contenido
semántico de la otra- impide una comparación punto por punto entre ellas. Pues queda

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 58
59

claro, bajo este nuevo enfoque, que en cada teoría puede haber enunciados de
observación que no tengan una contraparte en la otra.
La mayoría de los lectores de ERC estaban preparados para aceptar que, en efecto,
existen parcelas de la cultura donde un discurso es reemplazado por otro sin que exista
un protovocabulario, o un metavocabulario, en el que dichos discursos se pudieran traducir
completamente. Sin embargo, la afirmación de que este fenómeno también se presenta
entre teorías sucesivas de las ciencias naturales, se interpretó como si se afirmara que hay
teorías que no se pueden comparar, por lo que fue juzgada por muchos críticos de Kuhn
como un atentado contra la racionalidad de la ciencia. Bajo la penetrante influencia del
positivismo, la traducibilidad completa en el nivel de las consecuencias contrastables se
consideraba como un requisito indispensable de la comparación de teorías, y por tanto del
carácter racional de su elección.
Notemos que desde un punto de vista meramente histórico, el hecho de que ‘masa'
en la mecánica newtoniana no signifique lo mismo que 'masa' en la mecánica relativista, o
el que 'planeta' en la teoría de Ptolomeo no tenga el mismo significado que 'planeta' en la
teoría de Copérnico, podría considerarse sin mayor problema como un indicador más de lo
que sucede en el desarrollo científico. Sin embargo, tal divergencia semántica pone en tela
de juicio los modelos metodológicos clásicos, y no sólo los generados en la tradición del
positivismo lógico sino también los modelos de corte popperiano del racionalismo crítico.
A pesar de sus profundas diferencias, se puede afirmar que estos modelos
presentan una misma estructura básica: primero se enuncian las consecuencias
contrastables de las teorías alternativas en un lenguaje común, y después, mediante algún
algoritmo que establezca una medida de comparación de su verdad/falsedad -de sus
grados de confirmación o de sus grados de verosimilitud-, se elige entre ellas con total
acuerdo. Pero éste es nada menos el tipo de comparación que la inconmensurabilidad im-
pide, lo cual pone de manifiesto que en los modelos tradicionales se da por sentado que
"el problema de la elección de teorías puede resolverse empleando técnicas que sean
semánticamente neutrales" (Kuhn, 1970b, p. 234). En el caso de Popper, vale la pena
notar que su modelo para comparar el contenido empírico de dos teorías requería,
además, que una teoría se pudiera deducir de la otra, lo cual revela la exigencia de
conmensurabilidad no sólo en el nivel de las consecuencias contrastables, sino incluso en
el nivel de los postulados teóricos.
Contra este telón de fondo, no nos puede sorprender que la inconmensurabilidad se
haya interpretado como imposibilidad de comparación, esto es, como si se predicara de
pares de teorías que nada tienen que ver entre sí. Sin embargo, Kuhn nunca hubiera dicho
que, por ejemplo, la genética mendeliana y la teoría del calórico son inconmensurables, a
pesar de que en efecto sus términos básicos no se pueden traducir entre sí (o tal vez
hubiera dicho que lo son, pero en un sentido totalmente trivial). Su objetivo era
precisamente iluminar un hecho hasta entonces ignorado: la existencia de teorías que
pretenden "hablar de lo mismo" utilizando términos que, sin embargo, no son

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 59
60

intertraducibles. Por tanto, la tesis de inconmensurabilidad supone que las teorías tienen
un ámbito común de referencia; por eso pueden entrar en una competencia genuina y ser
objeto de un juicio comparativo. Piénsese en los consabidos ejemplos: la astronomía de
Ptolomeo y la de Copérnico, la química del flogisto y la del oxígeno, la mecánica cartesiana
y la newtoniana, la teoría del calórico y la termodinámica, etcétera.
Cuando Kuhn aclara que su noción no excluye la posibilidad de comparación, se
remite al origen del término:

'inconmensurabilidad' es un término tomado de la matemática y ahí no


tiene tal implicación. La hipotenusa de un triángulo rectángulo isósceles es
inconmensurable con su lado, pero ambos pueden ser comparados con el grado
de precisión que se desee. Lo que hace falta no es la comparabilidad sino una
unidad de longitud en términos de la cual ambos puedan ser medidos directa y
exactamente (Kuhn, 1976, p. 191).

Es así como la inconmensurabilidad matemática, entendida como la falta de una


unidad común de medida, se utiliza metafóricamente en el terreno de las teorías empíricas
para indicar la falta de un lenguaje común que permita su traducción sin pérdidas ni
residuos.
No está por demás subrayar que la tesis de inconmensurabilidad no invalida los
modelos tradicionales en todos los casos de comparación de teorías; sólo restringe su
campo de aplicación. Como dijimos (sección "Evaluación en ciencia normal", capítulo II), se
dan casos de teorías alternativas o, mejor dicho, "subteorías", que a pesar de discrepar
respecto a hipótesis de alto nivel de generalidad de hecho se desarrollan dentro de una
misma tradición de investigación y suponen, por tanto, el mismo sistema de conceptos y
leyes fundamentales. Estas subteorías, aunque rivales, son conmensurables, pues en
principio todas sus predicciones serían intertraducibles o formulables en un lenguaje
común, y en consecuencia se las podría comparar de acuerdo con el patrón básico
tradicional. Sin embargo, hay que decir que Kuhn no se ocupó de este tipo de
comparaciones -quizá por haberlas considerado hasta cierto punto rutinarias- y tampoco
analizó la posibilidad de que dentro de un mismo marco de investigación se generen
controversias significativas de orden teórico.
De cualquier manera, la pregunta que acapara la atención es cómo se comparan
teorías inconmensurables, y si es posible una elección racional entre ellas. Si la
inconmensurabilidad implicara, en efecto, imposibilidad de comparación, de entrada
quedaría cancelado todo intento por reconstruir la elección y el cambio de teorías como un
proceso racional. Pero semejante consecuencia no puede tener cabida en el proyecto de
alguien que, como Kuhn, está convencido de que "la práctica científica, tomada en su con-
junto, es el mejor ejemplo de racionalidad de que disponemos" (Kuhn, 1970c, p. 520). Lo
que sucede, más bien, es que la inconmensurabilidad abrió el camino hacia una nueva

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 60
61

concepción de la racionalidad científica, una concepción que, entre otras cosas, no está
fincada en la posibilidad de traducción completa.
Aunque pospondremos para el siguiente capítulo la cuestión de cómo se elige entre
teorías inconmensurables y cuál es la noción de racionalidad que introduce Kuhn en la
filosofía de la ciencia, desde ahora debemos iniciar el rastreo de una idea clave sobre la
relación entre inconmensurabilidad y racionalidad: la racionalidad sólo supone la
posibilidad de comprensión, no la posibilidad de traducción. La importancia de esta idea se
aprecia frente a la cantidad de críticos que todavía, en la década de los noventa, siguen
sosteniendo que la inconmensurabilidad obliga a Kuhn a concluir que "la elección racional
entre perspectivas teóricas rivales [es] imposible" (Laudan, 1996, p. 9). De acuerdo con la
reconstrucción que aquí se propone, la estrategia de Kuhn frente a este tipo de críticos
consistió en defender dos tesis encaminadas a apoyar la idea recién enunciada: 1) la
posibilidad de comprensión y la posibilidad de traducción no son equiparables; 2) la
elección de teorías rivales no requiere que éstas sean completamente intertraducibles. En
este capítulo (sección "Traducción y comprensión") veremos cuáles son las vías para lograr
la comprensión de teorías inconmensurables, comprensión sin la cual ni siquiera tendría
sentido plantearse el problema de su comparación, y menos aún el de su elección racional.
El examen de la segunda tesis se deja para el capítulo V. Por lo pronto, debemos retomar
la discusión de la inconmensurabilidad en el punto que la dejamos: considerada como un
fracaso de traducción generado por un tipo peculiar de cambio de significado.

INCONMENSURABILIDAD Y CAMBIO TAXONÓMICO


Cuando Kuhn rastrea el tipo cambio semántico que conduce a los fracasos de
traducción completa entre teorías, la clave la encuentra en las relaciones básicas de
semejanza/diferencia de acuerdo con las cuales se identifican y clasifican los objetos de un
dominio de investigación:

Un aspecto de toda revolución es que algunas de las relaciones de


semejanza cambian. Objetos que antes estaban agrupados en el mismo conjunto
son agrupados después en conjuntos diferentes, y viceversa. Piénsese en el Sol,
la Luna, Marte y la Tierra, antes y después de Copérnico; en la caída libre, el
movimiento pendular y el movimiento planetario, antes y después de Galileo; o en
las sales, las aleaciones, y las mezclas de azufre y limaduras de hierro, antes y
después de Dalton. Como la mayoría de los objetos, incluso dentro de los con-
juntos que se alteran, continúan agrupados igual, los nombres de los conjuntos
generalmente se conservan (Kuhn, 1970b, p. 275; cursivas añadidas).

Pero el hecho de transferir ciertos items (objetos, hechos, procesos) de una clase a
otra, puede implicar alteraciones cruciales en la estructura conceptual de las teorías:
"Transferir los metales del conjunto de los compuestos al conjunto de los elementos tuvo

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 61
62

un papel en el surgimiento de una nueva teoría de la combustión, de la acidez, y de la


diferencia entre la combinación física y química" (ibidem).
Este cambio en la forma de clasificar los objetos, que supone una alteración en las
pautas básicas de semejanza/diferencia, remite a un cambio en cierto tipo de conceptos,
los conceptos de clase, a los que Kuhn más tarde -en los años ochenta- se referirá como
"categorías taxonómicas". Se trata, por tanto, de un cambio semántico que no se reduce al
modo como las teorías rivales caracterizan su ámbito de referencia, sino de un cambio que
implica una modificación en la estructura de dicho ámbito. De aquí que no sólo varíe el
sentido (la intensión) de ciertos términos, sino también su referencia (su extensión). Esto
se aprecia fácilmente en el caso de la transición de la astronomía ptolomeica a la coper-
nicana. Antes de esta transición, la Luna era un caso paradigmático de planeta, el Sol
también era un planeta y la Tierra estaba fuera de la discusión; después, la Tierra pasó a
ser un planeta como Marte y Júpiter, el Sol pasó a ser una estrella, y la Luna se catalogó
como un nuevo tipo de objeto, un satélite. Es claro que la referencia del término 'planeta'
se alteró de manera drástica, alteración que no se puede interpretar como una mera
corrección puntual en el sistema ptolomeico. Se trata de un cambio que involucra una
modificación de los principios teóricos fundamentales -de las supuestas leyes de la
naturaleza-, junto con una manera diferente de asociar los términos con los objetos del
dominio de investigación.
Cuando ocurre un cambio de este tipo tienen que surgir problemas insuperables de
traducción. Por ejemplo: el contenido semántico de la afirmación copernicana "los planetas
giran alrededor del Sol" no se puede expresar en ningún enunciado que remita a la
taxonomía celeste supuesta en la afirmación ptolomeica "los planetas giran alrededor de la
Tierra". El término 'planeta', que aparece en ambas, refiere a conjuntos de objetos que a
pesar de traslaparse no contienen los mismos cuerpos celestes. De aquí que Kuhn afirme,
desde 1970, que los problemas de traducción se deben a que "los lenguajes recortan el
mundo de maneras diferentes" (ibid., p. 268).
Por contraste, conviene notar que la mayoría de los cambios de significado, aquellos
que ocurren en los periodos de ciencia normal, no implican alteraciones en la forma de
agrupar los objetos, ni por tanto en la estructura del ámbito de referencia. Por ejemplo:
una propiedad recién postulada de un fenómeno, pongamos por caso el de la radiación,
puede alterar el modo en que se determina la presencia de ese fenómeno, e incluso esa
propiedad puede llegar a considerarse necesaria para identificar los referentes del término
'radiación'. Sin embargo, tal tipo de alteración no necesariamente conduce a un cambio en
el conjunto de entidades o procesos con los que normalmente se relaciona un término. No
todo desarrollo semántico implica cambios en la estructura conceptual vigente, ni por tanto
genera inconmensurabilidad.
En los años ochenta, cuando Kuhn formula sus ideas sobre las revoluciones
científicas en términos de la taxonomía compartida por una comunidad, afirma: "lo que
caracteriza a las revoluciones es un cambio en varias de las categorías taxonómicas que

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 62
63

son requisito previo para las descripciones y generalizaciones científicas" (Kuhn, 1981, p.
20). De aquí que ahora se concentre en las características del cambio taxonómico,
haciendo explícitos algunos otros aspectos de la inconmensurabilidad. Un cambio de taxo-
nomía tiene siempre un carácter holista, es decir, nunca se da como una modificación
puntual en categorías aisladas. Por ejemplo: en la mecánica newtoniana los términos
'fuerza' y 'masa' son mutuamente dependientes, tanto en su aprendizaje como en su
aplicación, y la forma de su dependencia está dada justo por la segunda ley. Por esto los
términos 'fuerza' y 'masa' no son traducibles al lenguaje de una teoría física, como la
aristotélica o la einsteiniana, donde no se adopta la versión de Newton de la segunda ley.
"Para aprender cualquiera de estos tres modos de hacer mecánica, los términos
interrelacionados en alguna parte local de la red del lenguaje deben aprenderse o
reaprenderse juntos, y aplicarse luego a la naturaleza como un todo. No es posible
simplemente transmitirlos de manera individual mediante una traducción" (Kuhn, 1983, p.
677). Cabe decir que este aspecto holista está presente en todos los lenguajes, sean
naturales o científicos.
Ahora bien, un cambio de taxonomía, a pesar de tener un carácter holista, sólo se
refleja en un conjunto limitado de términos:

La mayoría de los términos comunes a las dos teorías funciona de la misma


forma en ambas; sus significados se preservan [...]. Surgen problemas de
traducción únicamente con un pequeño subgrupo de términos (que usualmente
se interdefinen), y con los enunciados que los contienen. La afirmación de que
dos teorías son inconmensurables es más modesta de lo que la mayor parte de
sus críticos ha supuesto (ibid., pp. 670-671).

Es aquí donde Kuhn hace explícito el carácter local (parcial) de la


inconmensurabilidad, y deja en claro que las teorías inconmensurables cuentan con una
considerable base semántica común, y por tanto con un cuerpo de información
compartida.
Sin duda, el carácter local de la inconmensurabilidad representa una ventaja. Desde
el punto de vista de la comparación de teorías, los términos que preservan su significado
proporcionan una base para llegar a comprender los términos inconmensurables. Pero
además, el margen de conmensurabilidad que subsiste en una revolución permite sostener
una de las tesis centrales de Kuhn: los cambios de paradigma traen consigo pérdidas de
contenido empírico, pérdidas que impiden dar una respuesta -desde la nueva teoría- a
problemas que antes la tenían. Como señala Larry Laudan, "la tesis de la pérdida de
contenido indiscutiblemente requiere de grados significativos de conmensurabilidad entre
marcos rivales" (Laudan, 1996, p. 10); de lo contrario, difícilmente se podría decir que una
teoría resuelve problemas donde la otra fracasa. Y si esta tesis no se pudiera hacer
inteligible, la crítica de Kuhn al modelo acumulativista se quedaría sin apoyo.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 63
64

Sin embargo, el carácter local de la inconmensurabilidad también permite sacar a la


luz un problema que había estado latente desde un principio: cómo se explica que la
inconmensurabilidad se restrinja a unos cuantos términos, es decir, a una región bien
delimitada de las estructuras conceptuales de teorías rivales. En otras palabras, ¿cómo se
explica que ciertos términos básicos cambien de significado, al pasar de una teoría a otra,
sin que contaminen o alteren a los demás? Aunque Kuhn no propone explícitamente una
vía de respuesta, ni se compromete con algún criterio general de distinción para los
términos científicos (que permitiera establecer cierta independencia entre ellos), sin
embargo, su análisis de las estructuras taxonómicas destaca ciertos aspectos del
significado que parecen acotar el efecto holista del cambio semántico. Como veremos,
tanto el carácter local de la inconmensurabilidad como la preservación de significados a
través de los cambios revolucionarios encuentran una explicación en la elucidación de los
cambios taxonómicos.
De lo dicho hasta aquí se destacan los siguientes aspectos: 1) la
inconmensurabilidad como un fracaso de traducción completa entre teorías; 2) el fracaso
de traducción como resultado de un cambio de tipo taxonómico, y 3) el cambio taxonómico
como un cambio de carácter holista pero al mismo tiempo local. Antes de seguir adelante
con el análisis de la formulación taxonómica de la inconmensurabilidad, conviene ilustrar
con un ejemplo los aspectos precisados hasta ahora.

UN CASO DE TEORÍAS INCONMENSURABLES


Como señalamos, la mayor parte de las intuiciones filosóficas de Kuhn está
motivada por su experiencia y su trabajo como historiador de la ciencia. Como él mismo
narra, su idea del cambio revolucionario se genera cuando intenta comprender la física
aristotélica, siendo un estudiante graduado de física, con el fin de impartir un curso sobre
el desarrollo de la mecánica a personas sin formación científica (en el año de 1947).
Invirtiendo el orden histórico, Kuhn describe de manera autobiográfica el proceso por el
cual una persona educada en el paradigma newtoniano llega a comprender el paradigma
aristotélico (cf Kuhn, 1981, pp. 8-12).
En un primer acercamiento a los textos de Aristóteles y teniendo en mente la
mecánica newtoniana, Kuhn esperaba responder "cuánta mecánica había sabido Aristóteles
y cuánta había dejado para que la descubriera gente como Galileo y Newton". Desde esta
perspectiva presentista, la respuesta era sencilla: Aristóteles no había sabido nada de
mecánica. Respuesta que por lo demás refleja la opinión que sigue siendo común. Pero no
sólo eso. Mientras Kuhn avanzaba en la lectura, Aristóteles le parecía un físico
"terriblemente malo" sobre todo en sus escritos sobre el movimiento, los cuales se le
presentaban como "llenos de errores garrafales". Sin embargo, estas conclusiones eran
inverosímiles. No podía ser que un talento como el de Aristóteles hubiera fallado de
manera tan sistemática al abordar los problemas de la mecánica; esto simplemente no
encajaba con la riqueza y el impacto de sus aportaciones en otros campos. Es entonces

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 64
65

cuando Kuhn se pregunta "¿No podrá ser que la culpa [sea] mía y no de Aristóteles?
Quizá sus palabras no significaban exactamente lo mismo para él y sus contemporáneos
que para mí y los míos" (ibid., p. 9). Y es cuando comienza a tratar de comprender los
textos desde otra perspectiva, logrando un reacomodo de las piezas del rompecabezas en
el que éstas encajan entre sí y aparecen de un modo globalmente nuevo. En esta
transformación, "una parte del flujo de la experiencia se ordena por sí misma de una forma
distinta y manifiesta pautas que no eran visibles anteriormente" (ibidem).
Lo que Kuhn logra en este proceso es un modo de leer la física aristotélica que le da
sentido y coherencia a los textos, sobre todo a los pasajes aparentemente absurdos. Se
destaca, por ejemplo, que el término 'movimiento' se refiere al cambio en general, y no
sólo al cambio de posición de un cuerpo físico (que es el objeto de estudio exclusivo de la
mecánica, a partir de Galileo y Newton). Fenómenos tales como el crecimiento (la
transformación de una bellota en roble), las alteraciones de intensidad (como el calen-
tamiento de una barra de hierro), y otros cambios cualitativos más generales (como la
transición de la enfermedad a la salud), son considerados por Aristóteles como tipos
particulares de movimiento. La relación de semejanza que él encuentra entre estos fenó-
menos hace que se agrupen en una misma clase o familia natural.
Otro aspecto de la física aristotélica, muy relacionado con el anterior, es el papel
fundamental que tienen las cualidades, desde un punto de vista ontológico, a diferencia
del que tiene la materia. Mientras que en la física newtoniana un cuerpo está constituido
por partículas de materia, y sus cualidades son una consecuencia del modo en que esas
partículas están dispuestas, se mueven e interactúan; en la concepción aristotélica la
materia es casi prescindible, en el sentido de que es un sustrato neutro que está presente
dondequiera que haya espacio o lugar. Un cuerpo particular existe en cualquier lugar en
donde ese sustrato neutro esté, a la manera de una esponja, lo suficientemente
impregnado de cualidades (calor, humedad, color, etc.) como para darle una identidad
individual. Por tanto, para Aristóteles el cambio se da por la alteración de las cualidades,
no de la materia. Y como la posición de un cuerpo -su "lugar"- es una de sus cualidades, el
movimiento como cambio de posición es un cambio de cualidad, es decir, un cambio de
estado, en lugar de ser en sí mismo un estado, como lo es para Newton.
Cuando se destacan estos y otros aspectos del punto de vista aristotélico, dichos
aspectos comienzan a prestarse apoyo entre sí y adquieren colectivamente un sentido que
no tienen por separado. Resulta claro, por ejemplo, que el hecho de ver el movimiento
como un cambio de cualidad es precisamente lo que establece su semejanza con todos los
demás tipos de cambio: de bellota a roble, de enfermedad a salud, etc. Otra idea que
cobra sentido, y que considerada en forma aislada parece absurda, es la del cambio de
posición como un cambio asimétrico, el cual se explica por el esfuerzo de los cuerpos para
alcanzar su "lugar natural". Cuando se supone que existe un conjunto de cualidades que
representan el estado natural de los cuerpos -aquel que realizan por sí mismos sin
intervención externa, y en el que permanecen una vez que lo han alcanzado-, el cambio de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 65
66

posición aparece claramente como una de las formas en que los cuerpos alcanzan su
estado natural (la posición natural de los cuerpos pesados, como las piedras, es el centro
del universo, la del fuego está en la periferia o esfera sublunar, etc.). Por tanto, de la
misma forma en que una bellota se desarrolla naturalmente en un roble, y no al revés, el
cambio de posición tiene que ser en un solo sentido, es decir, no puede ser simétrico.
Otro componente que resulta clave es la concepción aristotélica del vacío, sobre
todo por la particular claridad con que muestra las interconexiones de los aspectos ya
mencionados. Para Aristóteles el vacío resulta una idea incoherente: si la posición es una
cualidad, y si las cualidades no pueden existir separadas de la materia, entonces debe
haber materia dondequiera que haya posición, es decir, dondequiera que un cuerpo pueda
estar. Pero esto equivale a afirmar que debe haber materia en todas las partes del espacio.
Por tanto el vacío, es decir, el espacio sin materia, tiene el carácter de una noción como
círculo cuadrado. Alguien podría objetar que aunque el argumento es correcto su premisa
parece arbitraria, pues no es necesario que Aristóteles conciba la posición como una
cualidad. Sin embargo, como se dijo, este supuesto está en la base de su concepción del
movimiento como cambio de estado, concepción estrechamente ligada a la primacía
ontológica que Aristóteles otorga a las cualidades.
Además, si pudiera existir un vacío, el universo aristotélico no podría ser finito. Justo
porque materia y espacio son coextensos, el espacio termina donde la materia termina,
esto es, en la esfera más exterior, aquella más allá de la cual no hay nada en absoluto, ni
espacio ni materia. A esto se agrega otra razón, más fundamental, para excluir el vacío: si
el universo fuera infinito no tendría centro (cualquier punto podría ser considerado como el
centro), y en consecuencia no habría ninguna posición en la que los cuerpos pesados
pudieran realizar su estado natural. En términos de Aristóteles, en un vacío un cuerpo no
podría encontrar su lugar natural, pues sólo lo encuentra a través de una cadena
intermedia de materia. Es la presencia de materia lo que proporciona estructura al espacio.
"De esta manera, tanto la teoría de Aristóteles del movimiento local natural como la
antigua astronomía geocéntrica se verían amenazadas por un ataque a la doctrina
aristotélica del vacío. No hay manera de 'corregir' las ideas de Aristóteles sobre el vacío sin
reconstruir la mayor parte del resto de su física" (ibid., pp. 11-12).
Con base en este análisis, Kuhn intenta mostrar cómo embonan las distintas piezas
de la concepción aristotélica en un todo integral, el cual tuvo que romperse y
recomponerse en el camino hacia la mecánica newtoniana. Dada la fuerte
interdependencia de ciertos componentes conceptuales, la transición no se podría haber
hecho paso a paso, componente por componente. Aceptar, por ejemplo, que es posible un
vacío, dejando igual el resto de la estructura conceptual aristotélica, hubiera generado una
serie de inconsistencias y sinsentidos. Y lo mismo hubiera sucedido con la introducción
aislada del movimiento como un estado, o de las cualidades como dependientes de la
materia, o del movimiento como un puro cambio de posición, etcétera.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 66
67

En el cambio revolucionario, o bien se vive en la incoherencia o bien se


revisan a la vez varias generalizaciones interrelacionadas. Si estos mismos
cambios se introdujeran paso a paso, no habría ningún lugar intermedio en el que
pararse. Sólo los conjuntos inicial y final de generalizaciones proporcionan una
explicación coherente de la naturaleza [...]. Una imagen integrada de varios
aspectos de la naturaleza tiene que cambiarse a la vez (ibid., p. 19).

En esto consiste precisamente el carácter holista del cambio revolucionario.


La transición de la física aristotélica a la newtoniana también ilustra con claridad el
cambio taxonómico de fondo que tuvo lugar. Casos de movimiento que habían sido
paradigmáticos para Aristóteles, simplemente dejan de ser movimientos en el enfoque de
Newton. En la transición, una "clase natural" dejó de serlo; sus elementos fueron
redistribuidos en distintas clases de semejanza, alterando con ello algunas otras de las
clases preexistentes; y sólo una de ellas conservó el nombre de 'movimiento'. Esto es, se
operó un cambio en las pautas básicas de qué es semejante (diferente) a qué. Para los
aristotélicos, la piedra que cae era como el roble que crece, o como la persona que sana, o
como la flecha que vuela. Todos eran fenómenos que se ajustaban a la misma pauta de
semejanza: la de ser cambios de estado, donde el punto final del cambio (las cualidades o
los estados naturales) y el tiempo transcurrido en la transición eran los parámetros
relevantes. Esta relación de semejanza, que agrupaba dichos fenómenos bajo la misma
clase o categoría taxonómica, tuvo que ser sustituida en el desarrollo de la física
newtoniana; de otra manera, el movimiento no hubiera podido entrar en la misma
categoría que el reposo, y la idea de movimiento infinito -sin un punto final- hubiera sido
una contradicción en los términos.
Estos cambios en algunas de las categorías taxonómicas, a pesar de todo el
vocabulario común que permanece inalterado (piedra, roble, persona, caer, crecer, sanar,
etc.), tenían que generar cambios cruciales de significado y fracasos de traducción. Esto
es, tenían que dar lugar a teorías inconmensurables. Por tanto, se trate de un físico
aristotélico o newtoniano, el camino que tiene que seguir para llegar a comprender el otro
modo de hacer mecánica no puede reducirse a un proceso de traducción. Se requiere, más
bien, de un proceso de adquisición simultánea de conocimiento del lenguaje y
conocimiento del mundo. Por un lado, se debe aprender el significado de ciertos términos
básicos y la manera de asociarlos con la naturaleza; pero por otro, al mismo tiempo es
necesario aprender qué categorías de cosas pueblan el mundo y cuáles son los
comportamientos que les son permitidos. "En la mayor parte del proceso de aprendizaje
del lenguaje, estas dos clases de conocimiento -conocimiento de las palabras y
conocimiento de la naturaleza- se adquieren a la vez" (ibid., p. 21).
En conclusión, el ejemplo analizado muestra con claridad que el rasgo central de las
revoluciones científicas es la transformación del conocimiento del mundo que se encuentra
incorporado en las estructuras taxonómicas.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 67
68

TRADUCCIÓN Y COMPRENSIÓN
El caso de inconmensurabilidad que acabamos de examinar se basa en una
reconstrucción de la física aristotélica, hecha en el presente, encaminada a mostrar el tipo
de cambio que tuvo lugar en la transición a la física newtoniana. Pero entonces surge la si-
guiente pregunta: ¿cómo pueden tener éxito los historiadores de la ciencia al interpretar
teorías del pasado si éstas no son completamente traducibles al lenguaje de las teorías
actuales? ¿Acaso ese éxito no es una prueba de que tales teorías no son realmente
inconmensurables? Esta duda abre una línea de crítica a la tesis de inconmensurabilidad
que iría como sigue: autores como Kuhn y Feyerabend afirman que es imposible traducir
viejas teorías a un lenguaje actual, pero luego ellos mismos emprenden la tarea de
hacernos inteligibles esas teorías en el lenguaje que todos hablamos. Ciertamente, los
trabajos de Kuhn sobre Newton (1951), Copérnico (1957), Bohr (1969a), Carnot (1960),
Aristóteles (1981), Volta (1981) o Planck (1978) intentan hacernos comprender la forma en
que estos científicos concebían el mundo de su investigación. ¿Es incoherente entonces el
trabajo de Kuhn como historiador con sus ideas sobre el cambio científico?
La respuesta de Kuhn -en pocas palabras- es que esta línea de crítica, desarrollada
sobre todo por Davidson (1974), Kitcher (1978) y Putnam (1981), parte de un supuesto
equivocado: la ecuación entre interpretación y traducción (ecuación que conduce a la
boyante identificación entre inteligibilidad y traducibilidad). Según Kuhn, cuando estos
autores "esbozan la técnica de interpretación, todos ellos describen su resultado como una
traducción o esquema de traducción; y todos concluyen que su éxito es incompatible
incluso con la inconmensurabilidad local" (Kuhn, 1983, p. 671 ). Se podría decir, entonces,
que la estrategia de Kuhn consiste en voltear el argumento de sus críticos: el hecho de que
podamos llegar a comprender viejas teorías, inconmensurables con las actuales, muestra
que traducción e interpretación son dos quehaceres distintos. No en balde la idea de
inconmensurabilidad surge justamente de su trabajo como historiador de la ciencia.
Traducción e interpretación son actividades que fácilmente se confunden porque la
primera involucra casi siempre algún componente interpretativo, aunque sea mínimo.
"Pero en ese caso es necesario considerar que la traducción efectiva encierra dos procesos
que son distinguibles. La filosofía analítica actual se ha concentrado exclusivamente en uno
de ellos y lo ha confundido con el otro" (ibid., p. 672). Aquí es necesario aclarar que Kuhn
está considerando la traducción como generalmente se entiende a partir de las tesis de
Quine en Palabra y objeto (1960). La traducción "es una actividad cuasi-mecánica
gobernada por completo por un manual que especifica, como una función del contexto,
qué secuencia [de palabras] en un lenguaje puede ser sustituida, salva veritate, por una
secuencia dada en otro lenguaje. La traducción de esta clase es quineana" (Kuhn, 1990, p.
299). Un manual de traducción quineano, dicho rápidamente, consta de dos listas de
palabras y frases, una en la lengua del traductor, la otra en la lengua de la comunidad en
estudio. Cada elemento de una de las listas está conectado al menos con un elemento de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 68
69

la otra -frecuentemente con varios-, y cada conexión especifica una palabra o frase que,
según supone el traductor, puede ser sustituida en contextos apropiados por la expresión
correspondiente en la otra lista. Donde las conexiones son de uno a muchos, el manual
incluye especificaciones de los contextos en que debe preferirse una de las alternativas.
Este manual es el producto final de los esfuerzos de un "traductor radical" (cf. Quine,
1960, pp. 68-82).
De la naturaleza y función de un manual de traducción se desprenden, de acuerdo
con Kuhn, algunas diferencias importantes entre traducción e interpretación. La principal
es que el lenguaje en el que se expresa la traducción ya existía antes de que ésta
comenzara, y esto revela que el hecho de la traducción no altera los significados de las
palabras o frases que se utilizan al efectuarla. La segunda diferencia, estrechamente
vinculada con la anterior, es que la traducción consiste única y exclusivamente en una acti-
vidad de sustitución de expresiones; de aquí que las glosas y prefacios de los traductores
no formen parte, en sentido estricto, de la traducción; es más, una traducción perfecta no
los necesitaría en absoluto (cf. Kuhn, 1983, p. 672). Se podría decir, entonces, que la
traducción de un texto de un lenguaje ajeno tiene lugar cuando uno "cuenta la misma
historia" utilizando expresiones del lenguaje propio, pero donde lo distintivo de esta
actividad es que se lleva a cabo sin modificar los significados o rasgos semánticos de las
palabras o frases utilizadas (en particular, la forma en que se determinan los referentes de
las expresiones permanece inalterada).
Por contraste, el trabajo de un historiador de la ciencia exige, ante todo, tareas de
interpretación, no de traducción. El historiador que al leer un texto antiguo se topa con
pasajes sin sentido, pasajes que por lo general son relegados o descartados como pro-
ductos de la ignorancia, el error o la superstición, si es un buen historiador, sabe que las
aparentes anomalías del texto suelen ser producto de una lectura incorrecta, es decir, de
una lectura en que las palabras y frases se están entendiendo como si ocurrieran en el
discurso contemporáneo. De aquí la necesidad de construir una forma de lectura
alternativa y, en consecuencia, un léxico o vocabulario alternativo (que en ese momento
no existe): "Para comprender algún cuerpo de creencias científicas del pasado, el
historiador debe adquirir un léxico que, en algunas partes, difiere sistemáticamente de
aquel que es usual en sus días" (Kuhn, 1990, p. 298). La construcción de este léxico
requiere detectar aquellos términos -interconectados- que han cambiado de significado, y
además descubrir, por la vía de hipótesis interpretativas, el uso que tenían dichos términos
en el texto original. Un buen indicio de que se ha llegado a una interpretación adecuada es
que ésta permite dar sentido y coherencia a los pasajes anómalos. Quien realiza este tipo
de trabajo sabe que se necesitan lenguajes distintos para comprender textos de épocas
distintas: "Encontrar y transmitir un vocabulario que permita la descripción y la
comprensión de otros periodos u otras culturas es una parte esencial del trabajo de la
historia y la antropología" (Kuhn, 1983a, p. 568).
Un antropólogo en la situación en que Quine lo supone, al igual que el historiador

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 69
70

de la ciencia, comienza su investigación dominando sólo uno de los lenguajes. Al principio,


el texto sobre el que trabaja consiste, total o parcialmente, en ruidos o inscripciones
ininteligibles: "El 'traductor radical' de Quine es, de hecho, alguien que efectúa una
interpretación, y 'gavagai' ejemplifica el material ininteligible con el que comienza" (Kuhn,
1983, p. 672). Observando los comportamientos y las circunstancias en que se produce un
texto, el investigador se esfuerza por extraer un sentido del comportamiento
aparentemente lingüístico, formulando hipótesis que hagan inteligibles las proferencias o
inscripciones. Si tiene éxito en su empresa, al final habrá logrado aprender una nueva
lengua. Sin embargo, "aprender un nuevo lenguaje no es lo mismo que traducir de ese
lenguaje al propio. Tener éxito en lo primero no implica que se vaya a tener éxito en lo
segundo" (ibid., p. 673).
Queda como una cuestión abierta, que se tiene que dirimir en cada caso, en qué
medida el lenguaje recién aprendido es traducible a aquel con el que comenzó el
investigador. El nuevo lenguaje puede ser el de una comunidad extraña, como aquel
donde 'gavagai' es un término; o bien una versión más antigua del propio lenguaje, donde
ciertos términos funcionaban de forma diferente, como es común en el caso de los
historiadores; o bien el lenguaje de una nueva teoría científica, que es el caso del
investigador que se encuentra con una teoría rival de la suya. Ahora bien, puede resultar
que, en efecto, una parte del vocabulario del nuevo lenguaje sea traducible al del
investigador. Por ejemplo: en el caso del antropólogo de Quine, éste puede provenir de
una comunidad de hablantes familiarizados con los conejos, donde hay una palabra para
referirse a ellos; en estas circunstancias, el antropólogo sólo tiene que asociar 'gavagai'
con el término correspondiente de su propia lengua. También es posible que aun cuando
no se den esas circunstancias, el investigador logre describir en su propia lengua los
referentes de 'gavagai' (son peludos, tienen orejas largas, su cola parece un arbusto, etc.).
Si la descripción resulta afortunada, es decir, si cubre los objetos o situaciones que
suscitan las expresiones que contienen 'gavagai' (al menos en una correlación bastante
aproximada), el investigador habrá logrado producir una traducción, aun cuando ésta
consista en una larga secuencia de palabras.
Sin embargo, el quid del asunto está en que también es posible que no haya en la
lengua del antropólogo-intérprete una expresión que tenga la misma referencia que
'gavagai'. En este caso, al aprender a identificar gavagais lo más probable es que el
intérprete haya tenido que aprender a reconocer características de esos objetos que son
desconocidas o totalmente irrelevantes en su propia comunidad. Pues es muy posible que
los nativos de la comunidad estudiada estructuren el mundo animal de forma diferente,
utilizando patrones de semejanza/diferencia que generan clasificaciones distintas,
clasificaciones que no son homologables a las de la comunidad del antropólogo. "En estas
circunstancias, 'gavagai' permanecerá como un término nativo irreducible, que no puede
ser traducido [al lenguaje del antropólogo] [...]. Estas son las circunstancias para las que
yo reservaría el término 'inconmensurabilidad"' (ibidem).

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 70
71

El caso crucial, no sólo para el antropólogo y el historiador de la ciencia, sino


también para el científico que intenta comprender una nueva teoría, es cuando se topa con
términos cuyos referentes no puede determinar (identificar o describir) con sus propios re-
cursos lingüísticos, términos que además no puede incorporar a su propio léxico sin que
sus clases de objetos, sus "clases naturales", se vean seriamente trastocadas. Es decir,
cuando el investigador se encuentra con una clasificación o taxonomía que diverge
estructuralmente de la suya. En ese caso, la única vía para lograr la comprensión es el
aprendizaje del lenguaje. Al aprender un nuevo lenguaje, o teoría, aprendemos las
relaciones conceptuales que nos permiten determinar la referencia de sus términos, aun-
que algunos de esos términos no sean traducibles ni incorporables a nuestra lengua
materna o al lenguaje de nuestra comunidad científica.
De aquí que Kuhn -desde sus primeras alusiones a las tesis de Quine- haya
defendido la intuición de que el problema de la referencia es independiente del problema
de la traducción: "...identificar la referencia en un lenguaje ajeno no es equivalente a
producir un manual sistemático de traducción para ese lenguaje. La referencia y la
traducción son dos problemas, no uno solo, y no se resolverán juntos" (Kuhn, 1976, pp.
191-192). Sin embargo, hay que decir que las tesis de Quine sobre la traducción y la
referencia son más ricas y complejas de lo que Kuhn supone en sus observaciones críticas
a la idea de manual de traducción. Por una parte, la tesis de la "indeterminación de la
traducción" afirma la posibilidad de tener varios manuales empíricamente equivalentes
pero lógicamente incompatibles, sin que haya un hecho que nos permita decidir entre
ellos, con lo cual Quine puso de relieve una serie de dificultades semánticas hasta
entonces inadvertidas (cf. Quine, 1970). Por otra parte, sus tesis sobre la referencia y los
compromisos ontológicos revelan acuerdos importantes con la posición que Kuhn adopta
frente al realismo científico (cf. la sección "El realismo científico", capítulo VII).
La diferencia de fondo entre Kuhn y Quine está en que mientras Quine parte de un
supuesto de traducibilidad universal -el supuesto de que lo que puede expresarse en un
lenguaje puede ser expresado en cualquier otro-, Kuhn supone la capacidad, en principio,
de aprender cualquier lenguaje, lo cual claramente lo compromete con un supuesto de
inteligibilidad universal. Y si bien éste es un supuesto muy fuerte de racionalidad, sin
embargo es distinto del de traducibilidad: "Cualquier cosa que se puede decir en un
lenguaje puede, con suficiente imaginación y esfuerzo, ser comprendida por un hablante
de otro lenguaje. El requisito previo para tal comprensión, sin embargo, no es la
traducción sino el aprendizaje del lenguaje" (Kuhn, 1990, p. 300). Quine observa que su
traductor radical podría escoger el camino "costoso" y "aprender el lenguaje directamente,
como lo aprendería un niño", pero considera que éste es simplemente un camino
alternativo hacia el mismo fin que se alcanza con su método del manual de traducción (cf.
Quine, 1960, p. 70 ss.). Kuhn, en cambio, afirma que el traductor radical es en realidad
alguien que aprende una nueva lengua, y que aunque eso no garantiza la posibilidad de
traducción completa entre su lengua y la recién adquirida, sí le permite llegar a

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 71
72

comprender una manera distinta de ver el mundo: "El aprendizaje del lenguaje y la
traducción son, como he enfatizado en años recientes, procesos muy distintos: el resultado
del primero es volverse bilingüe, y las personas bilingües reportan repetidamente que hay
cosas que pueden expresar en uno de los lenguajes que no pueden expresar en el otro"
(Kuhn, 1993b, p. 324).
El aprendizaje de un lenguaje no garantiza la traducibilidad completa debido a que
un léxico -un conjunto estructurado de términos- limita de entrada el rango de mundos, o
formas de ver el mundo, que son accesibles. Lo que de hecho se puede decir es relativo al
léxico de una comunidad, y los límites de lo expresable los ponen, en primer lugar, las
categorías taxonómicas que se expresan en los términos de clase. Por tanto, si diferentes
léxicos reflejan distintas estructuras taxonómicas, aprender un lenguaje implica aprender a
categorizar y estructurar el mundo de la experiencia de una determinada manera. Dicho
coloquialmente, aprender un lenguaje es aprender una cierta manera de recortar el
mundo.
Por otra parte, el fracaso de traducción no impide a los usuarios de uno de los
lenguajes aprender el otro. Incluso se podría decir que después de haberlo aprendido
pueden "enriquecer" su léxico añadiendo el nuevo, pero se trata de un enriquecimiento en
un sentido muy peculiar. La integridad de cada lenguaje requiere que el léxico añadido se
mantenga segregado y claramente reservado para cierto tipo de propósitos o discursos,
discursos donde los participantes tienen claro que el léxico de otras culturas o periodos
históricos no se está utilizando para referirse al mundo tal como ellos lo conciben. Para que
la comunicación sea efectiva, quienes participan en ella deben saber, en todo momento,
qué léxico es el que está siendo utilizado. De otra manera, el resultado sería una mera
confusión. Así es como los filósofos pueden hablar de otros mundos posibles, como los
historiadores o antropólogos se refieren al mundo de otras épocas o culturas, o como los
escritores describen ciertos mundos ficticios (cf. Kuhn, 1990, p. 308).
Pasemos ahora a examinar más de cerca las nociones de taxonomía, significado y
aprendizaje, cuyo desarrollo paralelo mantiene como eje la idea de inconmensurabilidad.

TAXONOMÍAS, SIGNIFICADO Y APRENDIZAJE


Como habíamos dicho, en los años ochenta la noción de taxonomía adquiere
abiertamente el lugar central en el análisis de la inconmensurabilidad. El hablar de
taxonomía, en lugar de mera clasificación, apunta a cierto tipo de estructura jerárquica
entre los conceptos de clase (categorías) que comparte una comunidad. La idea de
jerarquía supone una relación de subordinación o inclusión entre algunas de las clases de
entidades que conforman un dominio de investigación (como sería la relación entre la clase
"arsénico" y la clase "veneno"). Se trata además de una partición en sentido lógico, donde
las clases contenidas en alguna categoría superior, clases que no están subordinadas entre
sí, no se pueden traslapar, esto es, no pueden tener ningún elemento en común (dicho
muy burdamente, no puede haber perros que también sean gatos, ni objetos de oro puro

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 72
73

que también sean de plata).


Debido a este "principio de no-traslape", cuando los miembros de una comunidad se
encuentran con un objeto que aparentemente pertenece a clases distintas (como en el
caso del ornitorrinco con pico de pato), no pueden limitarse a agregar una nueva clase al
repertorio de sus clases de objetos, sino que se ven obligados a rediseñar una parte de la
taxonomía establecida (cf. Kuhn, 1991, pp. 4-5). Pero en ese caso, la estructura de la
taxonomía resultante ya no será homologable (congruente o isomorfa) con la anterior, y es
en esta divergencia de estructuras donde se encuentra, justamente, el origen de los
problemas de traducción: "las dificultades en la traducción surgen de la misma causa, el
frecuente fracaso de diferentes lenguajes para preservar las relaciones estructurales entre
las palabras, o en el caso de la ciencia, entre los términos de clase" (Kuhn, 1993b, p. 324).
Es así como se obtiene la siguiente formulación, que podríamos llamar "la
formulación taxonómica" de la inconmensurabilidad: dos teorías son inconmensurables
cuando sus estructuras taxonómicas no son homologables. Y como se puede ver, la
relación que hay entre la formulación semántica y la formulación taxonómica es la misma
que se da entre un nivel sintomático y un nivel explicativo. Si bien el síntoma inequívoco
de que dos teorías son inconmensurables es el fracaso en su traducción completa, la causa
de dicho fracaso es la falta de homología entre sus estructuras taxonómicas. No estamos,
entonces, frente a un viraje en el pensamiento de Kuhn, sino ante un proceso de
clarificación y profundización de sus planteamientos e intuiciones originales.
Por lo que toca a la idea de estructura taxonómica, hay que decir que si bien no es
necesario que los conceptos de clase tengan un nombre o un término asociado, "en las
poblaciones lingüísticamente dotadas la mayoría de ellos lo tiene"; de aquí que Kuhn
concentre su atención en los términos de clase y en las taxonomías léxicas. Los términos
de clase incluyen clases naturales, clases de artefactos, clases sociales, y probablemente
otras. Desde el punto de vista gramatical, son aquellos sustantivos que pueden tomar el
artículo indefinido (un, una), y en el caso de los sustantivos de masa (mass nouns), como
'oro', lo toman cuando se unen a un sustantivo contable (count noun), como en 'un anillo
de oro'. Desde el punto de vista lógico, son precisamente los términos que inducen una
partición en el ámbito de referencia de una teoría. También hay que insistir en que una
taxonomía léxica se adquiere junto con las relaciones primitivas (no definidas) de
semejanza/ diferencia que se aprenden durante la educación, ya sea en la educación
profesional o en el proceso más amplio de socialización. Pero sobre todo, el interés en los
términos de clase obedece a que las categorías conceptuales que nombran son un
requisito indispensable de cualquier descripción y generalización empírica, y por tanto de
toda comunicación:

alguna taxonomía léxica debe estar dada antes de que pueda comenzar la
descripción del mundo. Las categorías taxonómicas compartidas, al menos en un
área bajo discusión, son requisito previo de la comunicación no problemática,

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 73
74

incluyendo la comunicación requerida para la evaluación de las pretensiones de


verdad. Si diferentes comunidades de hablantes tienen taxonomías que difieren
en algún área local, los miembros de una de ellas pueden hacer afirmaciones que,
a pesar de ser completamente significativas dentro de su comunidad, no pueden
en principio ser articuladas por los miembros de la otra (Kuhn, 1991, p. 4).

Esto es, cuando divergen las taxonomías se presenta la inconmensurabilidad.


Por otra parte, resulta imprescindible detenerse en la concepción del significado que
Kuhn presupone y desarrolla. Como él mismo declara, los conceptos centrales de
revolución científica e inconmensurabilidad estuvieron basados, desde un principio, en el
cambio de significado. Sin embargo, "esa base estaba lejos de ser firme. Ni las teorías
tradicionales del significado, ni las teorías posteriores que reducían el significado a la
referencia, resultaban adecuadas para la articulación de estos conceptos" (Kuhn, 1993a, p.
xii). De aquí que Kuhn haya intentado elaborar algunos aspectos del significado que
permitieran apuntalar sus tesis sobre el cambio científico. Si bien es cierto que Kuhn nunca
emprendió directamente el desarrollo de una teoría semántica -al menos no en los trabajos
que publicó en vida-, su claro y constante interés en los problemas que rodean a la
traducción lo llevó a adentrarse, cada vez más, en el análisis de cuestiones sobre la
referencia y el significado. También cabe subrayar que las aportaciones de Kuhn al campo
de la semántica se distinguen por su fuerte apoyo en el proceso de aprendizaje de un
léxico; las intuiciones que subyacen en su concepción del significado, así como en sus
críticas a las concepciones tradicionales, surgen del examen del modo en que aprendemos
a asociar un lenguaje con el mundo.
Para delinear la concepción kuhniana del significado, lo primero que se debe señalar
es que los conceptos son algo que comparten ampliamente las comunidades (culturas o
subculturas), y además su transmisión de una generación a otra cumple un papel clave en
el proceso por el cual una comunidad "acredita a sus nuevos miembros" (véase Kuhn,
1991a, p. 20). Este carácter social de todo concepto, como producto y herramienta de una
colectividad, se manifiesta sobre todo en un primer aspecto del significado: "saber lo que
significa una palabra es saber cómo usarla para comunicarse con otros miembros de la
comunidad lingüística donde dicha palabra es común" (Kuhn, 1990, p. 301). Pero es im-
portante notar que esa habilidad no implica que se ha atrapado algo que es esencial o
intrínseco al concepto expresado, pues Kuhn rechaza la vieja distinción entre cualidades
primarias (definitorias) y cualidades secundarias (aparentes), aduciendo casos como el
siguiente: en 1750 los químicos consideraban que las diferencias primarias entre las
especies químicas reconocidas eran aquellas que se dan entre lo que ahora llamamos
estados de agregación (sólido, líquido, gaseoso), y en el caso del agua la liquidez era una
propiedad esencial; sin embargo, con la revolución que tuvo lugar a fines del siglo XVIII, la
taxonomía de la química se transformó de tal manera que una especie química podía
existir en los tres estados de agregación, y en adelante la distinción de estados se

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 74
75

consideró como una distinción física, no química (cf. ibid., p. 311). Este aspecto se vincula
claramente con la concepción de los significados como productos históricos, que cambian
inevitablemente en el transcurso del tiempo cuando cambian los usos y las demandas
sobre los términos que los expresan.
Por otra parte, salvo en contadas excepciones, "las palabras no tienen significado
individualmente, sino sólo a través de sus asociaciones con otras palabras dentro de un
campo semántico. Si cambia el uso de un término, normalmente el uso de los términos
asociados con él también cambia" (ibid., p. 301). Este aspecto holista, muy presente en el
análisis de la inconmensurabilidad, se conecta con otro aspecto del significado mucho
menos reconocido y de mayores consecuencias, que Kuhn desarrolla en estrecha relación
con el concepto de estructura taxonómica, y es el siguiente: dos personas pueden usar de
la misma manera un conjunto de términos, identificando los mismos referentes y
comunicándose con éxito, sin coincidir en los criterios que emplean: "Diferentes individuos
pueden elegir los referentes de los términos de diferentes maneras; lo que todos ellos
deben compartir, si la comunicación ha de ser exitosa, no son los criterios por los cuales
identifican los elementos de una categoría, sino más bien el patrón de relaciones de
semejanza/diferencia que esos criterios proporcionan" (Kuhn, 1993a, p. xiii).
Para aquilatar la alternativa semántica que encierra esta cita, así como la crítica que
implica a la concepción tradicional del significado, es necesario examinar cómo se adquiere
un léxico. Si bien desde ERC está presente la preocupación por la forma en que las
personas llegan a asociar un lenguaje con el mundo, Kuhn presta cada vez mayor atención
a este proceso de aprendizaje. En "Dubbing and Redubbing: The Vulnerability of Rigid
Designation" (1990), se concentra en la situación en que un estudiante aprende el léxico
específico de una teoría científica; sin embargo, se podría decir que este proceso es
básicamente similar al de un científico o un historiador que intenta comprender un
lenguaje inconmensurable con el suyo.
En primer lugar, el aprendizaje de un léxico especializado requiere que una buena
parte del vocabulario complementario esté bien asimilado (considérese la base semántica
que comparten las teorías rivales, dado el carácter local de la inconmensurabilidad). En
segundo lugar, en el proceso de adquisición de los nuevos términos las definiciones
cumplen un papel mínimo. Estos términos se transmiten, básicamente, mostrando las
situaciones a las que se aplican; esto es, a través de los ejemplos paradigmáticos de su
uso. Por lo general, esta tarea la realiza alguien que domina la nueva teoría y consiste en
demostraciones directas en el laboratorio, o en descripciones de aplicaciones donde se
utiliza el vocabulario que ya es familiar pero intercalando los términos por aprender. Por
tanto, en esta tarea es indispensable un componente ostensivo o estipulativo. Como vimos,
las palabras se tienen que aprender junto con las situaciones donde funcionan, y las
estipulaciones afectan "tanto al mundo como al lenguaje". De aquí que Kuhn afirme que
"las palabras y la naturaleza se aprenden juntas", y de aquí la importancia decisiva de las
aplicaciones paradigmáticas y de la práctica de resolución de problemas.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 75
76

En tercer lugar, para que el estudiante logre identificar los referentes de los nuevos
términos es necesario presentarle una cierta variedad de objetos o situaciones, variedad
que conforma un conjunto de contraste. Los conjuntos de contraste muestran las pautas
de semejanza/diferencia que son propias de una taxonomía. Para aprender el término
'líquido' -como se usa en un lenguaje no técnico- uno debe dominar también los términos
'sólido' y 'gas', de aquí que se deban aprender a la vez y formen un conjunto de contraste.
Otro ejemplo simple es el caso del niño que aprende a identificar gansos, distinguiéndolos
de patos y cisnes (cf. Kuhn, 1974). Los patrones que el niño requiere para usar
correctamente el término 'ganso' -donde correctamente sólo significa el acuerdo con el uso
estándar- no sólo destacan las semejanzas entre estos animales, sino también sus
diferencias con otros animales con los que se les podría confundir. Esto apunta a la función
de los conjuntos de contraste en la discriminación de las semejanzas y diferencias que son
relevantes en una comunidad, es decir, al "papel esencial de los conjuntos de términos que
las personas educadas en una cultura, sea científica o no, deben aprender a la vez" (Kuhn,
1983, p. 682).
En el caso de las teorías científicas, éstas contienen además grupos de términos que
se tienen que aprender simultáneamente, pero no porque formen un conjunto de
contraste, sino porque están insertos en generalizaciones nómicas que establecen la forma
de su mutua dependencia. Como se dijo, términos como 'fuerza', 'masa' y 'peso' deben
aprenderse junto con las leyes de la teoría en que figuran, y en situaciones donde estas
generalizaciones se aplican en la solución de problemas concretos. Estos grupos de
términos, que se tienen que aprender conjuntamente, reflejan lo característico de la
taxonomía de una teoría, la manera peculiar en que estructura su ámbito de referencia.
En cuarto lugar, en este proceso de aprendizaje también se forman expectativas
respecto de las propiedades y el comportamiento de los referentes de los términos.
Cuando un sujeto aprende a usar un conjunto de términos, aprende al mismo tiempo
generalizaciones que implican proyecciones sobre fenómenos futuros o aún no
examinados. Estas expectativas, que son la base de la proyectabilidad de los términos de
clase y de las inferencias inductivas, pueden variar de un sujeto a otro, pero esa variación
está limitada por la estructura taxonómica compartida. "Es la congruencia de estructuras lo
que hace que los significados sean los mismos para quienes han adquirido expectativas
diferentes a partir de su experiencia de aprendizaje" (Kuhn, 1993b, p. 340, n. 8). Dos
sujetos pueden creer y esperar cosas distintas de los referentes de sus términos, pero
identificarán los mismos referentes mientras sus estructuras léxicas sean homólogas. Ésta
es la pieza clave de la concepción semántica que Kuhn defiende.
Por último, quienes aprenden un lenguaje pueden seguir rutas de aprendizaje
distintas, lo cual explicaría el rango de variación en sus expectativas y en los criterios de
aplicación de los términos que comparten. Si bien la mayoría de las situaciones de
aprendizaje a las que se somete a los estudiantes son del mismo tipo -pues en ellas se
trabaja sobre las aplicaciones paradigmáticas-, sin embargo las rutas del proceso pueden

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 76
77

diferir. Por ejemplo: los términos 'masa' y 'peso' se pueden aprender por la vía de primero
introducir por estipulación la segunda ley de Newton y luego descubrir empíricamente la
ley de gravedad, o bien se pueden adquirir siguiendo el camino inverso.

Claramente estas dos rutas son muy diferentes, pero las diferencias no
interferirán en la completa comunicación entre quienes usan esos términos. Todos
ellos identificarán los mismos objetos y situaciones como los referentes de los
términos que comparten, y estarán de acuerdo en las leyes y otras
generalizaciones que gobiernan estos objetos y situaciones (Kuhn, 1990, p. 307).

En las comunidades no científicas, la diversidad de rutas de aprendizaje y criterios


de identificación de objetos es aún más evidente. Una anécdota graciosa que refleja esta
situación es la siguiente: una madre cuenta por primera vez a su hijita la historia de Adán
y Eva, y luego le enseña una estampa de la pareja en el jardín del Edén; la niña la mira y
dice con perplejidad: "Mamá, dime quién es quién, lo sabría si estuvieran vestidos" (cf.
Kuhn, 1983, p. 681).
El hecho de que personas con diferentes criterios y expectativas lleguen a usar de la
misma manera el léxico de su comunidad -identificando los mismos referentes- se explica
por el resultado al que conducen los análisis pedagógicos de Kuhn: el proceso de
aprendizaje de un lenguaje es, ante todo, un proceso en el que los sujetos adquieren
estructuras taxonómicas homólogas, estructuras que por tanto reflejan el mismo mundo.
De aquí que Kuhn afirme que: "cuando la estructura es diferente el mundo es diferente, el
lenguaje es privado, y cesa la comunicación hasta que un grupo aprende el lenguaje del
otro" (ibid., p. 683).
En conclusión, Kuhn intenta mostrar con su análisis del aprendizaje que la identidad
de significados -indispensable para la comunicación- depende básicamente de la
congruencia de estructuras léxicas, y por tanto el significado es una función de la estruc-
tura léxica. Esta concepción del significado tiene varias implicaciones. En primer lugar,
permite delinear una vía de respuesta al problema que habíamos dejado apuntado en
relación con el carácter local de la inconmensurabilidad: ¿cómo explicar que ciertos
términos cambien de significado, al pasar de una teoría a otra, sin que se alteren los
demás? La respuesta iría en el sentido de que sólo se alteran aquellos términos que están
directamente interconectados o vinculados, ya sea por pertenecer a un mismo grupo de
contraste o por estar insertos en alguna generalización nómica. Cuando se modifica alguno
de estos vínculos semánticos -la estructura de un grupo de contraste o de una
generalización nómica- naturalmente cambia el significado de todos los términos
involucrados, pero se trata de un cambio cuyo alcance se puede acotar. De aquí que Kuhn
afirme que, al cambiar un léxico, "puede cambiar el significado de algún grupo o grupos de
términos interrelacionados" (Kuhn, 1990, p. 308), y de aquí que sostenga el carácter local
de la inconmensurabilidad. Sin embargo, habría que analizar en detalle esta línea de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 77
78

respuesta y ver si, en efecto, es suficiente para acotar el efecto holista del cambio
semántico.
Por otra parte, el hecho de que los referentes de un léxico se aprendan a reconocer
mediante patrones de semejanza /diferencia- los cuales actúan sobre la percepción de una
manera holista o global- pone en claro que no es necesario contar con una lista de
propiedades necesarias y suficientes para determinar la referencia de un término (como se
pensaba en la concepción tradicional). Es más, como en general los términos de clase no
tienen significado individualmente sino sólo a través de sus ligas con otros términos, esto
es, como una función de sus vínculos semánticos, su significado simplemente no se podría
reducir a una lista de propiedades definitorias. El papel que cumplen los vínculos
semánticos también revela que la referencia no es independiente del significado. Cuando
Kuhn objeta a quienes piensan que la referencia de un término como 'agua' es inmune a
todos los cambios que ha sufrido el concepto, en la teoría y en la manera de elegir las ins-
tancias de esta sustancia, argumenta que no sólo el sentido o modo de uso de un término,
sino también "[su] referencia es una función de la estructura compartida del léxico" (ibid.,
p. 317, n. 22). Esto es, la estructura léxica, al determinar los vínculos semánticos entre los
términos -vínculos de contraste o vínculos legales- determina a la vez su referencia.
Esta concepción del significado también permite entender por qué la posibilidad de
traducción completa entre lenguajes depende de la homología o congruencia de sus
estructuras léxicas. Cuando dos estructuras taxonómicas no son idénticas pero son
congruentes, cualquiera de ellas se puede enriquecer -en sentido literal- agregando nuevas
clases de objetos o introduciendo particiones más finas en las clases ya existentes. De esta
manera se puede lograr, sin problemas de traslape de categorías, que los lenguajes
correspondientes tengan el mismo poder expresivo y sean completamente intertraducibles.
Aunque ciertamente la traducción es el primer recurso de las personas que intentan
comprenderse, no es un recurso suficiente en todos los casos. Cuando los léxicos no son
congruentes, la traducción no basta. Sin embargo, siempre es posible, en principio, lograr
la comprensión y la comunicación a través de dos procesos más arduos y complejos:
interpretación y aprendizaje del lenguaje. Como dice Kuhn, estos procesos no son algo
misterioso; los historiadores, los antropólogos, y también los niños, los realizan co-
tidianamente. "Pero no son [procesos] bien entendidos, y su comprensión probablemente
requerirá de la atención de un círculo filosófico más amplio que el que actualmente se
ocupa de ellos. De esta mayor atención depende el que se comprenda no sólo la
traducción y sus limitaciones, sino también el cambio conceptual" (Kuhn, 1983, p. 683). De
aquí que Kuhn mismo haya aceptado este reto con el fin de mostrar el camino que permite
comprender teorías o concepciones del mundo inconmensurables.

ULTIMOS DESARROLLOS
En sus publicaciones de los años ochenta en adelante, donde Kuhn formula sus
ideas sobre los cambios revolucionarios en términos de cambios taxonómicos, se observa

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 78
79

una tendencia a limitar la importancia del nivel lingüístico y a superar los análisis semán-
ticos que dejan de lado las implicaciones ontológicas. Esta tendencia se hace explícita en
"The Road Since Structure” (1991) y en "Afterwords" (1993b), donde Kuhn refiere las
líneas de investigación que había estado desarrollando en los últimos años, como parte de
un libro que no alcanzó a publicar en vida y del cual dejó escritas dos terceras partes
(material que será editado por P Hoyningen-Huene). Según él mismo declara, si bien este
trabajo está enfocado hacia temas como racionalidad, relativismo, verdad y realismo, su
eje de análisis sigue siendo la inconmensurabilidad. Con base en estos informes, se puede
afirmar que la atención creciente en las taxonomías estuvo acompañada, por una parte, de
un enfoque cada vez más afín a las llamadas "epistemologías evolutivas", y por otra, de un
especial interés en los problemas ontológicos que se condensan en el problema del
"cambio de mundos" que plantea la inconmensurabilidad.
En cuanto a la afinidad con las epistemologías evolutivas, esto es, con las teorías
que intentan dar cuenta del desarrollo del conocimiento tomando como modelo la
evolución biológica (véase, por ejemplo, Campbell, 1974; Bradie, 1986; Hull, 1988), Kuhn
describe a grandes rasgos la forma que él cree que debería adoptar dicha analogía
(analogía que por cierto ya estaba sugerida en ERC). Bajo este enfoque, la
inconmensurabilidad se rastrea en un nivel más básico que el lingüístico:

He descrito [mis] concepciones como versando sobre las palabras y la


taxonomía léxica [...]. Pero puede aclarar lo que tengo en mente el sugerir que
se podría hablar más apropiadamente de conceptos que de palabras. Esto es, lo
que he estado llamando taxonomía léxica estaría mejor nombrado como
esquema conceptual, donde la 'mera idea' de esquema conceptual no es la de
un conjunto de creencias sino la de un modo particular de operar de un módulo
mental, el cual es requisito previo para tener creencias; un modo que a la vez
proporciona y limita el conjunto de creencias que es posible concebir (Kuhn,
1991, p. 5).

Kuhn considera que un "módulo mental" de esta naturaleza es prelingüístico y no


exclusivo de los seres humanos, y también supone que se ha desarrollado con la evolución
de mecanismos biológicos más básicos como los sistemas sensoriales. En términos
filosóficos, se podría decir que dicho módulo es la condición material sin la cual no
podríamos aprender a reconocer clases de objetos, ya sea del mundo físico o social. Pero
además este módulo, en el nivel del análisis del conocimiento, permite reforzar una noción
de "clase" que no sólo remite a la partición de una población ya existente, sino al hecho
mismo de poblar el mundo (las implicaciones ontológicas de la noción de clase o categoría
las examinaremos en el capítulo VII). De aquí que el léxico remita ahora al "módulo en el
cual los miembros de una comunidad lingüística almacenan sus términos de clase" (Kuhn,
1993b, p. 315). Cabe señalar que aunque Kuhn parece otorgar un carácter de novedad a

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 79
80

la idea de módulo mental, hasta donde se alcanza a ver esta noción no hace más que
destacar el sustrato material de las estructuras taxonómicas, pero no parece implicar
ninguna modificación sustancial en las funciones epistémicas que ya tenían asignadas
estas estructuras. De cualquier forma, queda como una noción poco analizada.
Una clara novedad que viene con el enfoque evolutivo se refiere a la forma en que
pueden culminar los periodos revolucionarios. Habíamos visto que la distinción original
entre desarrollo normal y revolucionario, que en ERC equivalía a la distinción entre los
desarrollos que simplemente añaden conocimiento y aquellos que requieren abandonar
una parte de lo que antes se creía, se reformula, en los años ochenta, como la distinción
entre los desarrollos que no implican un cambio taxonómico y los que sí lo implican. Pero
la novedad, en los noventa, estriba en que dentro de las transiciones a una nueva
estructura taxonómica Kuhn distingue un tipo de transición que conduce a incrementar el
número de especialidades científicas. Los episodios revolucionarios no sólo desembocan en
el desplazamiento de la taxonomía anterior, sino que también pueden conducir al
surgimiento de nuevas especialidades del conocimiento. En este tipo de transición el re-
sultado no es la reagrupación sino la fragmentación de una comunidad: el grupo más
conservador se queda trabajando sobre un dominio cuya estructura es básicamente
congruente con la de la taxonomía anterior, pero donde queda en uso una forma evolu-
cionada de las viejas clases de objetos; mientras el grupo disidente adopta una nueva
estructura taxonómica, no homologable con la anterior, cuyo dominio es más estrecho -a
veces mucho más- que el hasta entonces considerado. Se trata, entonces, de un proceso
de especialización que genera nuevas divisiones en los campos de investigación existentes,
proceso que es muy similar a los episodios de especiación en la evolución biológica (cf.
ibid., pp. 336337).
Este proceso de especialización del conocimiento puede ocurrir básicamente de dos
formas: o bien se separa una nueva rama del tronco original, como ha sucedido
repetidamente en el caso de la filosofía y de la medicina, o bien nace una nueva
especialidad en un área de aparente traslape entre campos de conocimiento ya existentes,
como en el caso de la biología molecular y la físico-química. En cualquiera de las dos
modalidades la inconmensurabilidad sigue estando presente, pues cada especialidad
genera un léxico distintivo y "no hay una lingua franca capaz de expresar por completo el
contenido de todas ellas, o siquiera de un par de ellas" (Kuhn, 1991, p. 8).
Con base en la idea de especialización como especiación, Kuhn extiende la analogía
con la evolución biológica. Afirma que aquello que permite que una práctica especializada
se ajuste cada vez mejor a su mundo es muy similar a aquello que permite que una
especie biológica se adapte cada vez mejor a su nicho, y en ambos casos el aislamiento
parece cumplir un papel clave. En el caso biológico,

la unidad de especiación (que no debe confundirse con la unidad de


selección) [...] es una población reproductivamente aislada, una unidad cuyos

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 80
81

miembros incorporan colectivamente el pool genético que asegura tanto su


autoperpetuación como su continuado aislamiento. En el caso científico, la unidad
es una comunidad de especialistas que se intercomunican, una unidad cuyos
miembros comparten un léxico que proporciona la base tanto para conducir como
para evaluar su investigación, y que al mismo tiempo mantiene su aislamiento de
los practicantes de otras especialidades al impedir la comunicación completa con
quienes están fuera del grupo (ibidem).

La analogía entre la creciente incapacidad de los habitantes de diferentes nichos


para reproducirse y la creciente dificultad de los practicantes de diferentes especialidades
para comunicarse conduce a considerar la inconmensurabilidad como un mecanisrno de
aislamiento. La divergencia de estructuras léxicas, junto con los límites que ello impone en
la comunicación, parece ser el mecanismo requerido por el progreso del conocimiento. De
acuerdo con el último Kuhn, la transición a un recorte más especializado del mundo -con
un dominio más estrecho- se revela como la forma de cambio científico que permite
incrementar la capacidad de resolución de problemas. Por tanto, el proceso de especializa-
ción se presenta como la forma básica de progreso: "La especialización y el estrechamiento
del rango de los expertos me parece ahora el precio necesario de tener herramientas
cognitivas cada vez más poderosas" (ibidem).
A luz de esta perspectiva, el viejo ideal de una ciencia unificada -la cual tendría que
ser una ciencia léxicamente homogénea- resulta ser no sólo un ideal inalcanzable sino más
bien amenazante para el progreso del conocimiento. Sin embargo, aquí parece surgir un
problema. Dejando de lado el aire paradójico que tiene la idea de especialización
generalizada y creciente -en cuanto evoca la imagen de una ciencia que progresa gracias a
que cada vez se parece más a una Torre de Babel-, subsiste la siguiente pregunta: ¿cómo
explicaría Kuhn los casos de progreso por sistematización? Es decir, aquellos casos de
construcción de estructuras teóricas más comprehensivas, las cuales logran articular
dominios de investigación que hasta ese momento se consideraban desvinculados.
Independientemente de que en este proceso surja la inconmensurabilidad, al resultar
modificados los conceptos insertos en las estructuras teóricas previas, el hecho es que el
dominio de la nueva teoría es más amplio, a veces mucho más que los dominios de las
teorías que la preceden. Se trata, por tanto, de un proceso que tiene un sentido
claramente inverso al del proceso de especialización, y que en ocasiones da lugar a
progresos espectaculares. Piénsese tan sólo en el trabajo de Galileo, que culmina con el de
Newton, donde se unifican la mecánica celeste y la terrestre; o bien en el intento actual de
construir una Gran Teoría Unificada que integre los cuatro tipos de fuerzas básicas que su-
puestamente existen en el universo.
Por otra parte, además de las grandes sistematizaciones, están aquellos casos de
cambio revolucionario -como la mayoría de los que Kuhn examina en ERC -donde una
teoría desplaza a otra sin que se reduzca en sentido estricto el dominio de investigación,

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 81
82

aunque bien puede suceder que los dominios de teorías sucesivas se traslapen sin ser
idénticos (considérese, por ejemplo, el desplazamiento de la teoría del flogisto por la del
oxígeno, de la teoría de Ptolomeo por la de Copérnico, de la mecánica cartesiana por la
newtoniana, etc.). Si bien es cierto que Kuhn introduce la especialización sólo como otro
tipo de cambio revolucionario, también es cierto que termina otorgándole el carácter de
patrón básico del progreso científico: "el desarrollo de la cultura humana, incluyendo el de
las ciencias, se ha caracterizado desde el comienzo de la historia por una enorme y
acelerada proliferación de especialidades" (Kuhn, 1993b, p. 336). De aquí que Kuhn, en
sus últimos trabajos, concentre su atención en un patrón de desarrollo por proliferación o
especialización más que por desplazamiento o sustitución. De esta manera, la proliferación
de estructuras taxonómicas, con la consecuente diversificación de prácticas y mundos, se
revela como el motor que mantiene el impulso del desarrollo científico.
Esto hace pensar que quizá la falla de origen esté en el supuesto tácito de que
existe un patrón general o dominante de desarrollo, el cual subyace en los diversos
cambios que ocurren en la actividad científica. Supuesto que, por cierto, no sólo está en la
base del modelo de Kuhn sino también en la mayoría de los modelos de cambio científico
elaborados en las últimas tres décadas. De aquí que algunos autores hayan pensado, en
años recientes, que quizá resulte más adecuada la estrategia de primero explorar diversas
clases de cambio científico, distintos tipos de fenómenos diacrónicos, intentando identificar
su estructura, sin adoptar el prejuicio de que todos ellos son -o deben ser- subsumibles en
un patrón general (el trabajo más destacado en la elaboración de una tipología del cambio
científico se encuentra en Balzer, Moulines y Sneed, 1987, capítulo V).
Por último, en cuanto a los problemas ontológicos que plantea la
inconmensurabilidad -problemas que llegaron a ocupar un lugar central en los últimos
trabajos de Kuhn- por ahora nos limitaremos a señalar su origen y naturaleza. Dado que se
trata de problemas que remiten a discusiones tan añejas y complejas como aquellas que
versan sobre el problema del realismo y sobre la noción de verdad, es claro que ameritan
un tratamiento por separado (este conjunto de problemas se abordará en el capítulo VII).
Para dar una idea del reto ontológico que implica la inconmensurabilidad, conviene partir
del proceso por el cual se transmite un léxico de una generación a la siguiente. Como
vimos, en este proceso la nueva generación adquiere los conceptos de clase -las
categorías- de una cultura o subcultura. Pero el punto decisivo es que estos conceptos, de
acuerdo con Kuhn, no sólo permiten describir el mundo de cierta manera sino también son
constitutivos del mundo en el cual viven los miembros de una comunidad lingüística. Por
tanto, cuando las estructuras taxonómicas de dos comunidades no son homologables,
cuando sus concepciones del mundo son inconmensurables, "algunas de las clases que
pueblan [sus] mundos son irreconciliablemente diferentes, y la diferencia ya no es más
entre descripciones sino entre las poblaciones que se describen" (Kuhn, 1993b, p. 319). De
aquí la afirmación, presente desde ERC (capítulo X), de que dichas comunidades "viven en
mundos diferentes".

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 82
83

Si esto es así, nos asaltan preguntas como las siguientes: ¿Cuál es la relación entre
la taxonomía que una comunidad comparte y el mundo que esa comunidad habita? Es
decir, ¿en qué sentido y en qué medida ese mundo está constreñido o constituido por la
estructura que esa comunidad le impone? Por otra parte, ¿cuál sería la relación entre los
mundos que experimentan los sujetos cuyas concepciones son inconmensurables? ¿Se
puede afirmar que en los diversos mundos subyace una realidad independiente de
nuestras estructuras conceptuales? ¿Acaso no es la relación con esa realidad
independiente lo que hace que nuestras creencias tengan un valor de verdad? De no ser
así, ¿en qué sentido se puede predicar la verdad de nuestras creencias? ¿En qué consistiría
su verdad?
Estas preguntas conforman, en su conjunto, el famoso problema de "el cambio de
mundos", el cual ha dado un nuevo impulso a las discusiones sobre el realismo,
especialmente al reciente debate sobre el realismo científico. De esta manera, la tesis de
inconmensurabilidad no sólo ha obligado a repensar los problemas metodológicos de la
contrastación y elección de teorías, renovando la reflexión sobre la racionalidad científica.
También ha alimentado la otra gran línea de problemas filosóficos sobre la ciencia, la línea
de los problemas ontológicos y semánticos, entre los cuales se encuentra el espinoso
problema de la verdad.
La anterior elucidación de la tesis de inconmensurabilidad, en su camino desde ERC,
ha intentado destacar sus principales aportes al análisis filosófico de la ciencia,
examinando la forma en que el problema del cambio científico se replanteó sobre nuevas
bases. Se puede decir que el efecto de esta tesis no se limitó a poner en jaque supuestos
fuertemente arraigados, sino que a su vez vino a plantear un abanico de problemas que
estimularon el desarrollo de nuevos enfoques y líneas de investigación. Frente al poder
heurístico e innovador que resultó tener la inconmensurabilidad, no es de extrañar que el
mismo Kuhn, en una mirada retrospectiva de su obra, la haya considerado como su
principal aportación. Y tampoco sorprende que haya quien la tenga por la noción más
desafiante y controvertida de la filosofía actual de la ciencia. A continuación analizamos sus
repercusiones en el ámbito de la racionalidad.

V. CAMBIO CIENTÍFICO Y RACIONALIDAD

EVALUACIÓN DE TEORlAS INCONMENSURABLES


Cuando se examinan las primeras respuestas de los filósofos de la ciencia a la
publicación de ERC, lo que más destaca es su amplio acuerdo en considerar el libro como
un desafío al carácter racional de la ciencia. Si bien en aquellos años ya se reconocía que
las teorías científicas pueden cambiar de manera radical a través del tiempo, sin embargo
seguía imperando el supuesto de que el desarrollo del conocimiento se ajusta a ciertos
cánones o principios que no se transforman: los principios que al desprenderse de una
racionalidad absoluta y universal permiten evaluar las pretensiones de conocimiento y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 83
84

decidir sobre su aceptación o rechazo. En este contexto, las tesis de Kuhn sobre los
cambios revolucionarios se interpretaron -y todavía se interpretan en algunos círculos-
como un rechazo de los requisitos básicos de la razón que debe operar en la ciencia, y por
tanto como una negación del carácter racional de su desarrollo. Kuhn, por su parte, intentó
mostrar que su concepción del cambio científico no tiene las perniciosas implicaciones para
la racionalidad que sus críticos le atribuyen, y en una de sus últimas publicaciones declara
que sobre esta cuestión, más que sobre ninguna otra, sus puntos de vista siguen estando
muy cerca de los planteados en ERC (cf. Kuhn, 1993b, p. 337).
En el fondo de este desencuentro lo que hay es un conflicto entre distintas nociones
de racionalidad. El análisis diacrónico que realiza Kuhn, sobre todo de las transiciones
revolucionarias, implica una noción de racionalidad básicamente distinta de la tradicional.
Por un lado, Kuhn destaca el papel de las "buenas razones" en la elección de teorías, pero
por otro, insiste en que tales razones no tienen un carácter determinante o concluyente, es
decir, no bastan para imponer elecciones unívocas: "En materia de elección de teorías,
decir que la fuerza de la lógica y de la observación no pueden, en principio, ser
compelentes, ni es descartar la lógica o la observación, ni es insinuar que no hay buenas
razones para defender una teoría más que otra" (Kuhn, 1970b, p. 234). Kuhn nunca pone
en duda la racionalidad de la ciencia, pero alude a una racionalidad que nada tiene que ver
con procedimientos sistemáticos de decisión que pudieran gobernar la elección entre
teorías rivales. Su escepticismo con respecto a la existencia de un algoritmo de decisión
que fuera efectivamente aplicable, escepticismo que se desprende directamente de la tesis
de inconmensurabilidad, lo conduce a una concepción de la racionalidad científica que
rompe con el esquema de la ortodoxia anterior. Si bien es cierto que este autor no
desarrolla una teoría sistemática y detallada de la racionalidad que opera en la ciencia -al
menos no en sus trabajos publicados-, sus numerosas aportaciones sobre el cambio de
marcos de investigación permiten elucidar la idea de racionalidad que introduce en el
análisis filosófico de la ciencia. Aquí emprendemos esta elucidación por la vía de destacar
los puntos de ruptura con la concepción tradicional.
El punto de partida obligado es el problema de la evaluación de teorías
inconmensurables, a la que nos hemos referido como evaluación interparadigmática y cuyo
análisis habíamos dejado pendiente. Pero antes conviene señalar algunas características
generales del proceso de evaluación. Como se dijo, el análisis histórico-filosófico de los
cambios revolucionarios pone en tela de juicio la idea de fundamentos últimos del
conocimiento, de componentes absolutamente estables, se trate de supuestos metafísicos,
valores epistémicos, herramientas formales, estrategias de procedimiento o enunciados de
observación. De aquí que no se pueda disponer de ninguna plataforma privilegiada, de
ningún "punto arquimedeano", para la evaluación de las diversas propuestas que se
formulan en la actividad científica. Toda base de evaluación está históricamente situada y
es, en principio, revisable. De acuerdo con Kuhn, el abandono del fundamentismo trae
consigo, como consecuencia principal, el abandono de la teoría de la verdad como

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 84
85

correspondencia, y esto eliminaría el supuesto de que la evaluación de las hipótesis y


teorías científicas tiene como objetivo primordial determinar su correspondencia con un
mundo externo, independiente de la mente o de nuestro conocimiento (lo cual no significa
que no se necesite de alguna noción de verdad para dar cuenta de la práctica de
evaluación, como veremos en la sección "Kuhn frente al problema de la verdad", capítulo
VII).
También se dijo que las teorías no se evalúan en forma aislada, ya que la
evaluación es siempre un asunto comparativo que se da en la competencia entre teorías
alternativas. Y dada la naturaleza del cambio revolucionario, como un cambio de
estructuras conceptuales que tiene un carácter holista pero al mismo tiempo local, la
evaluación también presenta un carácter holista aunque delimitado. Esto es, la aceptación
de una nueva propuesta científica requiere por lo general que al mismo tiempo se
modifiquen o abandonen algunas otras creencias previamente aceptadas, pero nunca dicha
aceptación altera todo el cuerpo de creencias vigentes en un campo de investigación.
Lo que está en juego en la situación de evaluación es cuál de dos sistemas teóricos
es mejor -más eficaz- para hacer aquello que los científicos hacen, y "esto es así ya sea
que lo que los científicos hagan sea resolver enigmas (mi concepción), mejorar la
adecuación empírica (la concepción de Van Fraassen), o aumentar la dominación de la élite
gobernante (en parodia, la concepción del programa fuerte)" (Kuhn, 1991, p. 6). La idea
de fondo es que el viejo problema de la justificación de creencias no debe plantearse en
relación con una meta externa, con un objetivo que trascienda las capacidades y recursos
epistémicos de los sujetos involucrados (como sería buscar establecer la correspondencia
de nuestras creencias con la realidad independiente). La justificación que respalda la
aceptación de una teoría científica está en función de un objetivo central: disponer de
mejores herramientas para el trabajo que se tiene que hacer en una situación histórica
determinada. El carácter racional de una elección depende desde luego de su justificación,
de las razones que la apoyen, pero Kuhn separa el problema de la justificación del
problema de la verdad, y otorga a la justificación un carácter instrumental al cifrar la
elección de teorías en términos de su mayor capacidad de resolución de problemas.
Volveremos sobre este punto.
Pasando a la cuestión de cómo comparar teorías inconmensurables, recordemos que
el problema de comunicación que surge entre sus partidarios no es un problema
meramente lingüístico, que pudiera resolverse mediante una simple "redefinición" de los
términos problemáticos en un lenguaje neutral. La razón es que las diferencias semánticas
entre este tipo de teorías obedecen a una divergencia en sus estructuras taxonómicas, y
por tanto a una organización distinta de su red conceptual. Sin embargo, como vimos, tal
problema de comunicación no es insuperable, aunque ciertamente su solución no es
simple: los científicos deben aprender cómo se concibe y manipula el mundo de su inves-
tigación desde la estructura conceptual alternativa. Si ésta es la situación, la posibilidad de
comparar teorías inconmensurables -indispensable para dar cuenta del cambio científico

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 85
86

como un proceso racional- se puede reconstruir tomando como base la forma en que se
aprende un léxico (cf. sección "Taxonomías, significado y aprendizaje", capítulo IV).
En primer lugar, dos teorías inconmensurables pueden compararse porque el
carácter local de la inconmensurabilidad permite detectar, en el contexto, un conjunto de
afirmaciones empíricas que tienen el mismo significado en ambas teorías, y que además no
están en disputa. Este conjunto de afirmaciones o creencias compartidas, a pesar de ser
revisable en una etapa posterior, sirve por el momento como una base relativamente
estable y neutral desde la cual arranca la comparación. El papel que según los empiristas
clásicos sólo podían cumplir los datos absolutamente estables, o las observaciones
incorregibles, lo cumple el conjunto de creencias que abarca la información que no se
cuestiona en el contexto de la evaluación. De esta manera, el léxico que comparten las
teorías rivales permite, por una parte, que algunas de sus consecuencias contrastables
tengan el mismo significado, y por otra, que haya una base de información compartida
contra la cual se cotejan dichas consecuencias o predicciones. Por ejemplo: en el caso de
la astronomía ptolomeica y copernicana, es claro que aunque son teorías
inconmensurables, al menos algunas de sus predicciones -como las que se refieren a la
posición de ciertos planetas- se podían comparar de manera directa, dado su acuerdo
sobre el resultado de ciertas observaciones y mediciones. Hay que notar que este acuerdo
supone, a su vez, un acuerdo sobre procedimientos de medición y técnicas de observación,
los cuales son relativamente independientes de las teorías en juego. Ciertamente, este
primer nivel de comparación puede ser muy precario y parcial, pero ofrece ya algunos
elementos de juicio que deben ser tomados en cuenta.
En segundo lugar, el lenguaje compartido constituye la plataforma necesaria para
que los científicos inmersos en el viejo paradigma inicien el aprendizaje del nuevo léxico,
es decir, de los términos cuya introducción o modificación supone un cambio en la
estructura taxonómica del dominio de investigación. En este proceso, el vocabulario
previamente disponible puede servir para aprender a identificar los referentes de los
nuevos términos, aunque sólo sea en un rango limitado de situaciones. Pero esto abre
nuevas posibilidades de comparación. Cuando Kuhn discute las objeciones de Kitcher
(1978) en relación con el proceso cronológicamente inverso, pero análogo, que lleva a
cabo el historiador de la ciencia, afirma que, en efecto, el lenguaje de la química del
oxígeno puede usarse para identificar algunos referentes de los términos de la química del
flogisto; por ejemplo: se puede detectar que 'flogisto' en ciertas situaciones experimentales
se refiere a lo que más tarde se identifica como hidrógeno, aunque también se observa
que en otras aplicaciones no tiene referente alguno en la taxonomía posterior. Sin
embargo, Kuhn insiste en que es un error describir la tarea de identificar los referentes de
una teoría rival, o ya descartada, como una labor de traducción (cf. Kuhn, 1983, sec. 3).
En tercer lugar, los científicos pueden llegar a dominar el léxico de la teoría
alternativa, junto con sus leyes características, a través de una serie de prácticas -sobre
casos paradigmáticos- que los habilitan para reconocer todos los referentes del dominio y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 86
87

la forma en que éstos se comportan, logrando de esta manera una comprensión cabal de
dicha estructura conceptual. Ahora bien, una vez que se ha completado el proceso de
aprendizaje que permite la comprensión, los científicos están en condiciones de establecer
una comparación genuina de las teorías en juego, pero esta comparación sólo puede ser
de tipo global. Esto es, la comprensión de la nueva teoría, por profunda y completa que
sea, nunca podrá permitir una comparación "punto por punto" con la anterior, enunciado
por enunciado, pues la comprensión no elimina el hecho de que en cada teoría se formulen
afirmaciones sobre el mundo que no son expresables en la otra, es decir, no elimina el
hecho de su inconmensurabilidad. Y por tanto, sigue siendo imposible contar con una
métrica de comparación "punto por punto" que sea semánticamente neutral.
La comparación global que es posible establecer entre teorías rivales se apoya en
consideraciones diversas, como por ejemplo su adecuación empírica (concordancia entre
las consecuencias de cada teoría y los resultados de la observación y experimentación),
alcance (conjunto de aplicaciones que abarca cada teoría), simplicidad (capacidad para
sistematizar fenómenos diversos con el menor número o complejidad de supuestos),
consistencia (coherencia lógica, tanto interna como con otras teorías aceptadas en el con-
texto), fecundidad (capacidad de cada teoría para descubrir nuevos fenómenos y generar
soluciones a problemas distintos de los que originalmente motivaron su construcción), etc.
Es decir, la comparación global es una comparación que se establece sobre la base de
características que se juzgan como virtudes de una buena teoría, a la luz de los valores
epistémicos vigentes en la comunidad donde tiene lugar la elección. Como dijimos, este
tipo de evaluación comparativa está en función de un objetivo central, aquel que Kuhn
considera el objetivo último de toda actividad científica: contar con herramientas cada vez
más poderosas para la resolución de problemas. Y como veremos, la evaluación comparati-
va no requiere que las teorías sean completamente intertraducibles.
Pero el punto neurálgico de este tipo de evaluación se localiza en el siguiente
hecho: dos científicos expertos, que coinciden en la lista de valores epistémicos, que se
apoyan en las mismas técnicas y procedimientos experimentales, que manejan la misma
información y además comprenden cabalmente las teorías en competencia, pueden de
todos modos estar en desacuerdo sobre cuál teoría es mejor. Destacar este hecho ha sido,
a nuestro juicio, el aspecto más revelador y novedoso del análisis de Kuhn sobre la
elección de teorías, sobre todo porque dicho desacuerdo, lejos de representar una
amenaza para la racionalidad científica, permite elucidar sus principales rasgos. Contra el
telón de fondo del análisis filosófico tradicional, donde no cabía la divergencia de juicios
entre los sujetos más competentes en una materia, bien se puede entender que esta
aportación de Kuhn haya resultado tan distorsionada por sus críticos, y que además haya
provocado, en no pocos estudiosos de la ciencia, un gran desencanto por la racionalidad.
Pero también hay que decir que Kuhn contribuyó en alguna medida a este estado de cosas
al no haber trazado una distinción básica, que además se puede inferir de sus propios aná-
lisis. Veamos.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 87
88

En el proceso de transición de un sistema conceptual a otro se presentan dos tipos


básicamente distintos de desacuerdo. El primero sería el desacuerdo que acompaña al
surgimiento del enfoque teórico que se perfila como candidato rival. Este desacuerdo es el
resultado inmediato y directo de la inconmensurabilidad, pues los fracasos de traducción
entre teorías se reflejan, en el acto, en los problemas de comunicación -en ese "hablar sin
entenderse"- y en los argumentos de tipo circular que son característicos de las polémicas
donde al menos una de las partes no acaba de comprender la propuesta alternativa. Pero,
justamente, el trabajo que emprendió Kuhn sobre las diferencias entre traducción e
interpretación y sobre el aprendizaje de un léxico permitió poner en claro que la
inconmensurabilidad no impide la comprensión.
Sin embargo, hace falta subrayar que la comprensión, aunque ciertamente permite
establecer una comparación genuina entre teorías inconmensurables, no basta por sí sola
para poner fin a la situación de desacuerdo. Los científicos que están en condiciones de
establecer una comparación global pueden seguir discrepando sobre cuál teoría es mejor.
Pero éste es un segundo tipo de desacuerdo, muy distinto, que ya no es producto de una
serie de malentendidos ni tampoco gira sobre argumentos viciosamente circulares. Se trata
de un desacuerdo que podríamos llamar "racional", en cuanto supone la comprensión de
las alternativas, el cual se da entre quienes sencillamente no aquilatan de igual manera los
méritos de las teorías en competencia. Esto es, se trata de un desacuerdo que resulta de la
aplicación no uniforme de los valores epistémicos aceptados, y que simplemente depende
de argumentos que no tienen un carácter concluyente. El desacuerdo racional es posible,
entonces, en el espacio que deja la ausencia de procedimientos algorítmicos de decisión.
La importancia de esta distinción está en que permite esclarecer la naturaleza del
proceso que conduce a la formación de nuevos consensos. La tesis básica de Kuhn sobre
los desacuerdos sigue en pie, pues éstos, aun cuando sean racionales, no se pueden re-
solver por un algoritmo neutral que dicte elecciones unánimes. Sin embargo, se aclara que
el debate del que finalmente surgen nuevos acuerdos puede ser un auténtico ejercicio de
argumentación y deliberación, y no una mera secuencia de discusiones viciadas o diálogos
de sordos. Como veremos, el peso que Kuhn otorga a los valores que guían la elección de
teorías revela que este proceso depende de argumentos de plausibilidad, esto es, de argu-
mentos que pueden llegar a convencer y conducir a nuevos consensos.
Desafortunadamente, en sus primeros escritos Kuhn no distingue los argumentos de
persuasión de los argumentos circulares, y nunca los deslinda explícitamente. Esto
explicaría que en los años noventa, después de que ha quedado claro que la inconmen-
surabilidad no impide la comprensión, ni por tanto el carácter genuinamente argumentable
o discutible de la elección de teorías, se hagan declaraciones como la siguiente en un
congreso dedicado a discutir la obra de Kuhn: "niego que haya una inconmensura-
bilidad/intraducibilidad que genere dificultades insuperables para [...] la elección de
teorías" (Earman, 1993, p. 17). Las dificultades serían insuperables, en efecto, si la
circularidad y la falta de entendimiento estuvieran presentes en todo intento de com-

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 88
89

paración. En ese caso, los cambios de teoría no serían explicables por razones epistémicas
sino sólo por mecanismos de tipo social o psicológico, como por ejemplo el ejercicio de
poder de unos grupos sobre otros, que es la vía que proponen algunos sociólogos del
conocimiento, o bien por el fenómeno de mimetismo o contagio colectivo entre los
especialistas de un campo, que es como Lakatos interpreta las tesis de Kuhn sobre las
revoluciones científicas, y acto seguido lo acusa de defender la irracionalidad de la ciencia
(cf. Lakatos, 1970).
En lo que sigue, tomando en cuenta la distinción aquí trazada, partiremos de los
desacuerdos racionales para examinar su origen y su función en el desarrollo científico, así
como la manera en que finalmente se resuelven en nuevos consensos. Este examen
permitirá despejar algunos aspectos de la noción de racionalidad que introduce Kuhn en el
análisis de la ciencia. En cuanto a los desacuerdos que preceden a la comprensión cabal de
las teorías alternativas, éstos quedaron examinados cuando nos ocupamos de las
diferencias que surgen entre paradigmas rivales (cf. sección "Diferencias entre paradigmas
alternativos", capítulo III).

DESACUERDOS RACIONALES
Reparemos primero en algo que Kuhn deja claro desde la "Posdata-1969": en los
periodos críticos de una disciplina, la comunidad no deja de compartir un conjunto de
valores como pueden ser precisión, alcance, simplicidad, fecundidad, consistencia, etc., a
los que este autor se refiere como "valores metodológicos". Ahora bien, si comparamos los
valores a los que Kuhn alude con aquellos que se han propuesto en la tradición, no
encontramos nada novedoso. Sin embargo, la novedad estriba en afirmar que los sistemas
vigentes de valores condicionan pero no determinan las decisiones de los científicos. Lo
cual significa que aunque estos valores son la base efectiva de los criterios para evaluar
teorías, sin embargo no funcionan como reglas algorítmicas, esto es, reglas mecánicas en
su aplicación, no ambiguas en su sentido y capaces de producir un resultado único. De
aquí que los valores compartidos no basten para imponer a cada científico la misma
elección.
El contraste con una concepción clásica como la de Popper permite resaltar esta
novedad. Popper reconoce que la situación de comparación de teorías requiere que los
científicos tomen decisiones, lo cual implica el reconocimiento de que las reglas de la lógica
y los enunciados de observación no son suficientes para elegir entre teorías alternativas.
Incluso afirma que "son las decisiones las que determinan el destino de las teorías"
(Popper, 1935, p. 104). Pero a diferencia de Kuhn, Popper piensa que las decisiones sí
pueden gobernarse por reglas metodológicas y tomarse con total acuerdo, lo cual revela el
compromiso con un conjunto fijo de valores epistémicos, cuya aplicación es uniforme e
independiente de las perspectivas locales o individuales. Las teorías cambian porque la
evidencia es siempre limitada y corregible, no porque los valores epistémicos o las reglas
metodológicas puedan sufrir alguna transformación.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 89
90

En el enfoque de Kuhn, la racionalidad de la elección de teorías también está


fincada en los valores metodológicos, pero en los valores que comparte una comunidad de
especialistas en cierto periodo histórico. Dichos valores, que son la fuente de las "buenas
razones", constituyen los parámetros objetivos -en el sentido de que reúnen el acuerdo
intersubjetivo- a los que se ajusta el proceso de elección, pero sobre todo son aquello que
hace posible la comparación de teorías aun cuando éstas sean inconmensurables. Notemos
que este modelo de evaluación comparativa permite discutir los méritos de teorías rivales
sin necesidad de que todas sus consecuencias contrastables sean traducibles en un len-
guaje común. Por ejemplo, la capacidad relativa de dos teorías para la solución de
problemas, sus grados de coherencia interna o su simplicidad, se pueden establecer al
margen de los límites en que es posible su intertraducción. De esta manera, con el modelo
de comparación global, Kuhn da entrada a parámetros de evaluación que son
perfectamente aplicables a pesar de la inconmensurabilidad.
Sin embargo, los valores metodológicos o epistémicos presentan dos características
que habían sido ignoradas en la tradición, las cuales ponen en pie de igualdad los juicios
de valor que se hacen en la ciencia con los juicios de valor que se hacen en cualquier otro
campo. La primera es que si bien los valores compartidos condicionan fuertemente el
comportamiento de los miembros de un grupo, sin embargo no todos los sujetos los
aplican de igual manera. Cada uno de los valores vigentes puede ser interpretado y
ponderado de maneras diversas por los miembros de la misma comunidad, dando lugar a
juicios de valor que varían de un individuo a otro. La segunda característica es que la
variabilidad individual en la aplicación de los valores compartidos cumple, en el caso de la
ciencia, una función vital para su desarrollo.
En cuanto a la aplicación no uniforme, primero se destaca el hecho de que los
valores epistémicos no tienen un sentido unívoco. Por ejemplo, qué significa que una
teoría sea más "simple" que otra y a qué aspectos se refiere la simplicidad, es algo que no
queda fijado de manera precisa por el compromiso de una comunidad con este valor.
Después está el hecho, todavía más importante, de que los valores pueden entrar en
conflicto en su aplicación concreta. Por ejemplo, una teoría puede dar predicciones más
exactas que otra, pero ser menos consistente o tener menor número de aplicaciones
(menor alcance). Esto hace necesaria una jerarquización donde se asigne un peso relativo
a los distintos valores. Pero el problema, de nuevo, es que ese peso relativo no queda
unívocamente determinado por el mero hecho de que una comunidad esté comprometida
con la misma lista de valores. Kuhn cita un caso famoso de juicios de valor divergentes:
"Lo que para Einstein resultaba una inconsistencia intolerable en la vieja teoría cuántica,
una inconsistencia que hacía imposible continuar en la investigación normal, para Bohr y
otros sólo era una dificultad de la que cabía esperar se resolviera por medios normales"
(Kuhn, 1969, p. 185; p. 284).
Pero entonces, si los valores compartidos no determinan las decisiones individuales,
¿cómo es que cada científico toma una posición ante la presencia de teorías rivales? La

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 90
91

respuesta es que de hecho intervienen otros factores, entre los cuales aparecen factores
subjetivos, que pueden estar poco vinculados o incluso ser ajenos a la práctica científica de
la comunidad de que se trate. En los juicios individuales pueden influir, por ejemplo, la
trayectoria profesional y la experiencia de un científico en otras áreas de investigación, la
familiaridad con otras prácticas o herramientas teóricas; también pueden influir supuestos
de tipo metafísico (por ejemplo: sobre la causalidad, el determinismo, los componentes
últimos de la realidad, etc.), e incluso convicciones ideológicas y religiosas. Por otra parte,
ciertos rasgos de personalidad como el temor o el gusto por el riesgo también pueden
tener un peso en esta situación. Por tanto, el análisis de la elección de teorías, en el nivel
de las decisiones individuales, revela la confluencia de dos tipos de factores: los factores
objetivos, los valores epistémicos compartidos, y los factores subjetivos, las motivaciones o
valoraciones personales.
A este respecto, vale la pena citar extensamente un pasaje de "Objetividad, juicios
de valor y elección de teorías":

Otros factores pertinentes en la elección se hallan fuera de las ciencias. La


elección temprana que hizo Kepler del copernicanismo obedeció, en parte, a su
inmersión en los movimientos neoplatónico y hermético de su época; el
romanticismo alemán predispuso a quienes afectó hacia el reconocimiento y la
aceptación de la conservación de la energía; el pensamiento social de la
Inglaterra del siglo XIX ejerció una influencia similar en la predisposición y
aceptación del concepto darwiniano de lucha por la existencia. Otras diferencias,
también importantes, son función de la personalidad. Algunos científicos valoran
más que otros la originalidad, y por tanto están más dispuestos a correr riesgos;
otros prefieren teorías amplias y unificadoras, en lugar de soluciones precisas y
detalladas de problemas, que aparentemente tengan menor alcance (Kuhn,
1977a, p. 325).

Este tipo de factores, que en conjunto Kuhn llama ideológicos, conforman la manera
específica en que cada científico aplica los valores compartidos, la manera en que los
interpreta y los jerarquiza en las situaciones donde las reglas del juego dejan de ser claras
y precisas, es decir, en los periodos de ciencia extraordinaria.
Ahora bien, la divergencia de juicios permitida por el carácter flexible de los valores
epistémicos, lejos de ser un defecto que debiera ser eliminado, cumple una función vital
para el desarrollo científico: la distribución de riesgos en las coyunturas de elección. La
existencia de un método que en todo momento y circunstancia prescribiera decisiones
uniformes, podría resultar paralizante o incluso mortal para la ciencia. La situación de
elección de teorías es casi siempre una situación de riesgo, pues los científicos tienen que
optar entre teorías que no están suficientemente desarrolladas, por una parte, y teorías
que no es evidente que estén agotadas, por otra. Por tanto, resulta más que conveniente

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 91
92

que haya quienes emprendan el desarrollo de las teorías embrionarias, y quienes


continúen trabajando en las teorías en crisis con la mira de encontrar una solución a sus
anomalías. Éste es el único camino para lograr una estimación más o menos confiable del
potencial de las alternativas, de su capacidad para la resolución de problemas. Sin el
desacuerdo, la investigación correría el peligro de anquilosarse dentro de un marco teórico,
o de abandonar un marco antes de haberlo explorado lo suficiente.
En palabras de Kuhn, la elección de teorías "requiere de un proceso de decisión que
permita que los hombres racionales estén en desacuerdo" (ibid., p. 356), ya que: "Si hay
que tomar una decisión en circunstancias en las que incluso el juicio más meditado puede
resultar equivocado, puede ser de una importancia vital el que diferentes individuos
decidan de maneras diferentes. ¿Cómo si no podría el grupo como un todo cubrirse en sus
apuestas?" (Kuhn, 1970b, p. 241). La importancia de la variabilidad individual también se
observa en la reacción que provocan las anomalías:

La mayor parte de los juicios que afirman que una teoría ha dejado de
sostener una tradición de resolución de enigmas resultan ser erróneos. Si todo el
mundo coincidiese en tales juicios, no habría nadie que pudiese mostrar que la
teoría existente explica la aparente anomalía, cosa que por lo general sucede. Si,
por el contrario, nadie estuviese dispuesto a correr el riesgo de buscar una teoría
alternativa, no existiría ninguna de las transformaciones revolucionarias de las
que depende el desarrollo científico (ibid., p. 248).

De esta manera, "los resultados necesarios se logran distribuyendo entre los


miembros del grupo el riesgo que hay que correr" (ibid., p. 262).
La función vital que cumple la divergencia de juicios pone de manifiesto que los
desacuerdos profundos, las situaciones de conflicto, son un hecho constitutivo del
desarrollo científico, que por tanto debiera ser tomado en cuenta por cualquier teoría
epistemológica que intente dar cuenta del progreso del conocimiento. Los desacuerdos,
como dice Kuhn, no pueden simplemente considerarse como "un indicio de la debilidad
humana" y descartarse por la vía de relegarlos al contexto de descubrimiento -como se ha
hecho en el análisis tradicional-, pues son más bien un indicio de la naturaleza del
conocimiento científico. Por otra parte, si a este carácter constitutivo le añadimos el
supuesto de que "la práctica científica, tomada en su conjunto, es el mejor ejemplo de
racionalidad de que disponemos" (Kuhn, 1970c, p. 520), obtenemos que al menos algunos
desacuerdos tienen que ser racionales: "Ningún proceso esencial al desarrollo científico
puede ser etiquetado como 'irracional' sin violentar fuertemente el término" (Kuhn, 1970b,
p. 235). De aquí la importancia de contar con un criterio que permita deslindar distintos
tipos de desacuerdo, pues aunque Kuhn se encarga de poner en claro que desacuerdo no
implica irracionalidad, también es un hecho que no todo desacuerdo que se presenta en la
ciencia resulta racional (como dijimos en la sección anterior).

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 92
93

Son justamente los desacuerdos racionales -los que suponen la comprensión de las
alternativas- la pieza clave para desarticular la concepción tradicional de racionalidad, pues
ésta prácticamente no da cabida a desacuerdos donde no se tuviera que concluir que al
menos una de las partes en conflicto está procediendo incorrectamente. En los modelos
metodológicos clásicos se parte del supuesto de que cualquier conjunto de alternativas es
decidible en principio. Esto se aprecia fácilmente en el modelo positivista, donde se
pensaba que las reglas del método científico -universales y necesarias- y los datos que
proporciona la percepción sensorial -independientes de cualquier sistema de conceptos-
constituían una base suficiente para decidir entre hipótesis alternativas, y resolver de
entrada cualquier posible discrepancia. Dicha base supuestamente permitía localizar el
origen de los desacuerdos y saber qué pruebas habría que realizar para obtener la
evidencia decisiva. Es claro que este modelo supone una racionalidad estricta, esto es,
atada a procedimientos efectivos (algorítmicos) de decisión, donde no cabe el desacuerdo
racional. En contraste con esta concepción, Kuhn encuentra, a través del análisis de casos
históricos, que los juicios que en un momento dado expresan opiniones encontradas
pueden tener ambos razones de peso en su favor, sin que ninguno contravenga los
estándares aceptados ni la evidencia disponible. Esto es, se dan casos de desacuerdo
donde ninguna de las partes está procediendo de manera irracional. Además, en ciertos
cortes sincrónicos donde la balanza entre las altemativas esté muy pareja, es posible que
los científicos no tengan claro cómo se podría dirimir su discrepancia.
Si ésta es la situación por la que pasan los cambios de teoría, incluso los casos más
destacados en la historia de la ciencia, desde la perspectiva de la concepción clásica
tendríamos que concluir que la ciencia no es una empresa racional. Pero como Kuhn com-
parte con esta concepción la idea de que la empresa científica es el paradigma de actividad
racional, se entiende que describa su proyecto como

el intento por mostrar que las teorías existentes sobre la racionalidad no


son lo bastante acertadas, y que deberíamos reajustarlas o modificarlas para
explicar por qué la ciencia funciona como lo hace. Suponer, en lugar de ello, que
poseemos criterios de racionalidad que son independientes de nuestra
comprensión de lo esencial del proceso científico es abrir la puerta a las mayores
arbitrariedades (ibid., p. 264).

SUBJETIVIDAD Y RACIONALIDAD
La noción de racionalidad que emerge del proyecto kuhniano se capta mejor si se
parte del fenómeno de la variabilidad individual. La afirmación de que dos científicos
competentes pueden diferir en sus juicios -en la misma situación de elección de teorías- sin
que ninguno esté procediendo de manera irracional, va directamente en contra de un
principio de racionalidad muy arraigado, que constituye el núcleo de la concepción
tradicional: si es racional para un sujeto s elegir A en cierta situación, entonces no puede

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 93
94

ser racional para otro sujeto s' elegir B, con B distinto de A, en esa misma situación. La
racionalidad implica, entonces, que todos los sujetos que se encuentran en las mismas
circunstancias objetivas deben tomar la misma decisión. La fuerza que tiene este principio,
que está en la base de todos los intentos por codificar la racionalidad en algún modelo
algorítmico, explica que con frecuencia se acuse a Kuhn de hacer de la ciencia una
empresa subjetivista o irracional, y se le considere un defensor del anarquismo meto-
dológico al estilo de Feyerabend.
Sin embargo, afirmar que es posible el desacuerdo racional en la ciencia sólo refleja
una concepción menos rígida de la racionalidad, donde lo racional rebasa con mucho el
campo de lo obligatorio y queda ligado al campo de lo permitido. Como afirma Bas van
Fraassen, el término 'racional' es más un término de permiso que de obligación, ya que:
"Los límites o constreñimientos de la racionalidad dejan mucho subdeterminado" (Van
Fraassen, 1985, p. 248). Kuhn incluso podría haber dicho, con este autor, que la
racionalidad no es más que "la irracionalidad refrenada" o "la irracionalidad con bridas"
(ibidem). De esta manera, el dominio de cuestiones que abarca la racionalidad, tanto en el
nivel de las creencias como de las acciones, se ensancha considerablemente.
Pero notemos que la adopción de esta concepción más flexible no basta para
eliminar una seria preocupación. Todavía se podría objetar el que dentro de los límites de
la racionalidad científica puedan tener injerencia factores meramente subjetivos. Esto es, si
bien las motivaciones personales pueden tener un peso en la decisión de cada científico,
este tipo de factores pocas veces logra el acuerdo intersubjetivo en la comunidad
pertinente, y esto pondría en peligro la racionalidad de las decisiones en cuanto decisiones
científicas. Notemos además que el destacar la ventaja funcional -la distribución de
riesgos- que trae consigo el desacuerdo tampoco basta para dar cuenta de la racionalidad
del proceso de elección de teorías. Lo racional está ligado a lo intencional, y los científicos
no discrepan deliberadamente con la intención expresa de distribuir los riesgos. ¿Cómo
responder entonces a esta objeción desde el modelo de Kuhn? La vía de respuesta, a
nuestro juicio, requiere tomar muy en serio dos cosas: 1) que el principal agente en la
ciencia no es el individuo sino la comunidad, y 2) que la elección de teorías no es un
suceso, algo que puede ocurrir en cualquier momento, sino un proceso, el cual comienza
con un desacuerdo y termina con un nuevo acuerdo, pudiendo tomar un tiempo
considerable.
Cuando se considera a la comunidad profesional como la instancia que tiene el
papel decisivo en el desarrollo de una disciplina, se introduce una dimensión social,
imprescindible, en la racionalidad científica. Esto establece otro fuerte contraste con la
concepción clásica, donde la ciencia es esencialmente una empresa desarrollada por
individuos, que incluso podrían trabajar aislados, dado que las supuestas reglas
metodológicas constituyen un control suficiente de su actividad. Dichas reglas constituyen
el mecanismo que garantiza el acuerdo intersubjetivo en el contexto de evaluación de las
creencias y prácticas individuales. En la concepción de Kuhn, por lo contrario, la ciencia no

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 94
95

se puede entender como "un juego de una sola persona". Justo porque en las propuestas
y juicios de los científicos intervienen factores subjetivos, y porque además no hay
mecanismos que permitan depurarlos, el peso de resolver los desacuerdos recae, en último
término, en la comunidad de especialistas.
Una vez que están planteadas las alternativas rivales, y los expertos están en
condiciones de compararlas globalmente, éstas se vuelven objeto de un debate abierto en
la comunidad profesional. Y sólo los juicios que sobreviven al escrutinio o crítica
comunitaria pueden calificarse como científicamente racionales. No todas las decisiones
que son racionales desde la perspectiva de quien las toma resultan racionales desde el
punto de vista científico. La comunidad es entonces la instancia que de hecho controla la
interferencia de la subjetividad. Al filtrar a través del debate las valoraciones que no logran
reunir el acuerdo de otros especialistas, la comunidad limita la dependencia de la empresa
científica respecto de los sujetos individuales, haciendo posible la objetividad del resultado
final del proceso de elección. En este sentido no hay un tribunal por encima del grupo de
expertos al cual poder apelar en las situaciones de conflicto. En una frase no muy
afortunada, que años después él mismo corrigió, Kuhn expresó esta idea diciendo que "es
la comunidad de especialistas, y no sus miembros individuales, la que toma la decisión
efectiva" (Kuhn, 1969, p. 200; p. 305). De cualquier manera, la idea de fondo sigue en pie:
la elección de teorías debe entenderse como un proceso socialmente mediado, o arbitrado,
dado que no es un proceso gobernado por reglas algorítmicas.
Por otra parte, concebir la elección de teorías como un proceso, y no como algo que
se puede decidir en cualquier momento, permite darle un lugar tanto a los factores
subjetivos que de hecho inciden en este proceso -generando los vitales desacuerdos- como
a la crítica comunitaria que controla dicha intervención y conduce a un nuevo acuerdo. Es
cierto que Kuhn dice relativamente poco acerca de cómo se forma un consenso una vez
que un grupo de especialistas difiere en sus "apuestas". Algunos críticos incluso afirman
que esta transición queda como un misterio, y Kuhn mismo reconoce -en la terminología
de su enfoque más maduro- que, en efecto, no ha quedado suficientemente articulado "el
proceso por el cual tiene lugar la proliferación y el cambio léxico, y hasta qué punto se
puede decir que dicho proceso está gobernado por consideraciones racionales" (Kuhn,
1993b, p. 337). Sin embargo, este autor dio algunas claves que permiten descifrar
aspectos centrales del cambio de teorías y del tipo de racionalidad involucrado. En lo que
sigue nos ocuparemos del papel de los valores epistémicos en la formación de nuevos con-
sensos.
Una de las cuestiones que Kuhn deja muy claras es que el punto de partida del
proceso de cambio teórico es una situación de riesgo. Como se dijo, los científicos tienen
que optar entre teorías que no están suficientemente desarrolladas, por un lado, y teorías
que no es evidente que estén agotadas, por otro. Esta situación, en que los recursos
epistémicos disponibles no bastan para establecer -fuera de toda duda razonable- la
superioridad de una de las alternativas hace necesaria la búsqueda de nuevos elementos

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 95
96

de juicio. La divergencia de opiniones funciona entonces como un acicate que lleva


adelante la investigación, tanto teórica como experimental, en la búsqueda de nuevos
argumentos. Los científicos inmersos en este proceso siguen trabajando en las teorías
rivales hasta el punto en que alguna de ellas logra concentrar el peso de las razones en su
favor -lo cual puede llevar un tiempo considerable- y se conforma un nuevo consenso. Aquí
se pone de relieve otro rasgo de la racionalidad científica, su carácter no instantáneo.
Si bien la frase "racionalidad no instantánea" se le debe a Lakatos, la idea se
desprende directamente del modelo de Kuhn. Las razones en contra de los modelos
algorítmicos son razones en favor de una racionalidad que no permite establecer acuerdos
en cualquier momento. Por una parte, la inconmensurabilidad vuelve inaplicables los
algoritmos de decisión, pues éstos suponen que las alternativas son completamente
formulables en un lenguaje común. Pero por otra parte, aun cuando las teorías fueran del
todo conmensurables, subsistiría el hecho de que los parámetros compartidos -los valores
epistémicos- no tienen una interpretación canónica ni una jerarquía fija, y en consecuencia
no dictan decisiones uniformes. Esto obliga a esperar a que alguna de las líneas de
argumentación se refuerce, y sólo entonces se puede llegar a un acuerdo racional en la
elección de teorías. Por contraste, los modelos metodológicos clásicos -incluidos los mo-
delos para el cambio de creencias que utilizan la teoría matemática de la probabilidad-
suponen que, en cualquier corte sincrónico, la información disponible permite decidir cuál
es la mejor alternativa, sin que quepa la divergencia racional. Así, este tipo de modelos
supone una racionalidad instantánea, además de suponer que lo racional está ligado a lo
obligatorio.
Ahora bien, en el modelo de Kuhn también queda claro que la búsqueda de nuevos
elementos de juicio está guiada por los valores compartidos, lo cual destaca su función
heurística. Estos valores son la base que permite reconocer las buenas razones, es decir,
los argumentos que pueden ser esgrimidos públicamente y tener algún peso entre los
demás especialistas (a diferencia de los argumentos que sólo tienen una significación
personal). Esto es, independientemente de las motivaciones por las cuales cada científico
decide "apostar" en favor de una u otra teoría, en los debates se suelen presentar
argumentos que puedan tener alguna resonancia en la comunidad, y éstos son los
argumentos avalados por los valores compartidos:

Copérnico estuvo respondiendo a estos valores durante los años necesarios


para que la astronomía heliocéntrica pasara de ser un esquema conceptual global
a ser un dispositivo matemático para predecir la posición de los planetas. Tales
predicciones fueron lo que los astrónomos valoraron, sin ellas hubiera sido muy
difícil que se le hubiera dado crédito a Copérnico, algo que ya había ocurrido con
la idea de una Tierra que se mueve. El que su versión haya convencido a tan
pocos es mucho menos importante que su conocimiento de la base sobre la cual
debían apoyarse los juicios necesarios para que sobreviviera el heliocentrismo. Si

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 96
97

bien se debe recurrir a su idiosincrasia personal para explicar por qué Kepler y
Galileo fueron de los primeros en convertirse al sistema copernicano, los huecos
que llenaron con sus respectivos trabajos para perfeccionar dicho sistema (sobre
todo en la exactitud predictiva y en su consistencia interna] fueron especificados
solamente por los valores compartidos (Kuhn, 1977a, pp. 331-332).

De esta manera, aquello que los especialistas valoran establece los constreñimientos
a los que debe ajustarse la elección de teorías. No cualquier argumento es aceptable, no
toda razón es una buena razón, pero dentro de lo aceptable hay un amplio margen de
variación, el rango de lo que queda subdeterminado (no especificado) por los valores
compartidos. De aquí que el campo de lo racional sea el campo de lo permitido, no de lo
obligatorio.
Consideremos un valor como la concordancia o adecuación empírica (el ajuste entre
las consecuencias de una teoría y los resultados de la observación o experimentación), sea
en sentido cuantitativo de precisión o exactitud, o meramente cualitativo. Sin duda, hoy en
día este valor es reconocido como el criterio más básico -además de ser el más
generalizado- en las ciencias naturales. En consecuencia, el nivel de las predicciones o
consecuencias contrastables se considera como el nivel en que más claramente se ponen
de manifiesto los méritos de las teorías: "En última instancia, [este criterio] demuestra ser
el más cercanamente decisivo, en parte porque es menos equívoco que los otros, pero
sobre todo porque las capacidades predictivas y explicativas que dependen de él, son
características [de las teorías] a las cuales los científicos no están dispuestos a renunciar"
(ibid., pp. 322-323). Sin embargo, incluso este valor carece de una fuerza determinante,
pues es un hecho que las teorías no siempre se pueden distinguir en función de su ajuste
con la experiencia. Por una parte, existen teorías rivales, ambas empíricamente adecuadas,
pero cuyos éxitos predictivos o explicativos no cubren exactamente el mismo dominio de
fenómenos. En este caso, la adecuación empírica no basta para elegir entre ellas; es
necesario ponderar sus respectivos éxitos y decidir cuáles son preferibles. Por otra parte,
también existen teorías rivales que son empíricamente equivalentes, es decir, cuyas
consecuencias contrastables se ajustan igualmente bien con toda la evidencia disponible.
En este tipo de casos es aún más claro que no basta la adecuación empírica como criterio
de elección.
Por ejemplo: el sistema de Copérnico no fue más exacto en sus predicciones que el
de Ptolomeo sino hasta que fue revisado a fondo por Kepler, más de sesenta años después
de la muerte de Copérnico. Kuhn refiere otro caso en que está en juego la adecuación
empírica en sentido cualitativo: la teoría del oxígeno, a diferencia de la del flogisto,
permitía explicar las relaciones de peso observadas en las reacciones químicas, resultado
que era ampliamente reconocido; pero en cambio, la teoría del flogisto podía explicar por
qué los metales son mucho más semejantes entre sí que los minerales a partir de los
cuales se forman. Así, cada una de las teorías se adecuaba mejor con la experiencia en un

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 97
98

sector de fenómenos que en otro. A1 elegir entre ellas, los científicos debían decidir qué
sector de la experiencia y qué conjunto de problemas era más importante, decisión que en
aquel tiempo no era para nada evidente (cf. ibid., p. 323).
En cuanto al caso de teorías que siendo inconmensurables son también
empíricamente equivalentes, caso no contemplado por Kuhn, tenemos un claro ejemplo en
el campo del electromagnetismo. En su Treatise on Electricity and Magnetism, J. C.
Maxwell establece una comparación entre la teoría de campos y la teoría de acción a
distancia con el fin de mostrar la superioridad de la primera. Dado que Maxwell desconocía
la causa de la electricidad, el único recurso efectivo consistía en comparar cada una de las
teorías con todos los fenómenos pertinentes conocidos. Sin embargo, llega a la conclusión
de que ambas teorías se ajustaban igualmente bien con la experiencia, esto es, de hecho
eran empíricamente equivalentes (cf. MacKinnon, 1989). De aquí que aunque la
adecuación empírica sea ciertamente el criterio más básico y generalizado, difícilmente
resulta un criterio suficiente para elegir entre teorías inconmensurables.
El carácter restrictivo pero no determinante de los criterios de evaluación deja a los
científicos en una situación muy parecida a la descrita en el modelo del razonamiento
práctico, elaborado por Aristóteles para el campo de la ética (aunque cabe decir que en
una situación muy distinta de la representada en el modelo de lo que este filósofo llamaba
"ciencia"). Como observa Bernstein, no es casual que Kuhn utilice el lenguaje del discurso
práctico al examinar las controversias científicas: "Muchos de los rasgos del tipo de
racionalidad que se exhibe en tales debates muestran una afinidad con las características
de la fronesis (del razonamiento práctico) que describe Aristóteles [...] la fronesis es una
forma de razonamiento que se ocupa de la elección e involucra deliberación. Trata con
aquello que es variable y acerca de lo cual puede haber diferentes opiniones (doxa)"
(Bernstein, 1983, p. 54). En el razonamiento práctico existe una amplia mediación entre
los principios generales y las situaciones concretas, por lo cual se hace necesario tomar
decisiones; y no existen reglas que permitan subsumir mecánicamente lo particular en lo
general. Se requiere de una especificación de los principios que gobiernan la acción para
poder aplicarlos a los distintos casos concretos. Esto corresponde puntualmente con la idea
de Kuhn de que los valores compartidos por una comunidad científica son lo
suficientemente flexibles y poco específicos como para requerir de una interpretación y
una cuidadosa ponderación de las alternativas, cuando se elige entre teorías rivales. "Al
igual que Aristóteles, Kuhn insiste en que tal elección es una actividad racional, a pesar de
que las razones a las cuales apelamos no dicten necesariamente una elección unívoca.
Esperar o exigir más precisión que ésta es mal entender el carácter de tal deliberación"
(ibidem).
Se podría establecer otra analogía, esta vez entre los valores epistémicos -como
máximas o principios que guían una elección- y otro componente central de la
investigación científica, las leyes fundamentales de las teorías. A pesar de que estas leyes
tienen un carácter empírico, muchos de sus rasgos (cf. "Naturaleza y función de los

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 98
99

paradigmas", capítulo II) son analogables a los de los parámetros de evaluación, entre
ellos: su carácter poco específico, la necesidad de ser complementadas con supuestos
adicionales para aplicarse a situaciones concretas, su aplicación no directa ni mecánica, su
función de establecer ciertos lineamientos -en este caso de tipo teórico- dentro de los
cuales se desarrolla la investigación en un campo, y por último su carácter constitutivo, en
el sentido de que su abandono significa nada menos que un cambio de paradigma.
La analogía en este último punto se pone de relieve cuando Kuhn, refiriéndose a los
valores epistémicos, afirma: "concebidos como imperativos que comprometen al científico
a tomar determinado tipo de decisiones, estos [valores] son lo bastante fuertes como para
afectar profundamente el desarrollo científico" (Kuhn, 1970b, p. 239), ya que: "Si los
científicos no se agarrasen a valores como éstos [precisión, consistencia, alcance,
simplicidad, fecundidad, etc.] sus disciplinas se desarrollarían en forma muy diferente"
(ibid., pp. 261-262). Y estableciendo una curiosa analogía con lo ocurrido en ciertos
periodos de la actividad artística, dice Kuhn: "No todos los hombres pintaron de la misma
manera en los periodos en que la representación era un valor primario, pero el patrón de
desarrollo de las artes plásticas cambió drásticamente cuando ese valor fue abandonado.
Imagínese lo que ocurriría en las ciencias si la consistencia dejara de ser un valor básico"
(Kuhn, 1969, p. 186; p. 285).
Todas estas analogías muestran algo que casi resulta trivial: los principios
generales, aun cuando sean totalmente compartidos, no garantizan por sí solos
aplicaciones uniformes o resultados únicos. Pero además muestran que en la pobreza de
detalle de los principios generales está su utilidad, pues sin dejar de ser una guía para la
acción y sin dejar de establecer ciertos límites permiten la variedad, de la que depende la
evolución de las distintas actividades humanas. Este hecho, bien reconocido cuando se tra-
ta de principios éticos o estéticos, se ha topado sin embargo con fuerte resistencia dentro
del análisis de la actividad científica, sobre todo en el nivel de los parámetros epistémicos
de evaluación (aunque tampoco ha resultado evidente en el nivel de las leyes o principios
teóricos). Esto revela la fuerza que ha tenido -desde Aristóteles- el supuesto de que en la
ciencia opera una racionalidad estricta, donde no tiene cabida la diferencia de opiniones, y
también permite explicar el hecho de que en las metodologías clásicas se haya pasado por
alto la función vital que cumple la variabilidad individual.

CONSENSOS RACIONALES
La importancia que Kuhn otorga a la variedad y divergencia de juicios tiene su
contraparte necesaria en la importancia que concede a la búsqueda de consenso. Es claro
que los desacuerdos no serían un motor tan poderoso del desarrollo científico si el ideal de
consenso no tuviera un peso equivalente. Los debates entre especialistas -a veces muy
prolongados- resultarían incomprensibles si en la ciencia no se persiguiera con tenacidad el
acuerdo. Desde esta perspectiva, el modelo de Kuhn para las transiciones revolucionarias
se podría considerar como una propuesta para explicar cómo opera, en las comunidades

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 99
100

científicas, el ideal regulativo de alcanzar un consenso racional una vez que prevalece la
situación de desacuerdo.
La tesis básica de que "no hay un algoritmo neutral para la elección de teorías" se
complementa con la postulación de una estrategia de "persuasión", para dar cuenta de
cómo se forman nuevos consensos en las comunidades divididas. Ante una propuesta
alterativa que polariza a una comunidad, lo común es que se genere una serie de
argumentos y contraargumentos que persiguen convencer al oponente de que el propio
punto de vista es superior. Esto es, se inicia un proceso dialógico donde se esgrimen
argumentos de plausibilidad. Kuhn se refiere a la persuasión como "la manera en que un
conjunto particular de valores compartidos interactúa con las experiencias compartidas por
una comunidad de especialistas para asegurar que, a fin de cuentas, la mayoría de sus
miembros encuentre decisivo un conjunto de argumentos por encima de otro" (Kuhn,
1969, p. 200; p. 305).
La estrategia de persuasión se pone en marcha desde que se perfila el enfoque
teórico rival. Primero se debe lograr que quienes todavía no comprenden el enfoque
alternativo se percaten de las ventajas que éste reporta, de los resultados que permite
obtener. Esto persuadirá por lo menos a algunos de que vale la pena indagar cómo se
logran esos resultados, de que vale la pena aprender cómo se concibe y manipula el
dominio de investigación desde el otro punto de vista. Sin embargo, esta comprensión no
garantiza la adopción del enfoque rival, pues dichos científicos todavía pueden tratar de
obtener resultados equivalentes con su propia teoría. De este modo, en función de los
elementos de juicio que presente cada grupo se va definiendo la situación, esto es, se va
concentrando el peso de las razones en una de las alternativas, hasta que se conforma un
nuevo consenso. "De cualquier manera, los contraargumentos siempre son posibles y no
hay reglas que prescriban cómo debe cerrarse el balance. No obstante, a medida que los
argumentos se apilan uno sobre otro y se enfrenta exitosamente un reto tras otro, sólo
una ciega obstinación podría explicar al final una resistencia continuada" (ibid., p. 204; p.
310).
Hay que señalar que en la "Posdata-1969" Kuhn suponía que la persuasión se apoya
en la traducción como recurso básico (cf. pp. 202-204 y 307-312). Kuhn le otorgaba este
papel a la traducción -que más tarde restringe- movido por la importancia que de hecho
tiene la semántica compartida: por un lado, el lenguaje común permite acotar el léxico que
es fuente de problemas en la comunicación intergrupal, y por otro, permite transmitir los
resultados que cada grupo obtiene, aunque cada grupo no pueda explicar en sus propios
términos dichos resultados. Sin embargo, a pesar de conceder a la traducción el papel de
herramienta básica en la formación de nuevos consensos, Kuhn afirmaba que el hecho de
"aprender a traducir" no basta para que alguien logre "interiorizar" la concepción
alternativa, para que sea capaz de "sentirse como en casa" en el mundo que esa
concepción contribuye a conformar. Con esto Kuhn apuntaba ya a la necesidad de un
proceso de aprendizaje donde se logra una comprensión que no se puede alcanzar por la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 100
101

vía de la traducción.
También hay que subrayar, pero ahora a la luz de sus últimos trabajos
(especialmente Kuhn, 1991; y 1993b), que las transiciones revolucionarias no siempre
desembocan en un acuerdo que reagrupa a la comunidad dividida, donde se sustituye el
enfoque teórico anterior. Como vimos, estas transiciones también pueden desembocar en
el surgimiento de nuevas especialidades científicas, donde la comunidad profesional resulta
fragmentada. Pero el cambio por especialización exhibe básicamente los mismos rasgos
que el cambio por sustitución: ambos tienen como origen el conflicto entre estructuras
taxonómicas rivales, ambos están precedidos por un debate comunitario, y en ambos la
estrategia de persuasión conduce a consolidar nuevos acuerdos (con la salvedad de que en
el primero se trata de acuerdos que unifican a los grupos que emprenden el desarrollo de
las nuevas especialidades). Por tanto, se mantiene la idea central de que las
transformaciones revolucionarias, sean por proliferación o por sustitución de estructuras
taxonómicas, son cambios que resultan de la confrontación de teorías inconmensurables,
de estructuras conceptuales que recortan el mundo de investigación de manera diferente.
Como habíamos dicho, el desacuerdo del que arranca este tipo de transiciones
plantea la necesidad de una deliberación, de una forma de razonamiento que opera
cuando hay que tomar decisiones en casos en que el margen de incertidumbre es conside-
rable. Pero este hecho pone de relieve que el ejercicio de la racionalidad científica supone
una habilidad para emitir juicios en situaciones donde justo no hay procedimientos
canónicos. Dicha habilidad -cuya adquisición exige entrenamiento y competencia en un
campo específico- involucra una labor de ponderación de los argumentos que generan
otros especialistas en el proceso de elección, labor que evidentemente supone la capacidad
de los sujetos para revisar sus propios juicios, y en consecuencia modificarlos o reforzarlos,
hasta que finalmente se conforman nuevos consensos.
Los juicios de valor que trascienden en la ciencia son aquellos que al lograr algún
acuerdo significativo dan lugar a tradiciones de investigación, tradiciones que van trazando
las líneas del árbol evolutivo de las disciplinas científicas. Las propuestas que en su
momento no logran convencer a otros especialistas se quedan sin efectos en la práctica,
por más que desde un punto de vista posterior se consideren acertadas. De esta manera,
los juicios o decisiones que finalmente cuentan son resultado, por una parte, de una serie
de argumentos que buscan convencer (de una estrategia de persuasión), y por otra, de
una compleja y siempre falible ponderación de dichos argumentos (de una actividad de
deliberación). Pero este hecho, lejos de mostrar que las decisiones que prevalecen en la
ciencia son epistémicamente sospechosas, revela más bien el amplio alcance de la
racionalidad, de la habilidad para pensar y razonar más allá del rango de lo que es
capturable en algoritmos. De aquí que Kuhn sustituya el modelo de reglas por un modelo
de razones, y abandone las razones concluyentes en favor de las modestas buenas
razones.
Este modelo de elección de teorías permite dar cuenta del carácter a la vez falible y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 101
102

racional de los juicios científicos, sin apelar a ningún elemento que trascienda la situación
epistémica de las comunidades donde tiene lugar una evaluación. En este respecto resulta
iluminador destacar los paralelismos entre la idea de racionalidad que introduce Kuhn en el
ámbito de la ciencia y la idea de racionalidad implicada por la facultad de juzgar, la cual se
desarrolla en la tercera Crítica de Kant. Cito extensamente las palabras de un experto en
Kant, Fernando Salmerón, quien condensa el núcleo de esta concepción:

la facultad de juzgar es una manera ampliada de pensar, que se apoya en


la posibilidad de llegar a un acuerdo con los otros, con lo cual logra una forma de
validez específica. Tan específica, según Kant, que nunca puede ser la validez
universal para todos los sujetos racionales posibles. La raíz de este proceso de
pensamiento no se asienta en el diálogo interior de la racionalidad estricta, sino
en los hábitos del sentido común que revelan la naturaleza del mundo sólo en la
medida en que se trata de un mundo común; y los juicios tienen validez
solamente para los individuos concretos que comparten ese mundo y lo juzgan.
Es la naturaleza pública del mundo lo que obliga al diálogo con los otros, en el
ejercicio de la facultad de juzgar; y la posibilidad del acuerdo es lo que funda la
validez específica del juicio. La sana lógica reclama, para su validez, la coherencia
con uno mismo en el seno de la propia conciencia; de igual manera, el juicio
exige, para ser válido, la presencia del otro, la discusión con él, la persuasión y la
búsqueda del acuerdo [...]. Todo lo cual tiene que contar, como presupuesto
necesario, con la pluralidad del juicio, en oposición a la unidad del razonamiento
lógico, que insiste en la verdad demostrable (Salmerón, 1993, pp. 139-140).

Claramente, esta serie de rasgos propios de una racionalidad no estricta coincide


punto por punto con los de la racionalidad que, de acuerdo con Kuhn, opera en los
procesos de elección que conducen al cambio en las disciplinas científicas. Sólo faltaría
examinar el papel que cumple la idea de "mundo común" o "mundo compartido" en el
desarrollo del conocimiento, lo cual remite al problema de si podemos aceptar el carácter
relativo y comunitario de la racionalidad científica, y seguir afirmando que la ciencia
"alcanza" una realidad independiente (cuestiones que abordaremos en el capítulo VII).
Por otra parte, el hablar de "persuasión" -recurso que desató airadas reacciones- no
sólo permite destacar que la racionalidad científica está lejos de ser una cuestión de
prueba o demostración; también permite contraponerla a ciertas formas epistémicamente
ilegítimas de lograr un consenso. Veamos este segundo contraste. En sus últimas
publicaciones, Kuhn reconoce que aludir a "la decisión de una comunidad" es cometer un
error de tipo categorial. Dicha expresión tomada literalmente resulta un sinsentido, puesto
que "un grupo no tiene una mente [...] no elige ni toma decisiones" (Kuhn, 1993b, p. 328).
Por tanto, "la decisión de una comunidad" no puede significar otra cosa que una decisión
más o menos uniforme de los sujetos que conforman un grupo, si bien incluye una

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 102
103

connotación que limita su referencia a aquellas decisiones que los sujetos toman como
resultado de un intercambio colectivo de opiniones. Por tanto, se podría decir que, en
efecto, Kuhn defiende un modelo consensual de la racionalidad científica.
Pero de esto no se sigue que cualquier consenso sea racional, ni que el puro
consenso acerca de una creencia baste para considerarla como conocimiento. Kuhn
deslinda claramente su posición de "los excesos de movimientos posmodernistas como el
programa fuerte", donde la aceptación y el cambio de creencias se pretenden explicar con
base en un modelo causal que sólo apela a factores de tipo social, sin incluir ninguna
consideración epistémica sobre la justificación o el valor de verdad que se les atribuye a las
creencias en una comunidad (véase, por ejemplo, Barnes y Bloor, 1982). Además, cabe
aclarar que un análisis del conocimiento que se ocupe de las condiciones sociales --del
entorno amplio- donde éste se produce y reproduce, no tiene que reducirse al análisis de
la determinación causal de las creencias. Incluso algunos autores consideran que una
sociología del conocimiento necesita integrarse con una teoría epistemológica, para poder
dar cuenta de la dimensión social de los sistemas de creencias (un programa de
investigación en esta dirección, así como una crítica al "programa fuerte", se desarrolla en
Olivé, 1988).
Según Kuhn, el acuerdo al que puede aspirar una comunidad científica es un
acuerdo entre expertos, entre "mentes preparadas de un modo particular", cuyo juicio en
una materia se basa en el dominio de los criterios, los procedimientos y la información per-
tinentes. Pero esto impone fuertes restricciones a los consensos de hecho. La racionalidad
nada tiene que ver con consensos manipulados a través del engaño, impuestos por la
fuerza, o que son simple resultado de una moda. Es decir, consensos donde los agentes no
podrían ofrecer alguna justificación epistémica de las creencias o decisiones que
prevalecen. El lamentable episodio protagonizado por Lisenko ofrece un claro ejemplo de
consenso no racional (cf. Kuhn, 1970b, p. 263). Ningún hecho o proceso de la vida cien-
tífica podría aspirar a la etiqueta de 'racional' si fuera explicable sólo por mecanismos de
tipo social o psicológico (ejercicios de poder, contagios colectivos, manipulaciones
ideológicas, etcétera).
Sin embargo, si bien no disponemos de ninguna evaluación más competente ni más
confiable que aquella en la que llegan a coincidir los sujetos al ejercer su calidad de
expertos, dicha evaluación no garantiza que la teoría elegida sea verdadera o esté más
cerca de la verdad que sus rivales. Y se podría decir que esto es así tanto si se concibe la
verdad como correspondencia con la realidad independiente (verdad en sentido
metafísico), o como aceptabilidad en condiciones ideales de justificación (como una verdad
puramente epistémica). En el enfoque de Kuhn, la racionalidad de los procesos de
evaluación es independiente de cualquier noción absoluta de verdad, sea metafísica o
epistémica, y tampoco requiere de ningún otro fundamento absoluto (en "Kuhn frente al
problema de la verdad", capítulo VII, se examina la relación entre el concepto de verdad y
la racionalidad de la evaluación de teorías). El hecho metodológicamente importante es

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 103
104

que los juicios que reúnen un consenso calificado, a pesar de ser claramente revocables,
han demostrado su eficacia para el progreso científico, es decir, para incrementar la
capacidad de resolución de problemas.
El papel que según los filósofos clásicos sólo podía cumplir alguna clase de
fundamentos últimos, algún sistema fijo de referencia, lo cumple en la práctica una base
meramente provisional. El hecho de que toda evaluación comparativa de teorías se apoye
en una plataforma históricamente situada, cuyos componentes pueden estar en tela de
juicio en un tiempo posterior, es del todo inofensivo para la racionalidad del resultado.
Dicha plataforma tiene una estabilidad relativa al estar conformada por aquello que
comparten quienes tienen que elegir entre teorías inconmensurables. En este proceso no
sólo se comparte un conjunto de valores epistémicos, pues siempre subsiste un cuerpo de
creencias y de prácticas que no están en duda en el contexto del debate. Esta base
compartida hace posible que la elección sea un asunto genuinamente argumentable o
discutible, y un auténtico ejercicio de deliberación. Los argumentos de persuasión no
podrían comenzar a operar si en las transiciones revolucionarias no estuvieran presentes
elementos de continuidad de diverso tipo. En el caso de transición que examinamos a
continuación, que refiere la controversia entre Galileo y sus contemporáneos inmersos en
la tradición aristotélica, se pone especial cuidado en destacar tanto las profundas
diferencias que acarrea la inconmensurabilidad como los diversos elementos de
continuidad presentes en ese episodio.
Por lo que toca a los valores epistémicos -el común denominador más extendido
entre los científicos naturales- es importante insistir en que éstos han sufrido una
evolución como resultado de la dinámica interna de las distintas disciplinas. La lista de
valores compartidos por los científicos naturales no ha sido siempre la misma. Algunos
estándares evaluativos han ido perdiendo terreno de jurisdicción, mientras otros,
incorporados en periodos relativamente tardíos del desarrollo científico, lo han ido
ganando. El análisis histórico de un valor como la precisión (concordancia numérica o
cuantitativa), que actualmente ocupa un lugar central en muchas áreas de investigación,
muestra que antes del siglo XVII este valor sólo regía en la astronomía, siglo en el que se
extiende a la mecánica; a finales del XVIII y principios del XIX se adopta en la química y
otros campos como el de la electricidad y el calor; y en el presente siglo se incorpora en
diversas ramas de la biología (cf. Kuhn, 1977a, p. 335). Por otra parte, en la historia de las
ciencias naturales también se observa el fenómeno inverso, como ha sucedido con el valor
del alcance o generalidad. Como muestra Dudley Shapere, antes de los siglos XVII y XVIII
dominaba la búsqueda de teorías o explicaciones abarcantes y totalizadoras, del estilo de
las que se daban -y todavía se intentan dar- en el terreno de la filosofía. Sin embargo,
poco a poco se fue imponiendo el enfoque que se dirige a problemas cada vez más
específicos, donde se cubren dominios de investigación cada vez más restringidos, que es
precisamente el enfoque metodológico que subyace en los procesos de especialización del
conocimiento (procesos que, como vimos, cobran una importancia central en los últimos

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 104
105

trabajos de Kuhn).
Esta transformación en lo que se juzga como virtudes de una buena teoría podría
explicarse, al menos en parte, por el objetivo instrumental de la actividad científica. Los
valores se van arraigando o debilitando en función del desempeño de las teorías elegidas
con base en ellos, es decir, qué tan eficaces resultan en la resolución de problemas. Pero
aunque el caso de los valores se ajusta cabalmente al viejo dictum "por sus frutos los
conoceréis", el mayor o menor éxito de las teorías seleccionadas sobre la base de distintos
valores no asegura, sin embargo, su permanencia o extinción de manera definitiva. La
extendida impresión de que existen valores autónomos como atributos permanentes de la
ciencia, cuya lista es la misma en todas las disciplinas, quizá obedezca a que el ritmo con
que evolucionan es sumamente lento --casi imperceptible- comparado con la frecuencia
con que cambian las teorías y otros componentes de la investigación, como las técnicas y
procedimientos experimentales. Pero aunque a la larga el mismo desarrollo científico
pueda conducir a modificar el conjunto de valores epistémicos que lo sustentan -lo cual
muestra su carácter dependiente o no autónomo-, el hecho es que en las situaciones de
desacuerdo estos valores funcionan como parámetros estables que orientan las decisiones.
La importancia de los elementos de continuidad en los periodos de cambio
revolucionario -que no sólo incluyen valores compartidos- radica en que dichos elementos
eliminan la necesidad de contar con algún sistema fijo de referencia como ingrediente
básico de un modelo de desarrollo. La reconstrucción de la evolución de una disciplina, que
intente hacer inteligibles las transformaciones que en ella ocurren, sólo necesita detectar
los elementos que en cada transición comparten los marcos de investigación sucesivos, es
decir, los elementos que sirven de puente o eslabón en el paso de un marco al siguiente.
De esta manera se puede reconstruir el desarrollo de una disciplina, rastreando su
identidad a través de sus diversos cambios, sin tener que suponer de entrada algún núcleo
que permanezca idéntico desde el origen. Y todavía menos se requiere de un núcleo fijo -
se trate de valores, creencias o prácticas- que compartan todos los marcos de inves-
tigación en cualquier etapa del desarrollo de las diversas disciplinas. Cabe la posibilidad de
que en una misma disciplina, al tomar dos marcos suficientemente distantes en el tiempo o
en la línea evolutiva, nos encontremos con que no tienen elementos sustantivos comunes.
Pero notemos que esta forma de abordar el análisis del desarrollo científico, la cual se
opone a los enfoques esencialistas, permite dar cuenta del hecho de que la misma noción
de "ciencia", lo que se entiende por esta actividad, también se ha transformado desde sus
orígenes. Aquello que ahora se considera como "atributos permanentes de la ciencia" es
algo con lo que no nos podemos comprometer en lo futuro, aunque de hecho nos permita
distinguir esta actividad de otras parcelas de nuestra cultura y corresponda a la noción que
actualmente tenemos acerca de esta empresa (hacia el final de "El cuestionamiento del
dualismo metodológico", capítulo VI, se analiza el problema de la demarcación).
A la luz del modelo de Kuhn, el análisis del desarrollo científico muestra que además
de las transformaciones profundas en los contenidos de la ciencia, en las teorías sobre el

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 105
106

mundo, también cambian las formas en que se conduce la investigación y se evalúan sus
resultados. Pero este cambio en los métodos y valores significa, como lo expresa Shapere,
que también aprendemos a aprender (cf. Shapere, 1984, capítulos 10 y 11). Así como
nadie diría que tenemos un conocimiento a priori -universal y necesario del mundo de la
experiencia, tampoco se puede afirmar que sabemos de antemano, con independencia de
nuestras prácticas y sus resultados, cuáles son los mejores medios para aprender a
conocer el mundo. Pero si esto es así, la conclusión inescapable es que la racionalidad
humana también evoluciona históricamente.
Resumiendo, en la reconstrucción aquí presentada del proceso de elección de
teorías y formación de nuevos consensos, desde una perspectiva kuhniana, se destacan los
siguientes rasgos de la racionalidad que opera en la ciencia: su carácter no algorítmico ni
instantáneo; su afinidad con el razonamiento práctico y la facultad de juzgar; su
dependencia del juicio calificado; su independencia con respecto a cualquier noción
absoluta de verdad y cualquier otro tipo de fundamentos últimos; su relación con la noción
de progreso, la cual destaca el objetivo de incrementar nuestra capacidad en la resolución
de problemas; y por último, su carácter evolutivo en cuanto capacidad humana de
aprender, el cual implica la dependencia de los estándares de evaluación respecto de la
misma dinámica del proceso de investigación, es decir, respecto del cambio de teorías y de
prácticas en las diversas disciplinas (la "naturalización" que esta dependencia introduce en
el análisis filosófico de la ciencia se examina en "La naturalización de la filosofía de la
ciencia", capítulo VI).
No debe sorprendernos entonces que no dispongamos de cánones autónomos de
racionalidad, dados de una vez y para siempre, que controlen la falibilidad y la diversidad
de los juicios humanos, sobre todo cuando es posible explicar el poder cognitivo
desarrollado por la ciencia sin suponer la existencia de tales cánones. El modelo de Kuhn,
como intento pionero en esta dirección, desencadenó la construcción de una serie de
modelos alternativos del cambio científico, los cuales han aportado nuevos elementos a la
discusión filosófica sobre la racionalidad. Entre los más destacados están los modelos
propuestos por Paul Feyerabend, Imre Lakatos, Larry Laudan, Wolfgang Stegmüller,
Dudley Shapere y Philip Kitcher (en el último capítulo presentamos las principales tesis de
estos modelos alternativos).

UN CASO DE TRANSICIÓN REVOLUCIONARIA


El debate que examinaremos entre Galileo y sus contemporáneos aristotélicos
constituye sólo un episodio -aunque central- de una transición revolucionaria que llevó casi
un siglo y medio en completarse. La revolución copernicana -donde se inserta este debate-
representa uno de los cambios en la concepción del mundo de mayor trascendencia y
alcance en la historia de la ciencia. Si bien su núcleo residía en una transformación de la
astronomía, también implicó cambios conceptuales de fondo en la cosmología, la física, la
filosofía, e incluso en la religión. Como afirma Kuhn, refiriéndose a la obra con que culmina

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 106
107

el trabajo de Copérnico (publicada en 1543): "Aunque su De Revolutionibus consiste prin-


cipalmente de fórmulas matemáticas, tablas y diagramas, sólo podía ser asimilada por
hombres capaces de crear una nueva física, una nueva concepción del espacio, y una
nueva idea de la relación del hombre con Dios" (Kuhn, 1957, p. viii). De aquí que los
trabajos de Kepler y Galileo, aunque hayan contribuido de manera decisiva a la sustitución
de los viejos esquemas conceptuales y a la extinción del supuesto de una Tierra inmóvil,
sin embargo no hayan bastado para poner fin a la oposición al copernicanismo. Se puede
decir que no es sino hacia finales del siglo XVII cuando las aportaciones de estos científicos
logran una aceptación general entre los astrónomos y físicos de Europa (cf. ibid., capítulo
VI).
Galileo (1564-1642) se incorpora al debate sobre el copernicanismo unos 60 años
después de la publicación de De Revolutionibus, y permanece como una figura central por
casi treinta años. La polémica entre éste y los científicos naturales inmersos en el pa-
radigma aristotélico ilustra con claridad las divergencias sobre cuestiones fundamentales,
tanto de contenido como de método, presentes en esta transición revolucionaria. De aquí
que resulte un buen ejemplo para apoyar las tesis que hemos venido elucidando sobre la
naturaleza del proceso que arranca de profundos desacuerdos y desemboca en nuevos
consensos. En el análisis de este debate haremos especial hincapié en los siguientes
aspectos: la divergencia en ciertas categorías básicas, la cual contrapone estructuras
conceptuales no homologables pero con traslapes considerables; el desacuerdo sobre
principios teóricos fundamentales, el cual se da contra el trasfondo de un amplio cuerpo de
creencias compartidas; el acuerdo sobre un conjunto de criterios de evaluación, que sin
embargo se aplican y jerarquizan de maneras diversas; finalmente, la discrepancia sobre lo
que cuenta como observación, que coexiste con la utilización común de una serie de
observaciones no controvertidas. En esta tarea nos apoyaremos en la reconstrucción
histórica y conceptual que hace Harold Brown (1988, pp. 210-220) de este famoso debate.
Comencemos con el aspecto que, de acuerdo con Kuhn, es el rasgo distintivo de
toda revolución científica: el cambio en categorías taxonómicas muy básicas, que
determinan el enfoque teórico hasta entonces vigente. El principal problema que
enfrentaba Galileo para defender una astronomía copernicana era que la idea de una
Tierra en movimiento resultaba incompatible con la única teoría física existente. De aquí
que haya asumido el desafío de construir una nueva física. La concepción medieval del
mundo físico planteaba serias objeciones, tanto teóricas como observacionales, a un
sistema heliocéntrico. Copérnico aceptaba que todos los movimientos de los cuerpos
celestes eran circulares, pero al poner a la Tierra en los cielos trastocaba la imagen
aristotélica del universo físico: borraba la distinción entre el ámbito celeste y el terrestre, y
alteraba por completo los "lugares naturales" de los elementos de este último dominio.
Esto generaba un amplio repertorio de dificultades, como por ejemplo: si la caída de los
cuerpos pesados es un movimiento hacia el centro del universo, y la Tierra ya no está en el
centro sino moviéndose rápidamente alrededor del Sol, una flecha disparada lo

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 107
108

suficientemente lejos hacia arriba podría perder su punto de retorno. Copérnico no ofreció
ninguna explicación alternativa del universo físico, y Galileo emprendió esta tarea en su
Diálogo sobre los dos grandes sistemas del mundo, ptolomeico y copernicano, publicado
en 1632.
En primer lugar, se percató de que la división del mundo físico en dos ámbitos
ajenos tenía que ser abandonada, pero esto requería que hubiera sólo una clase de
movimiento natural. Galileo postuló entonces que todo movimiento natural -el movimiento
donde no interviene ninguna fuerza- era de tipo circular (con lo cual mantenía la
concepción tradicional sobre el movimiento de los cuerpos celestes, a pesar de que tuvo
conocimiento de los argumentos de Kepler contra el movimiento circular de los planetas).
El supuesto de que todo movimiento natural es circular eliminaba uno de los problemas a
que se enfrentaba Copérnico, pues ya no era necesario explicar qué es lo que mantiene a
la Tierra en movimiento.
De acuerdo con Galileo, la Tierra tiene dos movimientos circulares naturales: un
movimiento diario de rotación sobre su eje, y un movimiento anual alrededor del Sol.
También sostenía que estos movimientos eran propios de todos los objetos terrestres, lo
cual le permitía dar una respuesta a varias de las objeciones contra el movimiento de la
Tierra. Los aristotélicos argumentaban que si la Tierra estuviera rotando de oeste a este,
una piedra que se deja caer desde lo alto de una torre no caería al pie de ella; y como esto
es lo que de hecho sucede, se tiene una refutación observacional del movimiento de
rotación. Según Galileo, este argumento falla al no considerar que la piedra misma es un
objeto terrestre, y por tanto comparte el movimiento natural de la Tierra; la piedra en
caída tendría un movimiento vertical hacia el centro de la Tierra, y un movimiento circular
junto con ésta. Así, la concepción copernicana, adecuadamente desarrollada, estaría en
conformidad con los hechos que todos observamos.
Por otra parte, Galileo también formuló la ley cuantitativa de que todos los cuerpos
caen con la misma aceleración constante, de la cual sacó dos consecuencias: que la
velocidad de un cuerpo en caída se incrementa proporcionalmente con el tiempo, y que la
distancia recorrida se incrementa tanto como el tiempo a la segunda potencia. Estas
formulaciones decisivas fueron resultado de un estudio experimental de cuerpos en caída
en condiciones un tanto artificiales (Galileo midió la aceleración haciendo rodar bolas de
acero por canales inclinados, utilizando materiales que minimizaran lo más posible la
fricción con el fin de simular la situación de caída libre). En su Diálogo concerniente a dos
nuevas ciencias, publicado en 1638 en Leyden, Galileo recapitula los resultados de sus
primeros experimentos, así como su concepción más madura sobre los principios de la
mecánica.
El trabajo de Galileo pone de manifiesto su profunda convicción de que tanto las
matemáticas como la experimentación son las herramientas adecuadas para el estudio de
la naturaleza, convicción que chocaba de lleno con el marco metodológico de sus ad-
versarios aristotélicos. Por una parte, éstos negaban que las matemáticas debieran tener

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 108
109

un papel central en la ciencia natural; si bien los astrónomos ptolomeicos consideraban


que las matemáticas eran una herramienta útil para calcular las posiciones de los planetas,
el hecho de que las predicciones resultantes fueran exitosas no nos decía nada acerca de
la naturaleza de los objetos físicos a los cuales se aplicaban. Se seguía pensando que la
naturaleza de los objetos del ámbito celeste estaba plasmada en la concepción de
Aristóteles de los cielos. Por otra parte, si bien los científicos aristotélicos realizaban
cuidadosas observaciones del mundo natural, esta tarea no incluía el tipo de intervención o
manipulación involucrado en la experimentación. Pensaban que dicha intervención
conducía a una distorsión de las propiedades de los objetos estudiados, en lugar de
revelarlas. De esta manera, la metodología de Galileo fue considerada fundamentalmente
inadecuada.
En cuanto a los objetivos epistémicos, dado que Galileo no concebía la caída de los
cuerpos como causada por una fuerza gravitacional, llega a decir que el intento de
descubrir la causa de la caída no es una meta apropiada de la ciencia física. Lo cual marca
otra ruptura con la metodología tradicional, donde la búsqueda de causas se consideraba
constitutiva de la investigación científica. Sin embargo, frente al problema de por qué un
cuerpo en caída -que está buscando el centro del universo- tendría que regresar a la
Tierra, Galileo intenta dar una respuesta en la línea apuntada por Copérnico, sugiriendo
que al tomar como lugar natural de los cuerpos terrestres a la Tierra misma, y no al centro
del universo, se desplaza la definición de "lugar natural". Así, se sigue sosteniendo que un
cuerpo cae porque se mueve hacia su lugar natural, sólo que al hacerlo busca a la Tierra y
no un punto abstracto en el espacio. Pero notemos que con esta estrategia se está
modificando un concepto muy atrincherado en la tradición, cosa que Galileo también hace
con las categorías ontológicas de las sustancias elementales (tierra, agua, aire y fuego) de
las que, supuestamente, se conformaban los objetos terrestres (cf. Brown, 1988, pp. 214-
215).
Por último, pero no menos importante que sus contribuciones a la mecánica, está el
trabajo de Galileo con el telescopio. Las observaciones que éste realizó se toparon con una
fuerte oposición (incluso más radical que la que encontró la hipótesis de Kepler de las
órbitas elípticas). Con el advenimiento del telescopio, el copernicanismo dejó de ser
esotérico, esto es, dejó de ser objeto de estudio exclusivo para astrónomos con una
sofisticada preparación matemática, con lo cual se volvió más amenazante para el
paradigma oficial. Los nuevos fenómenos observados con el telescopio (como las fases de
Venus) pusieron en marcha la maquinaria eclesiástica de la oposición católica al
copernicanismo. Después de que Galileo anunciara sus observaciones -en 1610 el
copernicanismo ya no podía ser relegado a mero dispositivo matemático, útil pero sin
ninguna significación o contenido físico. Ni el más optimista de sus oponentes podía
esperar que el lunático concepto del movimiento de la Tierra cayera, tarde o temprano,
por su propio peso (cf. Kuhn, 1957, pp. 225-226).
La oposición tomó varias formas. Algunos se negaron incluso a mirar por el

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 109
110

telescopio alegando que si Dios hubiera querido que el hombre usara semejante artilugio
para adquirir conocimiento lo habría dotado con ojos telescópicos. Otros reconocieron los
nuevos fenómenos, pero sostuvieron que los objetos no estaban realmente en el cielo sino
que eran apariciones causadas por el mismo instrumento. Y finalmente, un considerable
grupo de adversarios de Galileo -entre ellos Bellarmine- aceptaban que los fenómenos en
efecto estaban en el cielo, pero negaban que éstos probaran las tesis de Galileo. Esta
oposición a los resultados de la observación telescópica reflejaba una oposición más
profunda al copernicanismo durante el siglo XVIl, derivada de "una resistencia a consentir
en la destrucción de una cosmología que por siglos había sido la base de la vida cotidiana,
tanto práctica como espiritual" (ibid., p. 226).
La serie de profundas diferencias aquí señaladas: de tipo teórico-conceptual (en
categorías ontológicas básicas que estructuran el universo de maneras distintas, así como
en principios teóricos que supuestamente regulan ciertos procesos físicos), de tipo meto-
dológico (en el papel de la causalidad, de la experimentación y de las matemáticas en la
investigación sobre la naturaleza), y de tipo epistemológico (en el peso y confiabilidad que
se les otorga a nuestros sentidos para revelar las propiedades del mundo físico, así como a
instrumentos o medios distintos, y por tanto en aquello que se acepta como observación
legítima), son diferencias que se debaten en un amplio trasfondo de elementos
compartidos, de elementos que constituyen los ejes de continuidad sobre los cuales corre
el proceso de transición. Estos elementos permiten que entre los contendientes pueda
haber un mínimo de entendimiento, el cual es la base necesaria para iniciar el aprendizaje
de una nueva forma de ver y manipular el mundo, y para que puedan tener resonancia los
argumentos de persuasión, las "buenas razones", que se van esgrimiendo y construyendo
en el transcurso del debate, y que finalmente conducen a la formación de un nuevo
consenso.
Entre los elementos de continuidad, en ese periodo existía un considerable acuerdo
sobre observaciones relativamente simples (como sobre el punto de llegada de una piedra
que cae desde lo alto de una torre, o el punto de retorno de una flecha lanzada hacia
arriba). También había acuerdo en que esas observaciones eran relevantes para el debate,
y que una teoría que implicara consecuencias inconsistentes con ellas estaba en serias
dificultades. El acuerdo en cuestiones de tipo lógico también era sustancial. Para Galileo, el
que los aristotélicos infirieran conclusiones falsas a partir de principios copernicanos era un
indicador de que debía haber algún error en su razonamiento; e incluso ambas partes en la
disputa reconocían que había situaciones observables para las cuales las teorías rivales
daban predicciones contrarias (cf. Brown, 1988, p. 217).
Por otra parte, el sistema conceptual alternativo que introduce Galileo con su teoría
física conserva muchos puntos en común con el sistema aristotélico, puntos que servían de
puente para lograr la comprensión del sistema galileano. La afirmación de Galileo de que
todo movimiento natural es circular seguramente era comprensible para los aristotélicos,
aunque les resultara sorprendente o equivocada (comprensión que hubiera requerido de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 110
111

un proceso de aprendizaje mucho más arduo si en el sistema galileano se hubiera


rechazado por completo la noción de movimiento natural, o se hubiera negado que los
movimientos planetarios siguen una curva geométrica simple, conclusiones a las que
después llegó Newton). Galileo también aceptaba que muchos rasgos de los objetos físicos
debían explicarse con base en un conjunto de sustancias o elementos básicos, que se
distinguían entre sí por sus propiedades dinámicas, y tomó esos elementos de la lista tradi-
cional; pero introdujo cambios de fondo en las propiedades dinámicas relevantes, e incluso
eliminó el fuego como uno de los elementos de la lista. Como afirma Brown:

Mucho de esto fue rechazado por los aristotélicos, e incluso pudo haberles
impactado como absurdo, pero las concepciones de Galileo estaban presentadas
en un lenguaje que era lo suficientemente inteligible para sus contemporáneos
como para que éstos pudieran ofrecer contraargumentos, a los cuales Galileo
podía responder (ibid., p. 218).

También cabe destacar que este debate se daba en el marco de un conjunto de


criterios de evaluación compartidos. Un valor como la exactitud o precisión, que en
astronomía venía siendo un desiderátum, sin embargo no se interpretaba como revelando
alguna adecuación con el mundo físico. Incluso Galileo no ofreció nuevos argumentos
cuantitativos en favor de la astronomía copernicana. Por otra parte, Galileo también
compartía como criterio de evaluación de toda teoría física la conformidad con las Escritu-
ras, y trató de mostrar que la concepción copernicana no entraba en conflicto con la
verdad revelada. Aunque ciertamente su defensa por esta vía no resultó muy convincente,
sobre todo para aquellos cuyos intereses primarios estaban en otros campos, pues, como
señala Kuhn: "Los ataques [al copernicanismo] habían sido escasamente abatidos hacia
mediados del siglo XVlI. [Y] muchos tratados importantes que insistían en una
interpretación literal de las Escrituras, y en el carácter absurdo del movimiento de la Tierra,
continuaron apareciendo durante las primera décadas del siglo XVIlI" (Kuhn, 1957, pp.
226-227).
Para concluir, hemos examinado un episodio de debate sobre cuestiones
fundamentales, que incluyen algunos de los aspectos más básicos de la estructura del
mundo físico, así como sobre los objetivos mismos de la teoría física. En este episodio, que
forma parte de una de las revoluciones científicas más radicales, hemos destacado que los
desafíos a diversos presupuestos del paradigma aristotélico se dan sobre la base de un
cúmulo de elementos compartidos (problemas, creencias, prácticas, valores) que permiten
la comprensión, la discusión con base en lo que califica como buenas razones, y finalmente
el convencimiento que conduce a nuevos acuerdos. También se observa que, por lo
regular, en los desacuerdos ninguno de los científicos competentes procede de manera
irracional (según los estándares aceptados).
Por otra parte, si bien las divergencias entre los sistemas conceptuales en pugna

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 111
112

generan problemas inevitables de comunicación, la base conceptual compartida permite


lograr la comprensión, si bien mediante un aprendizaje que en ocasiones resulta arduo y
lento. Cuando los adversarios comprenden la concepción rival, se genera una serie de
argumentos y contraargumentos que estimulan la producción de nuevos elementos de
juicio. El cambio de paradigma o concepción del mundo es necesariamente un proceso
que, como en este caso, puede tomar décadas para completarse o consolidarse.
En cuanto al cambio en los estándares epistémicos, es claro que, hoy en día,
criterios como el de conformidad con las Sagradas Escrituras prácticamente ha
desaparecido; mientras que un valor como la precisión, que en el debate examinado tenía
poco peso, se ha convertido en uno de los criterios centrales en el campo de la física.
Además, una consecuencia de gran alcance del uso que hizo Galileo del telescopio fue el
cambio en la noción de lo que cuenta como observación científicamente relevante. Lo cual
muestra cómo los desarrollos en las prácticas de investigación pueden modificar los
criterios de relevancia y evaluación. Por último, aunque la adecuación empírica sea uno de
los criterios más decisivos, tanto entonces como ahora es claro que no basta para poner
fin a los desacuerdos más profundos entre sistemas conceptuales divergentes. Los debates
entre los científicos más competentes en su campo no se pueden resolver por
procedimientos efectivos de decisión. Pero la racionalidad no autónoma ni algorítmica que
opera en la ciencia, con su carácter comunitariamente dependiente, ha sido suficiente para
encontrar formas y métodos de producir sistemas de creencias sobre el mundo cada vez
más eficaces.

VI. REPERCUSIONES METODOLÓGICAS

LA AMENAZA DEL RELATIVISMO


Kuhn bajo la perspectiva de Laudan
La difundida idea de que el modelo de Kuhn hace de la ciencia una empresa
irracional, tiene como una de sus principales fuentes el relativismo que ciertamente implica
este modelo. Sin embargo, el sentido en que Kuhn es relativista sigue siendo, hasta la
fecha, una cuestión poco clara y ampliamente debatida; incluso el mismo Kuhn reaccionó
defensivamente ante tal catalogación. Una muestra de la confusión reinante es el hecho de
que algunos de los enfoques más radicalmente relativistas, provenientes sobre todo del
campo de la sociología del conocimiento, hayan utilizado tesis centrales de Kuhn como aval
y punto de partida de su posición. Frente a este panorama, se justifica el intento de
precisar los distintos sentidos en que estas tesis implican un relativismo, lo cual nos
permitirá reforzar la idea de que lejos de representar una amenaza para el carácter
racional de la ciencia contribuyen a conformar una noción más adecuada de la racionalidad
que en ésta opera.
De entrada, queda claro que hay un sentido en el que Kuhn no es relativista y otro
en el que sin duda lo es. Kuhn mismo se ocupó de deslindar su posición frente al

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 112
113

relativismo radical, el cual conduce al subjetivismo, al insistir en la idea de que: "Existen


estándares compartidos y justificables, aunque no necesariamente permanentes, que las
comunidades científicas utilizan en la elección de teorías" (Kuhn, 1988, p. 23, n. 24). Por
otra parte, hay un sentido muy básico y casi trivial en el que Kuhn es relativista -que tam-
bién asoma en esta cita- que es el sentido implicado por su rechazo de fundamentos
últimos, universales y necesarios, del conocimiento científico (aspecto en el que hemos
insistido como constitutivo de su modelo de desarrollo). Sin embargo, dada la generalidad
de este sentido, es necesario desglosar las diversas implicaciones del antifundamentismo
de este autor para determinar la naturaleza y el alcance de su relativismo.
En esta tarea nos resultará de mucha ayuda examinar las críticas de Larry Laudan a
las tesis centrales de Kuhn sobre el cambio científico, ya que dichas críticas se dirigen a los
distintos tipos de relativismo con los que supuestamente Kuhn queda comprometido. Por
otra parte, dado que el ataque de Laudan condensa las principales objeciones de tipo
filosófico que hoy en día se siguen haciendo al modelo de Kuhn, su examen nos dará pie
para recapitular los argumentos que hasta ahora hemos dado en favor de este modelo, y
también para establecer un contraste entre la presente reconstrucción del pensamiento de
Kuhn y una interpretación no sólo alternativa, sino incluso contrapuesta en aspectos
centrales.
Comencemos con la estrategia general que estructura las objeciones de Laudan a
Kuhn, la cual queda trazada en el capítulo introductorio de su libro Beyond Positivism and
Relativism, publicado en 1996. Laudan intenta mostrar que las tesis centrales de la
corriente historicista o pospositivista, encabezada por Kuhn y Feyerabend, lejos de
constituir una reacción contra el positivismo son, en realidad, netamente positivistas (cf.
Laudan, 1996, p. 5). El pospositivismo -al que aquí nos hemos referido como "nueva
filosofía de la ciencia"- vendría a representar, entonces, el último estertor del programa
iniciado por los positivistas o empiristas lógicos; de aquí que, en palabras de Laudan, su
crítica al "relativismo rampante" implicado por las tesis historicistas "tome la forma de un
postmortem".
En este espíritu demoledor, Laudan destaca su primer desacuerdo con Kuhn, el cual
se ubica en el terreno semántico. Ciertamente, como vimos, cuando Kuhn y Feyerabend
entran en escena en los años sesenta, uno de los supuestos filosóficos imperantes era que
la elección entre teorías rivales involucraba necesariamente algún tipo de traducción. La
traducción completa, al menos en el nivel de las consecuencias observacionales de las
teorías, se consideraba como un requisito indispensable de su comparación, y por tanto de
su elección racional. Pero Laudan, en su reconstrucción del pospositivismo, da por hecho
que tanto Kuhn como Feyerabend "aceptaron sin reservas esta curiosa historia acerca de la
comparación de teorías" (ibid., p. 8), y tomando en cuenta el rechazo de estos autores de
la doctrina de un lenguaje de observación neutral -en el que se pudiera efectuar la
traducción requerida por la comparación de teorías- les atribuye la deplorable conclusión
de que "la elección racional entre perspectivas teóricas rivales [es] imposible" (ibid., p. 9).

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 113
114

Por esta vía, Laudan intenta mostrar que el relativismo al que conducen las tesis
pospositivistas tiene, como uno de sus pilares, el compromiso con un supuesto 100 %
positivista, el supuesto de que la racionalidad científica depende de la posibilidad de
traducción.
Aquí debemos advertir que aunque Laudan establece una fuerte mancuerna entre
Kuhn y Feyerabend, en el nivel de sus compromisos básicos, en adelante consideraremos
las críticas de Laudan como si estuvieran dirigidas sólo a Kuhn. A nuestro modo de ver, las
marcadas diferencias entre estos autores limitan considerablemente el intento de tomarlos
como un blanco común de crítica, diferencias que, por lo demás, permitirían explicar que el
análisis que hace Laudan del pospositivismo resulte tan certero en el caso de Feyerabend,
pero no en la misma medida en el caso de Kuhn (la breve reseña que hacemos del modelo
de Feyerabend para el cambio científico, en el último capítulo, permite detectar algunos de
sus desacuerdos básicos con las tesis de Kuhn).
En la crítica recién referida, subyace la interpretación que tiene Laudan de la
inconmensurabilidad. Según Laudan, esta tesis describe "la supuesta incapacidad de los
defensores de cosmologías y ontologías rivales para comprenderse entre sí" (ibidem;
cursivas añadidas). Sin embargo, en su opinión, Kuhn "no presentó ninguna evidencia de
que los científicos naturales que se encuentran en bandos teóricos opuestos fracasaran
sistemáticamente en comprenderse" (ibidem). Y en esta misma línea, Laudan retoma el
argumento utilizado por Davidson, Kitcher y Putnam, que considera que los trabajos del
propio Kuhn en historia de la ciencia "desmienten la afirmación de que un esquema
conceptual nunca podría ser inteligible para aquellos que sostienen un esquema diferente;
pues qué es escribir historia de la ciencia [...] si no se supone que marcos conceptuales
diferentes de los nuestros pueden, sin embargo, ser inteligibles para nosotros" (ibidem;
cursivas añadidas).
Sin duda, si la inconmensurabilidad implicara incapacidad de comprensión, Laudan
tendría razón en afirmar que el pospositivismo de Kuhn no es más que un "fracaso
intelectual". En ese caso, la comunicación entre científicos de bandos opuestos y la
comparación que de hecho establecen entre teorías rivales serían casualidades
sorprendentes o incluso milagrosas. Además, si la inconmensurabilidad fuera tan radical
como Laudan parece suponer, en efecto sería imposible establecer la pérdida de contenido
empírico en el paso de una teoría a otra, es decir, no se podrían identificar problemas que
dejan de tener una solución en la teoría sucesora. En consecuencia, una de las principales
aportaciones de Kuhn, como fue mostrar el carácter no acumulativo del desarrollo
científico, se vería seriamente amenazada por la idea misma de inconmensurabilidad.
Sin embargo, estas supuestas incongruencias se diluyen cuando se reconoce que las
intuiciones iniciales sobre la inconmensurabilidad, en su proceso de depuración,
condujeron -entre otras cosas- a transformar la noción de racionalidad. La inconmensu-
rabilidad, que en efecto es una tesis semántica con implicaciones ontológicas, resultó ser la
principal herramienta en la desarticulación del enfoque metodológico que dominó por casi

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 114
115

cinco décadas. Esta tesis fungió como el delator del supuesto que también denuncia
Laudan, arraigado no sólo en el positivismo sino también en el popperianismo, el supuesto
de que toda comparación de teorías, y por tanto toda evaluación racional, supone la
posibilidad de traducción. Contra lo que piensa Laudan cuando afirma que, en el
pospositivismo, "lo que sobrevivió al abandono de la doctrina del lenguaje de observación
teóricamente neutral fue la idea de que la traducción completa entre teorías era un sine
qua non de la racionalidad científica" (ibid., p. 8), y en consecuencia la certificación de la
irracionalidad, nosotros diríamos que lo que subsistió, al menos en el caso de Kuhn, fue
más bien la idea opuesta: la evaluación racional no requiere de la traducción completa.
Cuando Laudan intenta mostrar que Kuhn está comprometido con el supuesto
referido, se apoya en la siguiente afirmación de este autor: "La comparación punto por
punto de dos teorías sucesivas exige un lenguaje en el cual puedan traducirse, sin pérdidas
ni cambios, por lo menos las consecuencias empíricas de ambas" (Kuhn, 1970b, p. 266).
Pero Laudan, al citar esta frase, prescinde de la cualificación "punto por punto" (cf.
Laudan, 1977, p. 142; y 1996, p. 10), lo cual muestra la poca importancia que le concede.
Sin embargo, como vimos, dicha cualificación resulta clave para entender la
concepción de Kuhn sobre la evaluación de teorías, ya que en ella se distinguen dos tipos
básicamente diferentes de comparación, "global" y "punto por punto", y sólo la segunda
exigiría la posibilidad de traducción.
El hecho de que las teorías inconmensurables no tengan el mismo poder expresivo,
lo cual implica su incapacidad para articular todo el contenido semántico de la otra, impide
justamente una comparación enunciado por enunciado entre ellas. Se hace necesario,
entonces, formular un modelo alternativo que dé cuenta de la evaluación de teorías
rivales. Pero esto exige, a su vez, forjar una concepción de la racionalidad científica que no
dependa de la traducción. De acuerdo con nuestra reconstrucción, para llevar adelante
este nuevo programa de investigación -generado por el problema de la
inconmensurabilidad- Kuhn tomó como brújula la idea de que la racionalidad sólo depende
de la posibilidad de comprensión. De aquí su interés en defender dos tesis que, sin lugar a
dudas, socavaron los cimientos de la tradición positivista: 1) la posibilidad de comprensión
-inteligibilidad- no es equiparable con la posibilidad de traducción, y 2) la evaluación de
teorías inconmensurables se apoya en criterios que no suponen su intertraducción
completa, ni siquiera en el nivel de sus consecuencias observacionales. Y cabe destacar
que los argumentos que Kuhn desarrolló en apoyo de estas tesis, sobre todo a partir de los
años ochenta (examinados en los capítulos IV y V, respectivamente), revelan
convergencias de fondo con tesis centrales de Laudan. Veamos.
El primer acuerdo básico entre estos autores se refiere a la existencia de estructuras
o esquemas conceptuales genuinamente diferentes. Es obvio que la tesis de
inconmensurabilidad implica este supuesto, ya que se refiere a situaciones en que los
sujetos se topan con términos cuyos referentes no pueden determinar (identificar o
describir) con sus propios recursos lingüísticos, términos que además no pueden incorporar

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 115
116

a su propio léxico sin violar el principio de no-traslape entre sus clases de objetos. Es decir,
situaciones en que están en juego estructuras conceptuales que no son del todo
homologables o congruentes entre sí. De aquí que la vía para lograr la comprensión sea el
aprendizaje, que involucra tareas de interpretación, pues no basta la traducción. Como diji-
mos, Kuhn supone la capacidad -en principio- de aprender cualquier lenguaje, lo cual lo
compromete con un fuerte supuesto de inteligibilidad universal. Pero este supuesto -a
pesar del engañoso parecido- es muy distinto del supuesto positivista de traducibilidad
universal, que también adoptan autores como Quine o Davidson.
En el terreno de esta discusión, cuando Laudan se refiere al argumento de Davidson
que pretende establecer que siempre es posible la traducción entre conjuntos rivales de
afirmaciones sobre el mundo, afirma que a pesar de compartir con este autor sus sos-
pechas sobre la inconmensurabilidad, sin embargo se niega a aceptar la conclusión de que
en realidad no existen esquemas conceptuales diferentes. Según Laudan, Davidson llega a
esta inaceptable conclusión porque sigue atrapado en el giro lingüístico del positivismo al
asumir la doctrina que asocia tener un lenguaje con tener un esquema conceptual, más el
corolario que dice: donde difieren los esquemas conceptuales también difieren los
lenguajes (cf. Laudan, 1996, p. 13). En contraste con este diagnóstico de Laudan, Kuhn
diría que la falla se deriva, más bien, de la doctrina que asocia inteligibilidad con
traducibilidad. Pero a pesar de este desacuerdo, Laudan claramente coincide con Kuhn en
afirmar que existen sistemas conceptuales diferentes y que éstos son, en principio,
inteligibles para cualquier sujeto. En efecto, Laudan insiste en que el cosmos de Aristóteles
y el universo de Einstein representan concepciones del mundo genuinamente diferentes, y
sin embargo cada una de ellas puede ser inteligible para quienes sustentan la otra (cf.
ibidem).
Por otra parte, como hace ver Laudan, Kuhn y Davidson comparten una tesis de
fondo: la identificación de esquemas conceptuales diferentes se apoya en su no-
traducibilidad (aunque ciertamente la utilizan para extraer conclusiones opuestas; para
Kuhn, el fracaso de traducción completa muestra que hay esquemas diferentes, mientras
que para Davidson, la traducibilidad universal implica que no los hay). Laudan rechaza esta
tesis de carácter semántico y en su lugar propone que tal identificación se apoye en un
análisis de las divergencias que presentan los esquemas conceptuales en sus compromisos
ontológicos, axiológicos y metodológicos. Sin embargo, aunque aparentemente esta
propuesta nos permitiría esquivar los serios problemas que rodean a la traducción, hasta
ahora no es claro que las divergencias en los compromisos ontológicos puedan
establecerse por medios no semánticos. Además, si Kuhn tiene razón, los fracasos
(siempre parciales) de traducción tienen su origen precisamente en discrepancias de tipo
ontológico; por tanto, el análisis de tales fracasos sería la vía más directa para la detección
de divergencias en el nivel de los supuestos ontológicos.
La anterior propuesta de Laudan se inscribe en su tendencia a minimizar la
importancia de las cuestiones semánticas para la filosofía de la ciencia, por contraste con

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 116
117

el lugar central que éstas han tenido tanto en el positivismo como en el pospositivismo. Sin
embargo, el propio Laudan deja abierto un resquicio, pues acaba otorgando un papel clave
a la posibilidad de traducción en la tarea de distinguir esquemas conceptuales. Laudan dice
que poniendo de cabeza la tesis que comparten Kuhn y Davidson, incluso estaría inclinado
a creer que: "el establecer relaciones de mutua traducibilidad entre dos marcos es un
prerrequisito para determinar que se trata de esquemas conceptuales diferentes" (ibidem;
cursivas añadidas). Pero si esto es así, y se concede que la tarea de identificar y distinguir
marcos teóricos no es una tarea de menor importancia en la filosofía de la ciencia, se
tendría que otorgar al menos una importancia equivalente a los análisis de tipo semántico.
Pasemos ahora al supuesto que Laudan y Davidson comparten, y que Kuhn
rechaza: la asimilación entre inteligibilidad y traducibilidad. El compromiso de Laudan con
este supuesto se hace presente cuando interpreta inconmensurabilidad como imposibilidad
de comprensión. Desde luego, Laudan podría argumentar que él entiende la traducción de
una manera distinta -menos rígida- que Kuhn, y que eso le permite equipararla con la
comprensión. De todos modos, independientemente de cómo se conciba la traducción y su
relación con la comprensión, subsiste un componente de la inconmensurabilidad -el
componente nuclear- que Laudan no podría rechazar sin poner en peligro su propia teoría
del progreso científico.
Al defender la tesis de la pérdida de contenido empírico en el cambio de teorías,
Laudan reconoce que "algunos de los problemas resueltos por ciertas teorías ni siquiera
pueden formularse, ya no se diga resolverse, dentro de la ontología presupuesta por las
teorías competidoras o sucesoras" (ibid., p. 116; cursivas añadidas). Por ejemplo: el
problema sobre el carácter de las relaciones de fuerza entre las partículas de calor, que era
un problema resuelto e importante en la teoría del calórico, después se volvió irresoluble
porque simplemente no podía formularse de manera coherente en el léxico de las teorías
sucesoras. Y Laudan insiste en que, "Evidentemente, una teoría no puede responder
preguntas acerca de entidades cuya existencia no suscribe" (ibidem). Pero éste es
precisamente el hecho alrededor del cual gira la idea de inconmensurabilidad: los cambios
en los compromisos ontológicos alteran la estructura de las redes conceptuales, y esta
alteración se refleja en el distinto poder expresivo de los lenguajes de teorías rivales o
sucesivas.
Por tanto, la defensa que hace Laudan de la pérdida de contenido en las
transiciones teóricas, pérdida que constituye la piedra de toque de su teoría del "progreso
sin acumulación", descansa en el núcleo de la tesis de inconmensurabilidad. Dicho de otra
manera, el reconocimiento de cambios conceptuales que, por una parte, suponen
divergencias en los compromisos ontológicos y, por otra, limitan el poder expresivo de las
teorías, constituye el punto de partida de la teoría del progreso sin acumulación. Desde
esta perspectiva, Laudan bien podría haber afirmado que su modelo no sólo reconcilia
progreso con pérdida, sino también progreso con inconmensurabilidad.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 117
118

Kuhn y el relativismo
Examinemos ahora la cuestión del relativismo. Laudan considera que las tesis de
Kuhn sobre el cambio científico implican un relativismo por partida triple, el cual cancela
por completo el carácter racional de la evaluación de teorías:
1) la tesis de inconmensurabilidad implicaría un "relativismo lingüístico" (un
esquema conceptual nunca puede hacerse inteligible en el lenguaje de un esquema rival);
2) la tesis de la subdeterminación de las teorías implicaría un "relativismo
epistémico" (la evidencia disponible y los criterios de evaluación vigentes nunca permiten
decidir entre teorías rivales);
3) la tesis del carácter convencional de los criterios de evaluación implicaría un
"relativismo metametodológico" (los métodos y objetivos de la ciencia son, en última
instancia, cuestiones de gusto y preferencia subjetiva).
En lo dicho hasta aquí hemos intentado descargar a Kuhn de la primera acusación.
En pocas palabras, si la inconmensurabilidad no impide la comprensión, resulta inofensiva
para los procesos de evaluación. Sin embargo, hay que reconocer que esta tesis implica
cierto relativismo lingüístico, en el sentido de que supone que no todos los lenguajes
tienen el mismo poder expresivo (no todo lo que se puede decir en un lenguaje resulta for-
mulable en cualquier otro).
Ahora bien, para aquilatar en qué medida Kuhn queda comprometido con el
relativismo epistémico, debemos partir de la tesis que Kuhn intentó defender en respuesta
a los cargos de irracionalismo, la tesis de que la evaluación comparativa de teorías
inconmensurables se apoya en criterios compartidos -y en este sentido objetivos-, cuya
aplicación no requiere de la intertraducción completa. Como argumentamos, el
compromiso de Kuhn con esta tesis se muestra en su postulación de un modelo de com-
paración "global", el cual permite discutir los méritos epistémicos de teorías rivales sin
necesidad de traducir todos los enunciados del lenguaje objeto de una teoría en el
lenguaje de la otra. Como señala el mismo Laudan, la capacidad relativa de las teorías en
la resolución de problemas, el grado de coherencia interna, o la simplicidad, se pueden
establecer al margen de los problemas de traducción. Si esto es así, Kuhn, con su
propuesta, no hizo más que tomar el camino que más tarde sugiere Laudan: "una solución
al problema de la inconmensurabilidad involucra el desarrollo de criterios de evaluación de
teorías que no requieran de la intertraducción" (ibid., p. 12).
Sin embargo, Laudan insiste en que las tesis de Kuhn desafían cualquier
caracterización de la elección de teorías como racional, ya que incluso si las teorías fueran
completamente intertraducibles todavía subsistiría el problema de las discrepancias en
cuanto a los estándares de evaluación que utilizan los científicos de un mismo campo,
discrepancias que Kuhn introduce en el análisis metodológico, con lo cual acabaría de abrir
la puerta al relativismo epistémico. La catalogación de Kuhn como subjetivista e irraciona-
lista se apoya en otro elemento, que se desprende de su manera de concebir la naturaleza
y función de los estándares epistémicos: su idea de que en las ciencias empíricas no

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 118
119

operan procedimientos efectivos de decisión. Si bien Laudan reconoce que hay una ruptura
entre los positivistas y los pospositivistas, en tanto estos últimos rechazan que la ciencia
sea una actividad gobernada por reglas, sin embargo minimiza esta ruptura afirmando que
por debajo de ella hay una convicción compartida con los positivistas, la convicción de que
"la única clase de regla racional que merece ser considerada como tal es algún tipo de
algoritmo, mecánico en su aplicación, no ambiguo en su sentido, y capaz de producir inva-
riablemente un resultado único" (ibid., p. 18). De aquí que los pospositivistas, al negar la
existencia de tal tipo de reglas, se vean obligados a concluir que la racionalidad científica
es imposible.
Pero, como intentamos mostrar, Kuhn fue el principal promotor de una concepción
en que la racionalidad científica no es codificable en algoritmos. Si él de hecho pensaba
que la ciencia es el mejor ejemplo de actividad racional de que disponemos, y además
consideraba que dicha actividad no está gobernada por reglas, tenía que concluir que la
racionalidad científica no es de naturaleza algorítmica. Laudan está en lo cierto cuando
señala que, para Kuhn, la evaluación de teorías está subdeterminada por la evidencia y los
estándares aceptados. Pero cabe destacar que como el propio Laudan también adopta una
concepción no algorítmica de la racionalidad, y acepta que los criterios de evaluación no
siempre tienen una aplicación uniforme ni una jerarquía fija, en este terreno no le queda
más que cifrar su desacuerdo con Kuhn en una interpretación radical de sus tesis que,
además de resultar injustificada, no bastaría para concluir que Kuhn es un "subjetivista
radical" y un "profundo pesimista" acerca de la resolución racional de los debates
científicos. Dice Laudan: "Yo sería el primero en conceder que los científicos algunas veces
se encuentran suscribiendo estándares contrarios [...]. Pero Kuhn no está diciendo que
esto ocurre sólo ocasionalmente" (ibid., p. 95), y agrega que el conflicto entre estándares
metodológicos se presenta, según Kuhn, en todo momento y en cualquier grupo de
científicos razonables (ibidem). Sin embargo, desde la primera respuesta a sus críticos
Kuhn afirma básicamente lo mismo que suscribe Laudan: "Los científicos que los
comparten [los estándares metodológicos] pueden sin embargo hacer elecciones diferentes
en la misma situación concreta" (Kuhn, 1970b, p. 262; cursivas añadidas).
La verdadera diferencia entre estos autores está en el peso que otorgan a los
factores subjetivos o "externos", y en el papel que en consecuencia asignan a la
comunidad de especialistas en la resolución de los desacuerdos. Al reconocer la injerencia
que de hecho tienen los factores subjetivos en los juicios de los científicos, Kuhn asigna un
papel fundamental a la comunidad en la elección de teorías: sólo los juicios que logran un
acuerdo significativo, a través del escrutinio y debate comunitarios, pueden ser
considerados como científicamente racionales. De aquí que la elección de teorías sea un
proceso intrínsecamente colectivo, constreñido y orientado por los estándares compartidos,
que al final conduce a nuevos consensos. Por esta vía Kuhn escapa al subjetivismo.
Cuando los procesos de evaluación se reconstruyen bajo los lineamientos apuntados
(cf. "Consensos racionales", capítulo V), se puede sostener que la tesis de la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 119
120

subdeterminación, tal como funciona en el modelo de Kuhn, no conduce a un subjetivismo


radical ni resulta amenazante para la racionalidad científica. Aunque esta tesis supone una
racionalidad "blanda" o flexible, dado que permite el desacuerdo en el nivel de los
estándares de evaluación, y con ello ciertamente da entrada a cierto relativismo
epistémico, sin embargo se puede decir que se trata de un relativismo acotado o
restringido, donde hay un control epistémico sobre la divergencia de juicios, control que
ejerce la comunidad de expertos.
En cuanto al relativismo metametodológico que Laudan le atribuye a Kuhn cuando
afirma que éste comparte "la idea [positivista] de que los objetivos y los métodos de la
ciencia son, en último análisis, cuestiones de gusto y preferencia individual" (Laudan,
1996, p. 16), la mejor referencia en este respecto es la discusión que Kuhn sostiene con
Hempel sobre la racionalidad de la elección de teorías. Primero, Kuhn supone que es
posible evaluar los mismos estándares de evaluación, es decir, los criterios que de hecho
se utilizan para elegir teorías; y después afirma que dicha evaluación se hace de acuerdo
con los objetivos o metas que se persiguen con la elección: "la evaluación de los criterios
para la elección de teorías requiere de una especificación previa de las metas que se
persiguen mediante esa elección" (Kuhn 1983a, p. 563). Si bien la meta sería incrementar
la eficacia en la resolución de problemas, Kuhn acepta que es una cuestión que hay que
argumentar, aunque reconoce -en el diálogo con Hempel- que él no ha ofrecido ninguna
justificación. Sin entrar por ahora en esta discusión, por lo pronto queda claro que Kuhn
propone una forma de establecer el carácter racional de una elección: cuando los criterios
que utilizan los científicos al juzgar teorías alternativas son congruentes con los objetivos
que persiguen (como quiera que éstos se caractericen) (cf. ibid., p. 564).
Por otra parte, la naturalización que introduce Kuhn en el análisis filosófico de la
ciencia, en el sentido de que un modelo del desarrollo del conocimiento debe ser
contrastable y tener adecuación histórica -debe poder dar cuenta de los hechos y procesos
que tienen lugar en la evolución de las diversas disciplinas-, es un claro indicador de que el
nivel metametodológico, para este autor, es un nivel donde cabe proponer y discutir
criterios para evaluar teorías metodológicas alternativas. No toda reconstrucción
epistemológica es igualmente buena o aceptable. Por tanto, quedaría claro que la manera
de entender y dar cuenta de los hechos y procesos científicos tampoco es una cuestión de
gusto o preferencia personal (cf. "La naturalización de la filosofía de la ciencia", capítulo
VI).
Por último, conviene establecer un somero contraste entre el modelo de Kuhn para
las transiciones revolucionarias y la manera en que Rachel y Larry Laudan reconstruyen la
formación de consensos (cf. el último capítulo, en coautoría, de Laudan, 1996). Estos
autores proponen la hipótesis de la "dominancia de una teoría" como mecanismo
explicativo básico de la formación de nuevos consensos: "una teoría es dominante en un
campo sólo cuando resulta superior a todas sus rivales existentes, a la luz de todo con-
junto de estándares utilizados en dicho campo" (ibid., p. 235). De esta manera, "los

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 120
121

científicos logran un acuerdo sobre la aceptación de una teoría sólo si esa teoría es
'dominante' sobre sus rivales" (ibidem). A reserva de que habría que estimar cuánta
adecuación histórica -con los casos efectivos de aceptación de nuevas teorías- tiene esta
manera de reconstruir la formación de consensos en la ciencia, sin duda es una propuesta
original que aporta nuevos elementos a la discusión del cambio científico.
Notemos primero que esta hipótesis de la dominancia se apoya de manera
fundamental en la divergencia en el nivel de los estándares epistémicos presentes en un
campo de investigación. Pero a diferencia de Kuhn, los Laudan proponen una explicación
de las discrepancias en la evaluación de teorías que no necesita recurrir a factores
externos o subjetivos, es decir, factores del ámbito psicológico, social, geográfico o
disciplinario (cf. ibid., p. 240). Su idea, sugerente aunque discutible, es que cuando una
teoría logra satisfacer todos los estándares que suscriben los científicos que trabajan en un
mismo campo, dicha teoría alcanza la aceptación general, aunque los científicos sigan
aferrados a distintos estándares. Esto es, basta con que una teoría cumpla las diversas exi-
gencias epistémicas de los especialistas. De aquí que, según estos autores, la formación de
consensos no requiere que los científicos discutan ni modifiquen sus estándares de
evaluación. Pero entonces, en el nivel de los juicios de valor, el papel de la comunidad
como instancia donde se dirimen las diferencias es prácticamente nulo.
Por otra parte, los Laudan argumentan que la tesis de estándares divergentes
también permite explicar el fenómeno de la innovación en la ciencia. Si los especialistas de
un campo tienen diversas exigencias epistémicas, al surgir una nueva propuesta teórica es
claro que ésta será aceptada por unos y rechazada por otros, lo cual explicaría el hecho de
que algunos científicos emprendan el desarrollo de una teoría mucho antes de que la
mayoría de sus colegas llegue a convencerse de que dicha teoría es superior. Esta manera
de dar cuenta de la innovación parece tener ciertas ventajas sobre la propuesta de Kuhn,
dado que destaca un factor explicativo que permitiría cubrir casos donde la búsqueda de
nuevas teorías no necesariamente surge de la crisis de una teoría dominante.
Se podría concluir que los Laudan, a pesar de su insistencia en considerar los
factores externos o subjetivos como innecesarios para dar cuenta del proceso de cambio
de teorías, y a pesar de la poca importancia que en este proceso otorgan al debate
comunitario sobre juicios divergentes de valor, de todos modos suscriben ciertos rasgos
característicos de la idea de racionalidad que introdujo Kuhn en la filosofía de la ciencia: la
evaluación racional de teorías rivales no depende de la posibilidad de traducción completa;
la racionalidad científica no es codificable en algoritmos; y las divergencias en los
estándares epistémicos no son un síntoma de irracionalidad, sino un hecho constitutivo de
la actividad científica, un hecho que en consecuencia tiene un fuerte peso explicativo en la
reconstrucción de su desarrollo.
El anterior análisis comparativo encuentra su justificación en las constantes
referencias que en los últimos veinte años ha hecho Larry Laudan a las ideas de Kuhn, si
bien en su gran mayoría se trata de referencias encaminadas a destacar sus desacuerdos,

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 121
122

o a mostrar la mayor capacidad de sus propias propuestas para resolver el arsenal de


problemas que Kuhn nos heredó. Y en este sentido se puede afirmar que el modelo de
Laudan representa, en algunos aspectos, un progreso frente al modelo de Kuhn, justo en
el sentido de progreso que Laudan forjó (en el último capítulo se hace una revisión de las
principales tesis de Laudan sobre el cambio científico).

LA AMENAZA DEL ANARQUISMO METODOLÓGICO


En dos de sus últimas publicaciones -de 1993-Kuhn señala un problema que no ha
sido suficientemente analizado por quienes, como él, se oponen al individualismo o
“solipsismo” metodológico e intentan defender, en cambio, que "la ciencia es intrínseca-
mente una actividad comunitaria". El problema, en pocas palabras, es elucidar la relación
individuo-comunidad y el papel que cumplen tanto los sujetos como los grupos en el
desarrollo científico. Este problema se vuelve especialmente agudo cuando se intenta
reconstruir el cambio de teorías a partir de un modelo complejo, no reductivista en ningún
sentido, como es el modelo kuhniano.
Kuhn afirma que: "Necesitamos urgentemente aprender maneras de comprender y
describir los grupos que no se apoyen en los conceptos y términos que aplicamos sin
problema a los individuos" (Kuhn, 1993b, p. 328). Y también sostiene que: "La separación
entre los conceptos aplicables a los grupos y los conceptos aplicables a los individuos,
constituye una poderosa herramienta para eliminar el solipsismo característico de las
metodologías tradicionales" (Kuhn, 1993a, p. xiii). Sin embargo, además de subrayar la
importancia de este problema y dar algunas pistas sobre la forma en que intentaba
abordarlo, Kuhn no llegó a publicar en vida una propuesta más detallada de solución.
Por otra parte, el hecho de que por un lado se atribuya a Kuhn la defensa de un
modelo consensualista de la aceptación de teorías, y por otro se le acuse de defender un
anarquismo metodológico, muestra la dificultad que en efecto presenta su modelo en
cuanto al deslinde entre el papel que tienen los individuos y el que tienen las comunidades
en el proceso de elección de teorías y formación de consensos. En el capítulo anterior
intentamos mostrar que si bien -de acuerdo con Kuhn- éste es un proceso intrínsecamente
comunitario, dado que no es un proceso controlado por reglas algorítmicas, sin embargo la
divergencia de juicios también cumple una función vital en el cambio de teorías, la
distribución de riesgos en este proceso, lo cual ciertamente destaca el papel de los
individuos. Dado que ya argumentamos que no cualquier consenso puede calificar como
racional (cf. "Consensos racionales", capítulo V), con lo cual se intentó descartar las
interpretaciones sociologistas del modelo de Kuhn, en lo que sigue nos ocuparemos de
rebatir las interpretaciones que lo catalogan como anarquista metodológico, tarea que
además de reforzar su ataque a las metodologías solipsistas nos permitirá abordar el
problema de la identificación o caracterización de las comunidades científicas.
Como se dijo, la etiqueta de anarquista tiene su origen en la importancia que Kuhn
otorga a los desacuerdos y por tanto a la variabilidad individual. Además, la afirmación de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 122
123

que los desacuerdos pueden ser racionales atenta directamente contra el principio que
subyace en la concepción clásica -estricta o algorítmica- de la racionalidad, principio según
el cual: los sujetos que se encuentran en las mismas circunstancias objetivas deben tomar
la misma decisión. Dicho de otra manera, los cánones de racionalidad garantizarían una
uniformidad básica de juicios en cualquier momento y circunstancia. Una concepción
donde dichos cánones o estándares son universales, autónomos y determinantes, va de la
mano con una metodología individualista o solipsista, como son los modelos metodológicos
tradicionales, donde el hecho de que el desarrollo del conocimiento requiera de un trabajo
colectivo sólo responde a las limitaciones materiales y contingentes de los sujetos
individuales.
Ahora examinaremos una propuesta que pretende conciliar el carácter universal de
las normas o cánones de racionalidad con los desacuerdos que se presentan en la ciencia,
pero introduciendo un sentido de universalidad distinto del tradicional. Desde un enfoque
como éste, desarrollado entre otros por Stephen Wykstra, el supuesto anarquismo de Kuhn
es atribuido a una concepción equivocada de la actividad gobernada por normas. A esta
concepción Wykstra la llama "robinsoniana", en alusión al solitario Robinson Crusoe en su
isla, y la describe como aquella que supone que las normas guían exclusivamente los
compromisos de los científicos como individuos autónomos, y no como miembros de una
comunidad con metas comunes. A esta concepción Wykstra le enfrenta la siguiente
"analogía correctiva":

considérese un grupo de personas perdido en una caverna; uno puede


imaginar fácilmente circunstancias en las cuales sería racionalmente necesario
que algunos miembros del grupo exploraran un pasaje de posible salida, pero
irracional que todos los miembros del grupo hicieran lo mismo. Las normas
implícitas en tales decisiones acerca de la "explorabilidad racional" podrían, en
este caso, ser aceptadas por todos los miembros del grupo. Pero no porque las
normas pertenezcan a los esfuerzos del grupo necesitan recomendar a todos los
miembros actuar de la misma manera (Wykstra, 1980, p. 218).

Según este autor, algo muy similar ocurre en la ciencia.


Cuando Wykstra examina la universalidad de las normas, se pregunta de qué
manera deben legislar la actividad científica: "¿Debe ser el caso de que siempre que sea
racional para algunos científicos adoptar cierta actitud cognitiva hacia una teoría, sea
racional para todos los científicos hacerlo así?" (ibid., p. 217). La respuesta negativa lleva a
la propuesta de concebir las normas epistémicas como reglas para distribuir racionalmente
las tareas en una comunidad: a pesar de ser obligatorias para cada uno de sus miembros,
tales reglas no exigen que todos trabajen en la misma teoría. De aquí que con objeto de
"exorcizar" el anarquismo Wykstra rechace el sentido kantiano de universalidad para el
caso de las normas científicas. Recordemos que, según el imperativo de Kant, el principio

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 123
124

de la acción de una persona debe ser tal que pudiera universalizarse de manera
consistente.
Wykstra está en lo correcto cuando señala que Kuhn parte del siguiente principio de
racionalidad: si un conjunto de normas excluye como irracionales ciertos pasos esenciales
al progreso científico, esas normas son objetables. En efecto, como vimos, ésa es la razón
de fondo por la cual Kuhn rechaza las metodologías tradicionales junto con los cánones de
racionalidad que presuponen. Pero luego afirma que la argumentación de Kuhn conduce a
conclusiones anarquistas porque "corrompe" dicho principio al adoptar una concepción
robinsoniana de los juicios gobernados por normas, lo cual implica formular las preguntas
acerca de la elección de teorías en primera persona: ¿Debería yo adoptar la teoría T?, a lo
cual Juan responderá que sí, mientras Pedro responderá que no. En opinión de Wykstra, la
clave está en que "la ilusión de 'desacuerdo' se evapora cuando [...] utilizamos la
formulación correcta: ¿Quién debería adoptar T?, y entonces nuestros científicos pueden
estar de acuerdo en que Juan debería y Pedro no" (ibid., p. 219).
El rechazo del carácter universal de las normas científicas en el sentido de Kant lleva
a Wykstra, y a otros autores como Adolph Grünbaum y Alan Musgrave, a proponer que la
racionalidad de las normas debe ser "estadísticamente relativizada". En palabras de
Grünbaum:

Dado que la investigación es conducida por una comunidad de científicos,


las estrategias, las políticas o las prácticas de investigación que serían irracionales
si fueran adoptadas por esa comunidad como un todo, o por una mayoría de ella,
no necesariamente tienen que ser irracionales cuando sólo una minoría talentosa
se compromete con ellas (citado en Wykstra, 1980).

Esta propuesta, como Grünbaum y Musgrave reconocen de manera explícita, está


claramente inspirada en la idea defendida por Kuhn sobre la necesidad de una cierta
heterodoxia en las decisiones individuales.
Sin embargo, la diferencia de fondo entre Kuhn y Wykstra -tal como éste elabora la
anterior propuesta- está en que el primero no ve en los desacuerdos una amenaza para la
racionalidad científica. Lo que se necesita, diría Kuhn, es una forma de entender la
racionalidad que permita incorporar los desacuerdos como un hecho constitutivo del
desarrollo de la ciencia. Wykstra, por lo contrario, al suponer que los desacuerdos
implicarían la no universalidad de las normas, y con ello el anarquismo, se ve obligado a
negar los desacuerdos como algo que efectivamente ocurre; en realidad sólo existiría "la
ilusión de desacuerdo".
Comparemos las estrategias de estos autores. En el modelo de Kuhn, como en la
propuesta de Wykstra, los estándares epistémicos también permiten distribuir las tareas en
una comunidad, ya que a pesar de ser aceptados por cada uno de sus miembros no exigen
que todos trabajen en la misma teoría. Pero esta distribución de tareas -y por tanto de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 124
125

riesgos- no es algo intencionalmente buscado, algo que se persiga de acuerdo con un plan
preconcebido. De aquí que, en sentido estricto, no se pueda hablar de una "distribución
racional". Dicha distribución es más bien resultado de la naturaleza de los valores o
estándares que orientan la elección de teorías. Kuhn puede dar cuenta de los desacuerdos
como un hecho efectivo, donde ninguna de las partes procede de manera irracional,
argumentando que los científicos que se enfrentan a una elección comparten un mismo
conjunto de estándares -y en este sentido se podría decir que son "universales" en su
comunidad-, pero afirmando que éstos no tienen un significado unívoco ni una jerarquía
fija, lo cual da lugar a juicios no uniformes. Esta naturaleza de los estándares epistémicos,
que a la vez permite y acota la divergencia de juicios, tiene como efecto la distribución de
riesgos. Por tanto, es posible dar cuenta del desacuerdo en la ciencia con independencia
de sus efectos benéficos, esto es, sin ningún tinte teleológico.
Por contraste, la propuesta de concebir la racionalidad como estadísticamente
relativizada, a pesar de su aire atractivo y prometedor, presenta un serio problema en la
versión de Wykstra. El problema, justamente, de cometer el error categorial señalado por
Kuhn en sus últimos trabajos, esto es, concebir las comunidades en términos que sólo son
aplicables a los individuos. Si, como dijimos, lo racional está ligado a lo intencional, ¿qué
clase de agente podría ejercer ese tipo de racionalidad estadísticamente relativizada? En la
propuesta de Wykstra este error resulta evidente, pues se compromete con una entidad
que ni siquiera en un sentido forzado se podría considerar como una idealización de las
comunidades científicas. Sólo una superconciencia que dominara del todo el panorama en
un campo de investigación, ponderara los riesgos de las teorías alternativas, y distribuyera
el trabajo en función de ello, sería capaz de formular y responder la pregunta "¿quién
debería adoptar la teoría T?" Y sólo así los esfuerzos dispares de los científicos podrían
verse como si formaran parte de un plan organizado y coherente.
Como afirma Kuhn: "Un grupo no tiene una mente [...] no elige ni toma decisiones,
a pesar de que cada uno de sus miembros lo haga" (Kuhn, 1993b, p. 328). Esto impide
que las comunidades científicas se reifiquen como entidades que operan deliberadamente,
aplicando una racionalidad estadísticamente relativizada. La distribución de tareas y riesgos
es simplemente un efecto no buscado de los desacuerdos reales, que ningún individuo
podría orquestar. Tan así es que cuando Kuhn consideró un modelo de este tipo, diez años
antes de que lo propusieran los autores mencionados, lo descartó por ficticio, por no tomar
en cuenta las razones y motivaciones personales que de hecho entran en juego en la
elección de teorías. En una nota a pie de página de "Consideración en torno a mis críticos",
dice Kuhn: "Si no interviniera la motivación humana, se podría lograr el mismo efecto [la
distribución de riesgos] haciendo primero un cálculo de probabilidades, y asignando
después una fracción de los profesionales a cada una de las teorías en competencia, la
fracción exacta de acuerdo con el resultado de dicho cálculo", y concluye con esta
reveladora observación: "De alguna manera esta alterativa confirma mi punto de vista por
reductio ad absurdum (Kuhn, 1970b, p. 241, n. 1).

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 125
126

Pero esta crítica plantea el problema del tipo de entidades de las que tiene sentido
predicar la racionalidad. Si bien Kuhn concibe la investigación científica como una actividad
intrínsecamente comunitaria, y si bien la elección de teorías se debe entender como un
proceso colectivamente arbitrado, la racionalidad no se puede predicar directamente de los
grupos, dado que éstos no son una entidad con facultades mentales. De aquí que aunque
la frase "la decisión de una comunidad" pueda remitir, en sentido figurado o derivativo, a
una decisión en la que concuerdan los miembros de un grupo, cuando dicha frase se toma
en sentido literal representa un error categorial.
Cabe señalar que el predicado 'racional' se puede atribuir tanto a los individuos
como a sus juicios (se trate de creencias o decisiones). En el primer caso, afirmar que una
persona es racional significa que posee cierta facultad -la razón- que le permite actuar de
determinada manera en ciertas circunstancias (existen diversos modelos sobre las
condiciones para establecer cuándo un agente actúa de manera racional, pero aquí no
entraremos en ello). En el segundo caso, desde la perspectiva de Kuhn se destacan dos
requisitos para atribuir el predicado 'racional' a los juicios científicos: 1) que se trate de
juicios formulados por individuos que poseen las destrezas y la información pertinentes en
un campo de investigación, y 2) que hayan sido sometidos al escrutinio de otros
especialistas, esto es, que sean resultado de un debate comunitario. Pero el hecho de que
sólo los juicios que logran un consenso (calificado) en una comunidad puedan considerarse
como racionales, no implica afirmar que la comunidad, como tal, sea racional (un modelo
de racionalidad en la línea trazada por Kuhn, que refuerza el ataque a los modelos de corte
individualista, se puede ver en Brown, 1988, capítulo V).
En cuanto al problema de qué es lo que identifica o caracteriza a un grupo
científico, ciertamente existen varios tipos de respuesta. Por ejemplo, desde un punto de
vista sociológico, las comunidades se pueden identificar considerando cierto tipo de
instituciones (tanto educativas como de apoyo a la investigación), ciertas formas de
interacción entre los agentes, los medios a través de los cuales se transmiten las ideas
producidas, etc. Sin embargo, desde un punto de vista filosófico, cabe plantearse este
problema en relación con el marco de investigación que comparten quienes desarrollan
una disciplina o una especialidad científica. En este terreno, la vía de respuesta explorada
por Kuhn apunta a la estructura taxonómica -el sistema de conceptos de clase o
categorías- que comparten los miembros de un grupo (cf. "Taxonomías, significado y
aprendizaje", capítulo IV, donde se analiza este tipo de estructuras y su contraparte
lingüística, las taxonomías léxicas).
Kuhn acepta que un grupo no es sólo la suma de sus miembros, y también que la
identidad de un individuo está en parte conformada por los grupos a los cuales pertenece
(cf. Kuhn, 1993b, p. 328). De aquí que, por una parte, se apoye en la distinción entre un
léxico y una estructura léxica, y afirme que lo que caracteriza a una comunidad, como un
todo, es el hecho de que los léxicos particulares de sus miembros tengan la misma
estructura: "es la estructura taxonómica compartida lo que enlaza a los miembros de una

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 126
127

comunidad" (Kuhn 1993a, p. xiii). Por otra parte, Kuhn encuentra que el paralelismo entre
la relación individuo-grupo y la relación organismo-especie, objeto de estudio de la biología
evolutiva, ofrece pistas importantes para elucidar el sentido en que la ciencia es una
actividad intrínsecamente colectiva, y por tanto para rebatir el solipsismo metodológico. En
esta línea se destaca la idea de que lo que caracteriza a un organismo es un conjunto
particular de genes, mientras que lo que caracteriza a una especie, el "pool genético" de la
población entrecruzable, no es el mero agregado de los genes de los organismos (cf. Kuhn,
1993b, p. 329).
Pero, si bien se afirma la primacía de la comunidad sobre sus miembros, los
científicos individuales siguen teniendo un papel indispensable. De nuevo, el paralelismo
con la teoría evolutiva permite destacar este hecho: "En un sentido, los organismos que
procrean y perpetúan una especie son las unidades cuya práctica permite que la evolución
ocurra. Pero para comprender el resultado de ese proceso uno debe ver la unidad de
evolución (que no debe confundirse con una unidad de selección) como el pool genético
compartido por esos organismos" (Kuhn, 1991, p. 11). De manera análoga, la evolución
cognitiva depende del intercambio de información entre los científicos individuales, que
serían las unidades que realizan este intercambio; pero la comprensión del avance del
conocimiento, resultado de las prácticas de los científicos, requiere considerarlos como
parte constitutiva de una unidad más amplia, la comunidad de practicantes de alguna
especialidad.
Lo dicho en esta sección es suficiente para atisbar el amplio campo de problemas
que plantea el análisis de la naturaleza y el comportamiento de los grupos científicos, en
particular en relación con los aspectos normativos o evaluativos del cambio de teorías. Y
como bien señaló Kuhn, se trata de un campo de problemas que todavía está lejos de
haber sido suficientemente explorado.

EL CUESTIONAMIENTO DEL DUALISMO METODOLÓGICO


La reiterada pregunta ¿son las ciencias sociales realmente ciencias? encierra la
extendida creencia en la superioridad de las ciencias naturales, o ciencias "duras", frente a
las ciencias humanas en general, y en particular frente a las ciencias sociales. Esta preten-
dida superioridad descansa, en buena medida, en una imagen estereotipada de lo que son
las ciencias naturales, imagen que surge de una popularización simplista de las tesis del
positivismo lógico. Pero dejando de lado este tipo de prejuicios, nos detendremos en un
problema que se ha planteado seriamente y que ha preocupado sobre todo a los teóricos
de las ciencias sociales, el problema de la demarcación entre ciencias naturales y ciencias
humanas. En este respecto, el modelo de Kuhn, entre sus muchas contribuciones a la
comprensión de la empresa científica, permitió mostrar la existencia de afinidades muy
básicas entre estos dos grandes territorios de la investigación empírica, con lo cual tuvo el
efecto de reavivar la vieja polémica entre el monismo y el dualismo metodológico.
Como dijimos en el primer capítulo, durante la primera mitad de este siglo, dentro

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 127
128

de la tradición anglosajona, los filósofos con mentalidad científica defendían un monismo


metodológico, esto es, la idea de que el estudio de las acciones humanas no es cuali-
tativamente diferente del estudio de los fenómenos naturales, y por tanto los
procedimientos, normas y objetivos propios de las ciencias naturales debían extenderse a
las ciencias sociales. Este monismo metodológico partía del supuesto de que el poder de la
razón y la reflexión crítica es suficiente para trascender nuestro contexto social y nuestro
horizonte histórico, y en consecuencia para conocer objetivamente el mundo tanto natural
como social. De aquí el interés de estos filósofos por codificar las reglas del método que
supuestamente garantizaba la correcta práctica científica y el auténtico conocimiento. Sólo
la existencia de un método semejante permitía explicar, en su opinión, el asombroso
progreso alcanzado por ciencias como la física.
En contra de esta concepción están los filósofos y científicos sociales que han
defendido la especificidad y la autonomía de otras formas de experiencia y de reflexión, las
cuales no tienen que ser asimilables o reducibles a los cánones de las ciencias naturales
para que se les pueda considerar como formas legítimas de conocimiento. Sin embargo,
cabe destacar que los mismos defensores de este dualismo metodológico siguen
aceptando como correcta la concepción tradicional de las ciencias naturales, y consideran
que éstas están libres de los problemas propios de las ciencias humanas, los cuales
obedecen al carácter peculiar de su objeto de estudio. A este respecto, resulta reveladora
la reacción de Kuhn frente a algunos textos de metodología de las ciencias sociales,
escritos por autores tan destacados como Max Weber, Ernst Cassirer o Charles Taylor: "Se
trataba, en mi opinión, de ensayos brillantes y penetrantes sobre las ciencias sociales o hu-
manas, pero de ensayos que aparentemente necesitaban definir su posición utilizando
como contraste una imagen de las ciencias naturales a la que sigo oponiéndome
profundamente" (Kuhn, 1991a, p. 18).
A continuación enlistamos, de manera muy esquemática, los principales contrastes
que los defensores del dualismo metodológico han establecido entre ciencias naturales y
ciencias humanas, lo cual nos permitirá repasar las tesis básicas de la concepción de
ciencia natural que Kuhn rebate (cf. "La nueva filosofía de la ciencia frente a la tradición",
capítulo I), y que todavía prevalece en muchos medios académicos e intelectuales (un
análisis más detaIlado de estos contrastes se encuentra en Hesse, 1980, pp. 167-186):
-En las ciencias naturales los datos son independientes de las teorías, no así en las
ciencias sociales donde lo que cuenta como dato se determina a la luz de alguna
perspectiva teórica, y donde los hechos mismos tienen que ser reconstruidos con base en
alguna interpretación. Por tanto, las ciencias naturales, a diferencia de las sociales,
cuentan con una base empírica teóricamente neutral, la cual permite a los científicos poner
a prueba sus teorías y elegir, con total acuerdo, entre hipótesis alternativas.
-En las ciencias naturales las teorías explican los hechos con base en un esquema
hipotético-deductivo, esto es: si la naturaleza fuera de tal y cual manera, los datos de la
experiencia se darían como en efecto se nos presentan. De aquí que las teorías se evalúen

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 128
129

por su capacidad para dar explicaciones deductivas de los fenómenos, a partir de hipótesis
o leyes generales. En cambio, en las ciencias sociales el criterio de lo que cuenta como una
buena teoría es la comprensión que ella nos permite lograr tanto de las intenciones de los
agentes como de los significados de los fenómenos humanos.
-El lenguaje de las ciencias naturales, además de tener una estructura formalizable,
está constituido por términos que tienen un significado unívoco; se trata, por tanto, de un
lenguaje que debe interpretarse literalmente. En cambio, el lenguaje de las ciencias
humanas es inevitablemente multívoco y muchas veces metafórico. Esta diferencia está en
estrecha relación con otra diferencia semántica: los significados, en las ciencias naturales,
son separables de los hechos, mientras que en las ciencias humanas los significados son
un componente constitutivo de los hechos. Esto se debe a que los objetos de estudio de
estas últimas: acciones intencionales, reglas sociales, instituciones, documentos, inscripcio-
nes, artefactos humanos, etc., son inseparables de su significado para los agentes. De aquí
que los significados, en las ciencias del hombre, deban comprenderse mediante la
coherencia teórica y no por la correspondencia con el mundo. En otras palabras, para
comprender las acciones humanas y recuperar su intencionalidad -su significado- se
requiere de una interpretación o hermenéutica adecuada, la cual es relativa a las distintas
culturas e incluso a los distintos individuos.
Cuando se examina esta lista de contrastes, como observa Mary Hesse:

Lo que resulta inmediatamente sorprendente para la mayoría de los


lectores versados en la reciente literatura en filosofía de la ciencia, es que casi
todas las afirmaciones que se hacen sobre las ciencias humanas se han hecho
recientemente acerca de las ciencias naturales, y el que las [...] afirmaciones que
se hacen sobre las ciencias naturales presuponen una concepción empirista
tradicional de la ciencia que está casi universalmente desacreditada (Hesse, 1980,
pp. 171-172).

Esta observación, que coincide con la postura que adoptó Kuhn frente al problema
de la demarcación entre dos tipos básicamente distintos de ciencias, no pretende negar
que existan diferencias importantes entre estos dos grandes territorios de investigación; se
trata simplemente de señalar el carácter fallido de los criterios que hasta la fecha se siguen
utilizando para trazar una línea divisoria entre dichos territorios.
A pesar de que el mismo Kuhn reconoce su poca familiaridad con las ciencias
sociales, y a pesar de que no aborda el problema de la distinción entre ciencias naturales y
humanas sino a finales de los años ochenta, se puede afirmar, sin lugar a dudas, que la
imagen de la ciencia natural que surge de ERC, imagen que entraña fuertes paralelismos
con la concepción tradicional de las ciencias sociales, resulta la principal fuente del
cuestionamiento por el que atraviesan las diversas versiones del dualismo metodológico.
En el origen de estos paralelismos está la tesis que justo constituye la columna vertebral

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 129
130

del modelo kuhniano para la dinámica científica, la tesis de inconmensurabilidad.


Las implicaciones de esta tesis -analizadas en el capítulo IV- ponen al descubierto
ciertos rasgos de la investigación en el campo de los fenómenos naturales que los
defensores del dualismo habían considerado como rasgos privativos, e incluso definitorios,
de las ciencias de lo humano. Hagamos un rápido recuento, con el fin de enmarcar la
discusión que sostiene Kuhn con un destacado representante del dualismo metodológico,
Charles Taylor. La tesis de inconmensurabilidad permite destacar, en primer término, que
en las ciencias naturales tampoco hay una única manera de organizar conceptualmente
aquello que se nos da en la experiencia. Los hechos y procesos naturales no son algo que
esté dado de antemano, pues tanto su identificación como su descripción dependen -en
alguna medida- de nuestros sistemas de conceptos. Este hecho, que se expresa en la
famosa tesis de "la carga teórica de la observación”, implica que no puede haber un
lenguaje neutral, independiente de las perspectivas locales, que nos permita describir
asépticamente los hechos y objetos de la experiencia.
Por otra parte, como la inconmensurabilidad entre teorías implica que puede haber
enunciados de observación no traducibles entre sí, o formulables en un lenguaje común, la
elección entre ellas no se puede ajustar a los modelos de comparación propuestos por los
filósofos clásicos (ni positivistas ni popperianos). De aquí que la elección de teorías rivales
sea un proceso cuya reconstrucción está más cerca de los modelos que se han formulado
para explicar la acción en las ciencias humanas, que de los modelos que han pretendido
dar cuenta del "genuino conocimiento". Esto nos remite al hecho de que las ciencias
naturales tampoco cuentan con métodos algorítmicos para medir y comparar el éxito de
sus teorías. Además de las divergencias de tipo semántico, también se presentan
divergencias en el nivel de los estándares de evaluación, cuya suma hace que la elección
de teorías -en ciencias tan "duras" como la física- sea un proceso en buena medida
subdeterminado (el carácter de los desacuerdos en la elección de teorías, así como su
resolución en nuevos consensos, se examinaron en el capítulo V).
Pero esta subdeterminación, como vimos, da lugar a que factores de tipo externo
(ideológicos, metafísicos, psicológicos, sociales, etc.) puedan tener algún peso en la
actividad científica, con lo cual se abre la puerta al relativismo (cf. 'Kuhn y el relativismo',
en "La amenaza del relativismo', capítulo VI). Aquí cabe decir que la discusión sobre el
relativismo ---que tradicionalmente sólo se asociaba con cuestiones morales, sociales o
culturales- se desarrolló durante mucho tiempo con la firme convicción de que al menos en
las ciencias de la naturaleza sí se contaba con criterios universales y absolutos de
objetividad, racionalidad y progreso. Sin embargo, los análisis recientes de la ciencia natu-
ral, cuyo principal marco de referencia es el modelo de Kuhn, han hecho que se debilite
esa convicción y se revisen estas nociones, tan centrales, considerando su dependencia
contextual y su carácter histórico.
Para desarticular el dualismo metodológico, también hay que insistir en ciertos
aspectos de la concepción del significado que asume Kuhn (cf. "Taxonomías, significado y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 130
131

aprendizaje", capítulo IV). Los conceptos, sean del mundo natural o del social, son algo
que comparten ampliamente las comunidades (culturas o subculturas), y su transmisión de
una generación a otra cumple un papel clave en el proceso por el cual una comunidad
"acredita a sus nuevos miembros" (cf. Kuhn, 1991a, p. 20). Este carácter social de todo
concepto se vincula con la concepción de los significados como productos históricos, que
cambian inevitablemente en el transcurso del tiempo cuando cambian los usos y las de-
mandas sobre los términos que los expresan. Por otra parte, como la mayoría de las
palabras sólo tienen significado a través de sus vínculos con otras palabras dentro de un
campo semántico, cuando cambia el uso de un término normalmente cambia el uso de los
términos asociados (cf. Kuhn, 1990, p. 301). Por último, hay que mencionar la hipótesis
semántica más original que aporta Kuhn, la cual se apoya en el hecho de que dos personas
pueden usar en la misma forma un conjunto de términos, identificando los mismos
referentes y comunicándose con éxito, sin coincidir en los criterios que emplean (cf. Kuhn,
1993a, p. xiii). Esto sugiere que la clave para entender el significado está en concebirlo
como una función de la estructura taxonómica que comparte una comunidad.
Con base en esta concepción del significado y la tesis de inconmensurabilidad en su
formulación más madura: dos teorías son inconmensurables cuando sus estructuras
taxonómicas no son homologables (cuando clasifican su dominio de investigación de
manera diferente), Kuhn formula su desacuerdo básico con Charles Taylor. Según Taylor,
los conceptos de fenómenos sociales, como "negociación" o "equidad", conforman el
mundo al cual se aplican, y en consecuencia son culturalmente dependientes. Así, mientras
que cualquier sujeto, de cualquier cultura, puede identificar sin dificultad un planeta o una
estrella particular, no puede hacer lo mismo con algo como un episodio de negociación.
Kuhn responde, como era de esperar, que todo proceso de identificación, tanto de las
entidades que pueblan el mundo natural como el social, presenta el mismo tipo de
dificultades.
La inconmensurabilidad pone de relieve, precisamente, que la mera identificación de
fenómenos naturales -no menos que su descripción- es dependiente del sistema de
conceptos vigente en una comunidad. Las ciencias naturales no están en mejor posición
que las ciencias sociales, pues no hay ningún conjunto de categorías que sea
culturalmente independiente:

Los cielos de los [antiguos] griegos eran irreductiblemente diferentes de los


nuestros. La naturaleza de la diferencia es la misma que aquella que Taylor
describe tan brillantemente entre las prácticas sociales de diferentes culturas. En
ambos casos la diferencia está enraizada en el vocabulario conceptual [en los
términos de clase]. Y en ningún caso la diferencia puede ser superada mediante
la descripción en un vocabulario conductista de datos brutos (Kuhn, 1991a, p.
21).

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 131
132

Esto significa que la situación epistémica en que se encuentran los científicos


sociales frente a su campo de estudio no es, en principio, diferente de la de los científicos
que intentan comprender los fenómenos naturales.
Por otra parte, en el contexto de esta discusión, también cabe destacar que el
científico que intenta comprender una teoría inconmensurable con la suya, sea del campo
de las ciencias sociales o de las naturales, se encuentra con una dificultad análoga a la que
se enfrenta el antropólogo o el historiador que intentan comprender una cultura ajena o
distante en el tiempo. Todos ellos se topan con términos cuyos referentes no pueden
identificar con su bagaje de recursos lingüísticos, términos que además no pueden
incorporar a su propio léxico sin trastocar sus clases o categorías de objetos. Por tanto,
todos ellos tienen que aprender cómo se estructura o "recorta" el mundo desde la teoría o
cosmovisióri que intentan comprender (cf. "Traducción y comprensión", capítulo IV).
Al referirse al fuerte impacto que nos causa el cambiar nuestros "anteojos"
conceptuales por los de los miembros de otra cultura, en tanto nos damos cuenta de que,
de hecho, ellos viven en un mundo diferente, Kuhn afirma que: "Cuando se trata del
mundo social de otra cultura, hemos aprendido, en contra de nuestras profundas
resistencias etnocéntricas, a asumir dicho impacto" (Kuhn, 1991a, pp. 21-22; cursivas
añadidas). Pero podemos -y a juicio de Kuhn debemos- aprender a hacer lo mismo cuando
se trata de "su mundo natural". Se podría decir que esta intuición es uno de los motores
del trabajo que Kuhn desarrolló, por más de cuatro décadas, con la mira de lograr una
concepción de la ciencia natural menos idealizada, menos rígida y más apegada a la
complejidad de la práctica científica, que nos permitiera entender cómo esta empresa ha
evolucionado históricamente. Esta concepción tuvo, como una de sus muchas
repercusiones, el efecto de poner en tela de juicio los criterios de demarcación establecidos
por los defensores del dualismo metodológico.
Por último, cabe reflexionar en el poco interés que Kuhn mostró en los problemas
de demarcación, no sólo entre ciencias naturales y humanas, sino incluso en el problema
de qué es lo que distingue a la ciencia de otras actividades culturales (problema que había
acaparado la atención de los filósofos clásicos de la ciencia). Una primera pista para
entender este desinterés se encuentra en el supuesto básico de que la idea misma de
"ciencia" ha cambiado desde los orígenes de esta actividad. Hoy no entendemos por
ciencia lo mismo que Aristóteles entendía. Incluso lo que se considera valioso, desde el
punto de vista de quienes han desarrollado esta actividad, ha sufrido diversas
transformaciones. Como vimos, un valor como la precisión se ha ido arraigando y exten-
diendo en diversas disciplinas, mientras que el valor del alcance o generalidad ha sufrido
un proceso inverso. Por otra parte, en un mismo periodo, los valores comúnmente
aceptados no tienen el mismo peso en las distintas disciplinas o especialidades, como es
claro con un valor como la utilidad social.
Kuhn está consciente del problema que representa la variedad de maneras de
entender la ciencia: "Las actividades que observa un espectador de la ciencia pueden ser

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 132
133

descritas de incontables maneras, y cada una de ellas es fuente de diferentes desiderata.


¿Qué justifica la elección de una de esas descripciones, o el rechazo de otra?" (Kuhn,
1983a, p. 565). Kuhn intenta dar una respuesta en que la concepción de ciencia que se
tome como punto de partida de un análisis no requiera de una justificación ulterior. Esta
respuesta es del todo congruente con su caracterización de los conceptos de clase --
categorías taxonómicas- que comparte una comunidad (cultura o subcultura), y el hecho
de que se trate de conceptos que refieren a fenómenos naturales o a actividades humanas
no implica ninguna diferencia (como se pone de manifiesto en su discusión con Taylor).
El concepto "ciencia", como cualquier otro concepto de clase, adquiere su
significado dentro de un grupo de contraste: la actividad de un grupo de personas se
reconoce como científica, en parte por sus semejanzas con otras actividades que integran
el mismo grupo disciplinario, y en parte por sus diferencias con las actividades que
pertencen a otros grupos. En general, ningún grupo disciplinario puede ser caracterizado
por medio de un conjunto de condiciones necesarias y suficientes. AI referirse a la palabra
'ciencia', acuñada por William Whewell alrededor de 1840, Kuhn afirma que

Evocaba el surgimiento [...] del uso contemporáneo del término 'ciencia'


para nombrar un conjunto de disciplinas, aún en formación, las cuales debían
situarse al lado de y en contraste con otros grupos [clusters] disciplinarios como
aquellos nombrados como 'bellas artes', 'medicina', 'derecho', 'ingeniería',
'filosofía' y 'teología' (ibid., p. 567).

De esta manera, los nombres de las disciplinas expresan categorías taxonómicas,


algunas de las cuales deben aprenderse simultáneamente, de forma análoga a como se
aprenden términos como 'masa' y `fuerza' en una mecánica determinada (cf.
"Taxonomías, significado y aprendizaje", capítulo IV).
Desde este enfoque, lo que permite identificar una actividad, sea ciencia, arte,
medicina, etc., es su posición dentro de un campo semántico determinado; en este caso, el
campo estructurado por los patrones de semejanza y diferencia entre disciplinas. Pero
estos patrones se modifican con la evolución de una cultura, y difieren de una cultura a
otra. Sería un error tratar de imponer una taxonomía disciplinaria contemporánea al
conjunto de actividades intelectuales de otra época. "Los términos que nombran disciplinas
funcionan de manera efectiva sólo en un mundo que posea disciplinas muy semejantes a
las nuestras" (ibid., p. 567). Aunque ciertamente las disciplinas actuales tienen su origen
en progenitoras más antiguas, estas deben ser identificadas y descritas en sus propios
términos, "tarea [que] exige un vocabulario que divida o categorice las actividades
intelectuales de una forma diferente de la nuestra" (ibid., p. 568).
Esta manera de concebir las clases o categorías taxonómicas, sean del ámbito
natural o del social, permite disolver el viejo problema de la demarcación entre ciencia y
no ciencia, y lo mismo valdría para el problema de trazar una línea divisoria definitiva y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 133
134

precisa entre ciencias naturales y humanas. La búsqueda de rasgos "esenciales" -


permanentes y universales- parece condenada al fracaso dado el carácter culturalmente
dependiente e históricamente cambiante de toda taxonomía. Pero además, es posible
identificar una actividad como "científica" aunque no posea todas las características que,
en un momento dado, resultan útiles para agrupar las disciplinas que caen bajo tal
categoría (hoy en día es claro que no todas las ciencias son exactas, no todas las ciencias
son experimentales, no todas las ciencias son predictivas, etc.). Kuhn incluso llega a
afirmar que: "Tampoco es necesario que siempre sea posible, utilizando estas
características, decidir si una actividad es ciencia o no lo es: no es necesario que esa
pregunta tenga una respuesta" (ibidem).
Esta poco ortodoxa afirmación apunta a la conclusión general de que no tenemos
ningún otro recurso para identificar y describir las entidades que pueblan nuestro mundo -
tanto natural como social- que las taxonomías en uso en nuestra comunidad, y además
que estas taxonomías son un recurso suficiente, en la mayoría de los casos, para realizar
estas indispensables tareas. Pero dada la concepción de Kuhn de los cambios
revolucionarios como cambios en las estructuras taxonómicas, también se podría decir que
es justamente la capacidad limitada de las taxonomías disponibles para resolver los
problemas a los que nos vamos enfrentando, tanto teóricos como prácticos, lo que
conduce a la construcción de nuevas formas de categorizar o recortar el mundo de nuestra
experiencia.

LA NATURALIZACIÓN DE LA FILOSOFÍA DE LA CIENCIA


Una de las repercusiones de mayor trascendencia del trabajo de Kuhn es su
contribución a una nueva manera de entender la filosofía de la ciencia, una manera que se
ha catalogado como "naturalizada". Si bien esta orientación tiene un antecedente im-
portante -dentro del mismo Círculo de Viena- en las ideas de Otto Neurath, y más tarde es
expresamente desarrollada por Quine (1969), el principal origen de este cambio de rumbo
se puede rastrear en ERC (1962).
Como dijimos, a partir de que la filosofía de la ciencia se reconoce como una
disciplina académica especializada -alrededor de los años veinte- dominó el supuesto de
que era posible descubrir y codificar los principios epistemológicos que regían la actividad
científica. Estos principios debían ser autónomos o independientes de la ciencia misma,
pues de lo contrario no podrían fungir como fundamento de la evaluación de teorías ni de
las normas del proceder científicamente correcto. Tales principios supuestamente
constituían el núcleo de una racionalidad científica también autónoma (incondicionada o
categórica), que estaba más allá de las prácticas y resultados de esta empresa cognitiva.
Aunque Kuhn nunca utiliza el término 'naturalización' para caracterizar la orientación
de sus análisis -término que se vuelve de uso común a partir del trabajo de Quine (1969)-,
éstos encierran el núcleo de lo que hoy se entiende por "epistemología naturalizada". Por
contraste con el enfoque tradicional, se parte del supuesto de que no hay un conjunto de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 134
135

principios epistemológicos autónomos, pues ahora se considera que la epistemología no es


independiente de la ciencia. Pero esto -por lo menos en el caso de Kuhn- no significa negar
que hay mejores y peores maneras de hacer ciencia, ni rechazar la posibilidad de que el
análisis epistemológico permita formular recomendaciones de procedimiento o juicios de
valor sobre esta actividad (como, por ejemplo, sobre el carácter racional de casos
concretos de aceptación o rechazo de teorías). Pero sí implica que este tipo de nor-
matividad y evaluación crítica se debe contextualizar tomando en cuenta la manera en que
los agentes conciben su quehacer, lo que para ellos significa "hacer ciencia" (y como
acabamos de ver, esta tarea exige que se reconstruya la taxonomía disciplinaria vigente en
las comunidades o periodos analizados).
La epistemología tradicional -cuyo principal cuestionamiento ha provenido del
análisis de la ciencia- requiere principios autónomos debido a su compromiso con una
concepción aristotélica de la justificación, donde ésta debe proceder de manera lineal y en
una sola dirección. Esto es, se considera que la justificación de creencias debe partir de
principios "autoevidentes" o "autojustificatorios", pues de lo contrario se correría el peligro
de caer en un regreso al infinito o en una circularidad viciosa. De aquí que la justificación
de las afirmaciones empíricas de la ciencia deba apelar, en última instancia, a principios
que sean completamente independientes de cualquiera de esas afirmaciones. Lo que las
teorías científicas digan sobre el mundo -sobre los procesos de percepción y aprendizaje,
sobre la evolución de las creencias y prácticas, sobre los grupos en que se generan y
avalan los productos de investigación, etc.- no puede ser tomado en cuenta en la justifi-
cación de dichas teorías. En una palabra, aquello que requiere justificación nunca podrá
utilizarse para justificar. Lo fundamentado no puede ser fundamento.
Por contraste con esta concepción, resalta un sentido muy básico en que el modelo
kuhniano implica una naturalización de la epistemología: los estándares de evaluación no
son autónomos respecto de las teorías empíricas. Tanto el cambio como las diferencias de
estándares en las comunidades científicas se pueden explicar por la misma dinámica de la
investigación. Esto significa que los cambios de teoría -los cambios en el nivel de las
afirmaciones empíricas- repercuten, tarde o temprano, en el nivel de los criterios de
evaluación o justificación. Aquí vale la pena citar extensamente a Kuhn:

Lo que puede parecer especialmente problemático acerca de cambios como


éstos [cambios en los valores epistémicos] es, desde luego, que por lo regular
ocurren como secuela de un cambio de teoría. Una de las objeciones a la nueva
química de Lavoisier era que obstaculizaba el logro de aquello que hasta entonces
había sido uno de los objetivos de la química tradicional: la explicación de las
cualidades, como color y textura, así como el cambio de éstas. Con la aceptación
de la teoría de Lavoisier tales explicaciones dejaron de ser, por algún tiempo, un
valor para los químicos; la habilidad para explicar los cambios de cualidades dejó
de ser un criterio relevante para evaluar una teoría química. Está claro que si tales

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 135
136

cambios de valor hubieran ocurrido tan rápidamente, o hubieran sido tan


completos, como los cambios de teoría con que estaban relacionados, entonces la
elección de teorías habría sido una elección de valores, y ninguno hubiera podido
ofrecer una justificación del otro. Pero, históricamente, el cambio de valores es
por lo común un demorado y en gran parte inadvertido acompañante del cambio
de teorías, y la magnitud del primero es por lo regular más pequeña que la del
segundo. Para las funciones que aquí he adscrito a los valores, tal estabilidad
relativa constituye una base suficiente. La existencia de un circuito de
retroalimentación a través del cual el cambio de teorías afecta a los valores que
condujeron a tal cambio, no hace que el proceso de decisión sea circular en
ningún sentido nocivo (Kuhn, 1977a, pp. 335-336).

Este sentido en que Kuhn naturaliza la epistemología, al afirmar que los valores o
estándares epistémicos son afectados y modificados por la dinámica de las teorías,
contribuyó en buena medida a una naturalización del análisis filosófico de la ciencia (sea
de carácter epistemológico, metodológico, semántico, ontológico, pragmático o ético). El
análisis filosófico requiere la información que generan otros estudios sobre la ciencia,
estudios que son de carácter empírico. La naturaleza social e histórica de la actividad
científica, así como la importancia que Kuhn otorga a los procesos de aprendizaje y -desde
luego- a los procesos de evaluación, destacan una red de relaciones entre las diversas
disciplinas en que se toma a la ciencia como objeto de estudio: la filosofía, la historia, la
sociología, la psicología cognitiva, y más recientemente la biología evolutiva. La tarea de
establecer la naturaleza de estas relaciones apenas está en marcha -se podría decir que
arranca en los años setenta- y proliferan las discusiones sobre la primacía o el estatuto
privilegiado de alguna de estas disciplinas frente a las demás. Incluso se defienden
propuestas excluyentes o reduccionistas que pretenden el monopolio del análisis de la
ciencia, afirmando que su perspectiva es suficiente para dar cuenta de esta empresa (una
buena parte de estas propuestas, que Kuhn calificó de "excesos de movimientos
posmodernistas", proviene del campo de la sociología del conocimiento).
Si bien no entraremos aquí en esta intrincada discusión sobre las relaciones de
complementación, presuposición o reducción entre las diversas disciplinas metacientíficas,
sólo mencionaremos, a modo de ejemplo, algunas de las principales posiciones en el
campo de la naturalización de la epistemología. La más radical es la posición que afirma
que la epistemología debería ser sustituida por una ciencia empírica de los procesos
cognitivos; según se conciban estos procesos se propone a la psicología, como en Quine
(1969), a la sociología, como en Bloor (1976), o a la biología, como en Campbell (1974).
También existen posiciones integradoras donde se intenta combinar los resultados de
ciertas ciencias empíricas con el análisis conceptual, considerando que la investigación
empírica sobre los sujetos epistémicos es una condición necesaria para comprender la
cognición humana, pero que, recíprocamente, las ciencias empíricas requieren un análisis y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 136
137

justificación de sus presupuestos (por ejemplo, Shimony, 1993). En esta línea encontramos
modelos de interacción más dinámicos en que se argumenta que los cambios en las formas
o estrategias cognitivas conducen a cambios en los estándares de evaluación, y que a su
vez las nuevas consideraciones epistemológicas inciden en los programas de investigación
científica, planteando nuevos retos o dando lugar a nuevas preguntas (por ejemplo,
Kitcher, 1993).
Frente a las naturalizaciones radicales, la objeción más común es que sus
programas de investigación sobre el conocimiento no se libran de los problemas
epistemológicos tradicionales. Todos ellos parten del compromiso con ciertos modelos de
explicación, con cierto tipo de entidades, con cierta idea de verdad, con cierta teoría de la
percepción, etc., que requieren ser justificados. Como observa Shimony, si este tipo de
epistemólogos se abstuviera de supuestos normativos, su situación simplemente sería
análoga a la de alguien que "deposita toda su confianza en los matemáticos y asume la
corrección de sus útiles teoremas sin revisar las pruebas él mismo" (Shimony, 1993, p. 4).
Pero dado que la mayoría de ellos intentan lidiar con cuestiones normativas, no pueden
evitar el problema de la justificación de sus propios supuestos. Por otra parte, el reto para
los enfoques naturalizados que intentan preservar una función normativa o evaluativa para
la epistemología es en qué medida pueden dar cuenta de la racionalidad del proceso de
desarrollo científico, y cómo entender esta racionalidad.
En este respecto, cabe decir que la reticencia que se observa en los últimos trabajos
de Kuhn hacia los enfoques naturalizados se explicaría por su rechazo a las versiones
extremas o reduccionistas, las cuales chocaban con su inmersión cada vez mayor en el
análisis filosófico de la ciencia. El interés creciente de Kuhn en cuestiones como
racionalidad, relativismo, verdad y realismo -temas centrales del libro que no llegó a
publicar- tenía que contraponerlo a las propuestas que eliminan la filosofía de la ciencia
por irrelevante. Kuhn incluso afirma que el valerse de la fecunda analogía entre los
modelos de la evolución biológica y los modelos del desarrollo del conocimiento no
compromete con una naturalización de la epistemología.
Sin embargo, está claro que para este autor la racionalidad que opera en la
actividad científica no es autónoma ni categórica. Los criterios de evaluación, además de
sufrir transformaciones a través de los cambios de teoría, tienen un carácter condicional o
instrumental: conectan las estrategias de investigación con los objetivos perseguidos. Un
científico actúa de manera racional cuando elige y utiliza los medios que considera más
efectivos para alcanzar las metas deseadas. Y como

los científicos están entrenados para, y son recompensados por, resolver


intrincados problemas -ya sea instrumentales, teóricos, lógicos o matemáticos- en
la interfase entre su mundo fenoménico y las creencias de su comunidad sobre
ese mundo [...], la racionalidad de los criterios para evaluar creencias científicas
es obvia. Precisión, simplicidad, alcance, fecundidad, consistencia, etc., son

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 137
138

simplemente los criterios que los resolvedores de problemas deben sopesar al


decidir si un cierto problema sobre el ajuste entre creencias y fenómenos ha sido
resuelto [...] Elegir una ley o teoría que los instancia de manera menos completa
que una competidora sería autoderrotante, y la autoderrota es el indicador más
seguro de irracionalidad (Kuhn, 1993b, p. 338).

Pero también cabe preguntar por la justificación del objetivo que Kuhn plantea
como meta general de la actividad científica, la resolución de problemas, sobre todo
cuando la defensa de una racionalidad de tipo instrumental suele ir acompañada del su-
puesto de que los fines o metas no son argumentables o discutibles. A este respecto,
cuando Kuhn rechaza la noción de un mundo completamente externo -independiente de
las prácticas y categorías de quienes lo exploran- como el objetivo al cual la ciencia debe
acercarse cada vez más, reconoce que su propuesta alternativa -maximizar la capacidad de
resolución de problemas- necesita una reflexión ulterior y una mayor elaboración (cf.
ibidem). Sin embargo, no hace más que reiterar su propuesta, presentándola como
descripción de una cuestión de hecho.
Esta dificultad hace pensar que la caracterización general de la ciencia como una
actividad de resolución dé problemas, si bien permite englobar los objetivos más
específicos que se persiguen en los diversos campos de investigación, sin embargo resulta
insuficiente para una discusión del carácter racional de dichos objetivos. Siendo
congruentes con las propias ideas de Kuhn sobre la evolución y diversidad en las maneras
de entender el quehacer científico, se podría plantear la cuestión de "los objetivos de la
ciencia" en un nivel menos general y manteniendo una perspectiva naturalizada, esto es,
sin tener que apelar a valores o principios epistemológicos autónomos y sin tener que
negar que es posible discutir sobre la racionalidad -o razonabilidad- de dichos objetivos.
Como muestran los estudios históricos, a partir del siglo XVII los mismos científicos
se han encontrado defendiendo objetivos diversos e incluso contrapuestos. El conflicto más
marcado ha surgido entre los científicos "instrumentalistas", que pretenden restringir la
actividad científica a la explicación y predicción de resultados observacionales, y los
científicos "realistas", que insisten en que la ciencia debería explorar los mecanismos o
estructuras causales que subyacen en los fenómenos. Frente a este tipo de conflictos
internos de la ciencia, el filósofo tiene que reconocer -al margen de sus propias
convicciones- que puede haber contextos de investigación donde resulte más fructífero
explorar el nivel de los fenómenos, dadas las herramientas conceptuales e instrumentales
disponibles, que elaborar especulaciones acerca de una estructura más profunda a la que
no hay manera de acceder por medios experimentales (la termodinámica del siglo XIX
podría ser un ejemplo). Pero en otros contextos (como en la biología molecular de los años
cuarenta), el objetivo contrario puede ser factible y resultar más redituable (cf. Giere,
1989). Esto indica que es posible la discusión sobre objetivos, en contextos específicos,
considerando qué tan realizables son y cuánto reditúa su prosecusión. Pero para poder

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 138
139

elaborar un juicio sobre cuáles son los objetivos más razonables es necesario apoyarse en
un estudio empírico detallado del contexto de investigación. Y lo mismo valdría para la
tarea de evaluar la racionalidad de un cambio de teoría. En este sentido el análisis de
cuestiones filosóficas, en casos concretos, requiere la información que proporcionan otras
ciencias de la ciencia.
Esta vinculación no sólo echa abajo la idea de que la filosofía de la ciencia se basa
en principios autónomos y tiene un carácter puramente normativo, sino también la idea de
que el epistemólogo que adopta una perspectiva naturalizada se reduce a describir lo que
los científicos de hecho creen o hacen (ambas ideas comparten el supuesto de una
dicotomía tajante entre lo prescriptivo y lo descriptivo). Como señala Ronald Giere (1989),
una filosofía naturalizada de la ciencia es semejante a una teoría científica en el sentido de
que ofrece algo más que meras descripciones. En ambos casos hay una base teórica que
no sólo permite elaborar explicaciones sobre su objeto de estudio, sino también permite
orientar la forma en que se conduce la investigación. Esto es, las teorías, en general,
proporcionan una base para formular juicios normativos y evaluativos.
Cuando Feyerabend cree detectar en el trabajo de Kuhn una ambigüedad en este
respecto, dice: "Siempre que leo a Kuhn, me hago la siguiente pregunta: ¿estamos ante
prescripciones metodológicas que dicen al científico cómo proceder, o frente a una descrip-
ción, vacía de todo elemento evaluativo, de aquellas actividades que generalmente se
llaman 'científicas'?" (Feyerabend, 1970b, p. 198). La respuesta de Kuhn va justamente en
la línea de naturalización recién apuntada: "Si tengo una teoría de cómo y por qué
funciona la ciencia, dicha teoría necesariamente tiene implicaciones sobre la forma en que
los científicos deberían comportarse si su empresa ha de prosperar" (Kuhn, 1970b, p. 237).
Esta respuesta no sólo rompe con la dicotomía entre lo prescriptivo y lo descriptivo sino
también revela que los juicios normativos sobre la actividad científica, además de depender
de una teoría sobre la ciencia, tienen siempre un carácter condicional o instrumental. El
esquema del argumento de Kuhn sería: los científicos se comportan de tales y tales
formas; algunas de esas formas tienen -de acuerdo con mi teoría- tales y tales funciones
básicas (permiten lograr ciertos objetivos); en ausencia de formas alternativas que
cumplieran funciones similares, los científicos deberían comportarse de tales maneras, sí
su objetivo es hacer avanzar el conocimiento científico (cf. ibidem). Desde un enfoque
naturalizado, ésta es la única clase de prescripciones legítimamente formulables. No hay
una racionalidad categórica.

EL DESARROLLO DEL ANÁLISIS METAMETODOLÓGICO


La idea de que las teorías metodológicas -como cualquier teoría científica- tienen
que ser empíricamente adecuadas, puso a discusión el objetivo del análisis filosófico de la
ciencia, y con ello la manera de entender este quehacer. Pero esta discusión, provocada
por el giro histórico de los años sesenta, abrió un nuevo campo de problemas, el campo
del análisis metametodológico, donde se explora la posibilidad de diseñar criterios que

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 139
140

permitan comparar y evaluar las distintas teorías metodológicas. Por otra parte, el de-
sarrollo de este campo se disparó -a mediados de los setenta- frente a la proliferación de
modelos alternativos para reconstruir la dinámica de las ciencias empíricas. Se volvió
urgente, entonces, la tarea de encontrar fórmulas para evaluar las metodologías rivales.
El objetivo de "descubrir las razones de la especial eficacia de la ciencia", sin dejar
fuera como incorrectos o irracionales los episodios más destacados de su historia -tal como
Kuhn lo formuló-, fue interpretado por muchos teóricos como una cancelación de la
posibilidad de analizar críticamente los objetivos y los valores epistémicos que de hecho
operan en esta actividad. Sin embargo, como señalamos, también se han desarrollado
propuestas, como la que sugiere Laudan (1984), en que se considera que tanto la
investigación científica como la metodológica nos pueden ofrecer buenas razones para
pensar que ciertos objetivos no son realizables en ciertos contextos (con lo cual se volvería
inútil su postulación), o que ciertos supuestos valores son incompatibles con los valores
que exhiben algunas de nuestras mejores teorías científicas. Estas vías de discusión
racional de objetivos y valores permiten preservar una función crítica a las teorías
metodológicas naturalizadas.
Ahora bien, dado que una buena parte de estas teorías pretenden estar avaladas
por la historia de la ciencia, se plantea la pregunta sobre cómo puede la historia ayudarnos
a elegir entre esa diversidad de metodologías. Cuestión que ha impulsado una de las
tareas centrales en el terreno metametodológico: clarificar las relaciones entre el análisis
histórico y el análisis filosófico de la ciencia. En lo que sigue, mencionaremos algunos de
los principales escollos de este terreno y rumbos que ha seguido su investigación. Por una
parte, algunos trabajos realizados en los sesenta, como los de Agassi y Grünbaum,
muestran cómo el quehacer histórico depende de supuestos filosóficos acerca de qué es la
ciencia y qué es importante buscar en ella. La selección de los datos y los diferentes pesos
específicos que se les asignan, la manera de organizarlos, los cánones de racionalidad y
plausibilidad involucrados en la reconstrucción de los argumentos que subyacen en las
afirmaciones explícitas de los científicos, etc., todo esto depende de un marco
metodológico. De aquí que historiadores con "imágenes" diferentes de la ciencia produzcan
explicaciones o narrativas muy distintas acerca de los mismos episodios científicos.
Correlativamente, la dependencia de la filosofía con respecto a la historia de la
ciencia -destacada por los filósofos historicistas- se afirma en el sentido de que la historia
de la ciencia constituye la base empírica, la base de contrastación, de toda metodología.
Una teoría del desarrollo científico que no tenga adecuación empírica con los hechos
históricos no puede ser aceptada. La falta de adecuación se toma como indicador de que la
metodología en cuestión no sirve, y no de que los científicos han procedido
incorrectamente. De aquí que autores como Lakatos conciban la metodología como un
intento de explicar la historia de la ciencia subsumiéndola en ciertas leyes generales del
desarrollo y cambio científicos. La mejor metodología será entonces aquella que dé cuenta
de más episodios del registro histórico.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 140
141

A pesar de los numerosos argumentos esgrimidos en favor de la mutua


dependencia entre filosofía e historia de la ciencia, subsisten serios problemas en esta
relación. La crítica más común a los filósofos que consideran la historia de la ciencia como
fuente de genuina evidencia para una metodología, es que cometen la falacia de derivar el
deber a partir del ser, es decir, derivar normas metodológicas a partir de los hechos
históricos. Una manera de evitar la falacia, si se acepta la distinción entre hechos y
valores, consiste en agregar a esa concepción el supuesto de que la historia de la ciencia
es racional en el sentido de que el proceso científico es y ha sido metodológicamente
correcto (que es la línea que desarrolla Lakatos). De esta manera, el metodólogo
simplemente estaría haciendo explícitas las normas implícitas en el proceso y no derivando
normas a partir de hechos. Pero en ese caso, se hace necesario acotar el tipo de episodios
o casos que se consideran ejemplares del proceder correcto -que son los que constituirían
la base de contrastación-, pues no todo lo que ha sucedido en la historia de la ciencia sería
metodológicamente correcto. Además, esta falibilidad es lo que abriría paso a la función
crítica de la metodología.
Problemas de tipo más práctico que se plantean en relación con la tesis de la mutua
dependencia son, por ejemplo, que el historiador se puede negar a tomar en serio la
filosofía de la ciencia -al organizar su investigación- alegando que los modelos me-
todológicos existentes hacen muy poca justicia a la historia de la ciencia. Por su parte, un
filósofo de la ciencia se puede negar a tener que poner a prueba su modelo contra los
datos del historiador alegando que esos "datos" fueron seleccionados bajo la influencia de
alguna filosofía ingenua, mal digerida o incluso rival de la suya (en Laudan, 1977, capítulo
5, se examina esta discusión). El filósofo también podría argumentar que él no está in-
teresado en una descripción completa de la ciencia, sino en el descubrimiento de lo que es
constitutivo de esa empresa, es decir, le interesa su reconstrucción racional, y con qué
derecho o de acuerdo con qué criterios el historiador le va a indicar cuáles hechos utilizar
en su reconstrucción (en Kuhn, 1970c, se discute esta idea de Lakatos).
Un problema que recoge elementos de los planteamientos anteriores, y que es el
problema central para un defensor de la mutua dependencia entre filosofía e historia de la
ciencia, se refiere a la circularidad que esta dependencia parece implicar: si la historia de la
ciencia se escribe desde el punto de vista de cierta metodología M1, entonces M1 quedará
convalidada al ser puesta a prueba contra esa historia. Si, por otra parte, M1 está
compitiendo con una metodología M2, obviamente M2 saldrá muy mal librada si la
contrastamos con la historia reconstruida desde M1. La ventaja siempre la tendrá la
metodología utilizada en la reconstrucción histórica, pues leemos en la historia lo que ya
pusimos en ella. ¿Cómo romper entonces esta circularidad?
Si aceptamos con Lakatos que "la historia sin algún 'sesgo' teórico es imposible"
(Lakatos, 1971, p. 474), entonces parece haber sólo dos salidas. Una consistiría en dar
razones previas e independientes de todo cotejo histórico, que justificaran el uso de cierta
metodología -frente a todas las demás- en la reconstrucción histórica de la ciencia. Pero

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 141
142

entonces esas razones bastarían por sí mismas para detectar la mejor metodología,
perdiendo todo sentido la contrastación de ésta con la historia. Además, la búsqueda de
razones y criterios independientes de la adecuación histórica, que por sí mismos fueran
suficientes, nos llevaría de nuevo a un normativismo radical, pero ahora en el terreno
metametodológico. El hecho de que los criterios propuestos por los filósofos aprioristas
hayan resultado tan deficientes a la luz de lo que, intuitivamente, consideramos nuestra
mejor práctica científica, ofrece buenas razones para pensar que se trata de una empresa
o programa de investigación "degenerativo" (utilizando la terminología de Lakatos), y
resulta degenerativo por tener la pretensión de que se pueden establecer tesis a priori
acerca de un fenómeno empírico y cultural, como es la ciencia. Dice Lakatos: "¿No hay
soberbia en exigir que si, por ejemplo, resulta que la ciencia de Newton o la de Einstein
han violado las reglas a priori del juego establecidas por Bacon, Carnap o Popper, la
empresa científica debería comenzar de nuevo?" (Lakatos, 1971, p. 490).
La otra posible salida al problema de la circularidad es la que han propuesto los
filósofos que Laudan (1986) llama "intuicionistas", que se podría formular en los siguientes
términos: si aceptamos que no hay historia de la ciencia metodológicamente neutral, y si
aceptamos que las metodologías deben ponerse a prueba contra la historia de la ciencia,
tal parece que lo que nos queda es buscar un conjunto de hechos históricos que esté lo
menos cargado posible de metodología. Ahora bien, el indicio de que hemos atrapado un
conjunto semejante de hechos, neutrales hasta donde es posible, sería el acuerdo
existente tanto con respecto a su descripción como con respecto a la manera de juzgarlos
o evaluarlos. Así concebido, ese conjunto de episodios históricos podría servir de piedra de
toque para evaluar las metodologías rivales.
La primera pregunta que surge cuando se apela al "acuerdo existente" es ¿acuerdo
existente entre quiénes? Lakatos propone a la élite científica, como la máxima autoridad en
ese tipo de juicios; Laudan (1977) a las "personas científicamente educadas", pues quiere
evitar las intuiciones "desarticuladas y frecuentemente conflictivas de los científicos" (como
si las personas científicamente educadas no tuvieran esos problemas); y Garber (1986)
propone a los filósofos de la ciencia (que es uno de los grupos en que menos acuerdos
existen). Pero independientemente de la comunidad que se elija como la comunidad
pertinente, queda claro que el conjunto de juicios de valor emitidos acerca de ciertos
episodios históricos, por más que logre el acuerdo unánime en un momento dado, también
cambia en función del desarrollo científico. Por ejemplo: en la actualidad un juicio
relativamente no controvertido (entre los físicos) es que la interpretación correcta de la
mecánica cuántica es la de Bohr y no la de Einstein, pero hace cincuenta años no era así.
Según Laudan, efectivamente existe un conjunto de casos de aceptación y rechazo
de teorías "acerca del cual la mayoría de las personas científicamente educadas tiene
fuertes (y similares) intuiciones normativas". A esas intuiciones, que sonj uicios básicos de
valor, las llama "intuiciones preanalíticas preferidas acerca de la racionalidad científica"
(Laudan, 1977, p. 160). Los ejemplos que da son del siguiente tipo: era racional aceptar la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 142
143

mecánica newtoniana y rechazar la mecánica aristotélica alrededor de 1800; era irracional


creer después de 1920 que el átomo químico no tenía partes; era racional aceptar la teoría
general de la relatividad después de 1925, etcétera.
La idea rectora es que para que tengamos una base empírica de contrastación de
las metodologías basta con que podamos contar con ciertos casos que la comunidad
pertinente juzgue o evalúe como instancias paradigmáticas del proceder científicamente
correcto. Y aunque esos juicios también tengan un carácter provisional, eso no los
descalifica como puntos de partida. Esta manera de concebir la base de contrastación está
en estrecha analogía con la manera como se procede en la investigación científica. Si en
las ciencias la base empírica siempre es revisable ¿por qué habríamos de pedir que la base
de prueba de las metodologías tenga un estatus epistémico más fuerte? Siempre es
posible que a la luz de nuevos desarrollos tengamos que revisar nuestras creencias más
básicas, nuestras intuiciones mejor atrincheradas. El trabajo científico ofrece numerosos
ejemplos de ello, lo cual no ha sido obstáculo para que en cada momento exista un
conjunto de creencias que una comunidad de especialistas juzga -con alto acuerdo- que
son lo suficientemente confiables como para servir de base de prueba frente a teorías
alternativas. Y esta manera de proceder ha permitido progresar.
De esta manera, se formula el criterio metametodológico que establece que una
metodología es aceptable en la medida en que su reconstrucción de los casos-prueba
coincida con los juicios o intuiciones normativas de una comunidad calificada. Pero si-
guiendo la analogía con la evaluación de las teorías científicas, cabe señalar que este
criterio intuicionista tendría que ser complementado con criterios adicionales, pues es
posible que dos metodologías distintas cubran adecuadamente los mismos casos-prueba -
como cuando dos teorías científicas son empíricamente equivalentes- y en ese caso dicho
criterio no sería suficiente para elegir entre ellas. Quedaría como tarea para una
metametodología intuicionista la formulación de criterios adicionales.
El enfoque intuicionista, como advierte Laudan, presenta semejanzas interesantes
con algunas propuestas que los filósofos morales han venido haciendo desde hace varias
décadas. En dichas propuestas se requiere que "cualquier teoría ética adecuada debe ser
compatible con ciertas intuiciones morales profundamente arraigadas acerca de casos
particulares" (Laudan, 1986, p. 118). Y siguiendo la analogía, Laudan afirma que una vez
que tenemos una teoría de la ciencia avalada por nuestras intuiciones más arraigadas,
podemos entonces utilizarla para abordar los casos problemáticos (fuzzy) -que son la
mayoría-, igual que en la ética recurrimos a un modelo normativo, no para explicar los
casos obvios (no necesitamos una teoría ética para decidir si el asesinato de un niño es
moralmente correcto), sino más bien para analizar el enorme conjunto de casos en
relación con los cuales no tenemos intuiciones claras (cf. Laudan, 1977, pp. 162-163). A la
luz de esta analogía, se podría reforzar la argumentación en favor del papel crítico que
puede jugar una metodología.
Cabe señalar que a partir de sus trabajos de 1986 y 1987, Laudan abandona el

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 143
144

intuicionismo metametodológico que él mismo había contribuido a formular en Progress


and its Problems (1977). Una de las razones que da es que, desde una concepción
intuicionista, las metodologías no pueden ser utilizadas para revisar o reestructurar
nuestras intuiciones básicas (cf. Laudan, 1986, p. 121). Sin embargo, un intuicionista
podría replicar que si las metodologías son un conjunto más de la clase de teorías
empíricas, también pueden estar sujetas a un proceso de autocorrección. Así como en el
desarrollo del conocimiento científico se llegan a cuestionar los presupuestos que lo
hicieron posible, de igual manera las intuiciones que guían la construcción de una
metodología pueden llegar a ser reformadas, o incluso abandonadas, a la luz de los
desarrollos metodológicos que esas mismas intuiciones posibilitan.
Por otra parte, la adecuación con las intuiciones acerca de casos paradigmáticos
sólo sería una condición necesaria para juzgar una metodología, que requiere ser
complementada con otros criterios. Tampoco el carácter necesariamente provisional de
dichas intuiciones, como es el de toda base empírica, disminuye ni cancela sus funciones.
El intuicionismo metametodológico no necesita suponer que las intuiciones son el único
mecanismo de selección de las metodologías, ni suponer que son incorregibles. Además, la
idea de que las intuiciones valorativas no controvertidas -por el momento- son la piedra de
toque tanto de la construcción como de la evaluación de las metodologías, lejos de ser
gratuita o arbitraria encuentra apoyo en varios argumentos.
Como apunta Lakatos: "Si bien ha habido escaso acuerdo en lo concerniente a un
criterio universal del carácter científico de las teorías, en cambio ha habido en los últimos
dos siglos considerable acuerdo en cuanto a las realizaciones concretas" (Lakatos, 1971, p.
478). Nuestras convicciones acerca del valor de ciertos episodios científicos son mucho
más claras y están más arraigadas que cualquiera de las teorías generales que existen
sobre la ciencia. Ante este hecho ¿por qué no partir de las convicciones más seguras que
tenemos? Otro argumento es la indispensable función heurística que desempeñan estas
intuiciones; le indican al metodólogo dónde y qué buscar, acotando el conjunto de casos
que mínimamente debe explicar con su modelo. El antiintuicionista tendría que decir qué
otra cosa podría cumplir esta función. ¿Qué podría sustituir a esas intuiciones que, a pesar
de ser revisables, encierran los valores epistémicos que se han ido conformando y
arraigando a lo largo del desarrollo científico?
En un enfoque naturalizado de la metodología -como vimos- lo normativo y lo
descriptivo están fuertemente ligados. Tanto el trabajo del científico como el del
metodólogo se apoyan en una estructura teórica que permite describir y formular
explicaciones sobre su objeto de estudio, pero que a la vez constituye una base para
formular lineamientos normativos. Así como no se puede hacer investigación empírica sin
consideraciones valorativas o normativas, tampoco se puede establecer un sistema de
evaluación o de procedimientos al margen de consideraciones empíricas. Sólo cuando se
tiene una teoría relativamente articulada y apoyada en la experiencia se pueden ofrecer
lineamientos normativos que sean realizables -al menos en alguna medida- y cuyo in-

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 144
145

cumplimiento se ha visto que impide el logro de objetivos deseados. La normatividad y la


función crítica que de ella se deriva sólo son efectivas en la medida en que se apoyan en
una investigación empírica. Por más que Laudan insista en que el intuicionismo ya no tiene
nada que ofrecernos, parece difícil que una alternativa resulte más viable.

VII. CAMBIO CIENTÍFICO Y REALISMO

LA PERSPECTIVA INTERNALISTA
En una panorámica del campo de la filosofía de la ciencia se puede apreciar que la
polémica sobre la racionalidad científica -desencadenada por las propuestas historicistas en
los años sesenta- ha ido perdiendo virulencia en los últimos años, y en cambio,
paralelamente, ha ido cobrando fuerza otra gran polémica, aquel' que versa sobre el viejo
problema del realismo. En efecto, una c las tendencias que se observan en el análisis
filosófico de la ciencia de los años ochenta en adelante es un creciente y renovado interés
por los problemas ontológicos y metafísicos, o dicho de manera simple, por la relación
entre la ciencia y la realidad.
Este cambio en el peso relativo de los problemas metodológico frente a los
ontológicos corre parejo con la transformación que ha operado en la noción de
racionalidad científica. Después de tormenta desatada por las tesis metodológicas de Kuhn,
cada vez son más los filósofos que renuncian a reconstruir la elección de teorías con
modelos de tipo algorítmico, que aceptan que la divergencia de juicios cumple una función
vital en el desarrollo científico, que destacan criterios de evaluación que no depende de la
traducción interteórica, etc. Así, la calina comenzó a restablecerse en el terreno
metodológico conforme fue cuajando un nuevo programa de investigación, liberado de una
noción estricta de racionalidad. Ian Hacking, refiriéndose a las nociones kuhnianas
centrales, afirma -con un optimismo un tanto exagerado- que: "A pesar de todo el ruido y
la irritación el efecto fue excelente, pues ahora existe un sorprendente consenso acerca del
poder y la significación de estas ideas" (Hacking, 1993, p. 275). Tan así es, según Hacking,
que incluso se ha transformado en la imagen que amplio público tiene de la ciencia, y
ahora resulta que hay que explicar a los estudiantes por qué La estructura de la
revoluciones científicas no es un libro obvio (ibidem).
Sin embargo, subsiste el hecho de que la tesis de inconmensurabilidad también
tiene implicaciones ontológicas, menos visibles y más duras de roer, las cuales han
contribuido a reavivar la polémica sobre el realismo, en particular sobre el realismo
científico, y con ello la discusión de su acompañante habitual, el problema de la verdad.
Son esas implicaciones ontológicas las que nos proponenos explorar en este capítulo con el
fin de elucidar el tipo de realismo con el que Kuhn queda comprometido. Intentaremos
mostrar que se trata de un realismo de raigambre kantiana, que en consecuencia comparte
el núcleo básico de los enfoques llamados "internalistas", adoptando la caracterización que
hace Hilary Putnam de las dos grandes perspectivas, externalista e internalista, que dividen

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 145
146

el campo de batalla del realismo. Sin embargo, intentaremos defender -en la última
sección- que un enfoque genuinamente internalista, como sería el de Kuhn, no tiene por
qué comprometerse con una noción de verdad como la que Putnam defiende en su versión
del realismo interno.
Comencemos por el supuesto de la realidad independiente, que es el punto de
arranque de las diferencias entre realistas externalistas y realistas internalistas (o entre
realismo metafísico y realismo interno). El concebir la realidad como una totalidad de
objetos que existen con total independencia de nuestro conocimiento (mente, lenguaje,
esquemas conceptuales o representaciones), revela el compromiso metafísico con una
noción absoluta de "objeto" y de "existencia". La perspectiva internalista, en cualquiera de
sus versiones, se distingue ante todo por el rechazo de esta manera de concebir la
realidad. Por tanto, la clave para entender este desacuerdo fundamental está en la noción
de objeto.
Como es bien sabido, aunque poco entendido, Putnam afirma que: "Los 'objetos' no
existen independientemente de los esquemas conceptuales. Nosotros recortamos el mundo
en objetos cuando introducimos algún esquema de descripción" (Putnam, 1981, p. 52). Los
objetos dependen en un sentido fuerte, que incluye existencia, de los esquemas
conceptuales, y esta tesis implica, ante todo, el sinsentido de la idea de "objetos
autoidentificantes", esto es, de objetos que tienen una identidad propia y son, al mismo
tiempo, independientes de nuestros sistemas de conceptos. Para un internalista, la
identificación de objetos, como correlación entre conceptos y entidades no lingüísticas,
sólo se puede establecer desde algún punto de vista determinado, desde algún esquema
conceptual, y queda en consecuencia limitada por el repertorio de conceptos disponibles
en una comunidad. Los esquemas conceptuales, entonces, no son meros intermediarios
entre los sujetos y los objetos, son más bien una pieza clave en la constitución de los
objetos. Al aclarar la única noción de objeto empírico que él admite, dice Putnam: "los
'objetos' mismos son tanto algo que se hace como algo que se descubre, tanto productos
de nuestra invención conceptual como del factor 'objetivo' de la experiencia, el factor
independiente de nuestra voluntad..:' (ibid., p. 54).
A esta noción de objeto se le suma la tesis de la relatividad conceptual, tesis que se
podría formular en pocas palabras diciendo que ningún concepto -ni siquiera las categorías
ontológicas más básicas- tiene una interpretación única o absoluta. Por tanto, la
identificación de objetos, que implica la atribución de existencia, es en parte producto de
nuestros sistemas de conceptos. Esto es así en todos los niveles, desde los objetos del
sentido común hasta las entidades y procesos de la física teórica. No hay un concepto
privilegiado de objeto, ni de existencia, que sea el metafísicamente correcto. La idea de
que la realidad o la naturaleza nos impone una correspondencia única entre nuestros
conceptos y las cosas, como si hubiera un pegamento metafísico entre lenguaje y mundo,
es una mera ilusión. El fenómeno de la relatividad conceptual "depende del hecho de que
los mismos primitivos lógicos, y en particular las nociones de objeto y existencia, tienen

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 146
147

una multitud de usos diferentes, y no un 'significado' absoluto" (Putnam, 1987, p. 19).


La tesis de la relatividad conceptual, entonces, trae consigo un pluralismo
ontológico, pues abre la posibilidad de tener concepciones del mundo con ontologías
distintas -incluso incompatibles- que sean igualmente adecuadas en ciertos contextos, en
función de determinados intereses y objetivos. De aquí que la pregunta "¿qué es lo que
hay en el mundo?" requiera de la especificación del esquema conceptual, lenguaje o
teoría, en que se plantea e intenta responder. Sólo cuando se ha adoptado un sistema de
conceptos se puede afirmar que algunos hechos y objetos están ahí para ser descubiertos.
Dicho de otra manera, sólo desde el plano del conocimiento es posible plantear e intentar
responder las preguntas ontológicas. Pretender lo contrario es caer en el error de poner la
carreta de la metafísica delante del caballo de la epistemología.
De lo dicho hasta aquí se desprende que la crítica de fondo al realismo metafísico,
el realismo externalista, es que esta posición descansa en la noción de absoluto. La tesis
externalista de que ciertos enunciados, los verdaderos, describen el mundo de una manera
que es independiente de toda perspectiva local, supone el compromiso con categorías
ontológicas absolutas, categorías que sólo podrían ser las del punto de vista del Ojo de
Dios. Pero entonces uno se pregunta en qué sentido es "realista" una posición donde se
afirma que los objetos y los hechos no existen independientemente de los esquemas
conceptuales. ¿Qué queda de la idea de que hay algo "ahí afuera" que es independiente de
la mente o del lenguaje? ¿Acaso no se trata de un puro idealismo?
Parte de la respuesta está en considerar que los objetos son también algo que se
descubre, que son "productos del factor 'objetivo' de la experiencia, el factor
independiente de nuestra voluntad", al cual Putnam se refiere con el término 'insumos' (cf.
Putnam, 1981, p. 54). Y aunque se afirme que no hay insumos que no estén, hasta cierto
punto, moldeados por nuestros conceptos, es claro que se reconoce un sustrato o materia
de la experiencia a partir del cual se conforman los objetos. "El realismo interno no niega
que hay insumos de la experiencia al conocimiento; el conocimiento no es una historia
[story] sin más constreñimiento que la coherencia interna" (ibidem). Lo que Putnam no
acepta, siguiendo a Hanson y a Kuhn, es el supuesto de que hay una base empírica que es
conceptualmente neutral, o que sólo admite una única descripción.
Tenemos entonces que la noción internalista de objeto es una noción compleja: los
objetos no son meras invenciones libres de la mente, sin un sustrato independiente y sin
ciertas restricciones, pero tampoco son cosas puramente externas, dadas por sí mismas,
con propiedades y relaciones intrínsecas. Pensar en términos de esta alternativa sería
pensar en términos de una falsa dicotomía. Los objetos son, a la vez, productos de la
mente y del mundo. La mente no se limita a copiar un "mundo ya hecho", pero tampoco
es la mente la que hace al mundo: "la mente y el mundo hacen conjuntamente a la mente
y al mundo" (ibid., p. xi).
Esto nos Ileva a otra de las claves de la perspectiva internalista, su denuncia de la
extendida "falacia de la división", falacia que Kant puso al descubierto con toda claridad. El

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 147
148

pretender que podemos distinguir entre nuestra propia contribución conceptual y aquello
que forma parte del mundo, tal como es en sí mismo, es cometer un grave error, error que
también está en la base del realismo externalista. Si bien la noción de "cosa en sí", o
noúmeno, puede tener cierto sentido formal, es más bien un concepto negativo que alude
a lo incognoscible por definición, y como tal sólo cumple el papel de señalar un límite
infranqueable de nuestra experiencia. En la concepción de Kant no tiene cabida ningún
tipo de isomorfismo o mapeo entre el mundo nouménico y el mundo fenoménico (dicho
muy burdamente, no se debe pensar que a cada perro que observamos le corresponde un
perro nouménico que no podemos observar). Hablar de objetos empíricos es siempre
hablar de fenómenos, de cosas para nosotros, y ésta es la única noción de objeto que es
relevante para el conocimiento: un objeto empírico no es más que el resultado de aplicar la
síntesis de las categorías a lo dado en la intuición sensible (cf. Kant, 1781 A, pp. 108-109).
De esta manera, aunque el realismo de filiación kantiana -el realismo interno- haya
abandonado el supuesto de que el esquema de categorías es único, y en su lugar defienda
la tesis de la relatividad conceptual, de todos modos puede incorporar la idea del algo
independiente como materia de la experiencia, y seguir rechazando como carente de
sentido la idea de la realidad como algo intrínsecamente configurado en objetos (ya que
éstos tendrían que ser objetos autoidentificantes). La perspectiva internalista permite
afirmar que "las cosas para nosotros" son simplemente las cosas; no hay "detrás" de los
objetos de nuestro conocimiento otros objetos (cosas en sí) que son los que realmente
existen. Los objetos de los que hablamos desde nuestras estructuras conceptuales no son
meras proyecciones, ilusiones o apariencias, sino que son los únicos objetos que en cuanto
objetos realmente existen.
Por otra parte, contra lo que muchos piensan, el reconocimiento elemental de que
"la mente humana no ha creado las estrellas ni las montañas" no basta para zanjar la
discusión entre externalistas e internalistas en favor de los primeros (véase Putnam, 1990,
p. 30). Este reconocimiento básico simplemente expresa un compromiso realista
indispensable, casi diríamos trivial, que se opone a un idealismo que afirmara que sólo
existe lo mental, o que todo lo que existe es un puro producto del pensamiento. A nuestro
modo de ver, ninguna concepción internalista que hoy en día afirmara tal cosa merecería
la pena de ser discutida (más adelante, al examinar la posición de Kuhn, retomamos la
cuestión de la realidad independiente).
Antes de Kant, la polémica giraba en torno de si hay realmente objetos "ahí afuera",
objetos físicos o materiales, o si sólo existe lo mental (por ejemplo, Locke versus
Berkeley). Kant sencillamente rechaza los supuestos de esta discusión entre "realistas
trascendentales" e "idealistas empíricos", como él los llamaba, y plantea el problema del
realismo en otros términos. No se trata de decidir cuáles son los objetos realmente
existentes, el problema está en aceptar que todo aquello que llamamos "objeto", del tipo
que sea, está constituido dentro de un esquema conceptual y es, por tanto, "objeto para
nosotros". De aquí que todo conocimiento sólo pueda ser conocimiento de fenómenos.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 148
149

El verdadero contrincante, a partir de Kant, es el externalista, sea materialista,


idealista o dualista. Esto es, aquel que insista en suponer categorías ontológicas absolutas,
en distinguir lo que es en-sí de lo que es sólo para nosotros, en suponer que el mundo
nouménico es el responsable del valor de verdad de nuestros juicios empíricos y, en
consecuencia, aquel que siga preguntando, a secas, qué es lo que realmente existe. Si no
postulamos alguna facultad del estilo de la "intuición intelectual" que suponían los filósofos
medievales, que nos permita un acceso privilegiado o directo a ciertos aspectos del
mundo, no podemos pretender que existe alguna forma de referirse a objetos empíricos -ni
a propiedades o relaciones- que sea independiente de nuestros sistemas de conceptos.

EL REALISMO CIENTÍFICO
En el campo de batalla del realismo tiene lugar un tipo más específico de contienda,
aquella que se da entre los llamados "realistas científicos" y sus correspondientes
adversarios. Como graciosamente los describe Hacking:

El realista científico dice que los mesones y los muones son tan "nuestros"
como los monos y las albóndigas. Todas esas cosas existen. Sabemos algunas
verdades acerca de cada una de esas clases de cosas y podemos encontrar más.
El antirrealista discrepa. Según la tradición positivista, desde Comte hasta Van
Fraassen, podemos conocer el comportamiento fenoménico de las albóndigas y
los monos, pero hablar de muones es cuando mucho una construcción intelectual
para la predicción y el control. Los antirrealistas acerca de los muones son
realistas respecto de las albóndigas (Hacking, 1983, p. 95).

El núcleo del conflicto, como se puede ver, es el estatuto ontológico que se les debe
otorgar a las entidades teóricas de la ciencia. En líneas generales, el realista científico
sostiene que los objetos, estados y procesos que postulan ciertas teorías científicas
realmente existen, y que las teorías tienen un valor de verdad en el sentido de la
correspondencia. En cambio, el antirrealista científico rechaza el compromiso ontológico
con dichas entidades, y considera que las teorías que hablan de ellas sólo son
herramientas del pensamiento para poder predecir y producir sucesos que nos interesan.
Las teorías pueden ser empíricamente adecuadas, útiles, aplicables, o estar justificadas,
pero no podemos considerarlas -ni siquiera a las teorías más exitosas- historias
literalmente verdaderas acerca de cómo es el mundo (cf. Van Fraassen, 1980). Aunque es
importante señalar que los antirrealistas científicos no forman un bloque homogéneo, pues
existen profundas diferencias en la manera de concebir aquello que se considera "ob-
servable". Considérese, por ejemplo, la vieja polémica dentro del Círculo de Viena entre
fenomenalistas y fisicalistas (los primeros sostenían que los enunciados de observación se
refieren a experiencias sensoriales de los sujetos, y los segundos, que se refieren a
objetos, estados o comportamientos describibles en el lenguaje de la física). Pero no

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 149
150

entraremos en esta línea de discusión.


Por otra parte, entre los realistas científicos hay un grupo radical, el de los
"objetivistas" o "cientificistas", que sostienen el carácter absoluto, independiente de toda
perspectiva local, del conocimiento científico, especialmente de las teorías de la física. En
esta versión del realismo metafísico se supone que la ciencia fundamental sí es capaz de
"converger" hacia la teoría verdadera y completa del mundo, cuya ontología sería la de los
componentes últimos de la realidad. Y en cambio, nuestra concepción cotidiana del
mundo, la del sentido común, se juzga como fundamentalmente falsa.
Consideremos la situación de las dos mesas que describe Arthur Eddington. Una
mesa es la del hombre común y corriente, la mesa de madera donde escribe, la cual es un
objeto sólido -en su mayor parte materia-, con cierta textura y color, con bordes definidos,
etc. La otra es la mesa del científico, la cual es más espacio vacío que materia, dado que la
distancia entre las partículas es inmensa comparada con el radio de los electrones o de los
núcleos de los átomos que la componen, y donde ninguna de las propiedades que el físico
atribuye a ese agregado de partículas puede identificarse con las propiedades de la mesa
del hombre común. Frente a esta situación, la reacción del realista que adopta una
metafísica científica, como Wilfrid Sellars, es la de negar que existe realmente la primera
mesa, la mesa tal y como la concebimos cotidianamente. En consecuencia, considera que,
en sentido estricto, es falsa la concepción del hombre común acerca de los objetos
materiales de tamaño medio. A esta concepción Sellars la llama "la imagen manifiesta" y la
contrapone a "la imagen científica" del mundo (cf. Sellars, 1962).
Ahora bien, la idea de que en realidad sólo existen los objetos que figuran en la
"imagen científica", y de que la mayor parte del mundo del sentido común es mera
apariencia o proyección, revela el intento de erigir la física en metafísica, proyecto que
sigue vivo en nuestros días (piénsese en los trabajos de Bernard Williams o Saul Kripke,
que suponen una metafísica científica). Sin embargo, como señala Putnam, si bien es
cierto que la ciencia del siglo XVII resultó muy eficaz para derribar los fundamentos me-
dievales del conocimiento, ese éxito no implica que la ciencia sea capaz de ofrecer
fundamentos metafísicos: "La ciencia es asombrosa destruyendo respuestas metafísicas,
pero incapaz de ofrecer respuestas que las sustituyan" (Putnam, 1987, p. 29).
Irónicamente, la principal fuente de argumentos en contra del proyecto cientificista
es la ciencia misma. Uno de los principales retos para el realismo científico proviene de la
subdeterminación de las teorías por la evidencia, ya que este hecho permite que existan
teorías que dan cuenta del mismo conjunto de fenómenos -que hacen las mismas
predicciones sobre hechos observables y que sin embargo son incompatibles entre sí. Pero
además, este tipo de situaciones se puede generalizar. Con base en un teorema de la
teoría de modelos se puede mostrar que, dada cualquier teoría, siempre es posible
construir otra teoría empíricamente equivalente pero incompatible con ella. Por tanto,
siempre existen alternativas teóricas posibles, con ontologías diferentes, y con respecto a
las cuales no hay nada en el nivel de la evidencia empírica que nos permita decidir cuál es

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 150
151

la mejor. Este argumento de la subdeterminación ha sido desarrollado principalmente por


Bas van Fraassen (1980); y cabe señalar que Kuhn lo tuvo en cuenta antes de que fuera
moneda corriente entre los críticos del realismo científico (cf. Kuhn, 1970b, p. 265).
La tesis internalista de la relatividad conceptual y el pluralismo ontológico que la
acompaña apuntan en esta misma dirección. El hecho de que en la física teórica, en
particular en la mecánica cuántica, los estados de un sistema puedan describirse como su-
perposiciones de interacciones de partículas o como superposiciones de estados de campo
pone de relieve que, en la misma física, los compromisos ontológicos -y por tanto la
identificación y descripción de entidades, estados y procesos- dependen del sistema
conceptual y de la perspectiva teórica que se adopte. Si esto es así, todo parece indicar
que las posibilidades que tiene la ciencia de erigirse en metafísica son prácticamente nulas.
Como dato no sólo curioso, destaca el hecho de que Putnam haya llegado al
realismo interno después de haber sido un gran defensor del realismo científico. En aquella
época Putnam estaba preocupado por elaborar una teoría semántica que permitiera
conjurar la amenaza que representaba la tesis kuhniana de inconmensurabilidad para el
realismo científico (cf. "The Meaning of Meaning", en Putnam, 1975). Sin embargo,
Putnam termina por rechazar esa teoría -la teoría causal de la referencia- en buena medida
por la influencia de las tesis de Quine sobre la traducción y la referencia. Con base en sus
análisis semánticos y su "liberal" noción de objeto físico, entendido como el contenido
material de cualquier porción del espacio-tiempo, Quine muestra cómo podríamos sustituir
los objetos físicos por sus lugares-tiempo, sin que ello implique ningún cambio perceptible:
Este cambio en la ontología, el abandono de los objetos físicos en favor del
puro espacio-tiempo, resulta ser algo más que un ejemplo ingenioso. Las
partículas elementales han estado tambaleándose alarmantemente a medida que
la física progresa. Surgen situaciones que curiosamente ponen en duda la
individualidad de una partícula, no sólo a lo largo del tiempo sino incluso en un
mismo tiempo. Una teoría de campos en la cual los estados se atribuyen
directamente a los lugares-tiempo puede muy bien darnos una mejor imagen, y
algunos físicos lo creen así (Quine, 1981, pp. 27-28).

Esto significa que podemos cambiar nuestros objetos "sin perturbar en lo más
mínimo ni la estructura ni el apoyo empírico de una teoría científica" (ibid., p. 30).
En Quine encontramos otros elementos que permiten reforzar el núcleo del
antirrealismo científico. Siendo Quine un defensor de la epistemología naturalizada,
sostiene que "la realidad tiene que ser identificada y descrita en el interior de la ciencia
misma, y no en una filosofía anterior" (ibid., pp. 31-32). Sin embargo, no suscribe el
realismo científico. Sus análisis semánticos -que, como él afirma, no pertenecen a la
ontología sino a la metodología de la ontología, y por ende a la epistemología- muestran
que "en verdad se podría volver la espalda a nuestras cosas externas (...] sin violentar
ninguna evidencia" (ibid., p. 32). Por esto, cuando Quine sostiene que "toda atribución de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 151
152

realidad debe efectuarse desde el interior de nuestra propia teoría del mundo, pues de
otro modo resulta incoherente" (ibidem), debemos interpretarlo en clave internalista, y no
como si dijera que sólo la ciencia puede establecer lo que realmente existe. La
naturalización de la epistemología, el considerarla como un capítulo más de la ciencia, no
implica entronizar la ciencia. Significa más bien que no puede haber una "filosofía primera"
que establezca fundamentos absolutos, ni de la realidad ni del conocimiento; y en ese caso
nada, ni la ciencia en su máximo grado de desarrollo, podría llegar a ocupar ese lugar. Con
la naturalización de la epistemología se ha ido evaporando "la cuestión de si nuestra
ciencia alcanza la Ding an sich [la cosa en sí] o en qué medida la alcanza" (ibid., p. 33).
"La verdad es inmanente y no hay una verdad más alta. Tenemos que hablar desde dentro
de una teoría, aunque ésta sea una entre varias" (ibid., p. 32).
La otra gran línea de argumentación en contra del realismo científico proviene de
los análisis históricos de la ciencia. La piedra de toque es el argumento de la
"metainducción pesimista", el cual se apoya en el registro histórico de los fracasos teóricos
del pasado. Este argumento, cuyo exponente más destacado es Larry Laudan (1981), y
que es considerado por los mismos realistas metafísicos como el argumento más
desafiante (cf. Devitt, 1991), se dirige contra la famosa tesis de que la mejor explicación
del éxito de una teoría consiste en suponer que dicha teoría es verdadera y, por tanto, que
las entidades que postula existen realmente (ya que "sería un milagro que todo funcionara
como la teoría predice, y sin embargo la teoría fuera falsa"). El antirrealista científico, con
base en el análisis de un amplio rango de teorías que en su momento se juzgaron exitosas,
muestra que en su gran mayoría han sido descartadas como falsas en una etapa posterior
de la investigación. Frente a esta evidencia empírica, tal parece que la inferencia a la mejor
explicación nos conduce más bien a conclusiones equivocadas.
El realista científico puede replicar que él sólo argumenta en favor de la "verdad
aproximada" de las teorías exitosas, ya que éstas no siempre son verdaderas en todos sus
detalles. Sin embargo, como Kuhn hizo ver, no hay evidencia histórica que apoye la
especulación de que el desarrollo científico converge hacia una concepción teórica última.
Ciertamente, es posible rastrear algunas series de ecuaciones cada vez más exactas en la
predicción de cierto tipo de fenómenos. Pero lo importante, para esta discusión, es el
hecho de que las concepciones sucesivas, utilizadas para interpretar o explicar dichas
ecuaciones, han sido trastocadas una y otra vez por cambios profundos o revolucionarios,
esto es, cambios en que se modifican los compromisos con las entidades o mecanismos
que se postulan como factores explicativos.
La concepción teórica de la mecánica de Newton fue fundamentalmente modificada
por la de la relatividad general, y por una especie de inducción histórica podemos muy
bien esperar que esta última sea globalmente reemplazada por la teoría de la
supergravedad, o por alguna otra concepción teórica aún no imaginada. Como dice Kuhn:
"La comparación de teorías en la historia no da lugar para pensar que sus ontologías se
aproximan hacia un límite: en ciertos aspectos fundamentales, la teoría general de la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 152
153

relatividad de Einstein se parece más a la física de Aristóteles que a la de Newton" (Kuhn,


1970b, p. 265). Pero si no hay convergencia, el supuesto de una "concepción última del
mundo" se queda como una mera especulación.
Consideremos, por último, qué diría un defensor de la perspectiva internalista frente
a la polémica entre un realista científico radical que afirma "sólo existen los objetos de la
imagen científica", y un realista del sentido común que afirma "sólo existen los objetos
observables". Diría que cuando se reconoce que toda atribución de existencia es relativa a
alguna concepción del mundo, nuestros compromisos ontológicos se ponen en su justo
lugar: no podemos otorgar un carácter absoluto o privilegiado a ninguno de ellos, pero sí
podemos llegar a sostenerlos con razonable confianza dentro de sus respectivos contextos
epistémicos. Como dice Putnam, el escepticismo radical respecto de los objetos externos
no es la única alternativa frente al absolutismo metafísico.
Tal como Putnam dibuja el panorama, son los filósofos que de una u otra manera
están en la tradición kantiana -James, Husserl, Wittgenstein-, y no los realistas
externalistas, los únicos que pueden sostener que tanto nuestras sensaciones como las
piedras y los electrones son igualmente reales. La idea de fondo es que al no haber un
punto de vista privilegiado (ni el del Ojo de Dios, ni el de la ciencia, ni el del sentido
común), no podemos pretender que las diversas descripciones del mundo, generadas en
los distintos sistemas de conceptos, tengan que ser reducibles a una única descripción.
Pero hay que insistir en que al adoptar la perspectiva internalista nos vemos
obligados a reconocer que nuestras descripciones del mundo, sean cotidianas o científicas,
reflejan siempre nuestros constreñimientos biológicos y nuestros condicionamientos
culturales y profesionales. Tal parece, entonces, que esta perspectiva no hace más que
agudizar el "escándalo" del hecho señalado por Kant hace doscientos años: el que no
podamos ofrecer al escéptico ninguna prueba satisfactoria de la existencia de las cosas
externas (cf. Kant, 1781 B, p. xi). Por supuesto, no puede haber "pruebas satisfactorias"
cuando se esperan certezas o demostraciones concluyentes. Sin embargo, este tipo de
realismo nos permite mantener con razonable confianza nuestras creencias acerca de los
objetos externos en la medida en que esas creencias puedan ser justificadas de acuerdo
con los criterios y objetivos vigentes en su contexto epistémico, logrando un acuerdo
intersubjetivo.

KUHN FRENTE AL PROBLEMA DEL REALISMO


Ahora intentaremos reconstruir las implicaciones ontológicas de las tesis de Kuhn
desde una perspectiva internalista. Como estrategia para argumentar que Kuhn queda
comprometido con un realismo de tipo interno, estableceremos un contraste con la in-
terpretación alternativa que propone Hacking, según la cual Kuhn defendería un realismo
de tipo nominalista.
En el capítulo X de La estructura de las revoluciones científicas queda planteado el
problema ontológico de fondo, el problema del cambio de mundos, que generan las tesis

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 153
154

de Kuhn sobre el desarrollo científico: "Aunque el mundo no cambia con un cambio de pa-
radigma, el científico trabaja después en un mundo diferente" (Kuhn, 1962, p. 121; p.
191). Y Kuhn insiste, con total conciencia de la oscuridad de lo que está diciendo, en que
debemos aprender a dar sentido a afirmaciones como ésta. Lo primero que salta a la vista
es el doble uso de la palabra 'mundo'. Por un lado, se dice que "después de una revolución
el científico sigue mirando el mismo mundo", y por otro se afirma que "cuando cambian los
paradigmas, el mundo mismo cambia con ellos". ¿Cómo conciliar entonces ambas
intuiciones?
A primera vista, "el mundo que no cambia" no debería representar demasiado
problema. Se refiere simplemente a la realidad que existe con total independencia de
nuestro conocimiento (mente, lenguaje, esquemas conceptuales o representaciones). Sin
embargo, cuando se considera la variedad de versiones propuestas, resulta que no hay un
mínimo acuerdo sobre cómo entender esa realidad. Como acabamos de ver, cuando se la
concibe a la manera del realismo externalista, como una totalidad de objetos
independientes de la mente, encontramos que en opinión de algunos filósofos sólo existen
las entidades observables o los objetos del sentido común; según otros, sólo existen las
entidades postuladas por nuestras mejores teorías científicas; y los más liberales están
dispuestos a admitir todas esas entidades en la lista del censo metafísico del universo (por
ejemplo, Devitt, 1991).
Cuando Hacking intenta elucidar la idea de "vivir o trabajar en un mundo diferente",
que conduce al problema del cambio de mundos o "problema del mundo nuevo" (como lo
llama Hacking), propone una interpretación nominalista de la posición de Kuhn, que se
resume como sigue: el mundo que no cambia es un mundo de entidades individuales,
dado que éstas no cambian cuando cambian los paradigmas; mientras que el mundo que
sí cambia es un mundo de clases de cosas, dado que toda interacción con el mundo se
hace necesariamente bajo alguna descripción, y toda descripción requiere de alguna
clasificación o agrupamiento de las cosas individuales en clases (cf. Hacking, 1993, p.
277).
Sin duda, esta manera de fijar los dos sentidos de 'mundo' resulta muy atractiva.
Por una parte, ofrece una interpretación del cambio de mundos que es relativamente fácil
de aceptar, pues propone que lo único que cambia es la manera de agrupar o clasificar las
entidades existentes, esto es, "el mundo de clases de cosas" en el cual y con el cual
trabajan los científicos. Por otra parte, también tiene el mérito de no trivializar la idea de
"mundo nuevo" al tomar en serio la tesis de inconmensurabilidad. Notemos que el carácter
no trivial del cambio de mundos depende del hecho de que algunas descripciones no sean
completamente traducibles entre sí, lo cual supone que las clasificaciones o taxonomías en
juego difieren en su estructura. No todo término que nombra una clase de la taxonomía
utilizada en una comunidad resulta traducible, o expresable, en los términos de clase de la
taxonomía que surge de una revolución. Se reconoce, por tanto, que la
inconmensurabilidad impide la reducción de los diversos mundos a uno solo, lo cual revela

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 154
155

que el hablar de mundos diferentes no es una mera forma retórica o metafórica.


Otro elemento seductor de la interpretación de Hacking es que está planteada en
los mismos términos en que Kuhn formuló, en sus últimos trabajos, sus ideas sobre la
inconmensurabilidad. Como vimos, a partir de los años ochenta Kuhn desarrolla un
enfoque de tipo taxonómico de esta noción, encaminado a destacar el origen de los
problemas de traducción y comunicación. Sin embargo, a nuestro juicio, Hacking fuerza
demasiado el enfoque de Kuhn al encajarlo en un realismo que a fin de cuentas es de
corte metafísico, comprometiéndolo con una ontología de entidades independientes que
entraría en conflicto con algunas de sus tesis más básicas. La formulación taxonómica de
la inconmensurabilidad, en nuestra lectura, más bien vino a poner en claro la perspectiva
internalista de Kuhn y su fuerte filiación con una tradición kantiana. Veamos.
La interpretación de Hacking de "el mundo que cambia" se ajusta perfectamente
con la tesis kuhniana de que un cambio revolucionario implica un cambio en el léxico de
una comunidad científica, el cual refleja un cambio en la estructura de la taxonomía
previamente utilizada. Claramente, con las revoluciones cambian las clases de objetos del
campo de investigación, esto es, el mundo de clases en el cual y con el cual trabajan los
científicos. Sin embargo, cuando Kuhn discute la teoría causal de la referencia, afirma que
la referencia de los términos es una función de la estructura de un léxico, y "quienes
sostienen que la referencia es independiente del significado también sostienen que la
metafísica es independiente de la epistemología" (Kuhn, 1990, p. 317, n. 22), in-
dependencia que Kuhn rechaza abiertamente como todo buen internalista.
Pero esto revela que "el mundo que no cambia" no se puede interpretar -como
propone Hacking- como un mundo de entidades individuales que subsisten inmunes a los
cambios de taxonomía, como si las entidades estuvieran "ahí afuera" sujetas a que
nosotros las agrupemos en clases a voluntad. Con base en su análisis del aprendizaje de
un léxico, Kuhn sostiene que en este proceso se adquieren las categorías taxonómicas que
permiten describir el mundo de cierta manera. Pero también afirma que las categorías
traen consigo, de manera inseparable, el mundo en el cual viven los miembros de una
comunidad lingüística. De aquí que cuando las estructuras léxicas de dos comunidades no
son homologables, es decir, cuando sus concepciones del mundo son inconmensurables,
"algunas de las clases que pueblan [sus] mundos son irreconciliablemente diferentes, y la
diferencia ya no es más entre descripciones sino entre las poblaciones que se describen"
(Kuhn, 1993b, p. 319; cursivas añadidas).
Esto apunta a que las categorías taxonómicas no sólo permiten describir el mundo
de cierta manera, sino también son constitutivas de las entidades que pueblan los mundos.
De esta manera, Kuhn queda comprometido con la noción de "objeto empírico" que es
característica de la perspectiva internalista. En consecuencia, desde su posición, tampoco
tendría sentido hablar de entidades independientes de nuestros sistemas de conceptos
(entidades autoidentificantes). Kuhn también afirmaría que no hay más cosas que las
cosas para nosotros: aquellas constituidas con base en nuestros sistemas de categorías.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 155
156

Cuando Kuhn se refiere al a priori de Kant, retoma la distinción que hace


Reichenbach entre un a priori fijo (el del carácter absoluto de las categorías), y un a priori
relativo a las distintas culturas y periodos históricos. Y es este segundo sentido el que
Kuhn otorga a las categorías taxonómicas, pues a pesar de no ser fijas, de todos modos
son constitutivas de la experiencia posible del mundo (cf. ibid., p. 331). Pero si el mundo
de la experiencia depende de manera constitutiva de los sistemas de categorías, queda
claro que el repertorio de objetos o entidades individuales no puede permanecer idéntico a
través del cambio de paradigmas (más precisamente, del cambio de estructuras
taxonómicas). La diversidad de mundos implica, de hecho, un pluralismo ontológico. Y si
esto es así, Kuhn no podría catalogarse como nominalista.
Pero si Hacking no tiene razón, cómo se concibe entonces "el mundo que no cambia
cuando cambian los paradigmas", esto es, la realidad independiente. Cuando Kuhn se
plantea el problema de la relación entre la taxonomía compartida por una comunidad y el
mundo que esa comunidad habita, responde sin vacilar que esa relación no se puede
entender a la manera del realismo metafísico, ya que: "En la medida en que la estructura
del mundo puede ser experimentada [...] dicha estructura está constreñida por la
estructura del léxico de la comunidad que lo habita" (Kuhn, 1991, p. 10). Y cabe señalar
que la estructura de un léxico no sólo está biológicamente condicionada, sino también
depende de los distintos procesos de socialización y educación profesional.
Kuhn reconoce que estas afirmaciones pueden sugerir que lo que llamamos "mundo
real" es dependiente de la mente, a lo cual reacciona de manera defensiva, pues interpreta
esa dependencia en el sentido aberrante de que el mundo es una mera invención o
construcción mental. Kuhn quiere dejar muy claro, como cualquier internalista sensato,
que los sujetos "ya encuentran el mundo en su sitio", que el mundo real es "el escenario
de toda vida individual y social", y que ese mundo tan nos impone restricciones que la
supervivencia sólo es posible si los sujetos se adaptan a ellas. "¿Qué más se puede
razonablemente pedir de un mundo real?" (ibidem), pregunta Kuhn.
Aquí es importante destacar que cuando Kuhn se refiere a las restricciones que nos
impone el mundo real eso no significa que esté cometiendo la falacia de la división, esto
es, no pretende que podamos distinguir nuestra contribución conceptual de aquello que
forma parte del mundo tal como es en sí mismo. En este respecto, en analogía con la
evolución biológica, Kuhn supone una especie de "plasticidad mutua" entre los sujetos y el
mundo, plasticidad que impediría trazar una línea divisoria entre el mundo real y el mundo
descrito o representado (el cual es producto de nuestra interacción con el mundo real). Si
lo que de hecho evoluciona es la conjunción del nicho y las criaturas que lo habitan, para
poder hablar de adaptación no es necesario "trazar una línea entre las criaturas dentro del
nicho y su entorno `externo"' (ibid., p. 11). Kuhn podría haber dicho, con Putnam, que "la
mente y el mundo hacen conjuntamente la mente y el mundo".
También encontrarnos que Kuhn habla del mundo independiente como algo
"experiencialmente dado", que "no es para nada respetuoso de los deseos de un

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 156
157

observador", y que "es muy capaz de proporcionar evidencia contra las hipótesis
inventadas que fracasan en ajustarse a su comportamiento" (cf. ibid., p. 10). Desde sus
primeros escritos, Kuhn decía que "no se puede forzar a la naturaleza a entrar en un
conjunto arbitrario de cajas conceptuales" (Kuhn, 1970b, p. 263). Pero también sostenía
que, como nos enseña la historia, seguramente la naturaleza tampoco se quedará
indefinidamente confinada en ninguna de las estructuras conceptuales que los científicos
hayan construido hasta ahora. Recordemos que Kuhn puso las bases del argumento de la
metainducción pesimista contra el realismo científico. Cabe señalar que como decidido
oponente del realismo científico, Kuhn también objeta la pretensión de que podemos
distinguir entre propiedades esenciales (intrínsecas) y propiedades secundarias
(aparentes), y ofrece una serie de argumentos contra la teoría causal de la referencia para
mostrar que el agarrarse del vocabulario científico más desarrollado --como en la línea
trabajada por Kripke- no mejora la situación del realismo metafísico en su versión
cientificista (cf. Kuhn, 1990, pp. 309-314).
Las anteriores afirmaciones ponen de relieve otros rasgos internalistas de la
posición de Kuhn. En primer lugar, la idea del mundo como algo "experiencialmente dado"
revela el acuerdo con el supuesto del algo independiente como sustrato o materia de la
experiencia que impone restricciones a nuestras manipulaciones y representaciones. Como
dice Kuhn, se trata de "un mundo que no es para nada respetuoso de los deseos de un
observador", esto es, que opone resistencia a través de los insumos de la experiencia, los
cuales son el factor objetivo o independiente de muestra voluntad. Y en este respecto,
Kuhn también concuerda con la idea de que, a pesar de su carácter independiente, no hay
insumos de la experiencia que no estén contaminados o moldeados por nuestros sistemas
de conceptos. Una de las argumentaciones más convincentes en favor de esta idea
proviene, precisamente, de este autor.
También se destaca el supuesto de que el mundo tiene alguna estructura, pero este
supuesto viene acompañado con la convicción de que ni siquiera de nuestras teorías
científicas más exitosas podemos aseverar un isomorfismo con dicha estructura. Por una
parte, el hecho de que la "naturaleza" no encaje en cualquier estructura conceptual, es
decir, el que no cualquier teoría resulte aceptable -a pesar de que toda evaluación se haga
siempre desde alguna perspectiva local-, permite suponer que el mundo tiene alguna
estructura. Pero por otra parte, tanto el argumento de la subdeterminación de las teorías
por la evidencia corno el argumento de la metainducción pesimista ponen seriamente en
tela de juicio cualquier pretensión de isomorfismo entre nuestras teorías y la realidad.
Si bien se puede objetar que no queda claro cómo se articularía el supuesto de que
el mundo tiene alguna estructura con las tesis internalistas más básicas -articulación que
en efecto subsiste como un gran desafío desde los tiempos de Kant-, sin embargo se
podría decir que, al menos en principio, este supuesto no resulta incompatible con un
realismo de tipo interno, siempre y cuando no rebasemos los límites de lo que
razonablemente podemos afirmar. Después de todo, como dice Quine con base en el argu-

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 157
158

mento de la inescrutabilidad de la referencia, lo único que nuestra ciencia necesita es que


el mundo esté estructurado de tal manera que acredite nuestras predicciones, y ni siquiera
en el ámbito de la ciencia podemos plantear exigencias más concretas acerca del mundo
(cf. Quine, 1981, p. 32).
Al final de "El camino desde La estructura" Kuhn resume su posición acerca de la
relación entre nuestro conocimiento y el mundo, lo cual se podría leer como una
declaración de su acuerdo básico con un realismo internalista. Lo citamos extensamente en
apoyo de la interpretación aquí propuesta:

Subyaciendo en todos estos procesos de diferenciación y cambio [de


categorías taxonómicas] debe haber, por supuesto, algo permanente, fijo y
estable. Pero, como la Ding an sich de Kant, es inefable, indescriptible,
indiscutible. Situada fuera del espacio y del tiempo, esta fuente kantiana de
estabilidad es el todo a partir del cual han sido generados tanto las criaturas como
sus nichos, tanto los mundos "internos" como los "externos". La experiencia y la
descripción sólo son posibles con el descriptor y lo descrito separados, pero la
estructura léxica que marca esa separación puede hacerlo de diversas formas,
resultando cada una de ellas en una forma de vida diferente, aunque nunca
completamente diferente. Algunas formas están mejor adaptadas a ciertos
propósitos, y otras formas a otros. Pero ninguna debe ser aceptada como
verdadera o rechazada como falsa; ninguna nos ofrece un acceso privilegiado al
mundo real (Kuhn, 1991, p. 12).

Examinemos ahora el sentido de esta última afirmación, que nos remite a la noción
de verdad.

KUHN FRENTE AL PROBLEMA DE LA VERDAD


En la obra publicada de Kuhn no se encuentra ningún análisis detallado de la noción
de verdad, a pesar de que constituye uno de los temas centrales del libro en el que este
autor comenzó a trabajar desde principios de los años ochenta. Sin embargo, sí se
encuentran algunas anotaciones sugerentes, que intentaremos articular desde la
perspectiva internalista. En esta tarea resultará útil establecer una comparación entre Kuhn
y Putnam, ya que su posición con respecto al realismo difiere, justamente, en la noción de
verdad.
Ambos autores sostienen que la diversidad genuina de estructuras conceptuales
impide suponer que las distintas concepciones del mundo son reducibles entre sí, o que
convergen hacia una concepción teórica última. De aquí que la evaluación de teorías tenga
un carácter pragmático, es decir, que esté en función de la eficacia de éstas en la
resolución de problemas, o de su adaptación a determinados propósitos e intereses. Pero
podríamos decir que a pesar de las coincidencias básicas entre Kuhn y Putnam, el in-

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 158
159

ternalismo de Kuhn resulta más coherente en virtud de que rechaza cualquier noción de
verdad que trascienda nuestros sistemas conceptuales.
Putnam ciertamente abandona la verdad como correspondencia, pero se empeña en
mantener una noción que le permita afirmar que los enunciados tienen un valor de verdad
estable, esto es, que no se puede alterar o perder (cf. Putnam, 1981, p. 55). Por eso
propone una noción epistémica de verdad como aceptabilidad en condiciones ideales de
justificación. Sin embargo, la idea de la verdad como una propiedad estable de los
enunciados entra en conflicto con la tesis de la relatividad conceptual, dado que las
mismas nociones de "objeto" y "existencia" no tienen un significado estable (cf. Pérez
Ransanz, 1992). Kuhn, por su parte, también rechaza la verdad como correspondencia,
pero la razón de fondo sería que no sólo el significado de los términos, sino también su
referencia, es una función de la estructura de categorías vigente en una comunidad: "La
referencia es una función de la estructura compartida del léxico" (Kuhn, 1990, p. 317, n.
22). Por tanto, no puede haber una verdad que sea conceptual o léxicamente inde-
pendiente. Notemos, por lo pronto, que este carácter relativo o dependiente de la verdad
resulta del todo congruente con las tesis básicas del realismo interno: no hay categorías
ontológicas absolutas, ninguna perspectiva epistémica es privilegiada, y no hay un
pegamento metafísico entre las palabras y las cosas (o entre los enunciados y los hechos).
Sin embargo, Kuhn también reconoce que la idea de verdad cumple una función
básica en el conocimiento: la función de exigir la aceptación o el rechazo de ciertos
enunciados -o teorías- frente a la evidencia compartida. Función que refleja el supuesto,
implícito en toda evaluación, de que nuestros juicios empíricos son candidatos a tener un
valor de verdad. De aquí que para dar cuenta de este tipo de situaciones epistémicas Kuhn
proponga concebir la verdad como un juego de lenguaje, "el juego de lo verdadero/falso",
donde rigen ciertas reglas lógicas mínimas entre las que destaca el principio de no-
contradicción-, las cuales son un prerrequisito de la racionalidad de las evaluaciones. Dice
Kuhn: "Declarar que un enunciado es candidato a verdadero/ falso es aceptarlo como
contendiente en un juego de lenguaje cuyas reglas prohíben aseverar, al mismo tiempo,
un enunciado y su contrario" (Kuhn, 1991, p. 9).
Ahora bien, cuando los lenguajes de dos comunidades difieren en alguna parte de
su estructura, habrá secuencias de palabras que expresen afirmaciones diferentes para los
miembros de dichas comunidades. Por tanto, una misma secuencia de palabras puede ser
candidato a verdadero/falso en un léxico y no serlo en el otro; además, en caso de que lo
sea, todavía podría diferir el resultado de su evaluación. "En la discusión entre miembros
de comunidades con léxicos estructurados de diferente manera, la asertabilidad y la
evidencia cumplen el mismo papel sólo en aquellas áreas (que siempre hay muchas) donde
sus léxicos son congruentes" (ibidem).
Por lo que se alcanza a ver, esta manera de concebir la verdad encajaría en la
familia de teorías deflacionarias (teorías de la redundancia, desentrecomilladoras,
minimistas, etc.), cuya idea básica común es que la verdad no tiene una estructura

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 159
160

"oculta" que debamos descubrir, o una naturaleza que requiera explicación. También
coincidiría con aquellas teorías deflacionarias donde la verdad no se considera como una
propiedad genuina o intrínseca de los enunciados. Esto es, la propuesta de Kuhn parece
encajar en una familia de teorías "débiles" -que un realista externalista como Devitt tilda
de "anémicas"- en cuanto se contraponen a las teorías que pretenden dar una explicación
de la supuesta naturaleza de la verdad, explicación que descansa en la relación que los
enunciados tienen con la realidad independiente. En las teorías débiles de la verdad
justamente se intenta evitar semejante tipo de compromisos metafísicos.
De aquí que la sugerencia de Kuhn, concebir la verdad como un juego de lenguaje,
y por tanto como léxicamente dependiente; resulte muy adecuada para un enfoque
internalista. Por una parte, nos permite abandonar el arraigado supuesto de que los enun-
ciados son en sí mismos verdaderos o falsos (el valor de verdad como una propiedad
intrínseca), supuesto que resulta incoherente con las tesis básicas de un realismo interno.
Pero además representa una ventaja adicional: nos permite recuperar la idea intuitiva de
verdad, es decir, la manera como de hecho entendemos y usamos esta noción, tanto en
los contextos cotidianos como en los científicos. Por esta vía, podríamos darle un lugar a
las pretensiones de verdad, las cuales juegan un papel clave en la evaluación de nuestros
juicios empíricos.
Con esto tocamos un punto neurálgico en la discusión del realismo, el problema de
dar cuenta de las pretensiones de verdad, problema señalado por Miguel Ángel Quintanilla
en la crítica que le hace a Putnam (cf. Quintanilla, 1994). Coincido con Quintanilla en que
el realismo interno de Putnam fracasa en dar cuenta de las pretensiones de verdad, tanto
del sentido común como de la práctica científica. Pero hay que decir que este fracaso sólo
se debe a la noción epistémica de verdad que Putnam adopta. La idea de "justificación en
condiciones epistémicas ideales" está muy lejos de reflejar lo que queremos decir cuando
afirmamos un enunciado como verdadero. Luis Villoro ha destacado esta cuestión con
mucha claridad: la pretensión de verdad no se debe confundir con la pretensión de
justificación universal. Una cosa es pretender que "si un enunciado es verdadero, el hecho
enunciado es", y otra, muy distinta, pretender que "nadie puede acceder a razones que
invaliden lo bien fundado de un enunciado" (Villoro, 1990, p. 83).
Las tesis ontológicas de un realismo internalista no implican una noción epistémica
de verdad como la de Putnam. Sólo excluyen la verdad como correspondencia metafísica,
pues ésta nos comprometería con un isomorfismo entre nuestras representaciones y la
realidad independiente, y por tanto con la idea de objetos autoidentificantes, de "cosas en
sí", que es incompatible con las tesis internalistas. En cambio, la propuesta de Kuhn,
además de embonar con estas tesis, permitiría incorporar las pretensiones de verdad al dar
cuenta de la función epistémica que cumple nuestra idea intuitiva de verdad. La intuición
básica de que el mundo no es una pura creación mental se refleja en el hecho de que el
objeto intencional de nuestros juicios empíricos, aquello a lo que apuntan, es la realidad
independiente. Ahora bien, esta dirección o intencionalidad de nuestros juicios es lo que

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 160
161

está en la base de la exigencia de aceptarlos o rechazarlos frente a la evidencia disponible,


exigencia que justamente quedaría recuperada en un juego de lenguaje como el que Kuhn
esboza.
Un realismo internalista que no le pida más a la noción de verdad, como sería el
realismo de Kuhn bajo esta interpretación, puede muy bien aceptar que las pretensiones
de verdad rebasan el terreno epistémico -el ámbito de las razones- y revelan un com-
promiso ontológico por parte de los sujetos. Por tanto, puede responder a la exigencia de
reconocer la importancia y el sentido que de hecho tiene '"la pretensión de representar
una realidad independiente de nuestras propias representaciones" (Quintanilla, 1994, p.
29). Como bien señala Quintanilla, un enfoque pragmático, como es el del realismo
interno, debería incluir este reconocimiento. Todo parece indicar, entonces, que una
noción débil y conceptualmente relativa de verdad, del estilo de la que Kuhn delineó en sus
últimos trabajos, permite configurar una versión más coherente y prometedora de la
perspectiva internalista.

VIII. OTROS MODELOS DE CAMBIO CIENTÍFICO

SUPUESTOS COMUNES
Como dijimos en el primer capítulo al referirnos a la "nueva" filosofía de la ciencia,
en los años sesenta se conforma un enfoque alternativo a la concepción hasta entonces
dominante, que introduce un "giro histórico" en el análisis de la ciencia. Este movimiento
fue impulsado de manera decisiva por los trabajos de Hanson, Toulmin, Feyerabend y
Kuhn (quien resulta ser la figura más influyente). En los años setenta aparecen las
contribuciones de una nueva generación de filósofos de la ciencia: Imre Lakatos, Larry
Laudan, Wolfgang Stegmüller, Dudley Shapere y Mary Hesse, entre los principales, quienes
elaboran modelos para el desarrollo científico tomando como principal marco de referencia
el modelo de Kuhn (ya sea que dichos autores adopten, elaboren, modifiquen o rechacen
ciertos supuestos del modelo kuhniano, este modelo está en el trasfondo de sus
respectivas propuestas).
A continuación enlistamos una serie de tesis de carácter general, cada una de las
cuales reúne un acuerdo significativo entre los filósofos que se han ocupado del problema
del cambio en la ciencia. Como se verá en los modelos que consideraremos, estas tesis
adquieren pesos específicos diferentes e incluso algunas de ellas resultan una fuente de
controversia. De cualquier manera, aunque en sentido estricto no constituyan un común
denominador de los modelos de cambio científico propuestos hasta la fecha, estas tesis
reflejan algunos de los principales lineamientos dentro de los cuales se ha desarrollado la
investigación en este campo. Cabe advertir que si bien estas tesis ya han sido discutidas
desde la perspectiva del análisis que aquí hemos hecho del modelo de Kuhn, resulta
conveniente recapitularlas y tenerlas presentes como parámetros, o puntos de referencia,
en el examen de modelos alternativos.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 161
162

1) La historia de la ciencia es la principal fuente de información para construir y


evaluar los modelos sobre el cambio científico. Esto es, los modelos que intentan dar
cuenta de la dinámica científica deben estar respaldados por estudios históricos de cómo
se han desarrollado las diversas disciplinas, y estar sujetos a contrastación empírica (Kuhn
y Feyerabend son los principales responsables de este giro histórico y empírico en la
filosofía de la ciencia).
2) No hay una única manera de organizar conceptualmente la experiencia. Si bien
se reconoce la importancia fundamental de la experiencia en la adquisición de
conocimiento, se insiste en que la mayor parte de la investigación científica consiste en un
intento por comprender la naturaleza en términos de alguna estructura teórica
presupuesta. De aquí que se afirme que no hay percepciones puras, neutras,
independientes de las perspectivas teóricas locales.
3) Las teorías científicas se construyen y desarrollan dentro de marcos generales de
investigación. Estos marcos están conformados por una serie de presupuestos que
establecen los compromisos básicas en una disciplina o especialidad científica. Entre ellos
figuran los compromisos ontológicos, conceptuales, epistémicos, metodológicos,
instrumentales y pragmáticos. Este marco de supuestos previos hace posible, y a la vez
constriñe, el desarrollo de las teorías. Si bien la caracterización de estos marcos de
investigación varía entre los distintos teóricos de la ciencia (paradigmas, programas de
investigación, tradiciones científicas, teorías globales, etc.), hay un acuerdo en
considerarlos como las unidades básicas del análisis metacientífico.
4) Los marcos de investigación también cambian. Si bien se trata de estructuras de
presupuestos que, por lo regular, tienen una vida media más larga que las teorías e
hipótesis empíricas con ellos asociadas, sin embargo ninguno de sus componentes tiene un
carácter permanente o absolutamente estable. De aquí la preocupación por elaborar
modelos que den cuenta de los cambios más profundos, y a más largo plazo, que ocurren
en el nivel de los presupuestos o compromisos básicos.
5) La ciencia no es una empresa totalmente autónoma. No sólo los procesos de
construcción de hipótesis y teorías están sujetos a la influencia de factores "externos"
(factores del ámbito psicológico, social, ideológico, etc.). Dado que no hay procedimientos
algorítmicos para la comparación de teorías rivales, el proceso de elección de teorías está
subdeterminado par la evidencia disponible y los estándares de evaluación aceptados en
cada contexto. Esta subdeterminación da lugar a que diversas consideraciones -que
pueden ser externas- influyan en las decisiones de los especialistas frente a teorías
alternativas, generando desacuerdos y controversias. De aquí el interés creciente de los
metodólogos por explicar cómo se forman nuevos consensos en la ciencia. Y de aquí
también la defensa de diversos tipos de relativismo.
6) El desarrollo científico no es acumulativo ni lineal. Como por regla general las
teorías rivales no resuelven exactamente los mismos problemas, casi siempre la aceptación
de una de ellas trae consigo pérdidas explicativas. De aquí que la noción de progreso

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 162
163

científico se deba desligar de la idea de acumulación. Por otra parte, como también puede
ocurrir que los desacuerdos respecto de enfoques teóricos alternativos desemboquen en
una fragmentación de la comunidad profesional, dando lugar al surgimiento de nuevas
especialidades, el desarrollo de la ciencia tampoco es lineal.
7) La racionalidad científica no se puede caracterizar "a priori ". Como los cánones
de evaluación y procedimiento no son autónomos, dado que ellos mismos han sufrido
transformaciones come resultado de la dinámica de las diversas disciplinas, se considera
que sólo an análisis de esta dinámica nos puede permitir elucidar el tipo de racionalidad
que opera en la actividad científica. El carácter no autónomo de los estándares epistémicos
ha conducido a un movimiento de naturalización de la epistemología, en que ésta se
vincula con -o incluso se sustituye por- teorías empíricas sobre los procesos cognitivos
(según se conciban estos procesos, se propone a la psicología, la sociología, la biología,
etcétera).
8) Los modelos del cambio científico no tienen una base neutral de contrastación.
Como se considera que la base para evaluar los modelos metodológicos es la historia de la
ciencia, y como no hay una historiografía de la ciencia que sea metodológicamente neutral
(toda reconstrucción histórica parte de ciertos supuestos sobre la naturaleza del quehacer
científico), se plantea el problema de una circularidad que aparentemente viciaría la
evaluación. De aquí la necesidad de elucidar las relaciones entre historia y filosofía de la
ciencia, relaciones que han sido muy discutidas en el nivel del análisis metametodológico.
En este última capítulo presentamos, a grandes trazos, algunos de los modelos más
citados en la bibliografía sobre desarrolla científico. Los modelos propuestos por Lakatos y
Laudan se examinan con un poco más de detenimiento, y sólo se señalan los aspectos más
originales de los modelos de Feyerabend, Shapere y Stegmüller. Al final destacamos los
principales puntos de acuerdo y desacuerdo entre estos modelos, haciendo un balance del
estado actual de la discusión. Aunque aquí no examinaremos en detalle estas valiosas
contribuciones, consideramos que el anterior análisis del modelo de Kuhn -en que
exploramos las diversas implicaciones de sus tesis sobre el cambio científico- puede servir
como base para adentrarse en el estudio de modelos que, de una u otra manera, lo toman
como marco de referencia.

EL MODELO DE LAKATOS
Imre Lakatos (1922-1974) propone su modelo con el propósito de reconstruir la
historia de la ciencia como un progreso racional. De aquí que su modelo tenga un doble
objetivo: servir como instrumento para la evaluación del carácter científico y racional de los
sistemas conceptuales, y como herramienta para la reconstrucción histórica del cambio y
desarrollo de dichos sistemas. La propuesta de Lakatos (desarrollada en Lakatos, 1970, y
1971) surge dentro de una perspectiva epistemológica popperiana, y comparte con ésta
los siguientes supuestos: el carácter falible de todo conocimiento, la importancia de
establecer un criterio de demarcación entre ciencia y no ciencia, el desarrollo del

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 163
164

conocimiento como problema central de la epistemología, el carácter autónomo de ésta


("epistemología sin sujeto cognoscente"), y el compromiso con un método semánticamente
neutral para comparar sistemas conceptuales distintos. Sin embargo, la influencia de las
tesis de Kuhn -por demás notoria- aparta esta propuesta metodológica de la de Popper en
aspectos centrales.
Para Lakatos la evaluación de las teorías científicas es también una cuestión
histórica y comparativa. Dado que las teorías no se pueden poner a prueba de manera
aislada, ni considerando sólo momentos puntuales de su desarrollo, es necesario partir de
unidades de análisis más amplias y complejas que las teorías consideradas en lo individual.
Estas unidades son los "programas de investigación científica", los cuales pueden ser
juzgados como "progresivos" o "degenerativos", como compitiendo entre sí, y como la
base para decidir sobre la racionalidad de una empresa científica particular. Las teorías
específicas surgen y se desarrollan como versiones sucesivas de estos programas de
investigación, de tal manera que cada programa se plasma en una serie de teorías que
evolucionan a lo largo del tiempo.
Cada programa de investigación científica (PIC, en adelante) está caracterizado por:
1) un "núcleo" (hard core) de leyes y supuestos fundamentales, que se considera inmune a
la refutación por decisión metodológica de los especialistas; 2) un "cinturón protector"
(protective belt) de hipótesis auxiliares, que está sujeto a revisión y debe recibir el impacto
de los resultados de las contrastaciones, y 3) una "heurística" o conjunto de reglas
metodológicas que guían a los científicos sobre qué caminos deben evitar (heurística
negativa) y qué caminos deben seguir (heurística positiva), tanto para resolver las
dificultades a que se enfrentan las teorías como para aumentar su contenido empírico.
Para que un PIC se pueda desarrollar es necesario proteger el núcleo que contiene
las ideas que lo identifican, sobre todo en las primeras etapas de su crecimiento. La
heurística negativa, entonces, prescribe que la evidencia en contra (las anomalías) se
desvíe hacia las hipótesis auxiliares. La heurística positiva complementa a la negativa
sugiriendo cómo modificar, enriquecer o desarrollar las hipótesis refutables del cinturón
protector, con el fin de ampliar el contenido empírico del programa. De esta manera, la
sucesión de teorías que constituye un PIC presenta dos características: a) cada teoría
conserva el núcleo de supuestos básicos, y b) cada teoría surge de su predecesora
mediante la aplicación de los lineamientos heurísticos. No sólo el núcleo sino también la
heurística permanecen sin cambios a lo largo de la vida de un programa.
La evaluación de un PIC consiste en considerar la serie de teorías a que da lugar y
determinar si ésta ha conducido a nuevas predicciones. Cuando las teorías posteriores
tienen mayor alcance, es decir, cuando explican más de lo que explicaban sus
predecesoras, el PIC es teóricamente progresivo y, por tanto, científico. Para Lakatos el
incremento de información empírica es el rasgo distintivo de los PlC auténticamente
científicos. Ahora bien, cuando además queda corroborado dicho excedente de información
(al menos en parte), se puede afirmar que el PIC es empíricamente progresivo. De lo

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 164
165

contrario, se considera degenerativo.


Según Lakatos, una teoría de una serie se considera "refutada" sólo cuando es
reemplazada por otra teoría con mayor contenido empírico corroborado. En la
contrastación de una teoría, los casos decisivos son aquellos que corroboran su excedente
de información. Como se puede ver, Lakatos utiliza el término 'refutación' de manera
peculiar; a diferencia del uso tradicional, la evidencia en contra, por bien establecida que
esté, no es una condición suficiente para eliminar una teoría. Retomando la línea de crítica
de Kuhn a Popper, Lakatos afirma que las teorías de un PIC se enfrentan a múltiples
anomalías todo el tiempo, y sostiene que estas anomalías se vuelven decisivas sólo cuando
en el PIC se han dejado de predecir nuevos tipos de fenómenos, esto es, cuando el cambio
de teorías ha entrado en una fase degenerativa.
La historia de la ciencia, según la concepción de Lakatos, ha sido y debe ser una
historia de programas de investigación en competencia; pero entonces se plantea el
problema de cómo se eliminan los PIC. La respuesta de este autor es que un PlC se aban-
dona cuando además de haber entrado en una fase degenerativa tiene un rival que es
empíricamente progresivo. Sin embargo, en el cambio de un PIC por otro se presentan
serias dificultades que no surgen en el cambio de teorías dentro de un mismo PIC (donde
la eliminación de una teoría por otra es un proceso relativamente rutinario). Por un lado, el
carácter empíricamente progresivo de un PIC no es algo que se pueda determinar de
manera inmediata; la verificación de las predicciones novedosas puede tomar un tiempo
considerable. Por otro lado, siempre es posible que un PIC. que se encuentra en una fase
degenerativa se recupere gracias a ingeniosas y afortunadas hipótesis auxiliares, que
transformen las anomalías en casos corroboradores del programa. De aquí la importancia
de la tolerancia metodológica y el rechazo de la "racionalidad instantánea". Sólo a
posteriori se puede distinguir una simple anomalía de un auténtico contraejemplo y
reconocer qué experimentos tienen un carácter crucial. Un PIC triunfa sobre otro sólo
después de un prolongado periodo de desarrollo desigual (progresivo en un caso y
degenerativo en el otro), periodo que puede tomar decenas de años. Pero Lakatos no
establece ningún límite temporal.
Si el conocimiento crece por la eliminación de los programas degenerativos en favor
de los progresivos, el juicio sobre la racionalidad del cambio científico sólo puede ser
retrospectivo. Esta metodología es normativa en el sentido de que supuestamente permite
afirmar de ciertos episodios científicos que no deberían haber seguido el camino que de
hecho siguieron, pero no permite evaluar los programas actualmente en competencia,
pues no se puede establecer el curso que éstos seguirán en adelante. Por otra parte, la
afirmación de que cierto episodio de investigación no debió seguir el curso que de hecho
siguió, y que si lo hizo fue por la intervención de factores "externos", supone la distinción
que Lakatos establece entre historia interna e historia externa. Para Lakatos la historia
interna debe excluir todos los factores psicológicos y sociales. Debe ser la historia del
desarrollo de las ideas que tiene lugar en el mundo del conocimiento articulado, el cual es

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 165
166

independiente de los sujetos que producen el conocimiento. En suma, debe ser la historia
de programas de investigación anónimos y autónomos. El cambio científico (el paso de un
PIC a otro) se considera racional cuando obedece sólo a razones de tipo interno, que en
idea de este autor son las razones objetivas.
En cuanto al problema de cómo evaluar los diversos modelos del desarrollo
científico (la evaluación metametodológica), Lakatos, en total acuerdo con el giro histórico
iniciado por Kuhn, sostiene que la historia de la ciencia constituye su base de contras-
tación. Una teoría de la ciencia (una metodología) que no tenga adecuación histórica no
puede ser aceptada. Y la mejor metodología será entonces aquella que reconstruya como
racionales una mayor cantidad de episodios de la historia de la ciencia. Sin embargo, este
criterio metametodológico parece implicar una circularidad. Se apela a la historia de la
ciencia como piedra de toque para comparar metodologías rivales, pero el problema es que
no hay una historia de la ciencia que sea metodológicamente neutral. Lakatos reconoce
esta dificultad y propone tomar como punto de partida las valoraciones, los juicios, que
hace la élite científica sobre ciertos episodios concretos, para proceder a construir una
teoría general que dé cuenta de los episodios así valorados. La teoría de la racionalidad
resultante deberá permitir la valoración de nuevos casos, e incluso puede conducir a la
revisión de juicios previamente aceptados. De aquí que Lakatos considere que la
evaluación de metodologías alternativas es un procedimiento básicamente análogo al que
tiene lugar en la ciencia cuando se evalúan programas de investigación en competencia.

EL MODELO DE LAUDAN

El modelo de cambio científico propuesto por Larry Laudan es un modelo que parte
de la idea de que el objetivo de la ciencia es obtener teorías altamente eficaces en la
solución de problemas. Por tanto, la ciencia progresa en la medida en que las teorías suce-
soras resuelven más problemas que sus antecesoras. Laudan considera que cualquier
modelo de desarrollo que pretenda dar cuenta de la ciencia como una empresa progresiva
y racional debe reconocer ciertos rasgos del cambio científico que la historia de la ciencia
nos muestra como persistentes, a saber:
-los cambios de teoría son, por lo general, no acumulativos;
-las teorías no se rechazan simplemente por la presencia de anomalías, ni se
aceptan tan sólo por haber sido empíricamente confirmadas;
-los debates en los cambios de teoría se centran, con frecuencia, en cuestiones
conceptuales y no en cuestiones de apoyo empírico;
-los criterios utilizados por los científicos al evaluar las teorías (que Laudan llama
"principios locales de racionalidad") han cambiado considerablemente a lo largo del
desarrollo científico;
-los estándares de evaluación varían considerablemente de acuerdo con los distintos
niveles de generalidad que presentan las teorías;

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 166
167

-la aceptación o el rechazo no son las únicas actitudes cognoscitivas hacia las
teorías, existe una gama más amplia de actitudes epistémicas;
-la coexistencia de teorías rivales es la regla más que la excepción; por tanto, la
evaluación de teorías es, básicamente, una cuestión comparativa;
-resulta poco plausible que la caracterización del progreso en función de objetivos
trascendentes (como la verdad) permita reconstruir la ciencia como una actividad racional.
La propuesta de Laudan, en consecuencia, intenta responder al desafío de ofrecer
un modelo que incorpore estos rasgos de la ciencia efectiva (en Laudan, 1977, 1981, y
1984, se desarrolla este programa metodológico).
Laudan también considera que limitar nuestra atención a las teorías -entendidas a la
manera tradicional- nos impediría tomar en cuenta los compromisos más básicos, y a largo
plazo, que son un componente central de toda investigación científica. Las teorías son
versiones específicas de visiones más fundamentales acerca del mundo, y la manera en
que se desarrollan y cambian cobra sentido sólo cuando se analizan a la luz de sus
presupuestos más básicos. Laudan llama "tradiciones de investigación" (TI), en adelante)
al conjunto de compromisos compartidos por una familia de teorías. Una TI incluye: 1) una
ontología (un conjunto de supuestos generales acerca de la clase de entidades y procesos
que integran el dominio de investigación); 2) una metodología (un conjunto de normas
epistémicas y metodológicas acerca de cómo investigar ese dominio, cómo poner a prueba
las teorías, qué cuenta como evidencia, cómo modificar las teorías que estén en
dificultades, etc.), y 3) una especificación de los objetivos cognitivos (como por ejemplo, el
de restringirse a enunciados sobre propiedades manifiestas y a teorías inducidas por ellos,
objetivo predominante en la "filosofía experimental" del siglo XVIlI).
Aunque las TI son las unidades que persisten a través del cambio de teorías, las
mismas TI pueden ser abandonadas. La evaluación tanto de las teorías como de las TI
depende fundamentalmente de su eficacia en la resolución de problemas. Los problemas
que han de ser resueltos son básicamente de dos tipos: empíricos y conceptuales. Entre
los problemas empíricos Laudan distingue: problemas potenciales, problemas resueltos y
problemas anómalos. Los problemas potenciales, o "no resueltos", son los hechos
conocidos acerca de los cuales no hay, hasta el momento, ninguna explicación; los
problemas resueltos, o "reales", son las afirmaciones acerca del mundo que han sido
explicadas por alguna teoría viable, y los problemas anómalos, en relación con una teoría,
son problemas que ella no resuelve pero que una teoría rival, que es viable, sí lo hace. Los
problemas conceptuales son los problemas que se le presentan a una teoría T en las
siguientes circunstancias: cuando T es internamente inconsistente o encierra
ambigüedades conceptuales; cuando T entra en contradicción con otras teorías, con los
principios metodológicos o con los supuestos metafísicos prevalecientes; cuando T no
utiliza conceptos de teorías más generales a las que supuestamente está lógicamente
subordinada.
En el modelo de solución de problemas, la eliminación de problemas conceptuales

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 167
168

es tan constitutiva del progreso como el lograr un creciente apoyo empírico. Laudan llega a
afirmar que es posible que el cambio de una teoría por otra que tiene menos apoyo
empírico sea un cambio progresivo, cuando la segunda resuelve dificultades conceptuales
de peso que la primera no ha podido resolver. El objetivo de la empresa científica es,
entonces, maximizar la esfera de los problemas empíricos resueltos, al mismo tiempo que
se minimiza la esfera de los problemas anómalos y conceptuales. Como en este modelo se
rompe de entrada la liga entre retención acumulativa y progreso, resulta necesario
elaborar una forma de medida que compare ganancias contra pérdidas. Pero esto requiere,
a su vez, determinar no sólo el número sino también la importancia de los distintos tipos
de problemas (lo cual supone una estimación de tipo cualitativo, cuestión por demás es-
pinosa y compleja, que se intenta elucidar en Laudan, 1977). Siguiendo esta vía, Laudan
propone el siguiente criterio de evaluación: la eficacia global de una teoría en la resolución
de problemas se determina estimando el número y la importancia de los problemas
empíricos que resuelve, y restando a esto el número e importancia de las anomalías y de
los problemas conceptuales que la teoría enfrenta.
Por otra parte, las actitudes cognoscitivas de aceptación o rechazo no son las únicas
que una metodología debe tomar en cuenta. Laudan afirma que los científicos, en muchas
ocasiones, consideran que una teoría merece mayor exploración y elaboración, aun cuando
no la acepten por el momento. La racionalidad de este tipo de actitudes se muestra
apelando a la tasa de progreso de una teoría, es decir, a la rapidez con que ha resuelto
ciertos problemas. Por ejemplo: una alta tasa inicial de progreso de una teoría puede
justificar que se trabaje en ella, a pesar de que su eficacia global para resolver problemas
sea menor que la de sus rivales más antiguas y mejor establecidas. La decisión de aceptar
una teoría depende de su eficacia global en la trayectoria seguida, la decisión de proseguir
en la investigación de una teoría depende de su tasa de progreso reciente, y ambas cosas
requieren de manera indispensable de la comparación con las teorías alternativas
existentes. De esta manera, la evaluación abarca tanto un componente retrospectivo como
uno prospectivo.
De acuerdo con el componente retrospectivo, una tradición de investigación es más
adecuada (más aceptable) que otra cuando el conjunto de sus teorías tiene una eficacia
global mayor que el conjunto asociado a la tradición rival. De acuerdo con el componente
prospectivo, una TI es más progresiva (más prometedora) que otra cuando su tasa de
progreso es mayor (donde la tasa de progreso de una TI se define como la diferencia
entre su adecuación en un momento t y su adecuación en un t anterior o inicial). Por
tanto, una TI puede ser menos adecuada que una tradición rival y, sin embargo, ser más
progresiva. La racionalidad estribaría, según Laudan, en proseguir la investigación de las
teorías más progresivas, y en aceptar sólo las teorías más adecuadas.
En Science aud values (1984), Laudan abandona el carácter hasta cierto punto
jerárquico de su propuesta anterior. De acuerdo con el nuevo modelo, de estructura
reticular, las tradiciones de investigación evolucionan de tal manera que las primeras y las

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 168
169

últimas versiones de una misma TI pueden tener muy pocos supuestos en común, si no es
que ninguno. Esto se explica por los patrones de dependencia mutua entre los distintos
niveles de evaluación, es decir, por las relaciones y acciones recíprocas entre teorías,
reglas metodológicas y objetivos cognitivos. Por ejemplo: el tipo de teorías que se esté
construyendo en un campo de investigación puede entrar en conflicto con los objetivos
vigentes y ocasionar cambios en el nivel axiológico. De acuerdo con el modelo reticular,
ningún nivel, en ningún momento de la evolución de una TI, es inmune a la crítica ni a la
revisión. A través de este proceso de interacción, una serie de cambios graduales puede
llegar a producir cambios profundos tanto en las creencias como en los estándares y
objetivos de una comunidad científica. Pero a pesar de que los componentes de una TI
forman una red interconectada, los cambios rara vez ocurren como una cuestión de todo o
nada, y tampoco tienen por qué implicar inconmensurabilidades globales. Como se puede
ver, en este enfoque de Laudan la línea divisoria entre evolución y revolución
prácticamente se desdibuja.
En el nivel metametodológico, en que se evalúan los distintos modelos de cambio
científico, la propuesta de Laudan en Progress and its Problems (1977, capítulo V) coincide
en aspectos importantes con la de Lakatos. Además de aceptar el giro histórico, conside-
rando que las propuestas metodológicas deben ponerse a prueba contra el registro
histórico de las ciencias, Laudan supone que existe un conjunto de casos del desarrollo de
la ciencia acerca del cual las personas científicamente educadas -no sólo la élite científica-
tienen fuertes y similares "intuiciones normativas" (por ejemplo: este tipo de personas
concuerdan en que era racional aceptar la mecánica newtoniana y rechazar la mecánica
aristotélica alrededor de 1800). Estas intuiciones normativas predominantes establecen los
casos estándar o prototípicos de racionalidad científica, y son el punto de partida para
poner a prueba los modelos metodológicos en competencia. Dado un conjunto de casos
estándar, los diversos modelos se juzgan por su capacidad para reconstruirlos como
racionales. El modelo que resulte más adecuado se utiliza entonces para interpretar y
evaluar el resto de episodios de la historia de la ciencia. Esta propuesta metametodológica
de Laudan combina aspectos descriptivos y normativos, intentando evitar los extremos de
un normativismo apriorista (indiferente a la historia de la ciencia) y de un relativismo
histórico radical (que cancela toda función crítica al análisis filosófico de la ciencia).
Cabe señalar que Laudan, en trabajos posteriores (1986, 1987), abandona este
"intuicionismo metametodológico" y emprende un nuevo programa, el "naturalismo
normativo", en el que desarrolla un intento de naturalización de la metodología que no de-
penda de nuestros juicios intuitivos sobre la racionalidad de casos ejemplares (juicios que
pueden tener infiltrados factores externos, psicológicos o sociales). En su lugar, se subraya
el papel de la evidencia como piedra de toque de la evaluación comparativa y aceptación
de las teorías científicas, lo cual ha replanteado el problema de la relación entre teoría y
experiencia. La evidencia, en el naturalismo normativo, es el eje de una epistemología
cuyo objetivo es dar cuenta de la confiabilidad del conocimiento científico, ya que

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 169
170

progresamos en la medida que nuestro conocimiento es más confiable (cf. Laudan, 1990).
Por otra parte, desde el naturalismo normativo, Laudan ha reforzado su ataque a las
posiciones relativistas de la corriente historicista o pospositivista, encabezada por Kuhn y
Feyerabend (en "La amenaza del relativismo", capítulo VI, discutimos las críticas al
relativismo kuhniano, las cuales se condensan en Laudan, 1996, capítulo 1).

EL MODELO DE FEYERABEND

Con respecto al modelo de Paul Feyerabend (1924-1994), nos limitaremos a señalar


algunas de sus tesis más originales, sobre todo aquellas que más han contribuido a
enriquecer -y atizarla discusión sobre el cambio científico. Feyerabend centra el problema
del cambio científico en el cambio semántico (Feyerabend, 1965, 1970a, y 1970b).
Propone como unidades de análisis las "teorías globales" (teorías muy comprehensivas,
que dependen fuertemente de supuestos metafísicos), y afirma que cuando se acepta una
nueva teoría global, en un cierto campo de investigación, cambian los significados de los
términos cotidianos y observacionales utilizados en dicho campo. De aquí que un cambio
de teoría global conduzca, por lo general, a la reinterpretación de la experiencia a la luz de
las categorías conceptuales de la nueva teoría. Como incluso se reinterpreta aquello que
contaba como evidencia en favor de la teoría anterior puede resultar que desde la nueva
perspectiva se le considere como evidencia en contra.
Dado que este proceso Ileva tiempo, pues entre otras cosas requiere de la
articulación de un buen número de teorías colaterales auxiliares, la nueva teoría, en su
etapa inicial, nunca puede tener el grado de apoyo empírico alcanzado por su rival más
antigua. Si esto es así, para que las nuevas teorías tengan la oportunidad de llegar a ser
aceptadas han de ser evaluadas con criterios distintos de los que se aplican a las teorías
mejor desarrolladas. Las nuevas teorías ganan adeptos más por la propaganda de sus par-
tidarios que por la razón de que estén bien contrastadas o mejor apoyadas que sus rivales.
La aceptación de las teorías globales depende, en parte, de las preferencias subjetivas de
los científicos: la elección entre teorías que son lo suficientemente generales como para
darnos una visión global del mundo, y que además están empíricamente desconectadas
entre sí (dada la reinterpretación que sufre la experiencia), puede Ilegar a ser una cuestión
de gusto o preferencia personal.
De esta manera, la relación entre teorías globales en competencia es una relación
de inconmensurabilidad radical. Dado que sus respectivos conjuntos de consecuencias
contrastables pueden Ilegar a ser ajenos -en vista de que el cambio semántico afecta to-
dos sus conceptos-, resulta imposible la comparación de dichas teorías, al menos con los
métodos de comparación propuestos en la filosofía tradicional de la ciencia, los cuales se
basan en última instancia en el examen de consecuencias empíricas comunes. Como no
puede haber métodos de evaluación y comparación de teorías que sean semánticamente
neutrales, Feyerabend concluye que ningún método es universalizable, y mejor para la

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 170
171

ciencia que así sea.


De la misma manera en que las crisis ecológicas favorecen las mutaciones, las crisis
y revoluciones en el desarrollo de la ciencia modifican y multiplican los estándares de
evaluación, incluyendo los modelos de argumentación. Este cambio y proliferación de los
métodos aumenta el poder de adaptación de la ciencia, y resulta ser condición
indispensable de su progreso. El anarquismo metodológico defendido por Feyerabend -en
el sentido de que el compromiso con normas inflexibles frustraría toda perspectiva de
progreso en la ciencia- da lugar a ciertas recomendaciones que pretenden favorecer el
desarrollo científico, como por ejemplo que la mejor manera de abordar un dominio de
investigación en el que impera una teoría global es inventando y proponiendo teorías
alternativas, ya que con frecuencia las pruebas más duras para una teoría sólo se diseñan
después de que se ha formulado una teoría competidora. El famoso "todo se vale" de
Feyerabend se traduce en un principio de proliferación de teorías, como un poderoso
motor de progreso.
La "ciencia normal" kuhniana es un mito según este autor. El crecimiento del
conocimiento resulta de la competencia incesante entre diversos puntos de vista
defendidos tenazmente. Proliferación y tenacidad coexisten en todos los periodos. Si bien
esto marca un acuerdo básico con Lakatos, en contra de Kuhn, Feyerabend por otra parte
niega el carácter acumulativo de cualquier cambio teórico, como sostiene Lakatos en
relación con los cambios de teoría que se dan dentro de un mismo programa de inves-
tigación. Según Feyerabend, lo usual en la historia de la ciencia es que cuando se sustituye
una teoría por otra haya pérdidas explicativas.

EL MODELO DE SHAPERE

Dudley Shapere rechaza los intentos de analizar el cambio científico en términos


semánticos -de significados y referencias- y propone un modelo basado en la noción de
"buenas razones" (Shapere, 1984, y 1989). El problema de la comparación de teorías
requiere que antes se resuelva el problema de la continuidad entre teorías sucesivas.
Shapere propone establecer esta continuidad por medio de "cadenas de razonamientos", y
aplica esta propuesta no sólo al cambio de teorías sino al cambio científico en general.
Según este autor, no hay ningún presupuesto de la investigación científica que sea
inviolable, esencial o universalmente aceptado, y una teoría filosófica de la ciencia debe
mostrar que el cambio científico -incluyendo el cambio en los criterios básicos de eva-
luación- es un proceso racional. La racionalidad de un cuerpo de creencias (tanto
científicas como metacientíficas) se establece mostrando la existencia de una cadena de
razonamientos que conecta este cuerpo con sus versiones anteriores, esto es, mostrando
que cada paso en su génesis a partir de sistemas de creencias anteriores es un paso
(cambio) motivado por buenas razones.
Según Shapere, difícilmente se podría negar que la ciencia se ha vuelto cada vez

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 171
172

más autónoma, y trata de explicar esta tendencia a la autonomía proponiendo un modelo


que reconstruye el desarrollo científico como un proceso de internalización. De acuerdo
con este modelo, para que una creencia sustantiva funcione como una "buena razón"
(como un presupuesto científico legítimo) debe satisfacer los siguientes criterios: 1)
haberse mostrado exitosa (empíricamente adecuada en su dominio); 2) estar libre de
dudas específicas (ser consistente, compatible con otras creencias aceptadas, etc.), y 3)
ser relevante para el objeto de estudio. Ahora bien, estos mismos criterios son un producto
histórico y han sufrido alteraciones como consecuencia del curso de la investigación; ade-
más, su especificación está dada por la información disponible en cada contexto científico
particular.
Por tanto, existe una interacción dinámica continua entre los criterios y el cuerpo de
creencias que se acepta con base en esos criterios. El análisis de la historia nos muestra
que el desarrollo científico tiene un carácter autocorrectivo: los criterios de relevancia y
evaluación han sido, de hecho, revisados, refinados o abandonados a la luz de los
descubrimientos que ellos mismos han posibilitado. Si bien existen varios tipos de
situaciones en que resulta necesario utilizar consideraciones externas (como cuando surge
una nueva disciplina), el proceso de internalización las someterá, tarde o temprano, a los
procedimientos de revisión que esas mismas consideraciones ayudaron a establecer (un
análisis de este proceso de internalización se encuentra en Pérez Ransanz, 1986).
En la propuesta de Shapere se defiende la evolución y continuidad en el cambio
científico frente a la idea de revolución y discontinuidad. La concepción del cambio
científico como una cuestión global, de todo o nada, supone el carácter monolítico de los
contextos teóricos. Por contraste, en el modelo de Shapere el cambio en cada uno de los
componentes de un contexto de investigación ocurre contra el trasfondo de continuidad de
los otros componentes, trasfondo sin el cual no podría haber buenas razones para los
distintos cambios. El análisis del cambio en gran escala, el cual se presenta entre marcos
conceptuales que son muy distintos, consiste en reconstruir la serie de cambios parciales
que conducen de un marco a otro, y en determinar si cada uno de ellos se dio por buenas
razones. El problema del cambio científico no nos exige comparar directamente marcos
drásticamente distintos.

EL MODELO DE STEGMÜTLLER

Wolfgang Stegmüller (1923-1991) descubre en el trabajo de Joseph Sneed (1971)


una nueva concepción de las teorías científicas, además de un esbozo de la dinámica de
éstas que permitía -según este autor- formular de manera precisa algunas de las tesis de
Kuhn sobre el desarrollo científico. La concepción de Sneed sobre las teorías se apoya, a
su vez, en el enfoque formal iniciado por Patrick Suppes. En Estructura y dinámica de
teorías (1973) Stegmüller presenta el formalismo de Sneed utilizando una notación más
clara y simplificada, junto con una elucidación del desarrollo de las teorías basada en este

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 172
173

formalismo; también plantea agudas críticas a las concepciones del cambio científico de
Kuhn, Popper, Lakatos y Feyerabend. Stegmüller impulsa un programa de investigación
sobre las teorías científicas, la "concepción estructuralista", y tiene como principales
colaboradores a C. Ulises Moulines y Wolfgang Balzer, además del propio Sneed. Cabe
señalar que esta concepción se inscribe en el marco de una serie de trabajos orientados a
forjar un concepto de teoría empírica diferente del tradicional -no enunciativista-, dentro
del que también destaca la línea desarrollada por Bas van Fraassen (1980) (en Pérez Ran-
sanz, 1985a, se examina la propuesta de Van Fraassen y se establece una comparación
con la concepción estructuralista).
En opinión de Stegmüller, resultaba imprescindible construir un puente entre el
enfoque sistemático y el enfoque histórico de la ciencia que hiciera posible su
complementación y enriquecimiento. La base para construir este puente la encuentra justo
en el concepto de teoría acuñado por Sneed, pues según Stegmüller en el fondo de las
tesis de Kuhn subyace una concepción de las teorías distinta de la tradicional. Ahora se
sostiene que los elementos mínimos de una teoría empírica son sus modelos, y no sus
enunciados (tesis que es el común denominador de las propuestas alternativas). En la
concepción estructuralista, los modelos quedan caracterizados mediante un predicado
conjuntista que axiomatiza la teoría, caracterización que se da junto con los siguientes
supuestos: las teorías no tienen una aplicación única, "cósmica", sino distintas aplicaciones
o modelos que, en ocasiones, se superponen parcialmente; es importante distinguir entre
leyes y condiciones de ligadura (las primeras valen dentro de cada modelo, mientras que
las segundas establecen interconexiones entre los distintos modelos); existe una distinción
básica entre leyes fundamentales y leyes especiales (las primeras pertenecen al núcleo
estructural de una teoría y valen en todas sus aplicaciones, mientras que las segundas sólo
valen en algunas de ellas); por último, en toda teoría T hay dos niveles conceptuales, el T-
teórico y el Tno-teórico (el primero es el de los conceptos cuya aplicación o determinación
presupone las leyes de T, y el segundo el de los conceptos independientes de T). Una
exposición clara e intuitiva de la concepción estructural se encuentra en Moulines (1982,
sobre todo en 2.2 y 2.4).
De acuerdo con Stegmüller, esta forma de concebir las teorías permite, entre otras
cosas, introducir de una manera natural un concepto preciso que corresponde a la noción
kuhniana de "ciencia normal", y entender sus principales características, disipando la
apariencia de irracionalidad que rodeaba esta noción. También permite formular un
concepto de progreso que cubre los casos revolucionarios, es decir, los casos en que una
teoría es desplazada por otra cuyo aparato conceptual es distinto (cf. Stegmüller, 1976). Si
bien la concepción estructuralista no es la primera ni la única que ha propuesto un modelo
formal para dar cuenta del cambio científico (están también los modelos de Niiniluoto,
Toumela, Nowak, Rantala, Scheibe, Przelecki, etc.), es la primera que ha suscitado una
respuesta favorable por parte de la figura más destacada del enfoque histórico. Los
comentarios de Kuhn a la propuesta de Sneed-Stegmüller (en Kuhn, 1976), muestran en

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 173
174

detalle el valor que puede tener una reconstrucción formal como ésta -que sea
suficientemente rica desde el punto de vista lógico y que dé un lugar a los factores de tipo
pragmático- como herramienta de análisis de la dinámica de las teorías.
Balzer, Moulines y Sneed, en An Architectonic for Science (1987), presentan la
versión más acabada que se ha elaborado hasta ahora de la concepción estructuralista. En
cuanto al análisis diacrónico de la ciencia, desarrollan el concepto de "evolución teórica", al
cual consideran como el punto de partida de cualquier análisis que intente ocuparse de los
factores históricamente responsables de los cambios que sufren las teorías (de la misma
forma en que, en un estudio mecánico de la naturaleza, el análisis dinámico debe estar
precedido por una descripción cinemática precisa). También se refieren estos autores a
otros tipos de fenómenos diacrónicos que caen fuera de la evolución de una teoría: el
surgimiento de una primera estructura conceptual (paradigma) en un campo de
investigación; el surgimiento gradual de un paradigma cuando el anterior ha declinado
tiempo atrás y transcurre un periodo de desorganización en la disciplina; el surgimiento
repentino de un nuevo paradigma que trae consigo el rechazo del anterior; y el cambio de
un paradigma por otro que tiene mejores perspectivas de éxito, cuando esto no implica un
rechazo completo del paradigma anterior sino, más bien, el intento de recuperarlo como
una buena aproximación del nuevo. De todos estos casos de cambio científico, que no se
pretende que sean exhaustivos, los autores reconstruyen formalmente el último y
muestran cómo funciona en algunos ejemplos. Con respecto a los otros casos de "cambio
profundo" en la historia de la ciencia, consideran que su comprensión requiere que antes
se elucide con precisión la estructura de los "cambios pequeños" --como son la evolución
teórica o la aproximación entre teorías-, tarea que llevan a cabo en esta obra.

ESTADO ACTUAL DE LA DISCUSIÓN

En relación con las unidades de análisis, se observa un amplio acuerdo en que la


comprensión del cambio científico requiere tomar en cuenta el marco de supuestos básicos
dentro del cual se desarrolla la actividad científica, pero existen discrepancias sobre la
estructura y el funcionamiento de estos marcos. Ciertamente, predomina la tendencia a
considerar que hay una relativa independencia entre los diversos componentes de un
marco de investigación, la cual permite que los cambios sean locales, a la vez que se
debilita la idea de estructuras rígidas de supuestos -monolíticas- que se sustituyen
globalmente (como una cuestión de todo o nada). También se ha fortalecido la tendencia a
considerar que los marcos de investigación tienen una estructura reticular, donde
interactúan teorías, objetivos y métodos, modificándose unos a otros a lo largo del proceso
de desarrollo de una disciplina, frente a la idea de que los marcos tienen un estructura
jerárquica, en que cierto núcleo de supuestos se mantiene sin cambios mientras el
programa o tradición de investigación esté vigente.
En cuanto al problema de la evaluación, se observan acuerdos significativos

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 174
175

alrededor de los siguientes puntos: las teorías no se eliminan por la mera presencia de
anomalías (las teorías se enfrentan con dificultades empíricas todo el tiempo); la
aceptación de las teorías involucra más factores que su mera relación con lo que cuente
como evidencia empírica (el tipo de factores que puede incidir varía ampliamente en los
distintos modelos); la evaluación es una cuestión básicamente comparativa, tanto en el
nivel de las teorías como en el nivel de los programas o tradiciones de investigación; los
estándares de evaluación sufren transformaciones considerables como resultado de la
dinámica interna de las disciplinas, y difieren de una disciplina a otra (aunque algunos au-
tores dirían que no sólo como resultado de la dinámica interna).
Sin embargo, hay muy poco acuerdo en la forma como los distintos modelos
reconstruyen la relación entre teorías rivales. Esta falta de acuerdo obedece, sobre todo, a
las diferencias en cuanto al tipo de continuidad que se puede establecer entre sistemas
conceptuales sucesivos o rivales, y por tanto, en cuanto a la naturaleza (gradual o
discontinua) del cambio teórico. Aquí encontramos una variada gama de posiciones que va
desde la tesis de inconmensurabilidad radical de Feyerabend (que implica la intersección
vacía entre teorías rivales y la imposibilidad de compararlas con métodos que supongan
una base semántica común), hasta la tesis de Stegmüller del desplazamiento progresivo de
teorías rivales (que implica la "inmersión o reducción aproximada" de una teoría en otra y
la posibilidad de comparar estructuras conceptuales completamente heterogéneas).
En estrecha relación con estas diferencias, encontramos autores que siguen
pensando que la comparación de teorías exige una base semántica común, al menos
parcial, mientras que otros sostienen que la comparación de teorías se puede establecer -
independientemente de que se acepte o no la tesis de inconmensurabilidad- mediante
criterios o procedimientos no semánticos, es decir, que no dependen de la posibilidad de
traducción interteórica. Como por ejemplo, las "cadenas de razonamientos" de Shapere,
las "buenas razones" de Kuhn, la "eficacia en la solución de problemas" de Laudan, o la
"relación de reducción" entre estructuras conceptuales de distinto tipo, que propone
Stegmüller. Y sigue abierta la discusión de hasta qué punto cada una de estas propuestas
permite superar o eludir el problema de la inconmensurabilidad.
Con respecto al problema de la racionalidad, hay un acuerdo creciente en que no
contamos con principios epistemológicos autónomos o categóricos. La racionalidad de los
cambios de creencias, prácticas o valores que ocurren en la ciencia se debe establecer en
relación con los distintos contextos de investigación. Sin embargo, este amplio acuerdo
viene acompañado por una variedad de maneras de interpretar la naturaleza dependiente
(no autónoma) de la epistemología, y por lo tanto de la filosofía de la ciencia. Según se
considere con qué ciencias empíricas está vinculado el análisis epistemológico y
metodológico, y según se conciba ese vínculo (complementación, presuposición,
continuidad, o incluso reducción), el análisis de la dinámica científica adquiere
características diferentes. De esta manera, los modelos ofrecen distintos tipos de
respuestas a cuándo un cambio de supuestos o de teorías resulta racional; qué tipo de

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 175
176

factores influyen de hecho en las decisiones de los científicos, y cuáles pueden intervenir
de manera legítima; hay o no una distinción viable entre factores internos y externos a los
contextos científicos, o bien, entre factores subjetivos y objetivos; y en caso afirmativo,
qué carácter tiene esta distinción, etcétera.
Por otra parte, la mayoría de los modelos de cambio científico se ha concentrado en
los cambios de fondo, o de largo alcance, que ocurren en el nivel de los supuestos básicos
(en las estructuras conceptuales, en los compromisos ontológicos, en los valores epis-
témicos, etc.), y se ha descuidado el análisis de los cambios cotidianos, en pequeña escala,
que ocurren en y con la evolución de las teorías sustantivas (cf. Laudan et al, 7986). En
este respecto, cabe señalar que el análisis kuhniano de la ciencia norrnal ofrece una lúcida
caracterización del tipo de desarrollos que tienen lugar en la investigación cotidiana
(aportación que sin embargo quedó opacada por lo revolucionarias que resultaron sus tesis
sobre el cambio revolucionario). En esta misma dirección, la concepción estructuralista se
ha ocupado de precisar un concepto de teoría que permite reconstruir los cambios que
puede experimentar una misma teoría en su evolución, así como el cambio de una teoría
por otra cuando entre ellas media una relación de aproximación, cambios que pueden
considerarse como cambios en pequeña escala.
Por último, el examen de los diversos modelos revela que la gran mayoría de
teóricos del cambio científico ha asumido que su tarea es encontrar un patrón básico y
general, al cual se ajusta el desarrollo de las disciplinas científicas (objetivo que también
opera en los intentos de explicar el cambio y aceptación de creencias sólo por factores
causales, privilegiando alguna ciencia empírica). Ciertamente, algunos de estos teóricos
reconocen que sus modelos sólo tienen una adecuación limitada, que el ajuste en ciertos
casos históricos es bueno, pero precario o malo en otros; no obstante, consideran que,
como ocurre con las teorías científicas sistematizadoras, toma tiempo y esfuerzo articular
una teoría del cambio científico que sea comprehensiva. Sin embargo, es posible que
resulte más fructífero comenzar con un objetivo más modesto, explorando en detalle
distintos fenómenos diacrónicos con el fin de elaborar una tipología más fina sobre este
dominio de investigación; por esta vía se tendrían más elementos de juicio para abordar la
pregunta sobre si hay un patrón general del desarrollo científico donde encajen los
distintos fenómenos diacrónicos (un intento en esta dirección se encuentra en Balzer,
Moulines y Sneed, 1987, capítulo V). El éxito parcial de los modelos que han propuesto un
patrón básico nos permite suponer que han atrapado algunos aspectos significativos de
este dominio de investigación, pero es probable que ninguno de ellos nos pueda llegar a
contar "toda la verdad" acerca del cambio científico.

BREVE NOTA BIOGRÁFICA SOBRE THOMAS S. KUHN

Thomas Samuel Kuhn, nacido en Cincinnati el 18 de julio de 1922, estudió física en


la Universidad de Harvard. Como estudiante graduado trabajó en teoría del estado sólido

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 176
177

con John van Vleck-premio Nobel de Física en 1978-, y obtiene su Ph. D. en física teórica
en 1949. En 7947 participa en uno de los cursos de ciencia para no científicos, organizados
por James Conant, y es entonces cuando se despierta su interés por la historia de la
ciencia. Al adentrarse en la física de Aristóteles, Kuhn descubre las revoluciones científicas
en la discontinuidad entre ésta y la física de Galileo y Newton, y a partir de 1949 se dedica
de lleno a la historia de la ciencia. De 1948 a 1951, como junior Fellow de la Harvard
Society of Fellows, goza de la libertad para explorar diversos trabajos relacionados con sus
preocupaciones por el desarrollo del conocimiento (entre ellos, la psicología evolutiva de
Piaget, la psicología de la Gestalt, la epistemología antipositivista y sociológica de L. Fleck,
la teoría lingüística de B. L. Whorf, y sobre todo los trabajos de historiadores que parten de
una epistemología de raigambre kantiana, como E. Meyerson, así como de A. Koyré, quien
subraya la discontinuidad entre los sistemas científicos y la no acumulación del
conocimiento). Entre 1951 y 1956, Kuhn trabaja como profesor asistente en el área de
Educación General e Historia de la Ciencia en esa misma institución, periodos en que fue
también Guggenheim Fellow.
De 1956 a 1964, Kuhn forma parte de la planta académica de la Universidad de
California -Berkeley- en el Departamento de Historia de la Ciencia. Entre 1958 y 1959 pasa
una temporada en el Center for Advanced Study in the Behavioral Sciences de Stanford,
donde descubre la importancia del aprendizaje de ejemplos paradigmáticos tanto para el
procesamiento de información como para la solución de problemas. A partir de entonces,
Kuhn trabajó cada vez menos en la historia de la ciencia, concentrándose en la filosofía.
En 1964 se incorpora a la Universidad de Princeton, ocupando la cátedra M. Taylor
Pyne de Filosofía e Historia de la Ciencia. También fue miembro del Institute of Advanced
Study de 1972 a 1979. Durante su estancia en Princeton, Kuhn mantuvo un intenso
intercambio de ideas con Carl Hempel -a quien consideró su "querido mentor" hasta el final
de su vida-, intercambio que marcó sensiblemente el pensamiento de ambos. Según su
propio testimonio, a raíz de dicha interacción Hempel transitó hacia una filosofía
naturalizada de la ciencia, y Kuhn concibió su trabajo como un intento de extraer las
ventajas que ofrece el instrumental analítico en el contexto de una filosofía de la ciencia
históricamente orientada.
Finalmente, Kuhn se traslada en 1979 al Massachusetts Institute of Technology
como profesor en Filosofía e Historia de la Ciencia, donde permaneció activo hasta 1992,
año en que se retira, después de haber sido nombrado -en 1991- Profesor Emérito de
dicha institución. Presidió la History of Science Society en 1968-1970, y la Philosophy of
Science Association en 1988-1990. Recibió la Medalla George Sarton por parte de la
History of Science Society en 1982, y el reconocimiento John Desmond Bernal de la Society
for the Social Studies of Science en 1983. Obtuvo grados honoríficos de diversas
instituciones, entre ellas de las universidades de Notre Dame, Columbia, Chicago, Padua y
Atenas. Después de un largo padecimiento de cáncer, Kuhn fallece en su casa el lunes 17
de junio de 1996, en Cambridge, Mass., a la edad de 73 años. Le sobreviven su esposa y

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 177
178

tres hijos.

BIBLIOGRAFÍA UTILIZADA

Balzer, W., C. U. Moulines y J. D. Sneed (1987), An Architectonic for Science, Reidel,


Dordrecht.
Barnes, B. y D. Bloor (1982), "Relativism, rationalism and the sociology of science", en M.
Hollis y S. Lukes (eds.), Rationality and Relativism, MIT Press, Cambridge, 1982, pp. 21-47.
Bernstein, R. J. (1983), Beyond Objectivism and Relativism, University of Pennsylvania Press,
Filadelfia.
Bloor, D. (1976), Knwoledge and Social Imagery, Routledge Kegan Paul, Londres.
Bradie, M. (1986), "Assessing evolutionary epistemology": Biology and Philosophy, l, pp. 401-
460.
Brown, H. (1988), Rationality, Routledge, Londres.
Campbell, D. T. (1974), "Evolutionary Epistemology", en P. A. Schilpp (ed.), The Philosophy of
Karl Popper, Open Court, La Salle, Illinois, pp. 413-463.
Carnap, R. (1951), Logical Foundations of Probability, University of Chicago Press, Chicago.
(1956), "The Methodological Character of Theoretical Concepts", en H. Feigl y M. Scriven
(eds.), Minnesota Studies in the Philosophy of Science, vol. I, University of Minnesota Press,
Minneapolis, 1956; v.e. "El carácter metodológico de los conceptos teóricos", en Olivé y Pérez
Ransanz (eds.) (1989), pp. 70-115.
Davidson, D. (1974), "On the Very Idea of a Conceptual Scheme", en Inquiry into Truth and
Interpretation, Clarendon Press, Oxford, 1984, pp. 183-198.
Devitt, M. (1991), Realism & Truth, 2a ed., Blackwell, Oxford y Cambridge, Mass.
Earman, J. (1993), "Carnap, Kuhn, and the Philosophy of Scientific Methodology", en P
Horwich (ed.) (1993), pp. 9-36.
Feyerabend, P. (1962), "Explanation, Reduction and Empiricism", en H. Feigl y G. Maxwell
(eds.), Minnesota Studies in the Philosophy of Science, vol. 3, University of Minnesota Press,
Minneapolis, pp. 28-97.
(1965), "Problems of Empiricism", en R. Colodny (ed.), Beyond the Edge of Certainty,
University Press of America, 1983; v.e. editada "Problemas del empirismo", en Olivé y Pérez
Ransanz (eds.) (1989), pp. 279-311.
(1970a), "Against Method: Outline of an Anarchistic Theory of Knowledge", en Minnesota
Studies in the Philosophy of Science, vol. IV, University of Minnesota Press, Minneapolis; v.e.
Contra el método, Ariel, Barcelona, 1974.
(1970b), "Consolations for the Specialist", en I. Lakatos y A. Musgrave (eds.) (1970), pp. 197-
230; v.e. "Consuelos para el especialista", pp. 345-389.
Fraassen, B. C. van (1980), The Scientific Image, Clarendon Press, Oxford; v.e. La imagen
científica, Coedición Paidós-UNAM, México, 1996. (1985), "Empiricism in the Philosophy of
Science", en P. Churchland y C. Hooker (eds.), Images of Science, University of Chicago Press,
Chicago, pp. 245-308.
Garber, D. (1986), "Learning from the past: reflections on the role of history in the philosophy
of science": Synthese, No. 67, pp. 91-114.
Giere, R. (1989), "Scientific Rationality as Instrumental Rationality": Studies in History and
Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 178
179

Philosophy of Science, vol. 20, No. 3, pp. 377-384.


Hacking, I. (ed.) (1981), Scientific Revolutions, Oxford University Press, Oxford; v.e.
Revoluciones científicas, Fondo de Cultura Económica, México, 1985.
(1983), Representing and Intervening, Cambridge University Press, Cambridge; v.e.
Representar e intervenir, Coedición Paidós-UNAM, México, 1996.
(1993), "Working in a New World: The Taxonomic Solution", en P. Horwich (ed.) (1993), pp.
275-310.
Hanson, N. R. (1958), Patterns of Discovery, Cambridge University Press, Cambridge; v.e.
Patrones de descubrimiento, Alianza Editorial, Madrid, 1977.
Hempel, C. G. (1945), "Studies in the logic of confirmation", en C. C:. Hernpel (1965), pp. 3-
51.
(1965), Aspects of Scientific Explanation, The Free Press, Nueva York; v.e. La explicación
científica, Paidós, Buenos Aires, 1979.
(1993), "Thomas Kuhn, Colleague and Friend", en Horwich (ed.) (1993), pp. 7-8.
Hesse, M. (1980), Revolutions and Reconstructions in the Philosophy of Science, Harvester
Press, Brighton, Inglaterra.
Horwich, P. (ed.) (1993), World Changes. Thomas Kuhn and the Nature of Science, The MIT
Press, Cambridge, Mass.
Hull, D. (1988), Science: as a Process, The University of Chicago Press, Chicago, 1988.
Kant, I. (1781), Critique of Pure Reason, traducción de N. Kemp Smith, St. Martin's Press,
Nueva York, 1965.
Kitcher, P. (1978), "Theories, Theorists, and Theoretical Change": Philosophical Review, 87,
pp. 519-547.
(1993), The Advancement of Science. Science without Legend, Objectivity without Illusions,
Oxford University Press, Nueva York.
Kuhn, T. S. (1951 ), "Newton's '31 st Query’ and the Degradation of Gold": Isis, 42, pp. 296-
298.
(1957), The Copernican Revolution. Planetary Astronomy in the Development of Western
Thought, Harvard University Press, Cambridge; v.e. La revolución copernicana. La astronomía
planetaria en el desarrollo del pensamiento occidental, Ariel, Barcelona, 1978. (1960), "Engineering
Precedent for the Work of Sadi Carnot": Archives Internationales d'Histoire des Sciences, No. 13,
1960, pp. 251-255.
(1962), The Structure of Scientific Revolutions, University of Chicago Press, Chicago, 2a ed.
aumentada, 1970; v.e. La estructura de las revoluciones científicas, Fondo de Cultura Económica,
México, 1971.
(1969), "Postscript-1969", en The Structure of Scientific Revolutions, 2a ed. aumentada, 1970,
pp. 174-210. y J. L. Heilbron (1969a), "The Genesis of the Bohr Atom": Historical Studies in the
Physical Sciences, l, 1969, pp. 211-290.
(1970a), "Logic of Discovery or Psychology of Research?", en I. Lakatos y A. Musgrave (eds.)
(1970), pp. 1-20; v.e. "Lógica del descubrimiento o psicología de la investigación", pp. 81-111.
(1970b), "Reflections on my Critics", en I. Lakatos y A. Musgrave (eds.) (1970), pp. 231-278; v.e.
"Consideración en torno a mis críticos", pp. 391-454.
(1970c), "Notes on Lakatos", en R. C. Buck y R. S Cohen (eds.): PSA 1970. In Memory of
Rudolph Carnap, Boston Studies in the Philosophy of Science, vol. 8, Dordrecht, Reidel, 1971, pp.
Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 179
180

137-146; se cita de la v.e. "Notas sobre Lakatos", en I. Lakatos y A. Musgrave (eds.), La crítica y el
desarrollo del conocimiento, Barcelona, Grijalbo, 1975, pp. 511-523.
(1974), "Second Thoughts on Paradigms", en Kuhn (1977), pp. 293-319; v.e. "Algo más sobre
los paradigmas", en La tensión esencial, pp. 317-343.
(1976), "Theory Change as Structure Change: Comments on the Sneed Formalism":
Erkenntnis, 10, pp. 179-199; v.e. "El cambio de teoría como cambio de estructura: comentarios
sobre el formalismo de Sneed", en J. L. Rollerí (ed.) (1986), pp. 251-274.
(1977), The Essential Tension. Selected Studies in Scientific Tradition and Change, The
University of Chicago Press, Chicago; v.e. La tensión esencial, Conacyt y FCE, México, 1982.
(1977a), "Objectivity, Value Judgement, and Theory Choice", en Kuhn (1977), pp. 320-339;
v.e. "Objetividad, juicios de valor y elección de teoría", en La tensión esencial, pp. 344-364.
--(1978), Black-Body Theory and the Quantum Discontinuity, 1894-1912, Clarendon Press,
Oxford; v.e. La teoría del cuerpo negro y la discontinuidad cuántica: 1894-1912, Alianza, Madrid,
1980.
(1981), "What are Scientific Revolutions?", en L. Krüger, L. J. Daston y M. Heidelberger (eds.),
The Probabilistic Revolution, MIT Press, Cambridge, 1987, pp. 7-22; v.e. "¿Qué son las
revoluciones científicas?", en Kuhn (1989), pp. 55-93.
(1983), "Commensurability, Comparability, Communicability", en P D. Asquith y T. Nickles
(eds.): PSA 1982, vol. 2, Philosophy of Science Association, East Lansing, pp. 669-688; v.e.
"Conmensurabilidad, comparabilidad y comunicabilidad", en Kuhn (1989), pp. 95-135.
(1983a), "Rationality and Theory Choice": The Journal of Philosophy, vol. LXXX, No. 10, pp.
563-570; v.e. "Racionalidad y elección de teorías", en Kuhn (1989), pp. 137-151.
(1986), "The Histories of Science: Diverse Worlds for Diverse Audiences": Academe, No. 72,
julio-agosto, pp. 29-33.
(1988), "Possible Worlds in History of Science", en S. Allén (ed.), Possible Worlds in
Humanities, Arts and Sciences, Walter de Gruyter & Co., Berlín, 1989, pp. 70-32.
(1989), ¿Qué son las revoluciones científicas? y otros ensayos, Paidós, ICE/UAB, Barcelona.
(1990), "Dubbing and Redubbing: The Vulnerability of Rigid Designation", en W. Savage (ed.),
Scientific Theories. Minnesota .Studies in the Philosophy of Science, vol. XIV, University of
Minnesota Press, Minneapolis, pp. 298-318.
(1991), "The Road Since Structure", en A. Fine, M. Forbes y L. Wessels (eds.): PSA 1990, vol.
2, Philosophy of Science Association, East Lansing, pp. 3-13; v.e. "El camino desde La estructura":
Arbor, vol. CXLVIII, No. 583, pp. 27-46.
(1991a), "The Natural and the Human Sciences", en D. R. Hiley, J. E. Bohman y R. Shusterman
(eds.), The Interpretive Turn, Cornell University Press, Ithaca, 1991, pp. 17-24; v.e. "Las ciencias
naturales y humanas", en Acta Sociológica, No. 19, UNAM, México, 1997, pp. 11-19.
(1992), "Introduction", en D. Hull, M. Forbes y K. Okruhlick (eds.): PSA 1992, vol. 2,
Philosophy of Science Association, East Lansing, 1993, pp. 3-5.
(1993a), "Foreword", en P. Hoyningen-Huene, Reconstructing Scientific Revolutions. Thomas
S. Kuhn's Philosophy of Science, The University of Chicago Press, Chicago, 1993, pp. xi-xiii.
(1993b), "Afterwords", en P. Horwich (ed.) (1993), pp. 311-347. Lakatos, I. (1970),
"Falsification and the Methodology of Scientific Research Programmes", en I. Lakatos y A.
Musgrave (eds.) (1970), pp. 91-196; v.e. "La falsación y la metodología de los programas de
investigación científica", pp. 203-343.
Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 180
181

(1971), "History of Science and its Rational Reconstructions", en R. C. Buck y R. S. Cohen


(eds.): Boston Studies in the Philosophy of Science, vol. VIII, Humanities Press, Nueva York, 1970,
pp. 97136; v.e. "La historia de la ciencia y sus reconstrucciones racionales", en la v.e. aumentada
de I. Lakatos y A. Musgrave (eds.) (1970), pp. 455-509.
y A. Musgrave (eds.) (1970), Criticism and the Growth of Knowledge, Cambridge University
Press, Londres; v.e. La crítica y el desarrollo del conocimiento, aumentada con Lakatos (1971) y
Kuhn (1970c), Grijalbo, Barcelona, 1975.
Laudan, L. (1977), Progress and its Problems, University of California Press, Berkeley.
(1981), "A confutation of convergent realism": Philosophy of Science, No. 48, pp. 19-49.
(1984), Science and Values, University of California Press, Berkeley.
(1986), "Some problems facing intuitionist meta-methodologies": Synthese, vol. 67, 1986, pp.
115-129.
(1987), "Progress or Rationality?: The Prospects for Normative Naturalism": American
Philosophical Quarterly, 24, pp. 19-31. (1990), Science and Relativism. Some Key Controversies in
the: Philosophy of Science., University of Chicago Press, Chicago.
(1996), Beyond Positivism and Relativism. Theory, Method and Evidence, Westview Press,
Oxford.
et al. (1986), "Scientific Change: Philosophical Models and Historical Research": Synthese, vol.
69, No. 2, pp. 147-223.
McMullin, E. (1993), "Rationality and Paradigm Change in Science", en P. Horwich (ed.)
(1993), pp. 55-78.
Mackinnon, E. (1989), "Empirically equivalent but mutually incompatible theories: a case
study". Trabajo presentado en la 63ª reunión de la APA, Oakland, California, marzo de 1989.
Moulines, C. U. (1982), Exploraciones metacientíficas, Alianza Universidad, Madrid.
(1991.), Pluralidad y recursión. Estudios epistemológicos, Alianza Universidad, Madrid.
Olivé, L. (1988), Conocimiento, sociedad y realidad. Problemas del análisis social del
conocimiento y del realismo científico, Fondo de Cultura Económica, México; traducido al inglés
Knowledge, Society and Reality. Problems of the social analysis of knowledge and of scientific real-
ism, Rodopi, Amsterdam-Atlanta, 1993.
(1996), Razón y sociedad, Fontamara, México.
y A. R. Pérez Ransanz (eds.) (1989), Filosofía de Ia ciencia: teoría y observación, Coedición
Siglo XXI Editores y UNAM, México.
Pérez Ransanz, A. R. (1985a), "El concepto de teoría empírica según van Fraassen": Crítica,
vol. XVII, No. 51, México, pp. 3-12.
(1985b), "Empirismo lógico y contrastación", en Diánoia 1985, coedición UNAM y FCE, México,
pp. 269-297.
(1986), "El proceso de internalización en el desarrollo científico": Crítica, vol. XVIII, No. 54,
México, pp. 83-95.
(1991), "El modelo kuhniano del desarrollo científico", tesis de doctorado, Facultad de Filosofía
y Letras, UNAM, México.
(1992), "Verdad y justificación", en Diánoia 1992, No. 38, coedición UNAM y FCE, México, pp.
85-93.
(1993), "Modelos de cambio científico", en C. U. Moulines (ed.), La ciencia: estructura y
desarrollo, Enciclopedia Iberoamericana de Filosofía, vol. 4, Editorial Trotta, Madrid, pp. 181-202.
Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 181
182

(1993b), "El realismo de Villoro", en E. Garzón y F. Salmerón (eds.), Epistemología y cultura.


En torno a la obra de Luis Villoro, UNAM, México, 1993, pp. 39-62.
(1995), "Racionalidad y desarrollo científico", en L. Olivé (ed.), Racionalidad epistémica,
Enciclopedia Iberoamericana de Filosofía, vol. 9, Editorial Trotta, Madrid, pp. 171-201.
(1996), "Evolución de la idea de inconmensurabilidad": Arbor, vol. CLV, No. 611, Madrid, pp.
51-75.
(1996a), "In memoriam Thomas S. Kuhn": Theoría, vol. 11, No. 27, San Sebastián, pp. 229-
235.
(1996b), "Racionalidad sin fundamentos", en L. Olivé y L. Villoro (eds.), Filosofía moral,
educación e historia. Homenaje a Fernando Salmerón, Facultad de Filosofía y Letras, Instituto de
Investigaciones Filosóficas, UNAM, México, 1996, pp. 277-294.
(1997), "Kuhn frente al dualismo metodológico": Acta Sociológica, No. 19, enero-abril de 1997,
México, pp. 21-35.
(en prensa), "El cambio de mundos y el realismo", en C. Solís (comp.), Alta tensión: historia,
filosofía y sociología de Ia ciencia. ensayos en memoria de Thomas S. Kuhn, Paidós, Barcelona.
Popper, K. R. (1935), The Logic of Scientific Discovery, Hutchinson, Londres, la ed. en inglés
1959; v.e. La Iógica de la investigación científica, Tecnos, Madrid, 1973.
(1963), Conjectures and Refutations, Routledge & Kegan Paul, Londres; v.e. Conjeturas y
Refutaciones, Paidós, Barcelona, 1982.
(1970), "Normal Science and its Dangers", en I. Lakatos y A.
Musgrave (eds.) (1970), pp. 51-58; v.e. "La ciencia normal y sus peligros", pp. 149-158.
Putnam, H. (1974), "The 'Corroboration' of Theories", en P. A. Schilpp (ed.), The Philosophy of
Karl Popper, Open Court, La Salle, Illinois, pp. 221-240; se cita de su reproducción en Hacking
(ed.) (1981 ), pp. 65-75.
(1975), Mind, Language and Reality. Philosophical Papers, vol. 2, Cambridge University Press,
Cambridge.
(1981), Reason, Truth and History, Cambridge University Press, Cambridge; v.e. Razón, verdad
e historia, Tecnos, Madrid, 1988.
(1987), The Many Faces of Realism, Open Court, La Salle, Illinois; v.e. Las mil caras del
realismo, Paidós, Barcelona, 1994.
(1990), Realism with a Human Face, Harvard University Press, Cambridge, Mass.
Quine, W. V. O. (1960), Word and Object, MIT Press, Cambridge; v.e. Palabra y objeto, Labor,
Barcelona, 1968.
(1969), "Epistemology Naturalized", en Ontological Relativity and Other Essays, Columbia
University Press, Nueva York, pp. 69-90.
(1970), "On the Reasons for the Indeterminacy of Translation": The Journal of Philosophy,
LXVII, No. 6, pp. 178-183.
(1981), Theories and Things, The Belknap Press of Harvard University Press, Cambridge,
Mass.; se cita de la v.e. Teorías y cosas, UNAM, México, 1986.
Quintanilla, M. A. (1994), "Introducción: el realismo necesario", en H. Putnam, Las mil caras
del realismo, Paidós, Barcelona.
Reichenbach, H. (1938), Experience and Prediction. An Analysis of the Foundations and the
Structure of Knowledge, University of Chicago Press, Chicago.
Rolleri, J. L. (comp.) (1986), Estructura y desarrollo de las teorías científicas, UNAM, México.
Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 182
183

Salmerón, F. (1993), "La ética de la creencia y la filosofía moral y política. Notas al libro de
Luis Villoro", en E. Razón y F. Salmerón (eds.), Epistemología y cultura. En torno a la obra de Luis
Villoro, UNAM, México, 1993, pp. 133-151.
Sellars, W. (1962), Science, Perception and Reality, Humanities Press, Nueva York.
Shapere, D. (1964), "The Structure of Scientific Revolutions": Philosophical Review, vol. LXXIII,
No. 4, pp. 383-394.
(1984), Reason and the Search for Knowledge, Reidel, Dordrecht.
(1989), "Evolution and Continuity in Scientific Change": Philosophy of Science, 56, pp. 419-
437.
Shimony, A. (1993), Search for a Naturalistic World View, vol. l, Cambridge University Press,
Cambridge.
Sneed, J. D. 1971. The Logical Structure of Mathematical Physics. Reidel, Dordrecht.
Stegmüller,W. (1973), Theorienstrukturen und Theoriendynamik, Springer-Verlag, Heidelberg;
v.e. Estructura y dinámica de teorías, Ariel, Barcelona, 1983.
(1976), "Accidental ('Non-Substantial') Theory Change and Theory Dislodgement: To What
Extent Logic Can Contribute to a Better Understanding of Certain Phenomena in the Dynamics of
Theoaries": Erkenntnis, 10, 1976; v.e. "Cambio teórico accidental ('no substancial') y
desplazamiento de teorías: en qué medida puede la Iógica contribuir a una mejor comprensión de
ciertos fenómenos en la dinámica de las teorías", en J. L. Rolleri (ed.) (1986), pp. 215-250.
Villoro, L. (1982), Creer saber, conocer, Siglo XXI Editores, México. (1990), "Sobre justificación
y verdad: respuesta a León Olivé": Crítica, No. 65, México.
(1993), "Respuesta a discrepancias y objeciones", en E. Garzón y F. Salmerón (eds.),
Epistemología y cultura. En torno a la obra de Luis Villoro, UNAM, México, 1993, pp. 331-350.
Wykstra, S. J. (1980), "Toward a Historical Meta-Method for Assessing Normative
Methodologies: Rationality, Serendipity, and the Robinson Crusoe Fallacy": PSA 1980, vol. l, pp.
211-222.

Texto para Introducción al pensamiento científico. Prof. José María Ramón. Sede Trelew. 183

Você também pode gostar