P. 1
Metodologia de La Investigacion - Roberto Hernandez Sampieri

Metodologia de La Investigacion - Roberto Hernandez Sampieri

|Views: 3.518|Likes:

More info:

Published by: BiblioDigitalDerecho on Jan 20, 2013
Direitos Autorais:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/31/2014

pdf

text

original

CAPÍTULO 1

HISTORIA DE LOS ENFOQUES CUANTITATIVO, CUALITATIVO Y MIXTO: RAÍCES Y MOMENTOS DECISIVOS

INTRODUCCIÓN
En este capítulo no se pretende abarcar la historia de la investigación, mucho menos la historia de la ciencia. Una enciclopedia completa no bastaría para abordar este tema. Solamente queremos ubicar al estudiante que se inicia en la investigación sobre algunos de los momentos históricos más importantes para la indagación cuantitativa, cualitativa y mixta. El tópico regularmente no apasiona a los jóvenes, por esto procuraremos ser breves centrándonos únicamente en las ciencias sociales.

EL ENFOQUE CUANTITATIVO: SUS DOS PRINCIPALES ANTECESORES

Como ya se mencionó en el primer capítulo de Metodología de la investigación, 4ª edición, el enfoque cuantitativo en las ciencias sociales se origina en la obra de Augusto Comte (1798-1857) y Emile Durkheim (1858-1917), con la influencia significativa de Francis Bacon, John Locke y Emmanuel Kant. Es decir, el “abuelo” de tal enfoque es el positivismo. A la mitad del siglo XIX , el racionalismo iluminaba la actividad científica, la revolución iniciada por Isaac Newton se encuentra en plena consolidación, particularmente por los avances científicos y tecnológicos alcanzados en la época. Con la publicación en 1849 del Discurso sobre el espíritu positivo de Augusto Comte, se inicia en las ciencias sociales un paradigma denominado “positivista”. Cabe señalar que, en términos sencillos, un “paradigma” es una manera de concebir al mundo. Esta visión proclama, entre otras cuestiones, que la realidad es una sola y es necesario descubrirla y conocerla. Asimismo, el sentido de la percepción resulta la única base admisible del conocimiento humano y del pensamiento preciso (Wikipedia, 2005a). Las ideas esenciales del positivismo provienen de las denominadas ciencias “exactas” como la Física, la Química y la Biología; por tal

2

motivo, los positivistas se fundamentaron en científicos como Galileo Galilei, Isaac Newton, Nicolás Copérnico, Thomas Robert Malthus y Charles Darwin. Así, “el mundo social puede estudiarse de manera similar al mundo natural” (tal como se investigan los átomos, las moléculas, los planetas y los invertebrados; se pueden analizar los patrones de conducta de los trabajadores, las razones de las enfermedades mentales, los efectos de un método educativo sobre el aprendizaje o las migraciones humanas) y existe un método exclusivo para indagar ese mundo social, que es libre de los valores del investigador. Por ello, para el positivismo, la objetividad es muy importante, el investigador observa, mide y manipula variables; además de que se desprende de sus propias tendencias (la relación entre éste y el fenómeno de estudio es de independencia). Lo que no puede medirse u observarse con precisión se descarta como “objeto” de estudio. Además, éste se encuentra determinado por leyes y axiomas. El positivismo solamente acepta conocimientos que proceden de la experiencia, esto es, de datos empíricos. Los hechos son lo único que cuenta. Es decir, los positivistas establecen como fundamental el principio de verificación: una proposición o enunciado tiene sentido sólo si resulta verificable por medio de la experiencia y la observación; así, solamente cuando existe un conjunto de condiciones de observación significativas para determinar su verdad o falsedad. Todo debe ser comprobable y esta condición es válida para todas las ciencias. La experimentación constituyó la forma principal para generar teoría. El positivismo (muy rígido) fue remplazado por el “pospositivismo”, fundamentado en el anterior, pero más abierto y flexible. Tal visión comienza a gestarse hacia fines del siglo XIX, pero realmente se consolida hacia la mitad del siglo pasado. La gestación la inician las obras de autores como Wilhelm Dilthey y William James. Karl Popper lo impulsa de forma notoria. Además en cada campo o disciplina, diversos autores lo desarrollan. Sus propuestas esenciales se pueden resumir en los siguientes puntos: Existe una realidad, pero solamente puede ser conocida de manera imperfecta debido a las limitaciones humanas del investigador (Mertens, 2005). Por lo tanto, tal realidad es factible descubrirla con cierto grado de probabilidad. El observador no se encuentra aislado de los fenómenos que estudia, sino que forma parte de éstos, lo afectan y él, a su vez, influye en ellos.

3

-

Las teorías y explicaciones se consolidan y eliminan otras posibles teorías y explicaciones rivales. Los antecedentes del investigador pueden influir lo que se observa. La objetividad es solamente un estándar que guía la investigación, por lo que el investigador debe estar atento y tratar de permanecer neutral para prevenir que sus valores o tendencias influyan en su estudio, además de seguir rigurosamente procedimientos prescritos y estandarizados.

-

La experimentación en el laboratorio es una forma central para probar hipótesis, pero no la única. Por ello, se desarrollaron los diseños cuasiexperimentales (Mertens, 2005).

-

Los conceptos de las teorías consideradas y las hipótesis a probar deben tener referentes empíricos y consecuentemente, es necesario medirlos, aunque estas mediciones nunca son “perfectas”, siempre hay un grado de error.

En conclusión, pudiéramos establecer que la diferencia esencial entre el paradigma positivista y el pospositivista se ubica en su concepción del conocimiento. En este último, se supera el esquema que considera la percepción como simple reflejo de las cosas reales y el conocimiento como copia de esa realidad. El conocimiento, en cambio, se visualiza como el resultado de una interacción, de una dialéctica, entre el conocedor y el objeto conocido. El pospositivismo es una especie de “padre” del enfoque cuantitativo y le otorga tres principales elementos que lo caracterizan: Recolectar datos en la forma de puntuaciones (que se origina en las matemáticas). Es decir, los atributos de fenómenos, objetos, animales, personas, organizaciones y colectividades mayores son medidos y ubicados numéricamente. Analizar tales datos numéricos en términos de su variación. La esencia del análisis implica comparar grupos o relacionar factores sobre tales atributos mediante técnicas estadísticas (en el caso de las ciencias del comportamiento, mediante experimentos y estudios causales o correlacionales). El enfoque cuantitativo se consolida a lo largo del siglo XX y tiene momentos claves como los que se presentan a continuación.

4

EL ENFOQUE CUANTITATIVO: MOMENTOS CLAVE
Es difícil definir con precisión cuándo se inició el enfoque cuantitativo, más bien sus comienzos provienen de distintas fuentes y su evolución ha sido continua (algunos autores de la historia de la ciencia los ubican desde Aristóteles y otros en diferentes puntos de los siglos XVI, XVII y XVIII). Gottfried Achenwall (en 1748-49) acuñó el término en alemán Statistik para referirse al análisis de los datos del Estado, en particular los censos poblacionales (Aliaga, 2000 y Wikipedia, 2005b). En 1801, William Playfair, un ingeniero y economista, desarrolla las gráficas estadísticas como un mejor medio para representar los resultados (anteriormente se utilizaban tablas). En 1816, Carl Friedrich Gauss propone la desviación media, y alrededor de esa época (1809-1826) genera el análisis de la distribución normal y plantea la técnica de mínimos cuadrados que posteriormente derivarían en el análisis de varianza. En 1817, el francés Marc Antoine Jullien realiza una encuesta sobre diversos sistemas educativos en el mundo. Alrededor de 1880, se genera el análisis de correlación en Inglaterra y Karl Pearson, profesor desde 1884 en the University College (Londres), presenta en la última década del siglo XIX: la moda (medida de tendencia central), una fórmula producto del momento de correlación, un procedimiento para calcular el tamaño de muestra adecuado para representar a una población, la regresión lineal y múltiple (con la identificación de la capacidad para predecir puntuaciones mediante la información sobre la correlación entre las variables), así como el coeficiente de contingencia y la chi-cuadrada, χ2 (Creswell, 2005, Aldrich, 2005 y Aliaga, 2000). Otro investigador que trabajó sobre la correlación múltiple fue George U. Yule (1897). En 1901 Pearson junto con Weldon y Galton fundan Biometrika, una revista que se dedicó al desarrollo de análisis estadísticos en el campo de la Biología. A finales del siglo XIX ha nacido un pilar del enfoque cuantitativo: la estadística. Asimismo, en la década de 1890-1900 se desarrollan las primeras pruebas mentales (con los esfuerzos de investigadores como Sir Francis Galton, James McKeen Cattell y Alfred Binet). En 1901, E. L. Thorndike y R. S. Woodworth discuten sobre la necesidad y valor del grupo de control en los experimentos. En 1904, Charles Spearman presenta su

5

coeficiente rho. Además por esos años se aplica el procedimiento para reducir variables denominado el análisis de factores y la prueba t (Creswell, 2005). En 1910 la armada estadounidense comienza a usar pruebas psicológicas estandarizadas, particularmente durante la Primera Guerra Mundial (Creswell, 2005). De igual forma surgen por tal año, los diseños experimentales como los latinos cuadrados de Thorndike. Además, las encuestas (surveys) incrementan su popularidad en las primeras décadas del siglo XX. En 1916, W. A. McCall concibe la asignación al azar en experimentos y en 1917, F. Stuart Chapin publica sobre la experimentación en ciencias sociales. Durante los años de 1930, se continúa el desarrollo de pruebas psicométricas y de logro, así como la estadística inferencial (conclusiones de la muestra a la población) se comienza a utilizar y diversos procedimientos se fortalecen. McCall publica en 1923 su famosa obra: Cómo experimentar en Educación. Entre 1924 y 1932, Elton Mayo realiza sus experimentos en la planta Hawthorne de la compañía Western Electric, lo que da inicio a este tipo de estudios en las organizaciones, En la siguiente década, se desarrollan las pruebas de selección de personal y un sinnúmero de tests estandarizados en diferentes campos. En 1935, Sir Ronald Fisher consolida en su libro El diseño de experimentos el análisis de varianza y las pruebas de significancia en general, además de los experimentos modernos. En 1938, este último autor publica junto con F. Yates, las tablas estadísticas para la investigación en la Agricultura, la Biología y la Medicina. Asimismo, la Asociación de Educación Progresiva en EE. UU. comienza a realizar estudios longitudinales. Durante la década de 1950, la investigación cuantitativa se encuentra en su apogeo, surgen diversas encuestas, experimentos, revistas científicas, diseños, etc. También comienzan a desarrollarse las máquinas para calificar pruebas y la computadora. En los años de 1960, Donald T. Campbell y Julian Stanley (1963) generan una tipología sobre los estudios experimentales que priva hasta nuestros días (incluso en la presente obra) y un análisis de las fuentes que pueden atentar contra la claridad de sus resultados. De igual forma, el querido profesor Fred Kerlinger identifica tipos de diseños cuantitativos y fortalece el enfoque respectivo. Por otra parte, se desarrolla una concepción que explica cómo los ítems difieren en dificultad y discriminación (teoría de las respuestas a los ítems) (Creswell, 2005). Surgen una gran cantidad de textos de estadística. Los programas de análisis de datos se desarrollan, particularmente el Paquete Estadístico para las Ciencias Sociales (SPSS). 6

En la década comprendida entre 1970 y 1980 se identifican diversos modelos causales multivariados (por ejemplo, el modelamiento de ecuaciones estructurales), se desarrolla el metaanálisis (técnica para analizar datos provenientes de distintos estudios con mediciones similares) y se sugieren los tipos de validez (Thomas Dixon Cook y Donald T. Campbell, 1979), que más recientemente se conciben como clases de evidencia acerca de la validez. Asimismo, John W.Tukey empieza con el análisis exploratorio de datos (publica en 1977). En los años de 1980, se reta a las aproximaciones clásicas con las pruebas estadísticas, esto es, mediante el examen de la magnitud de la relación entre variables, a través de la estimación del tamaño del efecto (Creswell, 2005). Se introduce el concepto de sensibilidad experimental. En la última década del siglo XX surgen mediciones y análisis multivariados más complejos, además se consolida la idea de “poder de medición” mediante la utilización de diferentes instrumentos para medir las variables de investigación. Los programas de análisis se sofistican y comercializan, y es aquí estamos. Cabe señalar que el primer enfoque a la investigación en desarrollarse fue el cuantitativo. donde ahora

EL ENFOQUE CUALITATIVO: SUS COMIENZOS
Diferentes autores ubican sus orígenes en distintos momentos, por ejemplo, Vidich y Lyman (2002) los sitúan en los siglos XV y XVI con la denominada etnografía temprana, en la que se estudiaba a los pueblos primitivos; o Lincoln y Denzin (2003) fundamentalmente los circunscriben a principios del siglo XX, al igual que Creswell (2005). A nuestro juicio, el enfoque cualitativo realmente se inicia como un proceso investigativo a finales del siglo XIX y sobre todo en el comienzo del siglo
XX,

aunque algunos arqueólogos realizaron estudios inductivos en la mitad del XIX. El primer problema es que hay diversas visiones que se han considerado como

tipos de investigación cualitativa (Tesch, 1990, ubica 26 clases) y las bases epistemológicas son variadas. Sin embargo, concordamos con Mertens (2005) en que el constructivismo es tal vez el paradigma que influyó más en el enfoque cualitativo (ciertamente muchos diferirán, pero su peso es innegable). Éste tiene sus primeros cimientos con Emmanuel Kant (siglo XVIII), quien señala básicamente

7

que el mundo que conocemos es construido por la mente humana. Las “cosas” en sí mismas existen, pero nosotros las percibimos del modo como es capaz de percibirlas nuestra mente. De los postulados de Kant va a surgir el constructivismo, en un intento de conciliar el racionalismo y el asociacionismo. Otro autor clave para esta corriente paradigmática es Max Weber (1864-1920), quien introduce el término verstehen o “entender”, reconoce que además de la descripción y medición de variables sociales, deben considerarse los significados subjetivos y la comprensión del contexto donde ocurre el fenómeno. El constructivismo propone: No hay una realidad objetiva, la realidad es edificada socialmente, por consecuencia, múltiples construcciones mentales pueden ser “aprehendidas” sobre ésta, algunas de las cuales pueden estar en conflicto con otras; de este modo, las percepciones de la realidad son modificadas a través del proceso del estudio (Mertens, 2005). El conocimiento es construido socialmente por las personas que participan en la investigación. La tarea fundamental del investigador es entender el mundo complejo de la experiencia vivencial desde el punto de vista de quienes la experimentan, así como, comprender sus diversas construcciones sociales sobre el significado de los hechos y el conocimiento. La investigación es en parte producto de los valores del investigador y no puede ser independiente de ellos. El investigador y los individuos estudiados se involucran en un proceso interactivo. El conocimiento resulta de tal interacción social y de la influencia de la cultura. Entre algunos de los autores que durante el siglo XX influyeron en el desarrollo del constructivismo tenemos a Mary Parker Follett (1868-1933), en el campo de la administración y las organizaciones; Jean Piaget (1896-1980 ) y Lev Semenovich Vygotsky (1896-1934) en la educación y John Dewey (1859-1952) en la Pedagogía; así como Margaret Mead en la Antropología. El constructivismo como uno de los “padres”1 del enfoque cualitativo le otorga los énfasis principales que lo caracterizan:

1

Podríamos decir “padres” o “madres”, para no generar susceptibilidades.

8

-

El reconocimiento de que el investigador necesita encuadrar en los estudios, los puntos de vista de los participantes. La necesidad de inquirir cuestiones abiertas. Dado que el contexto cultural es fundamental, los datos deben recolectarse en los lugares donde las personas realizan sus actividades cotidianas.

-

La investigación debe ser útil para mejorar la forma en que viven los individuos. Más que variables “exactas” lo que se estudia son conceptos, cuya esencia no solamente se captura a través de mediciones.

EL ENFOQUE CUALITATIVO: MOMENTOS CLAVE
En los años de 1920, un grupo de investigadores conocidos como la Escuela de Chicago comenzaron a realizar diversos estudios cualitativos, entre los autores destacan: Albion Small, W.I. Thomas, F. Znaniecki y el filósofo George Herbert Mead. Por ejemplo, Thomas y Znaniecki publicaron una investigación en 1927 sobre los inmigrantes polacos, en la cual se utiliza la biografía de los participantes como herramienta de recolección de los datos. Otros estudios se centraron en culturas específicas y grupos urbanos marginados. Margaret Mead (uno de cuyos maestros fue Franz Boas) publica sus conocidas obras Coming of age in Samoa y Growing Up in New Guinea, en 1928 y 1930 respectivamente; para 1932, un libro que reseña su indagación sobre la cultura de una tribu india. Posteriormente, en la misma década se agregaron otros estudios de Robert E. Park y E.W. Burgess. Everett C. Hughes y Herbert Blumer en la siguiente década comenzaron a desarrollar una aproximación conocida como el interaccionismo simbólico, el cual influyó en el desarrollo del enfoque cualitativo. En los años de 1940 y 1950 decayó la importancia del enfoque cualitativo debido al posicionamiento de su “rival” cuantitativo (Gobo, 2005), aunque se realizaron algunos trabajos etnográficos de investigadores como Elizabeth y Allison Davis, y Burleigh y Mary Gardner, que estudiaron las clases sociales en Natchez, Mississippi, EE. UU.; al igual que Conrad Arensberg, quien hizo algunas investigaciones similares en Irlanda. Clair Drake y Horace Cayton publicaron una obra que fue el resultado de los análisis efectuados en la población afroamericana

9

del sur de Chicago. George Spindler también trabajo la antropología educativa y George M. Foster estudió diversas culturas latinoamericanas. Asimismo, Howard S. Becker analiza diferentes profesiones. Cabe destacar que la investigación-acción comienza a desarrollarse en esta etapa (1945-1955) con nombres como John Collier, R. Lippitt y M. Radke y S. Corey. Todos ellos siguieron a quien muchos autores consideran el fundador formal de tal visión, Kurt Lewin (Masters, 2000; Creswell, 2005). En la década de 1960 a 1969, este enfoque recobra vitalidad e importancia. La etnometodología surge con vigor. Peter L. Berger and Thomas Luckmann en 1966 presentan sus modelos de construcción de la realidad (Berger y Luchmann, 1966). Dos sociólogos, Barney G. Glaser y Anselm L. Strauss, con pacientes en estado terminal en el San Francisco Medical Center de la Universidad de California, realizan diversos estudios y de sus experiencias publican el libro Discovery of Grounded Theory (1967), así emerge la teoría fundamentada (después ambos autores presentan visiones diferentes de dicha teoría como se comentó en el libro). P. Jackson publica un trabajo cualitativo derivado de sus estudios en las aulas (1968). A esta época se le denomina la “primera encrucijada del paradigma cualitativo” (Shank, 1995). Asimismo, Paulo Freire comienza con la investigación participativa en América Latina, específicamente en Brasil. En la década de 1970, el enfoque cualitativo continúa popularizándose. Denzin (1970) reanaliza el concepto de triangulación. E. G. Guba consolida la propuesta de un enfoque alternativo, el naturalista (1978). La teoría fundamentada continúa evolucionando. Herbert Blumer desarrolla el interaccionismo simbólico (Álvarez Gayou, 2002). Para los años de 1980, Terrence E. Deal y Allan A. Kennedy proponen estudiar las culturas organizacionales al estilo etnográfico. Smith (1983) distingue entre dos aproximaciones filosóficas: idealismo y realismo. Matthew Miles y Michael Huberman (1984) presentan procedimientos para el análisis cualitativo. Lincoln y Guba (1985) identifican diferencias entre el naturalismo y otras clases de investigación. A. L. Strauss publica en 1987 su obra: Qualitative Analysis for Social Scientists. Cabe destacar que la investigación bajo el marco de referencia feminista, se desarrolla notablemente en esta década con los trabajos de: McRobbie (1982), Patai (1983), Clegg (1985), Cook y Fonow (1986), y McCormack (1989). En la década de 1990, Strauss y Corbin (1990 y 1994) publican procedimientos más avanzados sobre la teoría fundamentada, y LeCompte, Milroy and Preissle 10

(1992) presentan nuevos esquemas etnográficos. De igual forma, Denzin y Lincoln (1994) muestran alternativas del proceso cualitativo. Creswell (1998) distingue entre cinco diferentes procedimientos de indagación cualitativa. Las editoriales McGraw-Hill y SAGE publican varios libros de investigación cualitativa. Surgen diversas revistas científicas cualitativas en todos los campos, continúan la tendencia de la década anterior. Cabe señalar que entre 1989 y 1992, surge un software para análisis cualitativo: el Atlas.ti®, el cual se desarrolla por Thomas Muhr en la Universidad Técnica de Berlín; así, para 1993, se presenta el prototipo y en 1996 se realiza la primera versión. Decision Explorer® fue originalmente diseñado a principios de la década para apoyar la labor de mapeo cognitivo realizada por Colin Eden en las universidades de Bath y Strathclyde. Posteriormente es comercializado por Banxia Software. Otros programas son generados durante el periodo. A partir de 2000, es un hecho que pocos dudan ya de lo valioso del enfoque cualitativo. Clandinin y Connelly (2000) revitalizan los diseños narrativos; mientras que Kemmis y McTaggart (2000) hacen lo mismo con la investigación participativa. Y aquí estamos. Los diferentes marcos conceptuales cualitativos comienzan a integrarse en diseños con autores como Creswell (2005) y Mertens (2005). Mertens (2005), comenta que las aproximaciones feminista, participativa y marxista –entre otras– más bien son parte del paradigma transformativo, que reconoce diversas realidades y la influencia del contexto social y cultural en todas sus dimensiones (política, económica, de género y origen étnico, de habilidades y capacidades distintas). La relación entre el investigador y los participantes es de total interdependencia y se sugiere que la investigación debe servir para mejorar las condiciones de vida de los grupos marginados de la sociedad.

EL ENFOQUE MIXTO: MOMENTOS CLAVE
De acuerdo con Tashakkori y Teddlie (2003) además de Mertens (2005), el enfoque mixto se basa en el paradigma pragmático. Esta visión evita utilizar conceptos como “verdad” y “realidad” que han causado, desde el punto de vista de sus autores, conflictos entre los enfoques cuantitativo y cualitativo. La efectividad se utiliza como el criterio para juzgar el valor de la investigación, son las circunstancias las que determinan el grado en que se utilizan las aproximaciones

cuantitativa y cualitativa. Desde luego, la relación investigador-participantes es interdependiente bajo esta óptica y se reconoce la influencia de los valores del investigador. El enfoque mixto ha sido criticado (preferimos omitir autores o referencias para no generar enconos) por los llamados “fundamentalistas” y otros investigadores que lo aceptan, pero lo consideran ingenuo, ya que requiere mucho más recursos (de todo tipo) que la investigación cuantitativa o la cualitativa; lo cual es cierto, pero esto no significa que sea quizá la mejor alternativa para generar conocimiento. Sería una tristeza que la investigación mixta fuera exclusiva de los países desarrollados y América Latina quede fuera de su alcance. La historia de los métodos mixtos se remonta al trabajo criminalístico durante las décadas de 1960 y 1970, fueron utilizados sin denominarlos como tales. Posteriormente, en 1973, S. Sieber sugirió la mezcla de estudios de caso cualitativos con encuestas, creó así “un nuevo estilo de investigación” y la integración de distintos métodos en un mismo estudio. Hacia el final de los años de 1970, T. D. Jick introdujo los términos básicos de los diseños mixtos, propuso recabar datos mediante técnicas cuantitativas y cualitativas, e ilustró la “triangulación de datos” (Jick, 1979). Como ya se mencionó en el libro (Metodología de la investigación, 4ª edición), el concepto de triangulación fue clave para la concepción de los diseños mixtos El término “triangulación” proviene de la ciencia naval militar, es el proceso por medio del cual los marineros emplean varios puntos de referencia para localizar la posición de un objeto en el mar (Jick, 1979). Posteriormente, en los años de 1980 se inició el debate sobre la legitimidad de la investigación mixta. Asimismo, el concepto de triangulación se extendió más allá de la comparación de datos cuantitativos y cualitativos y se pudo hablar de diversos tipos de triangulación en el contexto híbrido: de teorías, de métodos, de investigadores, pero sobre todo, de enfoques (esto último ya en los años de 1990). Brewer y Hunter (1989) publican un libro sobre multimétodos. Greene, Caracelli y Graham (1989) escriben un artículo sobre el marco referencial mixto. Para la década de 1990 el debate sobre los modelos mixtos fue sumamente conflictivo y se polarizaron opiniones: rechazo y aceptación. En 1991, Janice M. Morse concibió un sistema para simbolizar los diseños mixtos y propuso modelos. En 1997 Richard Grinnell visualizó diseños específicos, al igual que Creswell (1998).

Tashakkori y Teddlie (1998) nos proporcionan otras posibilidades para análisis en los diseños mixtos y revisan la reciente historia de los métodos mixtos. Durante esta década el enfoque mixto se aplica en diversos campos como la Educación, la Comunicación, la Psicología, la Medicina y la Enfermería. Se realizan varios congresos para debatir el tema. Denzin y Lincoln (2000) presentan una amplia discusión sobre la triangulación. Creswell, Plano, Clark, Guttman, y Hanson (2003) presentan una tipología de diseños mixtos. Tashakkori y Teddlie (2003) efectúan una revisión del estado del arte en la materia. En el 2004 y 2005 se realizan diversas revisiones de las posibilidades del enfoque mixto (Creswell, 2005; Mertens, 2005; Grinnel y Unrau, 2005). Y, nuevamente, aquí estamos. Mertens (2005, pp. 8 y 9) compara los paradigmas presentados en el presente capítulo, haciéndose las siguientes preguntas: 1. La pregunta relativa a la realidad (ontológica): ¿Cuál es la naturaleza de la realidad? (¿cómo se concibe?). 2. La pregunta sobre la naturaleza del conocimiento y la relación entre el investigador y el fenómeno estudiado (epistemológica): ¿Cómo son concebidos el conocimiento y la relación entre el investigador y el fenómeno estudiado? 3. La pregunta sobre el método: ¿De qué manera el investigador obtiene el conocimiento deseado y comprende el fenómeno? Hemos adaptado las respuestas en la tabla 1.1. Tabla 1.1 Principales paradigmas en la investigación
CARACTERÍSTICAS
Y SUPUESTOS.

POSPOSITIVISMO.

CONSTRUCTIVISTA.

TRANSFORMATIVO.

PRAGMÁTICO.

Etiquetas asociadas con el paradigma

• • • •

Experimental Cuantitativo Causal Comparativo

• • • • • •

Naturalista Fenomenológico Hermenéutico Interaccionista simbólico (interactivo) Etnográfico Cualitativo

• Teoría crítica • Neo-marxista • Feminista • Participativo • Emancipatorio

Métodos y modelos mixtos o híbridos

Múltiples realidades, Supuesto de realidad Una realidad conocida en términos de probabilidad. Múltiples realidades, construidas socialmente. formadas por el contexto social, político, económico, cultural y étnico. Lo que es útil para explicar un fenómeno es lo verdadero.

13

realidad

en términos de probabilidad.

construidas socialmente.

contexto social, político, económico, cultural y étnico.

explicar un fenómeno es lo verdadero. Las relaciones entre el investigador y el fenómeno, o participantes del estudio, están determinadas por lo que el investigador considera como apropiado para cada estudio en particular.

Supuesto del conocimiento y relación entre el investigador y el fenómeno

La objetividad es importante, el investigador observa, mide y manipula variables; se desprende de sus tendencias.

El conocimiento es interactivo, producto del vínculo entre el investigador y los participantes. Los valores y tendencias de todos los involucrados son hechas explícitas, generan descubrimientos.

El conocimiento es interactivo, producto del vínculo entre el investigador y los participantes. Se sitúa social e históricamente.

Supuesto metodológico

Básicamente cuantitativo e intervencionista.

Básicamente cualitativo, hermenéutico y dialéctico.

Con bases cualitativas, pero pueden utilizarse métodos cuantitativos y mixtos. Los factores históricos están incluidos.

El método depende del planteamiento específico del estudio. Son válidas las técnicas cuantitativas, cualitativas y mixtas.

El siglo XX inició con un enfoque principal, el cuantitativo; y culminó con dos enfoques fundamentales: cuantitativo y cualitativo. No es el caso de que uno substituyera al otro, sino que el segundo se agregó al primero. El siglo XXI comienza ahora con una tercera vía (que se viene gestando desde dos décadas atrás): el enfoque mixto. Los próximos 10 años son fundamentales para que este adolescente (o híbrido) madure. Ustedes lectores, tienen la palabra.

14

CAPÍTULO 2

LA ÉTICA EN LA INVESTIGACIÓN

LA INVESTIGACIÓN INVOLUCRA SERES HUMANOS
La investigación en las ciencias médicas y sociales involucra seres humanos como participantes en experimentos, encuestas, entrevistas y estudios cualitativos. Incluso, a veces son coinvestigadores (por ejemplo, la investigación-acción participante o participativa). Aun cuando se revisan registros escolares, cartas y materiales audiovisuales, se involucra a personas, las cuales tienen derechos como sujetos de un estudio. Por ello, los aspectos éticos son relevantes. A continuación mencionaremos brevemente algunas cuestiones éticas en la investigación. Respeto a los derechos de los participantes De acuerdo con los Principios éticos y el Código de conducta de la American Psychological Association (2003), los participantes en una investigación tienen los siguientes derechos: • Estar informados del propósito de la investigación, el uso que se hará de los resultados de la misma y las consecuencias que puede tener en sus vidas. • Negarse a participar en el estudio y abandonarlo en cualquier momento que así lo consideren conveniente, así como negarse a proporcionar información. • Cuando se utiliza información suministrada por ellos o que involucra cuestiones individuales, su anonimato debe ser garantizado y observado por el investigador (por ejemplo, podemos usar datos de un censo sin tener que pedir la aprobación de toda la población incluida, pero estos datos no son individuales ni personales). Adicionalmente mencionaremos que es conveniente que los participantes reciban “algo” en reciprocidad de su involucramiento en un estudio Por ejemplo, capacitación, información, un regalo, ayuda de algún tipo (como una terapia, soporte emocional después de que el estudio concluyó, una consulta médica,
2

consejos, entre otros), recursos económicos (aunque como señala Creswell, 2005), este financiamiento no debe ser excesivo, un reconocimiento (un diploma, una carta) o al menos, un agradecimiento particularizado. Asimismo, es sumamente importante que conozcan los resultados finales de la investigación (asunto que en los estudios cualitativos es necesario para la calidad de los mismos). Wiersma y Jurs (2005) identifican dos aspectos relacionados con tales derechos: Consentimiento o aprobación de la participación. Además de conocer su papel en una investigación específica, es necesario que los participantes proporcionen el consentimiento explícito acerca de su colaboración (preferentemente por escrito, en especial en estudios cualitativos). Las formas de aprobación deben adaptarse a los requerimientos legales de la localidad donde se lleve a cabo la investigación (en varios países no existe todavía una regulación en la materia, entonces debemos explicitar en el documento algo así como: Nombre de la persona__________________, consiento o apruebo participar en el estudio –nombre de éste–, de manera voluntaria y en el pleno uso de mis facultades físicas y mentales…). En el caso de menores de edad se requiere el consentimiento de los padres de familia (por escrito) y de los niños o jóvenes participantes. Si además, se involucra a una o varias instituciones, se requiere también de la aprobación de un representante legal de éstas (por ejemplo, en escuelas, empresas, asociaciones, centros deportivos o comerciales). A veces, por cuestiones de tiempo, podemos tener una sola forma con la leyenda o frase de aprobación y espacios para que cada participante la firme (formato colectivo). Esto es muy común en encuestas. De igual forma, en una parte del cuestionario se puede agregar un breve mensaje: “El responder a este cuestionario implica su aprobación para participar en el presente estudio”. El consentimiento depende de qué tan efectivos seamos al presentar los objetivos de la investigación. Asimismo, si vamos a grabar a los participantes (audio y video), ellos deben autorizar tal acción. Confidencialidad y anonimato. Se refiere a que no se revele la identidad de los participantes ni se indique de quiénes fueron obtenidos los datos (por ejemplo, en un estudio del clima organizacional que revela aspectos delicados de una empresa como la moral interna y la motivación, no

resulta conveniente señalar el nombre de la organización, salvo que así lo soliciten la directiva y los representantes de los trabajadores). En el caso de una investigación cualitativa donde se revelan sentimientos profundos, la confidencialidad debe ser absoluta ya que es una promesa que se cumple a los participantes. En una ocasión, los autores efectuamos un estudio de clima laboral y los directivos quisieron que les proporcionáramos los nombres de quienes habían evaluado desfavorablemente a la empresa, por supuesto, la negativa a tal petición fue rotunda, lo que significó la renuncia inmediata y sin concesiones. Traicionar la confianza de los participantes es una seria violación a los principios de la ética y la moral. Inaceptable. En el caso de los materiales de audio y video, éstos nunca podrán ser mostrados a personas ajenas al equipo de investigación, cuyos miembros se comprometen por escrito a nunca revelar la identidad de los participantes ni enseñar los materiales. Se deben guardar en un lugar seguro y destruirse en un tiempo razonable. Los participantes deben decidir cuándo eliminarse. Otro elemento importante es el respeto a la privacidad de los participantes, no podemos entrometernos en las vidas de las personas. Cuando se filma abiertamente (por ejemplo, en un parque o un centro comercial), por lo regular las conductas de las personas son públicas (observadas por otros) y no es una situación crítica (de hecho, las cámaras de seguridad graban de forma permanente el comportamiento de las personas que transitan por el lugar), pero dentro de un hogar, en una escuela o un hospital, debemos obtener la autorización de los gatekeepers y de los participantes, quienes al principio estarán conscientes del hecho, pero paulatinamente se olvidarán de éste. El investigador o investigadora está obligado a proteger a los participantes de riesgos, daños y amenazas que pudieran afrontar ellos y el equipo de investigación. Cualquier cuestión que los pueda dañar física y/o mentalmente, de manera irreversible o aún reversible, debe eliminarse. Un ejemplo, ocurrió hace poco tiempo a uno de los autores. Un grupo de investigadores realizó un estudio en una prisión para evaluar los factores que contribuyen a la readaptación positiva de los reos a la sociedad. En la investigación participaron estudiantes. Cuando concluyó la etapa exploratoria, uno de los investigadores les pidió a los alumnos que obtuvieran información sobre la corrupción dentro de la cárcel. Lo cual
4

significa poner en un severo riesgo a los jóvenes y resulta inadmisible. Se impidió que tal situación se presentara, pues si al investigador le interesa el fenómeno de la corrupción, él mismo debe investigarlo bajo su propio riesgo. Una cuestión debatida sobre las amenazas potenciales a participantes ocurre frecuentemente en la Medicina, pues siempre hay una primera persona que se expone a un nuevo tratamiento o medicamento y corre un riesgo elevado. Tal fue el caso de una niña bebé (Eileen Saxon y sus padres), quien en 1944 debió someterse en el hospital Johns Hopkins a una operación innovadora para su época y que la comunidad médica de ese entonces, en su mayoría, concebía como algo casi imposible. La cirugía implicó el ensamblar de una arteria que se dirigía al corazón a una arteria que conducía a los pulmones, en una tentativa de dar a la sangre una segunda ocasión para su oxigenación. Esta primera operación del “bebé azul” vino a ser conocida como la desviación de Blalock-Taussig. La intervención quirúrgica era parte de una investigación. El dilema para el médico cirujano-investigador y su asistente (doctor Alfred Blalock y el señor Vivien Thomas, respectivamente) fue que para continuar el estudio y salvar muchas vidas, se necesitaba efectuar la cirugía, que evidentemente colocaba en riesgo a la pequeña participante. ¿Qué hacer en estos casos? La respuesta es compleja. En el ejemplo todo resultó bien y la bebé (cuya esperanza de vida era de unos meses), salió exitosa de la operación. Pero no siempre ocurre así, por ello, el doctor Roberto Hernández Galicia recomienda que en estos casos deben agotarse todas las demás posibilidades antes de seguir adelante, minimizarse los riesgos, experimentar con animales (con el debido cuidado y observancia de las leyes de protección a éstos) hasta que los procedimientos sean asegurados y evitar que sea el ego del investigador quien “guíe” las decisiones.

Respeto al lugar donde se efectúan las investigaciones El contexto en el cual se conducen las investigaciones debe ser respetado. Primero, obteniendo los debidos permisos para acceder al lugar de parte de personas autorizadas (gatekeepers). Segundo, al observar y cumplir con las reglas del sitio y recordar que somos “invitados”, por lo cual tenemos la obligación de ser amables, cooperativos, cordiales y respetuosos de las personas, sus creencias y costumbres.

Otros asuntos éticos Cuando se recolectan opiniones, especialmente en un estudio cualitativo, debemos intentar incluir todas las voces y puntos de vista de los diferentes actores y grupos sociales. No podemos marginar a ciertas personas. Asimismo, en la investigación no tienen cabida el racismo o la discriminación. Todos los participantes, de cualquiera de los dos géneros, niveles socioeconómicos y orígenes étnicos son igualmente importantes y merecen el mismo respeto. Por otro lado, es necesario que seamos sensibles a la cultura de los participantes. Finalmente, los resultados deben reportarse con honestidad (sin importar cuáles hayan sido) y es fundamental reconocer las limitaciones de la investigación y las nuestras propias.

CAPÍTULO 3
MARCO TEÓRICO: COMENTARIOS ADICIONALES, BÚSQUEDA MANUAL Y POR INTERNET

COMENTARIO
Algunos de los elementos del presente capítulo se habían incluido en ediciones anteriores de Metodología de la investigación, en la parte impresa, ahora se localizan a continuación. Antes, revisaremos ciertas cuestiones referentes al marco teórico que quedaron pendientes en la obra.

¿CUÁNTAS FUENTES PRIMARIAS DEBEN CONSTITUIR EL MARCO TEÓRICO?
Ya se comentó que esto depende del planteamiento del problema, el tipo de reporte que estemos elaborando y el área en la cual nos situemos, además del presupuesto. Por lo tanto, no hay una respuesta exacta. Sin embargo, algunos autores sugieren que entre 20 y 30 referencias es lo usual (Mertens, 2005). En una investigación en licenciatura para una materia o asignatura el número puede variar entre 10 y 20, en una tesis en el mismo nivel de 20 a 25, en un artículo para una revista científica, entre 35 y 60, al igual que una tesis de maestría. En una disertación doctoral el número se incrementa entre 60 y 100 (no son de ninguna manera estándares, pero resultan en la mayoría de los casos). Sin embargo, deben ser referencias directamente vinculadas con el planteamiento del problema, es decir, se excluyen las fuentes primarias que mencionan indirectamente o de forma periférica el planteamiento, aquellas que no recolectan datos o no se fundamentan en éstos (que son simples opiniones de un individuo) y también las que resultan de trabajos escolares no publicados o no avalados por una institución. ¿Qué tan extenso debe ser el marco teórico? Al igual que con la pregunta anterior, son múltiples los factores que determinan la extensión de los marcos teóricos. En los estudios cualitativos es mínima o se discute la revisión de la literatura en los resultados, tal como se puede apreciar en el libro. En los cuantitativos, Creswell (2005) sugiere que en propuestas de tesis de posgrado y estudios profesionales oscilen entre 10 y 15 cuartillas estándares

(nosotros creemos que entre ocho y 15 es adecuado), en artículos para revistas científicas, de seis a 12; en tesis, de 25 a 50. Una tendencia es que el marco teórico sea breve y concreto, pero sustancial. ¿Qué se revisa de una referencia primaria? Mertens (2005) y Creswell (2005) sugieren una revisión que se presenta en la figura 3.1. Figura 3.1 Revisión de una referencia primaria

Planteamiento del problema e hipótesis

Paradigma del investigador

Diseño

Muestra: Tamaño, características de participantes, método de selección utilizado.

Si las referencias no coinciden en su planteamiento con el nuestro, se desechan o se revaloran. Cuando el paradigma es distinto, debemos considerar si resultan útiles. El diseño, muestra, análisis, resultados y discusión deben ser apropiados de acuerdo al planteamiento del estudio revisado (consistentes). Además podemos evaluar cada referencia de acuerdo con los criterios que se presentan en el último capítulo de este disco.

Estrategia de análisis y tipos de análisis realizados.

Resultados y discusión

Para analizar las referencias, recordemos que se toma en cuenta:  Cercanía o similitud a nuestro planteamiento (utilidad).  Cercanía a nuestro método.  Similitud a nuestra muestra.  Fecha de publicación o difusión (entre más reciente, mejor).  Rigor (cuantitativo, cualitativo o mixto). No olvidemos que en el enfoque cuantitativo el marco teórico regularmente influye en el planteamiento y ayuda a formularlo. Uno de los propósitos esenciales de la literatura es ubicar al planteamiento (y estudio) respecto a lo que se conoce y
3

desconoce sobre éste. Nos tiene que indicar: ¿Cuál es el panorama actual respecto al planteamiento? Si no genera claridad sobre el panorama resulta ineficaz. El marco teórico debe tener dirección y progresión Dirección para elegir fuentes primarias apropiadas. Esto implica demostrar cómo otros investigadores han utilizado el conocimiento disponible para refinar sus problemas de investigación y cómo sus preguntas, hipótesis y resultados han evolucionado este conocimiento. Asimismo, deberá resultar evidente en el marco teórico, la forma en que tales investigadores utilizaron la literatura para establecer sus conclusiones y responder a las preguntas de sus estudios. El marco teórico se desarrolla para documentar cómo nuestra investigación agrega valor a la literatura y/o conocimiento existente. Si nuestro estudio únicamente duplica lo que ya se sabe, no agrega ningún valor. Recordemos: Sistematizar las referencias por título, autor, temas y subtemas, palabras clave u otro criterio lógico (o una organización cruzada considerando varios criterios). Buscar fuentes primarias recientes o clásicas, pero relevantes en la historia del análisis del problema de nuestra investigación. Otro ejemplo de qué hacer cuando no existe literatura Incluso planteamientos novedosos o que han recibido poca atención en el pasado, comparten alguna similitud con aquellos que sí han sido estudiados, por lo cual sus referencias pueden sernos útiles (este caso solamente ocurre cuando verdaderamente existen pocas fuentes primarias vinculadas a nuestro planteamiento).1 A finales de los años de 1980, si nuestro planteamiento se hubiera referido a la indiferencia de los jóvenes para evitar tener relaciones sexuales o tomar precauciones mediante diversas técnicas novedosas para la época (desinterés que provoca embarazos no deseados). Al momento de iniciar la investigación nos hubiéramos percatado de que muchas de esas técnicas no se conocían (algunas no se habían inventado o su creación era reciente) y muy pocos estudios habían sido efectuados previamente. No se dispone de literatura sobre el planteamiento concreto, sin embargo, sí podríamos encontrar referencias abundantes sobre tópicos vinculados, los cuales proporcionarían dirección a la investigación. Entre
1

El ejemplo está adaptado deYedigis y Weinbach (2005).

4

tales temas (con fuentes primarias para la revisión de la literatura) ubicaríamos los siguientes: - Uso de los anticonceptivos tradicionales. - Tasas de éxito de los anticonceptivos. - Actitudes respecto a la utilización de tales anticonceptivos. - Temores de los jóvenes para utilizarlos. - Valores que evitan tener relaciones sexuales prematrimoniales. - Obstáculos para utilizar los servicios de salud (públicos y privados) en la prevención de embarazos. - Recompensas y castigos sociales para las jóvenes embarazadas. - Niveles de información sobre las consecuencias del embarazo antes del matrimonio. Y otras más. Respecto a cada problema, casi siempre hay literatura disponible.

PROCESO PARA BUSCAR REFERENCIAS DE FORMA MANUAL Y EN INTERNET
En la actualidad, obtener las fuentes primarias (piezas de la literatura o referencias bibliográficas), es posible hacerlo a través de varios medios: 1. Acudiendo a un banco o una base de datos (ya sea mediante internet, un directorio especializado o directamente al sitio por su dirección electrónica). 2. Manualmente en una biblioteca. 3. A través de internet, mediante un motor de búsqueda tal como se mencionó, en términos generales, en el cuarto capítulo del libro (Googgle, Yahoo, Copernic, etcétera). Acudiendo a un banco/base de datos por vía electrónica Los bancos o las bases de datos manuales y las que se encuentran en la web, contienen una cantidad considerable de referencias bibliográficas sobre diversos temas y problemas de investigación. Al acudir a una base de datos, sólo nos interesan las referencias que se relacionen directamente con el problema concreto
5

a investigar. Por ejemplo, si pretendemos analizar la relación entre el clima organizacional y la satisfacción laboral, ¿cómo encontraremos las fuentes primarias que en verdad tienen que ver con el problema de estudio que nos incumbe? Primero, con la revisión de una base de datos apropiada. Si nuestro tema trata sobre clima organizacional y satisfacción laboral, no consultaríamos una base de datos sobre cuestiones de química como Chemical Abstracts ni una base de datos con referencias de la historia del arte, sino una base de datos con fuentes primarias respecto a la materia de estudio, tal es el caso de Wiley InterScience, Communication Abstracts y ABI/INFORM (bases de datos correctas para nuestra investigación). Si vamos a comparar diferentes métodos educativos por medio de un experimento, debemos acudir a la base de datos adecuada: ERIC (The Education Resources Information Center). Una vez elegida la base de datos que emplearemos, procedemos a consultar el “manual de temas, conceptos y términos” (thesaurus) respectivo2, que contiene un diccionario o vocabulario en el cual podemos hallar un listado de palabras para realizar la búsqueda. Del diccionario debemos seleccionar las palabras o conceptos “clave” que le proporcionen dirección a la búsqueda (que son los términos contenidos en el planteamiento del problema). Con tales palabras iniciamos ésta. La búsqueda nos proporcionará un listado de referencias vinculadas a las palabras clave (dicho de otra manera, el listado que obtengamos dependerá de estos términos llamados descriptores, los cuales escogemos del diccionario o simplemente los utilizamos y provienen del planteamiento). Por ejemplo, si vamos a revisar en la base de datos ERIC y de su diccionario o vocabulario seleccionamos las palabras o el descriptor “Teacher effectiveness” (efectividad del profesor); el resultado de la consulta será una lista de todas las referencias bibliográficas que estén en ERIC y que se relacionen con la “efectividad del profesor”. Si la búsqueda la hicimos el 29 de noviembre del 2005, se obtienen 38 585 referencias (que son demasiadas, por lo que tenemos que utilizar más descriptores o incrementar nuestra precisión). Las palabras o descriptores sirven para limitar o ampliar el universo de referencias a solicitar. Se usan conjuntamente con tres preposiciones (denominadas operadores del sistema booleano): and (en español “y”), or (en español “o ” ) y and not (en español “y no”). Con los descriptores y las preposiciones estableceremos los límites de la consulta al banco o la base de datos.
2

De acuerdo con Cornell University Library (2005), el thesaurus es una lista de todos los títulos o descriptores usados en cierta base de datos, catálogo o índice.

6

Para comprender lo anterior, tomemos primero a un ejemplo ficticio con una supuesta base de datos. Supongamos que queremos analizar la música del grupo de rock The Beatles y que acudimos a la base de datos ROCKERS3 para hacer nuestra revisión de la literatura. Consultamos el manual o diccionario (thesaurus) de ROCKERS, buscamos por orden alfabético las palabras o los descriptores que nos lleven a obtener un listado de referencias pertinentes para nuestro problema a investigar (la música del grupo The Beatles). Obviamente elegimos el término “Beatles”. Si seleccionáramos las palabras “Rolling Stones” o “Madonna”, no nos servirían. Entonces solicitamos un listado de referencias con la palabra elegida (“Beatles”); así obtendremos todas las referencias contenidas en ROCKERS que hablen o tengan que ver con The Beatles, incluso sobre la niñez de sus integrantes, la historia de sus familiares, sus gustos, la trágica muerte de John Lennon o George Harrison y muchos otros aspectos. Esto se representa en la figura 3.2. Figura 3.2 Universo de referencias en la búsqueda de ejemplo

 Universo de referencias

 

 Beatles  

  

Pero si nada más nos interesan los contenidos de sus canciones, debemos elegir adicionalmente otras palabras u otros descriptores del manual para delimitar nuestro universo de referencias; por ejemplo: “SONGS” (canciones) y conectarlos con “AND”. Entonces nuestro universo de referencias sería la intersección entre “Beatles” Y “songs” (que se muestra en el espacio con las líneas). Solamente se recuperan los registros que contienen todos los términos incluidos en la búsqueda, las referencias que comprenden las dos palabras, y se muestra en la figura 3.3.
3

Obviamente la base de datos es ficticia.

7

Figura 3.3 Intersección de la búsqueda en el ejemplo

Si agregáramos el término “CONTENT” (contenido). De esta manera, nuestros descriptores serían “Beatles”, “songs” y “content”, los cuales se utilizarían de diferente modo según las preposiciones que escojamos para vincularlos. Si incluimos todos los términos entrecomillados (“BEATLES SONGS CONTENT”), nuestro listado producto estaría constituido por todas las referencias de The Beatles que tengan que ver con el contenido de sus canciones. Lo mismo ocurre si los relacionamos con la preposición AND (BEATLES AND SONGS AND CONTENT). La figura 3.4 refleja lo anterior.

Figura 3.4 Búsqueda del ejemplo con tres descriptores

8

“Beatles” es un universo de referencias que contiene todo lo escrito o grabado física y electrónicamente sobre ellos. “Songs” es un universo que incluye todo lo que se relacione con las canciones de The Beatles, Schubert, Wagner, Joan Manuel Serrat, Ana Belén, Pablo Milanés, Vivaldi, El Tri, Joaquín Sabina, Plácido Domingo, Pink Floyd, U2, Shakira y todos los compositores e intérpretes de cualquier género en la historia de la música; pero a nosotros en este caso sólo nos interesarían los contenidos (CONTENT) de las canciones (SONGS) de The Beatles (BEATLES). Insistimos que el listado de referencias a obtener se limitaría a investigaciones sobre el contenido de las canciones de The Beatles. Nada más. El listado sería resultado de la intersección de los tres descriptores. El uso de la preposición “OR” (“o”) es menos frecuente y tiene un efecto de expansión del universo de referencias (BEATLES OR SONGS). El listado a obtener son todas las referencias sobre The Beatles y sobre canciones en general (de The Beatles y de todos los demás grupos e intérpretes en la historia de la música). Veámoslo gráficamente en la figura 3.5.

9

Figura 3.5 Ampliación de la búsqueda del ejemplo por el uso de la preposición “or”

El uso de la preposición “AND NOT” (“y no”) produce el efecto de excluir las referencias del universo de uno de los descriptores (BEATLES AND NOT SONGS). El listado a obtener son todas las referencias sobre The Beatles, excepto las relacionadas con sus canciones (ver figura 3.6). Figura 3.6 Delimitación de la búsqueda con la preposición “and not”

10

Cada base de datos tiene un thesaurus o manual con su correspondiente vocabulario, por lo que es necesario aclarar que este vocabulario contiene un número limitado de palabras o descriptores. Si no encontramos alguna palabra, es posible recurrir a un sinónimo o a un término relacionado. El caso es que las palabras o descriptores reflejen el planteamiento del problema de investigación. Hemos de decir que hoy en día algunas bases de datos aceptan casi cualquier término. Por ejemplo, en un estudio realizado por los autores que analizó los factores que determinan las decisiones de compra de las áreas de adquisición de grandes empresas mexicanas, se seleccionó la base de datos INFO (en administración) y las palabras o los descriptores “P U R C H A S E” (compras) y “DEPARTMENT” (departamento). Esta última no aparecía en el diccionario de INFO, por lo cual se sustituyó por “SYSTEMS”. El acceso a la base de datos y en consecuencia, al universo de referencias, se efectúa mediante internet y posteriormente los descriptores y las preposiciones actúan como fundamentos del acceso a dicha base. El resultado como ya dijimos es un listado de referencias. La base nos proporciona el número de referencias que se inscriben dentro de los descriptores escogidos, y además, de cada referencia: a) los datos completos (título, autor o autores, editorial o revista, fecha de publicación, páginas, etc.), b) el resumen y c) localización; incluso en algunas bases, la posibilidad de obtener en línea, la referencia completa. Asimismo, el investigador puede buscar las referencias físicas en alguna biblioteca. Por otro lado, es posible solicitar referencias de un periodo determinado (último año, 2005-2006, últimos cinco años, etc.). Incluso, pedir el listado cronológicamente (empezando por las referencias más recientes). Veamos el ejemplo de varias consultas: 1) ESTUDIO SOBRE LAS ÁREAS DE COMPRAS. fecha de consulta: 09/30/01 ENTER DATA BASE NAME: info (nombre de la base de datos) BRS-SEARCH MODE ENTER QUERY

11

(instrucción para que indiquemos nuestros descriptores) 1: PURCHASE RESULT 525 descriptor 1 número de referencias en “info” sobre “compras” a la fecha de consulta. 2: SYSTEMS RESULT 3: 1 y 3234 2 descriptor 2 número de referencias en “info” sobre “sistemas” a la fecha de consulta. (“Purchase” y “Systems”) Hay 77 referencias de interés sobre “compras” y “sistemas”. RESULT 77 Podríamos haber sido directos: 1: PURCHASE AND SYSTEMS RESULT 77 Y nos enlista los títulos o los datos completos y resumen. El siguiente es un ejemplo en inglés (como en la mayoría de las bases de datos): AN 75-02236 AU MACRI-L-G TI. Post acquisition and the systems executive SO. Infosystems. VOL: V.22 N 2. PAG: 52-53. FEB. 1975 AB THERE IS A NEW ROLE FOR THE SYSTEMS EXECUTIVE EMERGING IN COMPANIES THAT HAVE MAJOR ACQUISITIONS PROGRAMS AND A CENTRALIZED SYSTEMS AD PROCEDURES DEPARTMENT. KEY MANAGEMENT EXECUTIVES IDENTIFY POTENTIAL ACQUISITIONS, EVALUATE POTENTIALS, NEGOTIATE THE TERMS OF AND CONSUMMATE THE ACQUISITION. ONCE CONSUMMATED, MANY ACTIVITIES HAVE TO BE IDENTIFIED: PLANNED AND IMPLEMENTED. THE SYSTEMS EXECUTIVE CAN HELP THE PARENT COMPANY BY IDENTIFYING ACTIVITIES AND DEPARTMENT OF FUNCTIONS TO BE INVOLVED IN THE INTEGRATION PROCESS, PLANNING THE POSTACQUISITION PROCESS, PROVIDING THE SYSTEMS AND PROCEDURES SUPPORT AND COORDINATING THE ACTIVITIES.

12

Referencia 2. Referencia 3. Etcétera. 2) ESTUDIO SOBRE LA EFECTIVIDAD DE LOS MAESTROS (ver en este CD documento: EFECTIVIDAD DE LOS MAESTROS, en PDF). La búsqueda la incluimos en un documento aparte para poder ver la página de la base de datos (ERIC).

Consulta manual a bancos/bases de datos Ciertas bases de datos que se consultan por computadora también pueden accesarse manualmente. Asimismo, otras sólo pueden revisarse de forma manual (pero en este segundo caso se trata de bases más antiguas, de mediados de la década de 1990 hacia atrás). Las bases de datos manuales están formadas por varios tomos o volúmenes que contienen referencias, las cuales están compiladas en orden alfabético, cronológico, por temática, autor o combinación de posibilidades. Al igual que las bases de datos electrónicas, las manuales se actualizan en forma periódica: algunas de manera mensual y otras bimestral, semestral o anualmente. Esto se ejemplifica en los esquemas de la figura 3.7.

Figura 3.7 Forma de verificación de la actualización de manuales en bases de datos

Si la actualización es anual vol.
Volúmenes

vol.

vol.

vol. del último año

2003

2004

2005

Si la actualización es mensual

Volúmenes

Último mes

Meses

La manera de examinarlas varía de acuerdo con los diferentes casos. Algunas se consultan igual que las bases de datos cuyo acceso es electrónico: se utiliza un manual o thesaurus, que contiene un diccionario o vocabulario de descriptores. Elegimos de éste los descriptores que se vinculen más directamente con nuestro problema de investigación y acudimos, por medio de un índice, a los volúmenes, los apartados y las páginas indicadas para obtener referencias. Otras están organizadas por volúmenes y números cronológicos que, a la vez, se encuentran estructurados por autor, materias y/o títulos. En éstas comenzamos por el volumen y/o número más reciente: acudimos a los índices y en las páginas indicadas buscamos las referencias de interés. Lo mismo hacemos con el penúltimo volumen y/o número publicado, con el que le antecedió y así sucesivamente hasta que encontremos suficientes referencias para desarrollar el marco teórico. Veamos un ejemplo de una base de datos manual con índices. La editorial Sage publica la base de datos Communication Abstracts, cuya frecuencia es bimestral (cada año, un volumen está integrado por seis números). Se encuentra organizada por áreas de la comunicación: ABSTRACTS Página del índice anual Área temática de la comunicación

14

743 750 755 758 771 777 794 811 821 827 827 830 841 853 855 858 860

Communication Processes. Interpersonal Communication and Relations. Economics and Communication. Communication, Culture, and Society. Education and Communication. Health Communication. Political Communication. Communication, Regulation, and the Law. Organizational Communication. Public Relations. Advertising, Marketing, and Consumer Behavior. Mass Media. Journalism and News Media. Popular Culture and the Media. Communication and Information Technology. Telecommunications. Communication Theory and Research.

Supongamos que vamos a investigar sobre los efectos de la violencia televisada en los niños. Revisaríamos en cada volumen lo que se ha reportado sobre el tema. El siguiente es el volumen 24, núm. 6, noviembre-diciembre, 2001, de Communications Abstracts. Buscamos en “Mass Media” (porque nuestro planteamiento se circunscribe en este rubro). Nos vamos a la página 830 y vemos qué referencias se incluyen. La siguiente lista de fuentes primarias contiene referencias sobre los medios de comunicación colectiva en el periodo citado (aparecen en negritas las referencias que pueden resultar de interés, porque se vinculan con nuestro planteamiento, y recortamos algunas referencias para simplificar el ejemplo, por ello el lector notará una numeración discontinua). MASS MEDIA 830 1867 Amezaga, J., et al. The uses of television by the Maghreb immigrants at Bilbao. Zer 10:81-106, May 2001. BILBAO. DIASPORAS. GLOBALIZATION. MAGHREB IMMIGRANTS. SATELLITE TELEVISION. SPAIN. TELEVISION PROGRAMMING. TELEVISION USE.

For centuries, diasporic communities have tried to keep their cultural identity close by. Globalization adds new dimensions to that phenomenon, and as a result of it new research fields and theoretical proposals are being constructed. One of the elements that contributes to the new dimension of the phenomenon is the possibility to access to the media of the place of origin via satellite, internet and in other ways. In order to observe this phenomenon, the authors observed how immigrants of Maghreb in Bilbao use satellite television, especially Arabic language television. The authors found that the use of this medium gives them the possibility of keeping in touch with their homeland. 1871 Bracken, C. and Lombard, M. Uses and gratifications: a classic methodology revisited. New Jersey Journal of Communication 9(1): 103-116, Spring 2001. COLLEGE STUDENTS. MASS MEDIA. RESEARCH TECHNIQUES. USES AND GRATIFICATIONS. This paper describes the results of a uses and gratifications survey, based on the methodology of Katz, Gurevitch, and Haas (1973) that examined the extent to which different media fulfill a variety of human needs. The authors suggest that the Katz, et al. (1973) method should be revisited when investigating uses and gratifications across several media. The paper outlines the uses and gratifications approach, describes the adapted survey, and presents the results of data collected over four years from 241 respondents at a large urban American university. The authors conclude that this study provides evidence of the uses and gratifications of college-age respondents regarding their media use. Overall, the respondents reported that they rely on uses and gratifications to fulfill basic human needs but that the media are only moderately helpful in accomplishing this. Particularly, they reported that although they are dependent on the media (especially television and newspapers) for information regarding state and society, they do not always trust what they see/hear/read in the media. The results indicate that, contrary to popular belief, young adults have not abandoned the newspapers, at least for the surveillance function.

16

1872 Bruce, D. R. Notes toward a rhetoric of animation: The Road Runner as cultural critique. Critical Studies in Media Communication 18(2):229-245, June 2001. CARTOONS. MYTHOLOGY. RHETORICAL ANALYSIS. ROAD RUNNER. TELEVISION PROGRAMMING. TELEVISION VIOLENCE. Recent studies have suggested the need to broaden our approaches to violence in children’s programming. This paper uses the violence of The Road Runner cartoon series as a starting point for a mythic-rhetorical analysis of the message system contained in the cartoon. It explores how the animated short re-enacts the myth of Sisyphus in the context of the post-WorldWar II technological boom in the United States. Technology is the source of most of the violence in the cartoon, and the violence is created by failures of technology. The use of a “children’s” medium to critique our reliance on technology offers substantial freedom to the animator, and, in turn to the viewer and the critic. Examination of the cartoon yields insights into the meanings of cartoon violence, into how media reproduce mythic structures, and into the potentially rich message systems of children’s media. 1873 Bryant, J., and Bryant, J. A., eds. Television and the American family, 2nd ed. Mahwah, NJ: Lawrence Erlbaum Associates, 2001, 467 pp. $99.95/$49.95 FAMILIES. FAMILY RELATIONS. TELEVISION PROGRAMMING. TELEVISION VIEWING. The dynamic changes in television technologies and programming since 1990 are paralleled by the dramatic transformation in the form of the American family. This second edition of this volume considers these significant developments and examines the effects of such extraordinary changes. This edition serves as a current and comprehensive representation of programmatic research into family and television. This update provides an extensive consideration of television’s role in the American family, from the uses families make of television and how extensions of television (such as remote control devices and VCRs) affect usage, to the meanings families have for television, families’ evolving attitudes toward television,

17

and the portrayal of families on television. Contributors also examine the effects television has on families and discuss the ways in which families can mediate television’s impact on their lives. 1874 Bull, M. The world according to sound: investigating the world of Walkman users. New Media & Society 3(2):179-197, June 2001. AUDITORY EXPERIENCE. MASS MEDIA. MEDIA USE. WALKMAN RADIOS. Through the analysis of Walkman use, the author proposes a reevaluation of the significance of the auditory in everyday experience. The author argues that the role of sound has been largely ignored in the literature on media and everyday life, resulting in systematic distortions of the meanings attached to much everyday behavior. Sound as opposed to vision becomes the site of investigation of everyday life in this article. In focusing thus, the author draws on a range of neglected texts in order to provide a dialectical account of auditory and technologically mediated experience that avoids reductive and dichotomous categories of explanation. The author proposes a new evaluation of the relational nature of auditory experience whereby users manage their cognition, interpersonal behavior, and social space. The Walkman is perceived as a tool whereby users manage space, time, and the boundaries around the self. 1876 Carpentier, N. Managing audience participation: the construction of participation in an audience discussion programme. European Journal of Communication 16(2):209-232, June 2001. AUDIENCES. BELGIUM. PUBLIC SERVICE TELEVISION. TELEVISION AUDIENCES. In this article, the theoretical notions of power developed by Giddens and Foucault are combined to serve as a framework for the analysis of the participation of 20 ordinary people in (Jan Publick, an audience discussion program on north Belgian public service television. In this analysis, the positive/generative and negative/repressive aspects of power –united in the Giddean dialectics of control– and especially the management of the participants in the pre-broadcast, broadcast, and post-broadcasting phase and the resistance this management

18

provokes, are brought into focus. The conclusion returns to the Foucauldian question of the (local) overall effect and the production of discourses on participation and ordinary people. Although the ordinary people actually deliver a major contribution to the realization of the program, they are also confronted with the management of the production team, putting their participation into perspective. 1878 Grimes, T. and Bergen, L. The notion of convergence as an epistemological base for evaluating the effect of violent TV programming on psychologically normal children. Mass Communication & Society 4(2): 183-198, Spring 2001. CHILDREN AND TELEVISION. PSYCHOLOGICAL ADJUSTMENT. TELEVISION PROGRAMMING. TELEVISION VIOLENCE. Empirical evidence, which is convincing, that violent television programming can cause psychological abnormality among previously psychologically normal children has yet to surface. However, there is a sizable fraternity of scholars, public policy experts, and lay people who believe that causal evidence is abundant and, in fact, overwhelmingly makes the case. There are four reasons. First, there is much correlational evidence to support the idea that television might have such an effect. Second, there is 834 Communication Abstracts causal evidence that violent TV makes children behave antisocially. However, much of the evidence is produced in “hot house” environments, and definitions of antisocial behaviour are invariably at the discretion of the investigator and not a trained clinician. Third, there is an unstated belief that, with such a preponderance of correlational and causal evidence, a cause and effect relation has been established. This preponderance of evidence forms the basis of the convergence argument. Fourth, most television is, prima facie, offensive. Therefore, there is a natural inclination to believe that it must have some harmful psychological effects. In this article, the authors argue that none of these four reasons warrants confidence in a cause and effect relation between violent television and psychological illness among normal children.

19

1879 Halper, D. L. Invisible stars: a social history of women in American broadcasting. Armonk, NY: M. E. Sharpe, 2001, 344 pp. $39.95 BROADCASTING HISTORY. RADIO. WOMEN. The early years of American broadcasting seem to be an exclusively white male preserve, but the author, a broadcast historian, documents the countless contributions made by women in this field since its earliest days. This artful social history considers our culture’s expectations of women and how those expectations changed throughout the 20th century, how the advent of television changed the landscape of employment opportunities for women in broadcasting, and how both television and radio communicate about gender roles. The book brings to the forefront the stories of key people like Bertha Brainard (one of the first women on the air in New York –and the first woman executive at NBC), Dorothy Thompson (the first woman in radio to make the cover of Time, influential talk-show host Mary Margaret McBride, and many others. 1885 Keane, M. Feng Xiaogang’s disturbing television dramas. Continuum: Journal of Media & Cultural Studies 15(1):57-66, April 2001. CHINA. TELEVISION PROGRAMMING. TELEVISION VIOLENCE. TEXTUAL ANALYSIS. The author’s paper is interested in academic interpretations that are too quick to identify nationalistic discourses, and which close down the ambivalences and contradictions of a text too firmly. Analyzing a group of recent Chinese television dramas, which he sees to be indicative of new modalities of freedom in Chinese public life, he challenges the academics who dismissed these programs as overtly nationalistic, sexist, and entrepreneurialistic. Once again, the author suggests alternative possibilities for interpreting these texts –for it seems to him that these programs are much more open texts that the critics have allowed. He suggests that in the spirit of the Marxist dialectic, contradictions abound in these television programs. The author uses survey material from students to suggest that the possibilities for identification in the programs are more open than academic critics suggest– less nationalistic (allowing identification with American characters); less

20

sexist (allowing identification with female characters); and less insistently entrepreneurial (allowing the possibility of refusing identification with the central, amoral, and entrepreneurial hero of one of the dramas). 1886 Krcmar, M. and Cooke, M. C. Children’s moral reasoning and their perceptions of television violence. Journal of Communication 51(2): 300-316, June 2001. AGE DIFFERENCES. CHILDREN AND TELEVISION. MORAL DEVELOPMENT. MORAL REASONING. TELEVISION VIOLENCE. This experiment examined the effect of a child’s age on his or her interpretation of an act of interpersonal violence on television. A total of 184 children in two age groups were randomly assigned to 1 of 4 viewing conditions in which they watched a violent video clip. The clips depicted identical violent acts; however, punishment (yes/no) of the violent act and provocation (yes/no) for the violent act were manipulated to create four conditions. Following the video clip, children were asked to judge whether the act was right or wrong and why. They then engaged in a test of their willingness to choose aggression as a solution to a hypothetical interpersonal conflict. As predicted, younger children thought that unpunished violence was more right than punished violence. Older children thought that provoked violence was more right than unprovoked violence, although this result only approached significance. Children’s willingness to Mass Media 837 choose a violent story ending to a hypothetical interpersonal conflict was related to their experimental condition for older children but not for younger children. 1889 Nathanson, A. I. Parents versus peers: exploring the significance of peer mediation of antisocial television. Communication Research 28(3): 251-274, June 2001. ANTISOCIAL BEHAVIOR. PARENTAL CONTROL. PARENT-CHILD INTERACTION. PEER PRESSURE. TELEVISION EFFECTS. TELEVISION VIOLENCE. Although research demonstrates that parents can protect their children from harmful media effects by engaging in parental mediation, parental influences may wane when children reach adolescence and face pressures from peers. The Sullivan-Piaget thesis suggests that peers become especially important and

21

influential during adolescence. Surprisingly, very little mass communication research has considered the role of peers in shaping media effects on adolescents. This study took a first look at peer mediation of antisocial television and found that it occurs more frequently and is more potent than parental mediation. In addition, peer mediation promotes more positive orientations toward antisocial television, which in turn leads to greater aggression. Where as parental mediation can inhibit negative media effects, peer mediation seems to facilitate harmful outcomes. It is suggested that future research follow up on this initial study of peer mediation so that this potentially important construct can be further developed and understood. Obviamente evaluamos con detenimiento si son útiles para nuestra revisión de la literatura o marco teórico. Es importarte percatarnos que después de los datos de las referencias aparecen las palabras clave del t h e s a u r u s y de los Communication Abstracts. También, podemos acudir directamente a las revistas científicas y buscar en éstas. Por tal motivo, debemos saber cuáles son las más relevantes en nuestro campo. Si el planteamiento del problema es general y vago, los términos de búsqueda serán poco precisos. Creswell (2005) hace un análisis de las ventajas y desventajas de utilizar internet en la búsqueda de literatura pertinente para el planteamiento del problema, mismas que se muestran en la tabla 3.1.

Tabla 3.1 Ventajas y desventajas de utilizar internet como fuente para localizar bibliografía apropiada para el planteamiento Ventajas Acceso fácil las 24 horas del día. Desventajas Con frecuencia las investigaciones colocadas en sitios web no son revisadas por expertos. Gran cantidad de información en diver- Los reportes de investigación incluidos sos sitios web sobre muchos temas. en los sitios web pueden ser textos plagiados o que se muestran sin el consentimiento del(los) autor(es), sin embargo no lo podemos saber.

22

Información en español.

Puede ser muy tardado localizar estudios sobre nuestro tema y que sean de calidad, pues abundan páginas o sitios que se refieren a nuestro planteamiento, pero no incluyen datos sino opiniones, ideas o servicios de consultoría.

Información reciente.

La información puede estar desorganizada, de manera que es poco útil.

El acceso a los sitios web es inmediato a Para tener acceso a la mayoría de los través de buscadores. textos completos de artículos, debe uno pagar entre $10 y $50 dólares, ya sea en la modalidad de pago para ver el artículo durante 24 horas o con acceso permanente. En la mayoría de los casos el acceso es gratuito o de muy bajo costo. El investigador puede crear una red de contactos que le ayuden a obtener la información que busca. Los estudios que se localicen pueden imprimirse de inmediato.

Método de mapeo para construir el marco teórico
Este método sugerido por Creswell (2005) implica elaborar un mapa conceptual y con base en éste, desarrollar la revisión de la literatura y el marco teórico. Como todo mapa conceptual, su claridad y estructura depende de que seleccionemos los términos adecuados, lo que a su vez, se relaciona con un planteamiento enfocado.

23

Ejemplo del clima organizacional El siguiente es un ejemplo de mapa de la literatura para el caso del clima organizacional de Hernández Sampieri (2005), el cual se trata ampliamente en la segunda parte del libro. Como el fin era validar un instrumento para medir el clima organizacional, las palabras clave fueron: o r g a n i z a t i o n a l climate instrument(s) measurement  definitions  dimensions  factors  models (con el empleo de todas las posibles combinaciones). “Organizational climate” se utilizó debido a que representa el área central del estudio; en tanto que “instruments” y “measurement”, en función de que se pretende validar un instrumento de medición; “definitions”, porque una definición operacional parte de la definición conceptual. Mientras que con “dimensions” y “factors se buscaba considerar las dimensiones concebidas como parte del clima organizacional, y al final se utilizó “models” para encontrar esquemas empíricos sobre sus causas y efectos. Posteriormente, se incluyeron variables relacionadas con el clima organizacional como “organizational culture” (cultura organizacional) y “work involvement” (involucramiento en el trabajo), para ver sus diferencias; sin embargo, se excluyen para el ejemplo con el propósito de no extenderlo. Tales palabras dieron frutos en la búsqueda de referencias a través de las distintas bases de datos (Wiley InterScience, Communication Abstracts y ABI/INFORM). Los términos “dimensions” y “factors” fueron redundantes y se agruparon en un mismo concepto. Por lo tanto, el mapa inicial de conceptos fue el de la figura 3.8 (en este caso, la estructura está fundamentada en los conceptos clave). Figura 3.8 Muestra de una mapa de la literatura Con el ejemplo del clima organizacional tratado en el libro

Clima organizacional

Definiciones

Dimensiones

Instrumentos

para medirlo

Modelos

24

Los conceptos claves del mapa permanecen o se desglosan, según lo indique la literatura esencial que revisemos (estos serán temas en el marco teórico). El mapa va desplegándose en subtemas, como lo podemos apreciar en la figura 3.9.

Figura 3.9 Mapa de la literatura desplegado

Clima organizacional
Dimensiones: - Diversas, más de 85 distintas. Las que se encuentran con mayor frecuencia en la literatura: Moral, apoyo de la dirección, innovación, percepción de la empresa o identificación, comunicación, percepción del desempeño, motivación intrínseca, autonomía, satisfacción general, liderazgo, visión y recompensas.

Concepciones y definiciones: Debates: 1) Esencia. - Medida múltiple de los atributos organizacionales. - Medida perceptiva de los atributos individuales. - Medida perceptiva de los atributos organizacionales. 2) Individual o colectivo. 3) Objetivo o subjetivo.

Instrumentos para medirlo: 28 detectados (cinco validados para el medio laboral de interés).

Modelos: Con mayor abundancia empírica y más recientes: - J. L. Gibson, J. M. Ivancevich y J. H. Donnelly. - Modelo de la diversidad de la efectividad gerencial (W. Wilborn). - Modelo mediatizador del clima organizacional (C. P. Parker y colegas). - Modelo del proceso de juicio común (L. R. James y L. A. James).

Se colocan los autores principales en el mapa (figura 3.10):

25

Figura 3.10 Mapa de la literatura con autores4
Clima organizacional
Concepciones y definiciones: El clima es perceptual, subjetivo y producto de la interacción entre los miembros de la organización. Litwin y Stringer (1968); Brunet (2002); McKnight y Webster (2001); Gonçalves (2004); Sparrow (2001); James y Sells (1981); Parker et al. (2003)… Dimensiones: Litwin y Stringer (1968); Clarke, Sloane y Aiken (2002); Patterson et al. (2005); Brunet (2002); Parker et al. (2003); Ochitwa (2004); Arvidsson et al. (2004); Anderson y West (1998)…

Instrumentos para medirlo: Parker et al. (2003); Ochitwa (2004); Arvidsson et al. (2004); Anderson y West (1998); Patterson et al. (2005); Aralucen (2003)…

Modelos: James et al. (1990); James y James (1992); James y McIntyre (1996) ; Gibson y Donnelly (1979) ; Parker et al. (2003)…

Entonces estructuramos el marco teórico con base en los cuatro temas: 1. Definiciones, características y enfoques del clima organizacional. 2. Dimensiones del clima organizacional. 3. Modelos del clima organizacional. 4. Medición del clima organizacional. 5. Conclusiones al marco teórico. De este modo se coloca el contenido de las referencias en cada apartado. Cabe señalar que éstas fueron obtenidas fundamentalmente de revistas como: Journal

Hemos omitido algunos de los nombres para hacer más breve el ejemplo. Tampoco se incluyen las citas de referencias en la bibliografía del libro o del CD, ya que el ejemplo, aunque es real, se utiliza simplemente para fines ilustrativos. Sí se mencionan las principales fuentes de donde fueron localizadas.
4

26

of Organizational Behavior, Human Resource Management, Human Resource Development Quarterly, Academy of Management Review, European Journal of Work and Organizational Psychology, Investigación Administrativa y otras; además de libros. Para saber qué revistas son importantes se considera el Factor de Impacto (FI o Impact Factor), que es un indicador bibliométrico elaborado por el Institute for Scientific Information (ISI) de EE. UU., el cual se publica en el Journal Citation Reports (JCR), donde se recopilan las revistas por orden alfabético y materias. A cada revista se le adjudica un número (FI) que se calcula al dividir la suma de las citas hechas a esa revista durante un año y al dividirlo por el número total de artículos publicados por dicha revista en los dos años anteriores. Con este indicador se intenta medir el grado de difusión o “impacto”, y por lo tanto de prestigio, que tiene dicha publicación, aunque también es posible conocer el FI de un autor o institución.

Método por índices para construir el marco teórico (vertebrado a partir de un índice general)
La experiencia demuestra que otra manera rápida y eficaz de construir un marco teórico consiste en desarrollar, en primer lugar, un índice tentativo de éste, global o general, e irlo afinando hasta que sea sumamente específico, para posteriormente colocar la información (referencias) en el lugar correspondiente dentro del esquema. A esta operación puede denominársele “vertebrar” el marco teórico (generar la columna vertebral de éste). Por otra parte, es importante insistir en que el marco teórico no es un tratado de todo aquello que tenga relación con el tema global o general de la investigación, sino que se debe limitar a los antecedentes del planteamiento específico del estudio. Si éste se refiere a los efectos secundarios de un tipo de medicamento concreto en adultos de un cierto perfil, la literatura que se revise y se incluya deberá tener relación con el tema en particular; no sería práctico incluir apartados como: “La historia de los medicamentos”, “los efectos de los medicamentos en general”, “las reacciones secundarias de los medicamentos en bebés”, etcétera. El proceso de “vertebrar” el marco teórico en un índice puede representarse con el siguiente esquema (figura 3.11).

27

Figura 3.11 Proceso de vertebración del índice del marco teórico y ubicación de referencias

Subtema 1.1

Referencia 1 Referencia 2

Tema 1

Subtema 1.2
Referencia 3

Subtema 2.1
Referencia 4

Tema 2

Subtema 2.2

Referencia 5 Referencia 6

Subtema 3.1

Temas general es

Referencia 7

Tema 3

Subtema 3.2
Referencia 8

Subtema 3.3

Referencia 9 Referencia 10

Subtema k.1
Referencia 11

Tema k
Subtema k.2
Referencia k

Las referencias se ubican donde les corresponde, a veces es en un subtema o subapartado, a veces en dos, en tres o más…

De esta forma se completan los apartados con contenidos extraídos de las referencias pertinentes para cada uno de ellos; aunque primero se estructura el índice (la columna vertebral). A continuación se muestra un ejemplo:
28

Si se plantea una investigación para determinar los factores que inciden en el voto para las elecciones municipales en Bolivia, hay que considerar que estarán presentes una gran cantidad de variables; por lo cual se toma la decisión de especificar más y acotar el problema (por ejemplo, los factores de imagen de los candidatos que inciden en el voto) o dejarlo en el plano general. La vertebración del marco teórico podría ser la que se presenta a continuación. Factores que inciden en el voto de las elecciones municipales, el caso de Bolivia. 1. 1.1 1.2 Imagen del candidato. Antecedentes del candidato y noticias de él, que los votantes conocen. Atribuciones respecto al candidato (honestidad percibida, experiencia, capacidad para gobernar, liderazgo atribuido, carisma, simpatía, inteligencia y otras). 1.3 1.4 1.5 2. 2.1 2.2 Percepción de la familia del candidato y la vinculación del candidato con ella. Credibilidad del candidato. Presencia física del candidato. Imagen del partido o fuerza política que apoya al candidato. Antecedentes del partido político y conocimiento que tienen los votantes de éste. Atribuciones sobre el partido (honestidad de los gobernantes emanados del partido, resultados demostrados de sus gobiernos, experiencia de gobierno). 2.3 2.4 3. 3.1 3.2. 3.3 3.4 3.5 4. 4.1 4.2 Identificación con el partido político. Credibilidad del partido político. Estructura partidista. Número de afiliados. Cobertura en elecciones. Lealtad partidista. Organización del partido. Productividad de la estructura. Mercadotecnia partidista. Inversión en publicidad y propaganda institucional permanente. Inversión en publicidad y propaganda de los gobiernos municipales emanados del partido.

5. 5.1 5.2 6. 6.1 6.2

Mercadotecnia electoral. Inversión en publicidad y propaganda en medios de comunicación colectiva durante las campañas políticas. Inversión en mercadotecnia directa durante las campañas. Acción electoral. Discursos del candidato, eventos y mítines. Promoción directa del voto. Una vez que existe este índice, vemos si está completo, si le faltan apartados o

le sobran para afinarlos, posteriormente, buscar referencias pertinentes para el desarrollo del marco teórico. Ahora se integran las referencias donde les corresponde. Proceso para buscar en referencias manuales y en internet El proceso de búsqueda de información se resume gráficamente en la figura 3.12, etapa por etapa, y corresponde a cualquier estudio, aunque fundamentalmente al caso de las investigaciones de corte cuantitativo. Figura 3.12 El proceso de búsqueda de referencias
Identificar términos o palabras clave: Pueden derivarse del planteamiento o de un título preliminar del trabajo o investigación. Seleccionar una base de datos apropiada (las principales bases se presentan en un apéndice de este CD).

Recomendaciones: - Utilice palabras que los autores suelan utilizar. - Busque términos en los thesaurus o catálogos de palabras de las bases de datos.

En “ ” (Búsqueda), introducir los términos y las preposiciones booleanas, de acuerdo con el propósito de búsqueda.

Recomendaciones: - Localice artículos, libros, anuarios y guías ( ). - Para la selección de referencias tome en cuenta actualidad, calidad y similitud con el propio planteamiento.

Obtener un listado de referencias vinculadas con el planteamiento. Revisarlas. Elegir las más adecuadas (primero unas cuantas para elaborar el mapa o índice del marco teórico, una vez desarrollado el bosquejo, seleccionar las demás referencias).

Si fotocopia, por favor respete las leyes de derechos de autor.

Internet Para ampliar la búsqueda por medio de internet, hemos elegido un documento que presenta la forma más actualizada de hacerlo. Cabe señalar que muchas de las direcciones electrónicas contenidas en él pueden cambiar, lo importante es que se comprenda el proceso. Más allá de la búsqueda general en la web. UC BERKELEY – Taller de la biblioteca de enseñanza de internet: http://www.lib.berkeley.edu/TeachingLib/Guides/Internet/FindInfo.html

31

CAPÍTULO 4
ESTUDIOS DE CASO

HACIA UNA DEFINICIÓN DEL ESTUDIO DE CASO
En el capítulo 7 de Metodología de la investigación, 4ª edición, se comentó que el estudio de caso se podría definir como “una investigación que mediante los procesos cuantitativo, cualitativo o mixto; se analiza profundamente una unidad para responder al planteamiento del problema, probar hipótesis y desarrollar teoría”. Mertens (2005) define al estudio de caso como una investigación sobre un individuo, grupo, organización, comunidad o sociedad; que es visto y analizado como una entidad. La U. S. General Accounting Office, en 1990, proporcionó una definición de estudio de caso: constituye un método para aprender respecto a una instancia compleja, basado en un entendimiento comprehensivo de esta instancia como un “todo” y su contexto, mediante datos e información obtenidos por descripciones y análisis extensivos (Mertens, 2005). Para Wiersma y Jurs (2005) el estudio de caso es el examen detallado de “algo”: un evento específico, una organización, un sistema educativo, por ejemplo. En términos de Williams, Grinnell y Unrau (2005), el estudio de caso se concentra en una unidad de análisis. Yin (2003) señala que un estudio de caso es una indagación empírica que investiga un fenómeno contemporáneo dentro de su contexto en la vida real, especialmente cuando los límites entre el fenómeno y el contexto no son claramente evidentes. Harvard Business School (1997) lo considera un método y lo utiliza desde 1908 para evaluar unidades organizacionales. Stake (2000) reconoce una situación problemática que surge al tratar de definir al estudio de caso como una forma de investigación. Para resolver el asunto, utiliza el criterio de que el estudio de caso no está definido por un método específico, sino por su objeto de estudio. Entre más concreto y único sea éste, y constituya un sistema propio, con mayor razón podemos denominarlo estudio de caso. Varios autores como Stake (2003), Mertens (2005), Williams, Grinnell y Unrau (2005) opinan que más que un método es un diseño y una muestra, argumentan que los estudios de caso utilizan o pueden utilizar diversos métodos. Al respecto nosotros creemos que su importacia –más que discutir sobre si es un método, un diseño o una muestra– reside en su utilización, por lo cual dejamos que el lector se forme su propia concepción sobre el estudio de caso.

2

Yin (2005) compara a los estudios con otros diseños de investigación, en términos de preguntas de investigación y control de eventos conductuales. El contraste de esta comparación se muestra en la tabla 4.1.

Tabla 4.1 Comparación de los estudios de caso y otros diseños
Estrategia o diseño Experimento Encuestas (surveys) Esencia de las preguntas de investigación ¿Cómo?, ¿cuánto?, ¿por qué? ¿Quién?, ¿qué?, ¿dónde?, ¿cuánto? Estudios históricos ¿Cómo?, ¿dónde?, ¿por qué? ¿cuándo? Análisis de archivos ¿Quién?, ¿qué?, ¿dónde?, ¿cuánto Estudios de caso ¿Cómo? y ¿por qué? No No No Sí No ¿Requiere control de eventos conductuales?

El mismo Robert Yin señala que los diferentes diseños se superponen y que los estudios de caso utilizan fuentes múltiples, al ser empíricos.

COMPONENTES DEL ESTUDIO DE CASO
Para Yin (2003), el estudio de caso está integrado por los siguientes componentes: Planteamiento del problema Proposiciones o hipótesis Unidad de análisis (caso) Fuentes de datos e instrumentos de recolección Lógica que vincula los datos con preguntas y proposiciones Criterios para interpretar los datos Reporte del caso (resultados)

Harvard Business School (1997) por su parte, establece las siguientes fases para el estudio de caso (figura 4.1): Figura 4.1 Fases para el estudio de caso según Harvard Business School y Design Management Institute1

Identificar el caso (un éxito, pero también puede ser un fracaso, un asunto complejo, típico o extremo).

Investigación de antecedentes y su contexto: - Leer tanto como sea posible sobre la compañía, producto, negocio, mercado o tópico. - Ubicar, definir y contextualizar el caso.

Solicitar permiso de los gatekeepers de la empresa (directivos, líderes de los trabajadores, representantes legales, etc.) y obtenerlo.

Trabajo de campo: - Entrevistas con los individuos participantes en el caso (de todos los niveles). - Visitas a la planta, oficinas o sitios donde ocurrió el caso (para entender cuestiones como la tecnología, los procesos de producción, organización y trabajo; el ambiente de la compañía, entre otras). En las visitas se realizan entrevistas, observación sistemática, recolección de más documentos específicos, con la inclusión de materiales audiovisuales, etcétera). - Elaborar notas de campo (recuérdese las notas en el proceso cualitativo). Es importante enfocar el caso en aspectos relevantes y centrales.

Involucrar a la compañía o institución (el caso mismo o cuya participación es decisiva para el caso, como lo sería un mercado o producto): - Obtener documentos de la empresa o institución o del caso mismo (reportes anuales, reportes de investigaciones de mercado, boletines, folletos, revistas internas, artículos en los medios de comunicación, entre otros). - Recolectar información sobre los individuos que participan o participaron en el caso (ejecutivos, diseñadores, asesores, etcétera). - Recolectar información sobre el contexto (por ejemplo, competidores, legislación, datos históricos de la evolución de un mercado y otros).

Análisis de los datos (de acuerdo al tipo de datos e información recolectada).

Elaboración del reporte del caso: - Narración (descripciones). - Tablas, figuras, material de apoyo.

En el estudio de caso, se pueden agregar encuestas o grupos de enfoque como herramientas para recolectar datos adicionales, esquema que resulta compatible con un proceso cuantitativo, cualitativo o mixto.
1

Este proceso se adaptó de la fuente original y resulta más bien propio para estudios de caso de empresas, industrias, mercados, negocios o productos.

4

Los casos negativos son más difíciles de identificar y obtener, dado que suele presentarse mucha menor cooperación por parte de los directivos y es lógico, a casi nadie le agrada mostrar fracasos o aspectos desfavorables, aun cuando el caso sea anónimo. Otro esquema para un estudio de caso es el que se muestra en la figura 4.2. Figura 4.2 Esquema para el estudio de casos

Analizar el caso de manera inicial: descripción inicial del caso, antecedentes y su contexto.

Formular el planteamiento del problema con el caso (objetivos, preguntas de estudio, justificación y explicación del(los) motivo(s) por el(los) que se eligió dicho caso.

Elaborar un primer inventario del tipo de información que se desea recopilar.

Preparar el estudio de caso: información completa que se requiere del caso, tipo de datos que son necesarios y métodos para obtenerlos.

Obtener la información inicial.

Recolectar información adicional

Analizar información adicional

Desarrollar alternativas o cursos de acción, si es el objetivo

Presentar el reporte con recomendaciones y una justificación de éstas

En este proceso, Stake (2000) recomienda recolectar datos e información sobre: La naturaleza del caso. Antecedentes históricos (por ejemplo: clínicos como una enfermedad física o psicológica, historial de ventas, etcétera). Ambiente físico. Contexto o contextos pertinentes (económico, político, legal, social, estético etcétera). Otros casos a través de los cuales el de interés se conoce. Informantes potenciales. Asimismo, sugiere establecer una agenda de recolección de datos.

TIPOLOGÍAS EN RELACIÓN CON EL ESTUDIO DE CASOS
Por su finalidad Stake (2000) identifica tres diferentes tipos de estudios de caso: intrínsecos, instrumentales y colectivos. El propósito de los primeros no es construir una teoría, sino que el caso mismo resulte de interés. Los estudios de casos instrumentales se examinan para proveer de insumos de conocimiento a algún tema o problema de investigación, refinar una teoría o aprender a trabajar con otros casos similares. Por su parte, los colectivos sirven para construir un cuerpo teórico (sumar hallazgos, encontrar elementos comunes y diferencias, así como acumular información). Por el número de casos y la unidad de análisis Por su parte, Yin (2003) establece una clasificación de los estudios de caso, para ello toma en cuenta dos factores: número de casos y unidad de análisis. En cuanto al número de casos la tipología considera: un caso o varios casos (regularmente de dos a 10). Por lo que respecta a la unidad de análisis, Yin (2003) los subdivide en: casos con unidad holística (todo el caso tomado como una sola unidad de análisis) y casos con unidades incrustadas (varias unidades de análisis dentro del caso). Los tipos de casos resultantes de esta clasificación cruzada son diseños de investigación del método de caso (de acuerdo con Yin, 2003), o pueden ser

concebidos como diseños específicos del estudio de caso (en concordancia con otros autores) y se muestran gráficamente en la figura 4.3.

Figura 4.3 Diseños del estudio de caso2

Diseños de un solo caso Contexto

Diseños de múltiples casos Contexto Contexto Contexto

Caso Holístico (se estudia la unidad de análisis completa)

Caso

Caso

Contexto

Contexto Contexto

Caso

Caso

Contexto

Contexto Caso

Contexto Caso
(UA1) (UA2)

Caso Incrustado (múltiples unidades de análisis)

(UA1) (UA2)

Unidad de análisis 1 incrustada (UA1)

Contexto Caso
(UA1) (UA2)

Contexto Caso
(UA1) (UA2)

Unidad de análisis 2 incrustada (UA2)

2

Yin (2003, p. 40).

7

DISEÑOS DE UN SOLO CASO
En los estudios de caso holísticos, el caso es crítico y revelador; generado para confirmar, retar o extender una teoría o hipótesis. Asimismo, pueden documentar una situación o evento único (un individuo con una enfermedad extraña, un producto que incrementa estratosféricamente sus ventas en un periodo relativamente corto, digamos, un año; un sistema social que se transforma radicalmente, una invasión bélica sorpresiva, entre otros). El caso es evaluado de manera completa y profunda, de acuerdo con el planteamiento del problema. Por ejemplo, una institución educativa con un crecimiento vertiginoso, de 90 a 1 500 alumnos en solamente cinco años, que pasó de ser una organización con estándares académicos bajos y una imagen sumamente negativa en la localidad, a constituirse en una institución con estándares elevados y una imagen completamente favorable. El análisis abarcaría diversos rubros tales como sus antecedentes, el clima y la cultura organizacional, los sistemas y programas de mejora, el estilo administrativo, la productividad, la estructura funcional, etc. Lo importante es descubrir las razones de tal éxito. Por su parte, en los estudios de caso con unidades incrustadas, la “gran unidad” es segmentada en varias unidades (o subunidades), de las cuales se seleccionan algunas para ser analizadas con amplitud y profundidad. Por ejemplo, Hernández Sampieri, Fernández Collado y Ocampo (2006) evaluaron el caso de una administración municipal en lo referente a la calidad en la atención directa a los ciudadanos (áreas que tienen contacto con éstos). De todos los departamentos, seleccionaron: Obras Públicas (recepción de quejas y solicitudes de obras de construcción en el municipio), Receptoría de Pagos (por servicios recibidos como trámites de licencias, expedición de documentos, etc.), Receptoría de Trámites Empresariales (para abrir negocios, refrendar permisos, etc.), Registro Civil (matrimonios, registro de nacimientos, etc.), Oficina del Alcalde, y finalmente, la Dirección de Policía (recepción de denuncias sobre delitos, información de detenciones, entre otras). El riesgo de los estudios con unidades incrustadas es que el investigador “pierda de vista” la naturaleza entera del caso, al enfocarse en una problemática más local (o departamental, como en el ejemplo). Siempre debemos tener en mente toda la unidad de análisis, el caso completo.

8

DISEÑOS DE MÚLTIPLES CASOS
En estos diseños, el proceso para cada caso se “repite” en los demás. La revisión de los casos es similar (se consideran las mismas variables o aspectos, al igual que los instrumentos para recolectar los datos y el proceso en general, aunque puede haber variantes). Por ejemplo, varios hospitales, escuelas o enfermos con características equivalentes. De acuerdo con Yin (2003), son diseños más “robustos” y poseen mayor validez. A veces se eligen casos significativos, lo que en términos prácticos resulta muy difícil, ya que encontrar varios casos que compartan similitudes es complicado. Es importante remarcar que cada caso deberá servir a un propósito específico dentro del alcance total. Asimismo, es necesario insistir que el conocimiento generado por los diversos casos no es aditivo (los casos no son como entrevistados en una encuesta o survey). En este sentido, la lógica de replicar casos es muy parecida a la de los experimentos. Reproducimos algunos casos con condiciones similares y otros se replican modificando ciertos elementos. Por ejemplo, un par de hospitales parecidos en ciertos indicadores y características (número de camas, personal, especialidades, estilo administrativo, antigüedad, u otras características); luego, un hospital con menos camas y una nómina más pequeña; posteriormente, un hospital equivalente a los dos primeros, pero con otro estilo administrativo o antigüedad diferente; más adelante, un hospital especializado en cierto tipo de servicios, etcétera. Cada caso se selecciona cuidadosamente, de tal modo que se analice el planteamiento del problema, que una vez más, actúa como la guía durante toda la investigación. Si se aplica para obtener casos similares, es importante y necesario desarrollar un marco teórico, el cual nos debe señalar qué variables resulta lógico que se presenten en los casos (lógica cuantitativa, estandarización). De cualquier forma, cada caso en un “todo”, una entidad por sí misma. Tanto la recolección de los datos como el análisis tienen como uno de sus objetivos explicar consistencias e inconsistencias entre casos. El nivel de análisis es individual (caso por caso) y colectivo. ¿Cuántos casos deben incluirse en un diseño múltiple? En primer término, la lógica de muestreo cuantitativo no opera. Entre más casos, es posible desarrollar un mayor sentido de entendimiento en relación con el planteamiento del problema; pero el número de casos más bien depende de los recursos económicos

9

y el tiempo que disponga el investigador. El ideal es muy parecido al análisis cualitativo, cuando respondamos a la(s) pregunta(s) de investigación. A veces, buscamos comparar casos extremos (por ejemplo, una escuela donde hay una elevada violencia entre los estudiantes y una escuela sin violencia; o un producto exitoso, digamos un determinado refresco de limón, en comparación con un producto del mismo sabor que ha fracasado). En los casos múltiples, además de intentar descubrir patrones, también queremos profundizar en el plano individual, por lo que, como hemos señalado, la revisión de todos debe ser exhaustiva. Pero cada caso implica un enorme esfuerzo no exclusivamente en el proceso indagatorio, sino en el de gestión. Recomendamos a los estudiantes que realizan por primera vez un estudio de caso, que comiencen por una sola unidad de análisis. Posteriormente, pueden ampliarse a más casos. Ciertamente conocer casos similares o diferentes ayuda a enriquecer el conocimiento de un problema de investigación, pero no resulta sencillo. Además, insistimos, el interés fundamental de un caso es intrínseco; la comparación con otros es conveniente, pero se encuentra supeditado a lo primero. El proceso para un diseño de casos múltiples se presenta en la figura 4.4. Figura 4.4 Secuencia de un diseño de casos múltiples3
CONCEPTUALIZACIÓN Y DISEÑO RECOLECCIÓN Y ANÁLISIS ANÁLISIS Y CONCLUSIONES

Planteamiento del problema

Conducir estudio del primer caso

Elaborar reporte del primer caso

Establecer conclusiones entre casos

Seleccionar casos Desarrollo del marco teórico Conducir estudio del segundo caso Elaborar reporte del segundo caso

Modificar teoría

Generación de los instrumentos para recolectar datos

Establecer implicaciones

Conducir estudios de caso remanentes

Elaborar reportes individuales de cada caso

Elaborar el reporte final que incluye el análisis entre 10 casos

Cuando vamos a estudiar varios casos, Stake (2000) y Yin (2003) recomiendan que el primero funja como una especie de “caso piloto”, esto es, que nos resulte útil para refinar los instrumentos de recolección de los datos. Stake (2000), Yin (2003), Creswell (2005) y Mertens (2005) consideran que en un estudio de caso debe haber triangulación de fuentes de datos y pueden utilizarse diferentes herramientas como: Documentos Archivos Entrevistas Observación Artefactos Grupos de enfoque Cuestionarios Otros Además de generar una base de datos para fines de auditoría de los datos y confirmación. Por el tipo de datos recolectados Los estudios de caso también pueden subdividirse dependiendo de la clase de datos que recolecten: cuantitativos, cualitativos y mixtos. Esta clasificación se comprenderá si previamente se revisaron todos los capítulos del libro impreso. Puesto que en los primeros, se aplica el proceso cuantitativo al estudio de una unidad; en los segundos, el proceso cualitativo; y en los terceros cualquier modalidad mixta.

CUANTITATIVOS
Lo anterior implica que en los estudios de caso cuantitativos se utilizan herramientas estandarizadas como pruebas, cuestionarios, escalas, observación estructurada y análisis de contenido con categorías preestablecidas. A su vez, se subdividen en experimentales cronológicos (a través del tiempo) y no experimentales

(transversales y longitudinales). En los primeros, que denominaremos –de acuerdo con León y Montero (2003)– como experimentales de caso único, se aplica un tratamiento y se efectúan diversas mediciones para analizar la evolución a consecuencia de éste (Williams, Grinnell y Unrau, 2005). De hecho, la validez de las inferencias se establece al efectuar varias mediciones repetidas a través de las fases del experimento con una n=1, antes y después del estímulo (Mertens, 2005). Se utilizan comúnmente con variables que permanecen en la persona participante (caso) por largos periodos y se ha establecido que no cambian con el mero paso del tiempo (Mertens, 2005). La hipótesis es que el tratamiento las modificará. León y Montero (2003, p. 305) se cuestionan: ¿Hay realmente un experimento con un solo sujeto? La respuesta proporcionada por ellos es que debe comprobarse: a) covariación entre la variable independiente (estímulo) y la dependiente, b) la aplicación de la independiente deben anteceder a la medición de la dependiente y c) otras variables, diferentes de la independiente, tienen que descartarse como posibles explicaciones de los cambios observados en la dependiente. De acuerdo con Mertens (2005), el tratamiento debe aplicarse a varias personas para comenzar a pensar en generalizaciones y evaluar el efecto en distintos tipos de individuos. En este sentido, los procedimientos para el estímulo se deben estandarizar y describir en detalle, además de que se implementen de forma cuidadosa. Asimismo, resulta importante que la medición de la variable dependiente se encuentre plenamente fundamentada y documentada. El asunto de la generalización es debatible, sin embargo, en la historia experimental los diseños de caso único (de cierta manera una forma de preexperimentos) han contribuido al desarrollo del conocimiento en diversos campos. Veamos algunos de estos diseños, conforme a la simbología de León y Montero (2003), así como la de Mertens (2005) y Williams, Grinnell y Unrau (2005). Diseños experimentales (n =1) AB Este diseño es el más sencillo y abarca dos etapas: la fase A, en la cual no hay tratamiento (en términos de León y Montero, 2003; se establece la “línea base” o tendencia), y la fase B, en la que se administra un tratamiento y se mide la variable dependiente durante éste. Así, el diseño “AB es un plan en el que primero se establece la línea base –sin tratamiento– y una vez estabilizada se produce la intervención y la medida de la nueva serie” (León y Montero, 2003, p. 313).

Por ejemplo, una madre que ha perdido el “sentido de vida” por el fallecimiento de un hijo. Con el fin de lograr que esta mujer recupere dicho sentido, se plantea un estímulo: sesiones terapéuticas con un psiquiatra experto en el manejo de “duelos emocionales” y psicología transpersonal; pero antes de aplicarse el tratamiento experimental, se establece la línea base (se mide su sentido de vida en por lo menos dos ocasiones, para verificar el nivel del sujeto en la variable). Una vez que se evaluó su condición con toda precisión, se administra el estímulo (sesiones); para posteriormente volver a valorar el sentido de vida y analizar su evolución. Otro ejemplo podría ser el de un tratamiento para reducir la dependencia o adicción hacia el consumo de alguna droga ilegal y dañina o estupefaciente (como la cocaína). Primero, se estima el grado en que el participante realmente es adicto. En segundo término, se administra el tratamiento. Finalmente, se vuelve a medir para examinar el puntaje-ganancia (aumento o disminución propuesta hipotéticamente en la variable dependiente, según sea el caso). Este diseño podría representarse como se muestra en la figura 4.5. Figura 4.5 Diseño AB del estudio de caso experimental4

Nivel del sentido de vida (medición en la variable dependiente). Escala de 10 a 70.
(inicio)

Primera medición previa

Segunda medición previa

Tercera medición previa

Primera medición posterior al inicio y durante el tratamiento

Segunda medición posterior

Tercera medición posterior

S e m a n a s ( 12 )
Línea base Tratamiento = Medición =

En la notación tradicional mostrada en el capítulo 7 del libro, el diseño se representaría así:

01 02 03 X 04 05 06 (en un periodo de 12 semanas).

X continúa implementándose

El estímulo puede implicar meses o aun años (método educativo, terapia física de rehabilitación, proceso de mejora continua, etc.). Cabe señalar que no es un diseño donde primero se administren prepruebas, luego se implemente el estímulo, se suspenda éste, y finalmente se apliquen pospruebas; sino que las mediciones se realizan durante la administración del tratamiento (simultáneamente). De este modo, se monitorea el funcionamiento del estímulo. Es decir, el esquema no sería así:

01 02 03 X 04 05 06 (no es antes y después, sino antes y durante).
X ya está suspendida cuando se administraron las pospruebas

Desde luego, el diseño puede extenderse a una tercera etapa sin tratamiento (ABA). En estos diseños AB se pueden producir diferentes esquemas de resultados, esto lo podemos apreciar en las gráficas de la figura 4.6.

14

Figura 4.6 Esquemas de resultados en el diseño AB

Incremento durante la intervención

Decremento durante la intervención

X XXXXXX

X XXXXXX

Diagnóstico o mediciones previas

Mediciones durante la intervención

Diagnóstico o mediciones previas

Mediciones durante la intervención

Mantenimiento, durante la intervención (sin cambios).

Altibajos, durante la intervención (no hay una tendencia definida).

X XXXXXX

X XXXXXX

Diagnóstico o mediciones previas

Mediciones durante la intervención

Diagnóstico o mediciones previas

Mediciones durante la intervención

Diseños experimentales (n = 1) ABAB Se trata de una extensión del diseño anterior: Primero se establece la “línea base” o tendencia, pero no hay tratamiento o intervención (A); luego, se implementa la fase B, en la que se administra un tratamiento y se mide. Posteriormente, se retira el tratamiento y se continúa con la evaluación (otra vez A). Finalmente, se vuelve a introducir el tratamiento y se mantiene el monitoreo (otra vez B). Lo importante de este diseño es mantener el seguimiento de la evolución de la variable dependiente durante las fases (medición constante).

15

Un reto de este diseño es que pudieran afectar todas las fuentes de invalidación interna señaladas por Campbell y Stanley (1966) y que se revisaron extensivamente en el capítulo 7 del libro, principalmente la historia; además de que es factible que actúen fuentes de invalidación externa (por ejemplo, el terapeuta que conduzca las sesiones puede establecer una comunicación con la participante que no necesariamente ocurriría con otras personas de un modo similar). El desafío es posible afrontarlo a través de diversas acciones (algunas de ellas serán consideradas más adelante), pero la principal, sin lugar a dudas, consiste en que el investigador tiene que mantenerse “muy cerca” del desarrollo del experimento (pendiente de sucesos externos y de cambios, además de aplicar varias mediciones y recolectar datos cualitativos complementarios, producto –por ejemplo– de entrevistas y observación). Un ejemplo de la esencia de una gráfica de resultados potenciales de un diseño ABAB se presenta en la figura 4.7 (obviamente sin resultados, los cuales se plasmarían en las diferentes etapas). Figura 4.7 Ejemplo de gráfica resultante de un diseño ABAB

Variable dependiente

A
Establecer línea base o tendencia (nivel de la dependiente).

B
Introducción del tratamiento, estímulo o intervención.

A
Retirada del tratamiento, estímulo o intervención.

B
Reintroducción del tratamiento, estímulo o intervención.

Medición continua de la variable dependiente

P e r i o d o

En el siguiente capítulo de este CD se mostrarán los diseños experimentales cronológicos que tienen esquemas similares, pero se trata de grupos; en tanto que

16

las pospruebas se administran después de la aplicación del estímulo o tratamiento, no durante su implementación. Asimismo, podemos tener diseños BAB (intervención o estímulo, retirada y reintroducción), que se usan cuando alguna persona requiere urgentemente un tratamiento (por ejemplo, un adicto que necesita atención de emergencia). O diseños más complejos ABABA, tal sería la situación si estamos experimentando con un proceso de capacitación o un método para que un individuo deje de fumar: Sin tratamiento A Con tratamiento B Sin tratamiento A Con tratamiento B Sin tratamiento A

Los estudios de caso transversales implican recolectar datos cuantitativos sobre la unidad en un momento único y no se manipula una intervención o tratamiento, son una especie de estudios no experimentales, cuyo alcance puede ser descriptivo, correlacional o explicativo, pero toman en cuenta una sola entidad de análisis. Por ejemplo, diagnosticar el estado de salud física de una persona a través de distintas pruebas en diferentes cuestiones (funcionamiento pulmonar, resistencia, presión arterial, nivel de ácido úrico, plaquetas, etc.) o analizar la conveniencia de invertir en un país a la luz del análisis de sus sistemas económico, social, político, jurídico, educativo, etcétera). Debemos de considerar también a los estudios de caso longitudinales, en los cuales podemos reconstruir el caso a través del tiempo (las razones del éxito financiero de una compañía o la pérdida de mercado en los últimos años por parte de otra empresa); o bien, iniciar un estudio de caso prospectivo (hacer seguimiento por los próximos años del éxito o fracaso de un nuevo producto). La validez de los estudios de caso de corte cuantitativo (experimentales o no experimentales) requiere una serie de tácticas:  La documentación de la evidencia debe ser sistemática, completa y ofrecer detalles específicos del desarrollo de la investigación.  Es necesario utilizar fuentes múltiples de datos e información.

17

 Se requiere establecer la cadena de evidencia sobre la causalidad. Esto significa que un investigador externo monitorea la derivación de cualquier evidencia, desde el planteamiento hasta el reporte de resultados.  Es indispensable verificar con la persona (o personas, si el caso es una organización) los resultados (como es costumbre en las investigaciones cualitativas).  Elaborar predicciones sobre resultados, basadas en la teoría y al final comprobar que éstas se hayan cumplido, lo que ayuda a soportar el caso (Yin, 2003). Si, al contrastar los resultados con la teoría y las hipótesis o proposiciones, encontramos diferencias, se revisan y ajustan las hipótesis y volvemos a replicar el caso, hasta que logremos responder al planteamiento del problema.  Evaluar cuidadosamente cómo los detalles del caso explican los resultados.  Recordemos que los experimentos y estudios de caso confían más bien en una generalización analítica; mientras que las investigaciones no experimentales confían en una generalización estadística.  Los procedimientos utilizados deben documentarse en cada estudio de caso (todo el proceso).  La base de datos debe ser accesible para que otros investigadores puedan establecer la validez y confiabilidad de los procedimientos (fines de auditoría). Yin (2003) sugiere que la base de datos contenga los materiales tabulados (matrices de datos), los documentos centrales (con permiso de la persona que constituye el caso o los líderes de la organización o comunidad involucrada), así como, los esquemas y procedimientos de análisis. Los análisis estadísticos del estudio de caso dependerán del planteamiento del problema, las hipótesis (si se establecieron), el diseño específico y el tipo de datos recolectados. Al igual que en otras clases de investigación, el análisis consiste en examinar, categorizar, tabular, probar y evaluar la evidencia obtenida, para valorar las proposiciones iniciales del estudio (planteamiento). Asimismo, es necesario generar una estrategia analítica general, con la definición de prioridades respecto de lo que vamos a analizar y las razones de ello. Yin (2003) propone para la estrategia de análisis: 1) confiar en la teoría, 2) organizar y efectuar el análisis sobre la base de las proposiciones (hipótesis) o por la pregunta de investigación (una por una o vinculándolas), 3) reflexionar y evaluar explicaciones rivales (nuestras hipótesis o proposiciones frente a otras) y 4)

18

desarrollar cuidadosamente la descripción del caso y su contexto. Tal descripción puede ser cronológica (por ejemplo, de una empresa exitosa, por las etapas que atravesó) o por subunidades del caso (como serían las áreas de una empresa o sistemas del cuerpo humano). A veces, las explicaciones rivales surgen durante la recolección de los datos. Por ejemplo, podemos realizar un diagnóstico en una empresa (digamos del clima organizacional). Tal variable es propia del estudio de caso3 porque el clima de cada organización es único, no existen dos empresas con la misma historia, liderazgo, estructura, entorno, procesos y productos (que en todo sean iguales). Dicho diagnóstico puede reflejar un clima organizacional elevado (en cuanto a moral, motivación, orgullo, etc.); la explicación podría ser que es una compañía con un liderazgo positivo, cuyo personal se involucra en su trabajo, donde la comunicación fluye honesta y abiertamente, se facilita la cooperación, el rumbo de la empresa se ha clarificado a los empleados y las decisiones les han sido explicadas. Sin embargo, debemos descartar otras explicaciones rivales como: Explicación rival 1: Efecto Hawthorne (el clima es elevado simplemente porque se está llevando a cabo un diagnóstico y el personal ha desarrollado expectativas altas sobre cambios favorables que resulten de éste). Explicación rival 2: Se realizó recientemente un ajuste salarial. Explicación rival 3: En el país o región fue elegido como presidente o gobernador una persona muy estimada por los trabajadores y esto generó un efecto de entusiasmo social generalizado. U otras explicaciones. Por ello, las fuentes de datos deben ser múltiples y los rubros amplios, profundos y completos; además, la información del contexto resulta fundamental.

3

Salvo que realicemos una validación de un instrumento como el ejemplo de Hernández Sampieri (2005) que se desarrolló en la segunda parte de Metodología de la investigación, 4ª edición; o bien, que pretendamos vincular el clima con otras variables en diferentes organizaciones.

19

CUALITATIVOS
En los estudios de caso cualitativos el ambiente o contexto está constituido por el mismo caso y su entorno. Asimismo, no se utilizan herramientas estandarizadas ni se establecen a priori categorías. El proceso es como en otras investigaciones cualitativas (inmersión inicial para que el investigador evalúe si el caso a considerar reúne las condiciones que requiere, inmersión final, recolección de datos, análisis, etc.). Gran parte de los estudios de caso de este tipo tienen como objetivo documentar una experiencia o evento en profundidad o entender un fenómeno desde la perspectiva de quienes lo vivieron. El estudio de caso cualitativo no persigue ninguna clase de generalización. La transferencia es muy difícil de establecer, regularmente se requieren varios estudios de caso (como en el descubrimiento de las tumbas de faraones egipcios de la antigüedad, se establecieron cuestiones comunes una vez que se consideraron varios casos). Un ejemplo de estudio de caso cualitativo lo sería una investigación que pretenda analizar a un asesino en serie (sus motivaciones para cometer los crímenes, sus experiencias derivadas de éstos, su modo de operar, los patrones que ligan a los asesinatos entre sí, la forma como elige a sus víctimas, su estado de salud mental, etc.). Una vez más, el estudio no parte de hipótesis ni de concepciones preestablecidas, sino que se generan conforme se recolectan y analizan los datos. Además, cada asesino vive condiciones distintas y posee una historia de vida diferente, por lo que su evaluación es única (aun cuando comparta algunos rasgos o forma de operación con otros). Es conveniente para establecer la dependencia (confiabilidad) y credibilidad del caso cualitativo: Documentar la evidencia de manera sistemática, completa y ofrecer detalles específicos del desarrollo de la investigación. Utilizar fuentes múltiples de datos e información. Realizar triangulación de datos y entre investigadores. Establecer la cadena de evidencia. Verificar con la persona o personas pertinentes los resultados. Evaluar cuidadosamente cómo los detalles del caso explican los resultados. Documentar los procedimientos utilizados.

 La base de datos debe ser accesible para que otros investigadores puedan establecer la confiabilidad de los procedimientos (fines de auditoría), y debe contener: los documentos centrales (con permiso de la persona que constituye el caso o los líderes de la organización o comunidad involucrada), las notas de campo, materiales narrativos (ejemplo, transcripciones de entrevistas), asimismo, los esquemas y procedimientos de análisis. Un tipo de estudios de caso cualitativos muy socorridos son los etnográficos. Pueden enfocarse en una cultura en particular y su impacto en un proceso, grupo, evento o individuo (Creswell, 2005). En algunas ocasiones se centran en patrones culturales y en otros en los procesos de interacción. Desde luego, implican una exploración completa de la cultura analizada (caso) y una recolección intensiva de datos sobre los elementos culturales. Se consideran los símbolos, ritos, mitos, lenguaje, costumbres, valores, relaciones, etc.; y se utiliza toda la gama de herramientas cualitativas para recabar datos. Creswell (2005) los subdivide en: a) Casos culturales inusuales, extremos o extraños. Por ejemplo, la investigación de una cultura indígena completamente alejada de los patrones urbanos y las costumbres occidentales actuales (que practique su propia religión, tenga un bajo contacto con los medios de comunicación colectiva, se encuentre geográficamente distante, etc.) o el de la cultura de un grupo terrorista. b) Casos culturales ilustrativos. Son cuando se pretende mostrar un caso típico de una cultura. Por ejemplo, un grupo representativo de la cultura de los niños abandonados de la calle de cualquier gran urbe latinoamericana, que deben trabajar para sobrevivir. c) Casos que se presentan en diferentes culturas (implica considerar varios de ellos, es de orden colectivo). Por ejemplo, analizar diversas culturas organizacionales sexistas (que discriminan a las mujeres, impidiendo su acceso a altos puestos de la empresa).

21

MIXTOS
Cada vez son más comunes los estudios de caso mixtos, de hecho, la sugerencia que podemos hacer es que resulta conveniente que sean híbridos (recolecten tanto datos cuantitativos como cualitativos); lo cual fortalece su amplitud y profundidad. En este sentido, un estudio de caso puede ser en dos etapas (cuantitativacualitativa o viceversa), de enfoque principal, en paralelo o mixto complejo. Asimismo, aplican los criterios cuantitativos y cualitativos para establecer la confiabilidad y validez de la investigación que se mencionaron. Herrera (2004) realizó un estudio de esta naturaleza. El caso fue la misma autora (se autoanalizó). Veamos el ejemplo con un poco de mayor profundidad y sin entrar en demasiados tecnicismos, a fin de evitar el agobio a estudiantes que están fuera de campos médicos, psicológicos y químicos. Ella era una paciente con 31 años de evolución con una enfermedad crónica multisistémica (lupus eritematoso sistémico). Había sido tratada desde pequeña de muchas formas (entre las cuales estaban la mayoría de las desarrolladas por la “medicina tradicional”). El pronóstico de diferentes especialistas era contundente: Norma Herrera moriría en poco tiempo (cuestión de semanas o meses). Entonces, decide abandonar todo tratamiento y suspender la medicación indicada. Se inscribe en una maestría de desarrollo humano. Al principio de sus cursos la enfermedad siguió su evolución natural. Sin embargo, comienza a trabajar diversas áreas como el manejo de sentimientos, emociones y actitudes; la aceptación de su enfermedad (que no la resignación), el sentido de vida, la autoestima, la espiritualidad (su relación con Dios en general), etc. Asimismo, trabaja la psicología transpersonal, la psicoterapia centrada en la persona y la gestalt, la logoterapia y la terapia de reconstrucción personal. Es decir, se concentra en su desarrollo como ser humano. De pronto, ocurre una remisión y reversión de la enfermedad (esto es: desaparece el cuadro central de ésta). Lo anterior, a un año de haber iniciado la maestría. Ella se cuestiona: ¿qué sucedió? y plantea un estudio de caso. Afortunadamente, Norma Herrera (experta en estudios de química aplicada a la Medicina), había construido una base de datos con su historial clínico (entre otros rubros: origen de la enfermedad, etiología, pronóstico, síntomas y tratamientos). Poseía mediciones de elementos tales como4:
El ejemplo está sumamente simplificado, por ello pedimos una disculpa a los médicos y les sugerimos que lean el estudio completo referido en la bibliografía del libro. Asimismo, más que presentar y discutir los resultados o generar una polémica, el interés se centra en analizar el método que utilizó Herrera (2004) como una muestra de estudio de caso mixto.
4

-

Hemoglobina (Hb). Valores de células blancas (leucocitos)5. Valores de creatinina sérica. Valores de depuración de creatinina Urea (valores de proteínas en primera micción –matutina– y en orina de 24 horas). Indicadores de funcionamiento renal. Valores de complemento hemolítico, fracciones 3 y 4 (C3 y C4). Anticuerpos antinucleares y patrón de inmunofluorescencia.

Asimismo, ella documentó desde el inicio su proceso personal de desarrollo (anotaciones y bitácora), lo cual incluía reflexiones sobre la aceptación de la enfermedad, la adquisición de un elevado sentido de vida, una sólida autoestima y una sensación de crecimiento; la evolución de sus sentimientos, emociones y experiencias en general; su acercamiento con un Ser supremo y otras cuestiones similares. Sus explicaciones rivales eran: E1: La enfermedad no era tan crítica, tal como se había documentado, hoy que se conocen más tipos de lupus. E2: La remisión fue espontánea, natural; nada tuvo que ver el trabajo con su persona. Al concluir la maestría, la remisión era patente. Su estudio de caso incluyó análisis cuantitativo (de las mediciones sobre su enfermedad a través del tiempo), análisis cualitativo (del trabajo consigo misma efectuado durante la maestría que abarcó terapia individual y grupal), análisis mixto (relacionando momentos y logros personales con las mediciones). Entre sus conclusiones y recomendaciones destacan las siguientes: Tratar al paciente de manera integral y considerar a la enfermedad en retrospectiva, es decir, lo que se encuentra detrás del síntoma
5

La literatura marca que el lupus cursa con leucopenia, situación que expone al organismo a ser susceptible de sufrir infecciones constantes (Herrera, 2004).

23

(psiconeuroimunoendocrinologia y desarrollo humano) es un comienzo positivo para devolverle la salud en ciertas enfermedades como el lupus. Al ser humano, bajo sistemas tradicionales, se le trata de forma separada, como si estuviese fraccionado, es decir, si existe una enfermedad inmune, endocrina, psíquica, neurológica; se le atiende en el área específica y se olvida el resto. El desarrollo humano pugna por ver y considerar al ser humano de manera holista. El sentido de vida, la autoestima, el creer en un Dios, la unión con uno mismo y la espiritualidad pueden ayudar a que esta clase de enfermedades se combata notablemente. La influencia de actitudes y pensamientos positivos sobre la enfermedad, si se procesan a nivel de sistema nervioso, pueden influir en los sistemas inmune, endocrino y psíquico. En pocas palabras, “más que enfermedades, hay enfermos y contextos de cómo se presentan las primeras en los segundos” (doctor Roberto Hernández Galicia). Bien dice el refrán popular: “una golondrina no hace un verano”, pero el estudio de caso de Herrera (2004), demuestra la importancia del sistema inmunológico individual ante la enfermedad. Cabe señalar que Norma Herrera durante el periodo comprendido entre 2004 y principios de 2006, ha tratado exitosamente dos casos de niñas con más de una década padeciendo lupus con el mismo cuadro que ella tuvo; además en Costa Rica, en la provincia de Alojuela (Ciudad Quesada), un caso similar de una mujer adulta joven (15 años de sufrir la enfermedad) entró a una fase de remisión, al trabajar en el sentido de vida y otras áreas humanas. Por su temporalidad Esta tipología ya ha sido contemplada en los estudios de caso cuantitativos, por lo que basta decir que la clasificación (que aplicaría a ambos, cuantitativos y cualitativos), se resume en: a) temporales (duración no prolongada, regularmente un año o menos) y b) longitudinales o evolutivos (más de un año y varias etapas de recolección de los datos o mediciones).

EL REPORTE DE LOS ESTUDIOS DE CASO
Yin (2003) establece diferentes formatos para elaborar el reporte de resultados de los estudios de caso: 1. Analítico lineal. Este formato es como el de cualquier reporte de resultados (tema cubierto en los capítulos 11 y 16 del libro), por lo que no entraremos en detalles. El índice de un reporte de este tipo sería: - Introducción. - Planteamiento del caso y el problema de investigación. - Revisión de la literatura. - Método. - Resultados. - Discusión. Aunque algunos autores prefieren invertir parte del orden y comenzar con la introducción y el planteamiento, pasar de inmediato a los resultados y la discusión, dejando al final tanto la revisión de la literatura como el método. 2. Estructuras comparativas. Los mismos datos son presentados mediante diferentes modelos conceptuales. Desde luego, deben existir al menos dos modelos para utilizar este formato. El fin de este reporte es evaluar el grado en que los resultados del caso embonan en cada modelo. Por ejemplo, supongamos que el estudio de caso es un diagnóstico del clima organizacional; los resultados podrían explicarse por dos modelos: el de Wilborn (1998) y el de Parker et al. (2003)6. Entonces, se comparan tales resultados frente a ambos modelos. En la medida que embonen con éstos se considerarán con mayor validez. Es importante señalar que los datos que obtengamos deben ser compatibles con el modelo. A grandes rasgos, el modelo de Parker et al. (2003) contiene los elementos que se muestran en la figura 4.8.

6

Este modelo se aborda en el capítulo 7 del libro (Metodología de la investigación, 4ª edición).

25

Figura 4.8 Modelo del clima organizacional
Percepciones psicológicas del clima:  Trabajo  Papel  Líder  Grupo de trabajo  Organización Actitudes hacia el trabajo:  Satisfacción en el trabajo  Involucramiento en el trabajo  Compromiso con el trabajo

Motivación

Desempeño

El modelo es muy interesante puesto que es sencillo y muy explicativo, además de fundamentarse en la evidencia empírica de más de 100 muestras de varios países (Hernández Sampieri, 2005). Para el modelo, las percepciones sobre las variables o dimensiones del clima (trabajo, papel, líder o superior, grupo de trabajo y elementos de la organización, como lo sería la estructura) influyen en la motivación y el desempeño, pero con la mediación de las actitudes hacia el trabajo (satisfacción en el trabajo, involucramiento en el trabajo y el compromiso con la empresa o institución). Es decir, hay dos niveles de variables intervinientes: las del clima y las actitudes hacia el trabajo. Por ello, se denomina como “modelo de dos niveles”. En el diagnóstico del clima de un caso de organización en particular, tendríamos que medir las variables del modelo y nuestro análisis debería producir una estructura similar. Y si tuviéramos el otro modelo, haríamos lo mismo. El caso se sustenta en dos modelos o estructuras comparativas. 3. Cronológico. En este formato, la presentación de resultados se realiza por fases del estudio de caso. Por ejemplo, si evaluamos a una comunidad indígena mediante un método cualitativo, podemos presentar los resultados por etapas: - Inmersión en el caso y contexto. - Recolección inicial de los datos: primeras entrevistas.

26

- Resultados preliminares: observación y entrevistas a líderes. - Resultados definitivos: observación, recolección de materiales y entrevistas con pobladores. - Discusión. 4. Construcción de teoría. Un formato donde el caso se presenta de tal forma que cada parte (hipótesis, conceptos, etc.) del reporte revela un aspecto de la teoría . 5. Sin estructura. Cuando no hay un orden. Hay quienes escriben el reporte conforme avanza el estudio de caso. En cualquier situación es importante que el caso se redacte y presente adecuadamente. Recomendaciones para los estudios de caso Yin (2003) y Creswell (2005) hacen algunas recomendaciones para los estudios de caso, entre las que destacan las siguientes: El caso debe ser significativo y de interés para un grupo, una comunidad y/o una sociedad. El caso es estudiado holísticamente, por lo que no debe restringirse a ciertas áreas o algunos cuantos lugares. Se considera que el caso puede concluirse cuando se responde de manera satisfactoria al planteamiento del problema. El caso debe ser analizado desde diferentes perspectivas (por ejemplo, si es una organización, el abordaje debe incluir a la alta dirección o gerencia, las diferentes áreas, el sindicato y los trabajadores, los clientes y proveedores y demás participantes). El caso tiene que estar contextualizado. A veces los estudios de caso se utilizan como pilotos de investigaciones más amplias.

CAPÍTULO 5
OTROS DISEÑOS EXPERIMENTALES
SERIES CRONOLÓGICAS, FACTORIALES Y CUASIEXPERIMENTOS

INTRODUCCIÓN

En el capítulo 7 de Metodología de la investigación, 4ª edición, se comenta sobre los diseños experimentales, sin embargo quedaron pendientes dos tipos de éstos: las series cronológicas múltiples y los factoriales. Ambos, en ediciones anteriores, se habían tratado en el libro. Se retomarán algunas cuantas líneas del contenido del capítulo 7, con la finalidad de que el lector ubique sin problemas cada tema.

Diseños experimentales de series cronológicas múltiples

Cuando el experimentador se interesa en analizar efectos en el mediano o largo plazo, porque tiene bases para suponer que la influencia de la variable independiente sobre la dependiente tarda en manifestarse. Por ejemplo, programas de difusión de innovaciones, métodos educativos o estrategias de las psicoterapias. En tales casos, es conveniente adoptar diseños con varias pospruebas. A estos diseños se les conoce como series cronológicas experimentales. En realidad, el término “serie cronológica” se aplica a cualquier diseño que efectúe varias observaciones o mediciones sobre una variable a través del tiempo, sea o no experimental, sólo que en este caso se les llama experimentales porque reúnen los requisitos para serlo. También en estos diseños se tienen dos o más grupos y los sujetos son asignados al azar a dichos grupos. Únicamente que, debido a que transcurre mucho más tiempo entre el inicio y la terminación del experimento, el investigador debe tener cuidado de que no ocurra algo que afecte de manera distinta a los grupos (con excepción de la manipulación de la variable independiente). Lo mismo sucede cuando la aplicación del estímulo lleva mucho tiempo (por ejemplo, programas motivacionales para trabajadores que duran semanas). Con el paso del

tiempo es más difícil mantener la equivalencia inicial de los grupos. Un ejemplo de cómo se diagraman las series cronológicas experimentales se muestra en la tabla 5.1.

Tabla 5.1 Ejemplos de experimentos de series cronológicas

Serie cronológica sin preprueba, con varias pospruebas y grupo de control RG1 RG2 RG3 RG4 X1 X2 X3 — 01 04 07 010 02 05 08 011 03 06 09 012

Serie cronológica con preprueba, con varias pospruebas y grupo de control RG1 RG2 RG3 01 05 09 X1 X2 — 02 06 010 03 07 011 04 08 012

Serie cronológica basada en el diseño de cuatro grupos de Solomon RG1 RG2 RG3 RG4 01 04 — — X — X — 02 05 07 09 03 06 08 010

Las pospruebas pueden ser tantas como se requiera y sea posible aplicar. Asimismo, en otras ocasiones se desea analizar la evolución de los grupos antes y después del tratamiento experimental. En esta situación pueden incluirse varias prepruebas y pospruebas, en cuyo caso se tendrían esquemas como el siguiente: R R R G1 G2 G3 0 0 0 0 0 0 0 0 0 X1 X2 — 0 0 0 0 0 0 0 0 0

Ejemplo De un diseño experimental de serie cronológica Un consultor en cuestiones organizacionales estudia el efecto sobre la dedicación en el trabajo que tiene el hecho de que se difundan una serie de valores, que la directiva de una corporación considera deben ser implantados en la empresa. Pregunta de investigación: ¿cuanto más conozca el personal de una corporación los valores de ésta (definidos por su directiva), tendrá m a y o r dedicación en el trabajo? Hipótesis de investigación: El mayor conocimiento de los valores corporativos genera mayor dedicación en el trabajo. Hipótesis estadística: rxy > 0 El consultor selecciona 99 personas de la corporación, de todos los niveles jerárquicos, los asigna al azar a tres grupos: 1. un grupo participa en una reunión de dos horas de duración, en donde se les presentan con cuidado los valores corporativos con aplicaciones a situaciones específicas de trabajo, posteriormente se les entrega un folleto con explicaciones adicionales. 2. otro grupo asiste a una sesión breve donde se proporciona un folleto sobre los valores corporativos (no hay explicación verbal ni discusión o sesión de preguntas y respuestas). 3. el tercer grupo asiste a una sesión donde se trata algún aspecto no relacionado con el trabajo o la organización (digamos, un tema cultural de interés general). Antes de administrar los tratamientos a todos los sujetos, se les aplican tres mediciones de la dedicación en el trabajo. Asimismo, después de los tratamientos, también se les aplican tres mediciones de la misma variable (al corto, mediano y largo plazos). El diseño se diagramaría como se muestra en la figura 5.1. Recuérdese que las mediciones son de la dedicación en el trabajo. Cada grupo estaría integrado por 33 personas.

Figura 5.1 Diseño del ejemplo de serie cronológica sobre la dedicación al trabajo con tres grupos

Quince días antes del tratamiento

Un mes después del tratamiento

R

G1

01

02

03

Sesión informativa y de discusión más folleto informativo

(X1)

04

05

06

R

G2

07

08

09

Folleto informativo

(X2)

010

011

012

R

G3

013

014

015
Cuatro días antes del tratamiento

Sesión sobre un tema general

(–)

016

017

018
Tres meses después del tratamiento

Un mes antes del tratamiento

Un día después del tratamiento

Una ventaja del diseño es que es posible evaluar la evolución comparativa de los grupos. Por ejemplo, si se encontraran los siguientes resultados con una escala (hipotética) de dedicación en el trabajo, con valores de 0 a 25: R R R G1 G2 G3 11 10.8 11.1 11 11 10.9 11.2 10.9 11.3 X1 X2 — 16 15 11 18 14 10.8 21 11.8 11.4

Series cronológicas Diseños que, a través del tiempo, efectúan diversas observaciones o mediciones sobre una variable.

Vemos que X1 tiene un efecto que aumenta con el paso del tiempo y X 2 produce un efecto en el corto plazo,

pero tiende a desvanecerse con el paso del tiempo. Esto podría graficarse del siguiente modo:

Grupo 1 25 Nivel de la variable dependiente (dedicación en el trabajo)

Efecto creciente 12.5

0

01

02

03

X1

04

05

06

Tratamiento uno

Grupo 2 25 Nivel de la variable dependiente (dedicación en el trabajo) Nivel de la variable dependiente (dedicación en el trabajo) 25

Grupo 3

Efecto temporal 12.5

No efecto 12.5

0

07

08

09

X2

010

011

012

0

013

014

015

---

016

017

018

Tratamiento dos

Tratamiento dos

En los diseños experimentales de series cronológicas se realizan este tipo de gráficas, las cuales enriquecen la interpretación de la evolución de los grupos.

Algunas de las diversas configuraciones que se presentan se muestran en las figuras 5.2 y 5.3. En este caso, debe observarse que no sea algún suceso ajeno el que provoque el efecto, en lugar de la manipulación de la variable independiente. Podría ocurrir que:

Figura 5.2 Ejemplo de un suceso ajeno a X que provoca el efecto

Escala de la variable dependiente

Suceso que es independiente aX
01 02 03 04 X 05 06 07

Figura 5.3 Ejemplo de un efecto que perdura

Escala de la variable dependiente

A. Efecto inmediato que perdura y crece

01

02

03

04

X

05

06

07

Figura 5.4 Ejemplo de ausencia de efecto por el tratamiento

Escala de la variable dependiente

B. Efecto no provocado por el tratamiento experimental, sino por una tendencia del grupo independiente al tratamiento: el efecto se produjo antes de este

01

02

03

04

X

05

06

07

Este diagrama se compararía con el del grupo de control o demás grupos para analizar lo que ocurre. Quizá se deba a que no se obtuvo una equivalencia real de los grupos al inicio del experimento. Se tendrían tantos diagramas o gráficas como grupos, o bien podrían agruparse los efectos provocados en los distintos grupos en una sola gráfica (varios diagramas en ésta), como se observa en la figura 5.5. Desde luego, si se mide más de una variable dependiente, en el primer caso se tendrá un diagrama para cada grupo por cada variable dependiente; mientras que en el segundo caso, un diagrama por cada variable dependiente.

Figura 5.5 Ejemplos de gráficas en series cronológicas

Varios diagramas

Grupo 1

Grupo 2

01 02 03 X 04 05 06

01 02 03 X 04 05 06 Un solo diagrama

Grupo 3

Grupo 1 Grupo 2 Grupo 3

01 02 03 X 04 05 06

01 02 03 X 04 05 06

Ejemplo

Si el tratamiento es un programa motivacional y las variables dependientes son la motivación intrínseca, la productividad y la calidad en la producción (con dos grupos experimentales y uno de control), se tendrían las opciones que se muestran en las figuras 5.6 y 5.7.

Figura 5.6 Ejemplo de varios diagramas para cada variable dependiente

Diversos diagramas para varios grupos y variables dependientes

Grupo 1

Grupo 2

Motivación intrínseca
01 02 03 X 04 05 06

Motivación intrínseca
01 02 03 X 04 05 06 Grupo 3

Motivación intrínseca
01 02 03 --- 04 05 06

Grupo 1

Grupo 2

Productividad
01 02 03 X 04 05 06

Productividad
01 02 03 X 04 05 06

Grupo 3

Productividad
01 02 03 --- 04 05 06

Grupo 1

Grupo 2

Calidad
01 02 03 X 04 05 06

Calidad
01 02 03 X 04 05 06

Grupo 3

Calidad
01 02 03 --- 04 05 06

Figura 5.7 Ejemplo de un solo diagrama por variable dependiente

Un solo diagrama por variable dependiente

Grupo 1

Motivación intrínseca

Grupo 2 Grupo 3

01 02 03 X 04 05 06
Grupo 1 Grupo 2 Grupo 1 Grupo 2

Productividad

Grupo 3

Calidad

Grupo 3

01 02 03 X 04 05 06

01 02 03 X 04 05 06

En estos diseños de series cronológicas se controlan todas las fuentes de invalidación interna, siempre y cuando se lleve a cabo un seguimiento minucioso de los grupos, para asegurarse de que la única diferencia entre ellos sea la manipulación de la variable independiente. En algunos casos, llega a haber una influencia de la repetición de las mediciones sobre la variable dependiente (administración de pruebas múltiples), sobre todo en las pruebas donde el sujeto participa activamente y sabe que está respondiendo a una prueba (cuestionarios, entrevistas, tests estandarizados); no tanto así en las mediciones en que el sujeto es más pasivo y no se encuentra consciente de qué se le mide (por ejemplo, la observación). De cualquier manera, en caso de que exista dicha influencia, se presentará de forma similar en todos los grupos (porque son equivalentes y el número de pruebas aplicadas es el mismo).

Para estos diseños se suelen utilizar diversas técnicas estadísticas complejas, esto depende del nivel de medición de las variables y del tipo de análisis e interpretación que se desee realizar, como análisis de regresión múltiple o análisis de cambio. Se recomiendan las siguientes fuentes para conocer tales análisis: Markus (1979), Ostrom (1990), Kessler y Greenberg (1981), Henkel (1976), Siegel (1995), Monge y Cappella (1980), Kerlinger y Pedhazur (1997), SPSS (1999), Camacho (2001), Ferrán (2001), Kerlinger y Lee (2002).

Diseños de series cronológicas con repetición del estímulo En ocasiones, el investigador anticipa que el tratamiento o estímulo experimental no tiene efecto o es mínimo si se aplica una sola vez, tal como sería hacer ejercicio físico un solitario día (no se esperaría un cambio en la musculatura); o como sería consumir vitaminas por una única vez. También en ocasiones el investigador quiere conocer el efecto sobre las variables dependientes cada ocasión que se aplica el estímulo experimental. Por ejemplo, en técnicas de condicionamiento es común que uno se cuestione: ¿cuántas veces debo aplicar el reforzamiento a una conducta para lograr condicionar la respuesta a un estímulo? En estos casos es posible repetir el tratamiento experimental y administrar una posprueba después de cada aplicación, para evaluar su efecto. Los sujetos se asignan al azar a los distintos grupos, a cada grupo se le administra varias veces el tratamiento experimental que le corresponde. Algunos de estos diseños diagramados se muestran en la tabla 5.2.

Tabla 5.2 Ejemplos de diseños cronológicos con repetición del estímulo

El mismo tratamiento se aplica dos veces al grupo experimental: R R G1 G2 01 04 X1 — 02 05 X1 — 03 06

Cada tratamiento se aplica cuatro veces al grupo respectivo:

R R R R

G1 G2 G3 G4

01 06 011 016

X1 X2 X3 —

02 07 012 017

X1 X2 X3 —

03 08 013 018

X1 X2 X3 —

04 09 014 019

X1 X2 X3 —

05 010 015 020

En algunos casos se prescindiría de las pruebas, y el experimentador, por alguna justificación teórica o empírica, podría aplicar pospruebas a intervalos sistemáticos diferentes. R R R G1 G2 G3 X1 X2 — 01 04 07 X1 X2 — X1 X2 — X1 X2 — 02 05 08 X1 X2 — X1 X2 — X1 X2 — 03 06 09

O bien, aplicar las pospruebas a intervalos irregulares (por alguna determinada razón): R R R G1 G2 G3 X1 X2 — X1 X2 — 01 05 09 X1 X2 — 02 06 X1 X2 X1 X2 — X1 X2 — 03 07 X1 X2 04 08 012

010 —

011 —

Un ejemplo de estos diseños sería el caso de un publicista que pretende analizar los efectos de un comercial televisivo en la preferencia del producto anunciado, en comparación con otras marcas, y postula la hipótesis de que una sola exposición al comercial no surtirá efecto alguno.

Las pruebas estadísticas usuales para estos diseños son las mismas que para las series cronológicas múltiples.

Diseños con tratamientos múltiples A veces el investigador desea analizar el efecto de la aplicación de los distintos tratamientos experimentales a todos los grupos o participantes. En estos casos es posible utilizar los diseños con tratamientos múltiples. La aplicación de tratamientos puede ser individual o en un grupo y hay distintas variaciones: a) Varios grupos. En este caso, se tienen varios grupos a los cuales se asignan los sujetos o participantes al azar. A cada grupo se le aplican todos los tratamientos. La secuencia de la aplicación de tratamientos puede o no ser la misma para todos los grupos y es posible administrar una o más pospruebas a los grupos (posteriores a cada tratamiento experimental). Dos diagramas de estos diseños son los de la tabla 5.3.

Tabla 5.3 Diseños con tratamientos múltiples, varios grupos

Misma secuencia para los grupos R G1 X1 01 X2 02 X3 03 R G2 X1 04 X2 05 X3 06 R G3 X1 07 X2 08 X3 09 R R R G1 G2 G3

Secuencia diferente X1 X2 X3 01 X2 02 X3 03 04 X3 05 X1 06 07 X2 08 X1 09

Con secuencia diferente. El experimentador debe tener cuidado al interpretar las segundas pospruebas y mediciones subsecuentes, ya que quizás exista una influencia diferente en los grupos provocada por distintas secuencias de los

tratamientos. De hecho, durante el experimento es muy probable que haya diferencias entre grupos, incluso al finalizar el experimento los resultados se deban, en buena medida, a la secuencia con que fueron administrados los tratamientos. Los diseños experimentales con tratamientos múltiples y secuencia diferente en los grupos, así como los dos casos que vamos a ver a continuación, llegan a tener distintos efectos que deben analizarse con minuciosidad. Algunos tratamientos tienen efectos reversibles; en esta situación no hay interferencia entre tratamientos y las pospruebas se ven influidas únicamente por el tratamiento inmediato anterior (por ejemplo 03, del diseño con secuencia diferente, se vería afectada por X3, pero no por X 2 o X1), ello facilita la interpretación. Pero a menudo los efectos no son reversibles, sino aditivos o interactivos; esto es, los resultados de una posprueba se pueden ver influidos no sólo por el tratamiento inmediatamente anterior, sino por los que le antecedieron a éste, y no es fácil saber cuánto se debió a X 1, cuánto a X2, o Xk. Para ello, en el análisis debe incluirse la secuencia como factor. b) Un solo grupo. En situaciones donde sólo se cuenta con un número

reducido de participantes para el experimento, es posible realizar un diseño con tratamientos múltiples y un solo grupo. No hay asignación al azar puesto que se tiene a un único grupo. La equivalencia se obtiene puesto que no hay nada más similar a un grupo que este mismo. El grupo hace las veces de “grupos experimentales” y de “control”. Este diseño se diagrama así:
G único X1 0 1 X2 0 2 — 0 3 X3 0 4 — 0 5 Xk 0 k…

Cuando se considere conveniente, se utiliza como grupo de control, por ejemplo, antes de 03 y 05. Sin embargo, tal diseño está limitado a que los efectos de los tratamientos múltiples sean reversibles; de lo contrario no es un diseño experimental, sino cuasiexperimental. Si en estos diseños se introduce sistemáticamente y como variable independiente la secuencia de administración de

los tratamientos, se convierten en factoriales (que se verán a continuación). Las pruebas estadísticas que se utilizan en estos diseños son las mismas que se tienen para las series cronológicas y los diseños con repetición del estímulo. Hasta aquí se han revisado diseños experimentales que manipulan una sola variable independiente (los tratamientos representan niveles de presencia o manipulación de ésta; X1, X2, X3, Xk son variaciones de la misma variable independiente; al menos como se han concebido en este libro) y miden una o más variables dependientes. Por ejemplo, en un experimento con métodos educativos, en lugar de medir nada más el aprendizaje, es posible medir además la motivación del alumno, su integración al grupo, etc.; esto sería en la preprueba y la posprueba. Normalmente, se miden diversas variables dependientes para optimizar el costo, al analizar los efectos de la variable independiente sobre cada dependiente. En ocasiones, como parte de las pospruebas, se incluyen mediciones para verificar qué tanto funcionó la manipulación (verificaciones de la manipulación) o a veces estas verificaciones son independientes de las pospruebas. Con el fin de ver si las secuencias se relacionan con características de los grupos, algunos autores consideran introducir sistemáticamente otros elementos a los diseños, tales como presencia-ausencia de la preprueba (por ejemplo, el diseño de cuatro grupos de Solomon, visto en el capítulo 7 de Metodología de la investigación, 4ª edición), así como secuencias diferentes de tratamientos en varios grupos. Por ejemplo, tener un diseño así:

Niños de 8º año,

G1 G2

X1 X2 X1 X2 X1 X2

01 03 05 07 09 011

X2 X1 X2 X1 X2 X1

02 04 06 08 010 012

Niños de 6º año,

G3 G4

Niños de 4º año,

G5 G6

O un número de pospruebas diferentes en los grupos. Por ejemplo, con un diseño como el siguiente, se tienen diseños factoriales: R G1 X 1 0 1 0 2 R G2 X 1 0 1 R G3 X 2 0 1 0 2 R G4 X 2 0 1 R G5 — 01 02 R G6 — 01 De hecho, son factoriales, porque se manipulan como si fueran una variable independiente. Sin embargo, la experiencia ha demostrado a algunos profesores que los alumnos que ven por primera vez el tema suelen desconcertarse si se analizan como diseños factoriales, a menos que éstos se expliquen primero.

Diseños factoriales Los diseños factoriales manipulan dos o más variables independientes e incluyen dos o más niveles de presencia en cada una de las variables independientes. Se utilizan muy a menudo en la investigación del comportamiento. La construcción básica de un diseño factorial consiste en que todos los niveles de cada variable independiente sean tomados en combinación con todos los niveles de las otras variables independientes (Wiersma y Jurs, 2005).

Diseño factorial 2 X 2 El diseño factorial más simple manipula (hace variar) dos variables, cada una con dos niveles. A este diseño se le conoce como “diseño factorial 2 X 2”, en donde el número de dígitos indica el número de variables independientes:

2
Un dígito
(primera variable independiente)

X

2
Otro dígito
(segunda variable independiente)

El valor numérico de cada dígito indica el número de niveles o modalidades de la variable independiente en cuestión. En este caso es “2”, lo cual quiere decir que cada una de las variables tiene dos niveles. Como mencionan Wiersma y Jurs (2005), no es necesario que los valores numéricos sean los mismos para todas las variables independientes. En teoría, puede haber cualquier número de variables independientes con cualquier número de niveles cada una. Por ejemplo, el diseño factorial 2 X 2 X 3 indica que hay tres variables independientes, la primera y la segunda con dos niveles, mientras que la tercera con tres niveles. El diseño factorial 4 X 5 X 2 X 3 indica una variable independiente con cuatro niveles, otra con cinco, otra más con dos y una última con tres. Un ejemplo de un diseño factorial 2 X 2 sería tener como variables independientes “método de enseñanza” y “género”. La primera con dos niveles: “método de enseñanza por tradicional-oral” y “método de enseñanza por medio de video”. La segunda con los niveles “masculino” y “femenino”. Otros diseños factoriales El número de grupos que se forman en un diseño factorial es igual a todas las posibles combinaciones que surjan al cruzar los niveles de una variable independiente con los niveles de las otras variables independientes. Así, en un diseño 2 X 2 tendremos cuatro grupos (2 por 2 = 4); en un diseño 3 X 2 resultarán seis grupos, y en un diseño 3 X 3 X 3, 27 grupos. Debe observarse que el resultado de la multiplicación es el número de grupos resultante. En estos diseños, el número de grupos aumenta con rapidez con el incremento del número de variables independientes o niveles (exponencialmente). Veámoslo:

2X2=4 2X3=6 3X3=9 3 X 4 = 12 3 X 2 X 2 = 12 3 X 3 X 4 = 36
Número de grupos resultantes o del experimento.

Ello se debe a que los niveles tienen que tomarse en cuenta respecto a todas sus posibles combinaciones. Wiersma y Jurs (2005) señalan que en los diseños experimentales factoriales, al menos una de las variables independientes debe ser experimental; las demás pueden ser variables orgánicas, introducidas en el diseño con fines de control (por ejemplo, género, edad, año, escolaridad, inteligencia en intervalos, etcétera).

Figura 5.8 Un diseño factorial 2 X 2
Diseño 2 X 2 Variable independiente B A1 B1 A1 B1 A2 A2 B1 Variable independiente A

B2

A1 B2

A2 B2

Con objeto de simplificar la forma en que se diagraman los diseños factoriales, acudiremos a la simbología que comúnmente se utiliza.1 Para designar a las
1

Por ejemplo, Matheson, Bruce y Beauchamp (1983); Christensen (2000); Arnau-Grass (1981);

Wiersma (1999), y Wiersma y Jurs (2005).

variables independientes se usan letras (A, B, C,… K) y para los niveles, números (1, 2, 3,… K); las combinaciones de letras y números que aparecen en las casillas (o celdas) representan las mezclas de niveles de las variables independientes. Cada celda es un grupo. En la figura 5.8 (en la página anterior) se diagrama un diseño factorial 2 X 2. Otro ejemplo sería un diseño factorial 2 X 4 X 3 (figura 5.9).

Figura 5.9 Diseño 2 X 4 X 3 Diseño 2 X 4 X 3 A A1 C1 B1 B2 B3 B4 A1B1C1 A1B2C1 A1B3C1 A1B4C1 C2 A1B1C2 A1B2C2 A1B3C2 A1B4C2 C3 A 1 B 1 C3 A1B2C3 A1B3C3 A1B4C3 C1 A2B1C1 A2B2C1 A2B3C1 A2B4C1 C2 A2B1C2 A2B2C2 A2B3C2 A2B4C2 A2 C3 A2B1C3 A2B2C3 A2B3C3 A2B4C3

Obsérvese en la figura 5.9 que todas las posibles combinaciones de los niveles entre A, B y C están presentes; además, ninguna combinación es exactamente igual a la otra. Cada combinación representa una celda o un grupo. Si las tres variables se manipulan deliberadamente (recordemos que al menos una debe serlo para que hablemos de experimento), los participantes tienen que asignarse al azar a todas las celdas o grupos. Si dos variables se manipulan intencionalmente (por ejemplo, B y C), los sujetos de cada nivel de la variable restante (A) serán asignados al azar a las casillas que les corresponde. Veámoslo con un ejemplo. Si A = género (A1, masculino; A2, femenino),

B = violencia televisada (B4, elevada; B 3, mediana; B2, baja, y B 1, nula) y C = orientación paternal sobre el programa visto (C1, por parte de ambos padres; C2, del padre, y C 3, de la madre). Si hay 120 niños y 120 niñas, los niños (A1) se asignarían al azar a las celdas donde A1 está presente (10 niños en cada celda), y las niñas (A2) a las 12 casillas restantes (donde A 2 está presente, 10 niñas por celda). Si una sola variable es la que se manipula deliberadamente (C por ejemplo), los participantes de los niveles combinados de las otras dos variables se asignan al azar a los niveles de aquélla (C1, C 2 y C 3, en el ejemplo). Los sujetos A1 B 1 serían asignados aleatoriamente a C1, C2 y C3, igual los sujetos A1 B2, A1 B3, etcétera. En los diseños factoriales es posible agregar un grupo de control o varios (que no se expongan a la variable o las variables manipuladas deliberadamente, figura 5.10).

Figura 5.10 Diseño factorial con grupo de control Diseño 2 X 2
A1 B1 A1 B1 A2 B1 A2 B2 A2

B2

A1 B2

control

Utilidad de los diseños factoriales Los diseños factoriales son sumamente útiles porque permiten al investigador evaluar los efectos de cada variable independiente sobre la dependiente por separado, así como los efectos de las variables independientes de manera conjunta. Por medio de estos diseños se observan los efectos de interacción entre las variables independientes.

En términos de Wiersma y Jurs (2005), la interacción es un efecto producido sobre la variable dependiente, de tal manera que el efecto de una variable independiente deja de permanecer constante en los niveles de la otra u otras independientes. El efecto de interacción está presente si el efecto conjunto de las variables independientes no es igual a sus efectos por separado (aditivos). Ello significa que el efecto de una variable independiente por sí mismo no es igual que cuando se toma en combinación con los niveles de otra variable independiente. Por ejemplo, si el alto contenido de violencia televisada afecta sólo cuando hay orientación sobre el programa por parte de la madre, pero no cuando dicha orientación está a cargo del padre o de ambos. Así, hay dos tipos de efectos que es posible evaluar en los diseños factoriales: los efectos de cada variable independiente (llamados efectos principales) y los efectos de interacción entre dos o más variables independientes (si se tienen cuatro variables, por ejemplo, pueden interactuar dos entre sí y otras dos entre sí, o pueden interactuar tres o las cuatro variables independientes). Los diseños factoriales responden a estructuras entre variables que se esquematizan en la siguiente forma: Figura 5.11 Ejemplo de estructura de un diseño factorial

Variables Independientes X W

Variable dependiente

· · ·
K

Y

Asimismo se analizan el efecto de X sobre Y (X el de …K sobre Y (K

Y), de W sobre Y (W

Y) y

Y); el efecto conjunto de X y W sobre Y.

El efecto conjunto de X y …K sobre Y.

El efecto conjunto de W y …K sobre Y.

Finalmente el efecto conjunto de todas las variables independientes sobre Y (tres variables).

Ejemplo Supongamos una investigación que tiene como hipótesis: A mayor exposición por parte de los adolescentes a videos musicales con alto contenido sexual, habrá una mayor predisposición para establecer contacto heterosexual. Posteriormente se diseña un experimento para someterla a prueba. La variable independiente es la exposición a contenidos sexuales (por medio de la televisión) y la dependiente es la predisposición para establecer contacto sexual. Se decide agregar otra variable independiente: género o sexo. Entonces se tiene un diseño factorial con dos variables independientes. La exposición tendría tres niveles: a) contenido sexual elevado y manifiesto, b) contenido sexual moderado y c) contenido “romántico”. Cada video que se elabore tendrá, entonces, tres versiones: la música es la misma, los modelos, la duración, la historia y el contexto también. La única diferencia es el tratamiento sexual de los contenidos verbales y no verbales. El género o sexo implicaría dos niveles: masculino y femenino. El esquema del diseño se indica en la figura 5.12.

Figura 5.12 Diseño factorial 2 X 3 (correspondiente al ejemplo)

Exposición al conetnido sexual Elevada Moderada Mínima

Masculino Sexo Femenino

Christensen (2000) desarrolla una excelente explicación de los efectos principales e interactivos en los diseños factoriales, la cual sirve de base para la exposición de dichos efectos que se incluye a continuación. Supongamos que, una vez que los grupos se han expuesto a los videos, se les aplica una posprueba que mide su predisposición para establecer contacto sexual y se obtiene el promedio de cada grupo (asimismo, pensemos que los resultados que lleguen a obtenerse en esta prueba oscilaran entre 0 y 30, donde un valor mayor indica una más alta predisposición). Analizamos varias configuraciones posibles de resultados (figura 5.13).

Figura 5.13 Diagramas del ejemplo de diseño factorial. Interpretación y posibles configuraciones

Interpretación de efectos

Marginal

Si hay diferencias entre los promedios de los marginales, hubo efecto de la variable “horizontal” (en el ejemplo, el sexo o género)

Marginal Marginal Marginal Marginal

Si hay diferencias entre los promedios de los marginales, hubo efecto de la variable “vertical” (en el ejemplo, exposición al contenido sexual).

25 Promedios de marginales

15

7 No efecto

25

15

7

Efecto

Posibles configuraciones
A.
Elevada Moderada Mínima

B.
Elevada Moderada Mínima

Masculino Femenino

25 25

15 15

7 7

Masculino Femenino

18 8

18 8

18 8

La variable exposición tiene efecto; la variable sexo no tiene efecto. No hay efecto de interacción.

La variable exposición no tiene efecto; la variable sexo tiene efecto. No hay efecto de interacción.

C.
Elevada Moderada Mínima

D.
Elevada Moderada Mínima

Masculino Femenino

26 10

18 18

10 25.9

Masculino Femenino

23 18

18 13

13 8

Ninguna de las variables tiene efecto por si mismas, pero hay un efecto de interacción. E.
Elevada Moderada Mínima

Las dos variables tienen efecto, pero no hay un efecto de interacción.

F.
Elevada Moderada Mínima

Masculino Femenino

29 20

23 12

12 12

Masculino Femenino

8 7.9

7.9 8

8.1 8

Las dos variables tienen efecto y hay efecto de interacción.

No hay ningú tipo de efecto.

En la configuración A, no hay diferencias por sexo (cada casilla en cada nivel de sexo es igual a la del otro nivel). En cambio, hay diferencias entre los niveles de

exposición en ambos sexos. Los efectos principales (es decir, los de cada variable por separado) se observan comparando los promedios de los marginales de los niveles de cada variable (ver interpretación de efectos de la figura 5.13). En la configuración B, no hay diferencias por exposición, pero sí por sexo. En la configuración C, las diferencias entre las celdas se explican porque las dos variables interactúan (cuando el sexo es masculino y la exposición elevada, asimismo cuando el sexo es femenino y la exposición mínima, se obtiene un valor; cuando el sexo es masculino y la exposición mínima, y cuando el sexo es femenino y la exposición elevada, se obtiene otro valor; finalmente, cuando ambos sexos se exponen moderadamente se obtiene un valor distinto de las demás celdas). El máximo efecto se encuentra en “masculino” y “elevada” y “femenino” y “mínima” (26 y 25.9). No hay efectos principales. En la configuración D, hay cambios verticales y horizontales, provocados por efectos principales, pero no efecto de interacción (ambas variables tienen efecto por sí mismas, únicamente). En la configuración E, hay efectos principales (cada variable por sí misma afecta) y también efecto de interacción (éste se alcanza si la diferencia entre las medias de los niveles de variación de una variable independiente cambian en función de los niveles de variación de la otra variable independiente, como también ocurrió en la configuración C). En la configuración F, las diferencias entre todas las celdas es prácticamente nula: no hay ninguna clase de efecto.

Métodos estadísticos de los diseños factoriales Los métodos estadísticos más usuales para estos diseños son el análisis de varianza factorial (ANOVA) y el análisis de covarianza (ANCOVA), con la variable dependiente medida en intervalos, y la ji-cuadrada (χ2) para múltiples grupos, con esa variable medida nominalmente. Por último, a estos diseños se les pueden agregar más variables dependientes

(tener dos o más) y se convierten en diseños multivariados experimentales que utilizan como método estadístico el análisis multivariado de varianza (MANOVA). ¿Qué otros experimentos existen?: cuasiexperimentos Ya se comentó, en el capítulo 7 del libro, que los diseños cuasiexperimentales también manipulan deliberadamente una o más variables independientes para observar su efecto y relación con una o varias dependientes, sólo que trabajan con “grupos intactos”, formados por motivos ajenos al experimento: en los diseños cuasiexperimentales los sujetos no se asignan al azar a los grupos ni se emparejan, sino que dichos grupos ya estaban integrados previamente al experimento. Por ejemplo, si los grupos del experimento son cuatro grupos de diferentes áreas de una empresa que estaban conformados con anterioridad al experimento (las razones por las que cada participante se integró a cada área no tienen que ver con la realización del experimento). Veámoslo gráficamente: Grupo A (50 empleados del departamento de producción) G r u p o experimental con X1. Grupo B (26 empleados de la gerencia de recursos humanos) Grupo experimental con X2. Grupo C (37 empleados de la gerencia de administración y finanzas) Grupo experimental X3. Grupo D (29 empleados del departamento de aseguramiento de la calidad) Grupo de control.

Problema de los diseños cuasiexperimentales Estos diseños se utilizan cuando no es posible asignar en forma aleatoria los sujetos o participantes a los grupos que recibirán los tratamientos experimentales. La falta de aleatorización introduce posibles problemas de validez interna y externa. Como comenta Weiss (1990, p. 89):

Estos diseños deben luchar con la selección como fuente posible de interpretación equivocada, lo mismo que con la interacción de la selección y otros factores; así como, posiblemente, con los efectos de la regresión.

Asimismo, diversos elementos pudieron operar en la formación de los grupos (que no están bajo el control del investigador), que impiden afirmar que éstos son representativos de poblaciones más amplias. De este modo, dado que su validez es menor que la de los experimentos “puros”, reciben el nombre de cuasiexperimentos. A causa de los problemas potenciales de validez interna, en estos diseños el investigador debe intentar establecer la semejanza entre los grupos; esto requiere considerar las características o variables que estén relacionadas con las variables estudiadas (Wiersma y Jurs, 2005). Por ejemplo, si grupos intactos de trabajadores se involucran en un experimento sobre motivación, el turno probablemente tenga que ser introducido como una constante (grupos intactos, que sean todos del mismo turno) o como otra variable independiente (de control). Asimismo, el investigador deberá buscar evidencia de que los grupos son equiparables en salario, productividad, competencia, antigüedad en la organización y, en general, en todo lo que genere diferencias entre los grupos. Cuanta mayor información se obtenga sobre los grupos, mayores bases se tendrán para establecer su semejanza. En algunos casos se observará si hay la misma proporción de mujeres y hombres en los grupos, si la edad promedio es similar, si los grupos no fueron constituidos con base en un criterio que pudiera afectar (por ejemplo, formación de los salones por inteligencia) y si a los grupos en el pasado no les ha ocurrido algo que llegara a influir los resultados. Además, como mencionan Campbell y Stanley (1966, p. 70):
Precisamente porque hay falta de control experimental total, es imprescindible que el investigador conozca a fondo cuáles son las variables particulares que su diseño específico no controla. Así, estará más pendiente de su posible influencia y tendrá mejores elementos para evaluarla.

La ausencia de asignación al azar hace que se ponga especial atención al interpretar

los resultados y se tenga sumo cuidado de no caer en interpretaciones erróneas. Las limitaciones deben identificarse con claridad, la equivalencia de los grupos debe discutirse y la posibilidad de generalizar los resultados, así como la representatividad, deberán argumentarse sobre una base lógica (Wiersma y Jurs, 2005). Los cuasiexperimentos difieren de los experimentos “puros” en la equivalencia inicial de los grupos (los primeros trabajan con grupos intactos y los segundos utilizan un método para hacer equivalentes a los grupos). Sin embargo, esto no quiere decir que sea imposible tener un caso de cuasiexperimento, donde los grupos sean equiparables en las variables relevantes para el estudio. Si así fuera, los cuasiexperimentos ya hubieran sido desechados como diseños de investigación. Más bien quiere decir que, en algunos casos, los grupos pueden diferir significativamente o no ser equiparables; de este modo, el investigador debe analizar si los grupos son o no comparables desde el inicio. En esta última situación el investigador debe declinar la realización de la investigación con fines explicativos y limitarse a propósitos descriptivos y/o correlacionales. Una recomendación con el fin de consolidar la validez interna de esta clase de diseños experimentales, es que los tratamientos o estímulos deben asignarse al azar.

Tipos de diseños cuasiexperimentales Con excepción de la diferencia que acabamos de mencionar, los cuasiexperimentos son muy parecidos a los experimentos “puros”. Por lo tanto, podemos decir que hay casi tantos diseños cuasiexperimentales como experimentales “puros”. Sólo que no hay asignación al azar ni emparejamiento. Pero por lo demás son iguales, la interpretación es similar, las comparaciones son las mismas y los análisis estadísticos iguales (salvo que a veces se consideran las pruebas para datos no correlacionados). Es por ello que nos limitaremos a ver sólo algunos de los diseños cuasiexperimentales (el resto puede ser deducido de sus correspondientes diseños experimentales “puros”, además de quitarles la “R” de asignación al azar) y se comentarán brevemente porque las comparaciones,

interpretaciones y los análisis son prácticamente equipares.2 Consideramos que no sería adecuado volver a explicar dichas comparaciones, interpretaciones y análisis.

1. Diseño con posprueba únicamente y grupos intactos. Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro no. Los grupos son comparados en la posprueba para analizar si el tratamiento experimental tuvo un efecto sobre la variable dependiente (01 con 02). El diseño puede diagramarse del siguiente modo, tal como se ve, no hay asignación al azar ni emparejamiento: G1 G2 X — 01 02

Obsérvese que si los grupos no son equiparables entre sí, las diferencias en las pospruebas de ambos grupos se atribuirían a la variable independiente, pero también a otras razones diferentes, lo peor es que el investigador quizá no se dé cuenta de ello. Por ejemplo, supongamos que se lleva a cabo un cuasiexperimento para analizar el efecto de la retroalimentación que los médicos dan a sus pacientes (respecto a su conducta en el tratamiento prescrito) sobre la obediencia o apego al tratamiento. Se podría partir de la siguiente hipótesis: Los pacientes que reciban mayor retroalimentación de parte de sus médicos, acerca de cómo se comportan en el tratamiento prescrito, se apegarán más a dicho tratamiento. Es decir, los médicos que informen más a sus pacientes sobre su conducta en el tratamiento prescrito propiciarán en los pacientes un mayor deseo de seguir el tratamiento. La cuestión es motivar al paciente. Entonces, el investigador toma dos grupos de pacientes. Un grupo recibe retroalimentación sobre su conducta en el tratamiento prescrito y el otro no. Posteriormente se evalúa qué tanto se apega cada grupo, en lo sucesivo, al tratamiento. Supongamos que obtenemos el siguiente resultado: 01
2

Si al lector le surge alguna duda respecto a qué comparaciones, interpretaciones y análisis pueden llevarse a cabo en un diseño cuasiexperimental, le recomendamos revise el diseño experimental “puro” correspondiente, vale recordar que la diferencia es que en el cuasiexperimental no hay aleatorización y los grupos pueden estar no correlacionados.

> 02 (el grupo experimental se apega más al tratamiento), entonces deducimos que la hipótesis fue confirmada. Pero para establecer lo anterior, debemos analizar con mucho cuidado que sea posible comparar a los grupos. Imaginemos que el grupo experimental estaba formado por pacientes que asisten a un hospital donde con frecuencia se dan pláticas motivadoras para que los enfermos sigan los tratamientos prescritos, mientras que el grupo de control estaba integrado por pacientes que asisten a un hospital donde no se le asigna importancia a ello. ¿A qué razón se le podrían atribuir con certeza los resultados: a la manipulación de la variable independiente, a que los grupos de pacientes provienen de diferentes hospitales, a ambos factores, a algún otro? Como los grupos no son razonablemente equiparables, no tendríamos la certeza de cuál fue la causa o qué tanto contribuyeron los diversos factores involucrados. Hay un problema de validez interna. También podría ser que el grupo experimental estuviera compuesto por pacientes que, desde antes del experimento, tuvieran una motivación elevada para apegarse a tratamientos médicos; o tal vez actúen otros factores que provocaran diferencias iniciales entre los grupos. Por ello, es importante que los grupos sean inicialmente comparables y que durante el experimento no ocurra algo que los haga diferentes, con excepción de la presencia-ausencia del tratamiento experimental (por ejemplo, misma enfermedad y tratamiento médico, hospital, galeno que los atiende, instrucciones y lugar, equivalencia como grupos en género, edad, avance de la enfermedad, etc.; nada más imaginemos que el grupo experimental, en promedio, está “más enfermo” que el de control, y los pacientes lo saben; llega a suceder que los más enfermos se apeguen más al tratamiento). El criterio de los experimentos “puros” en relación con mantener la igualdad de los grupos (salvo la manipulación de la variable independiente) se aplica por igual a los cuasiexperimentos. Puede extenderse el diseño para incluir más de dos grupos. Se tienen así diferentes tratamientos experimentales o niveles de manipulación. Su formato

general sería: G1 G2 G3 • • • Gk Gk + 1 X1 X2 X3 • • • Xk — 01 02 03 • • • 0k 0k + 1

El último grupo es de control. Un ejemplo de este diseño sería con cuatro grupos escolares de un mismo semestre y carrera (licenciatura) en una universidad, como grupos del cuasiexperimento. Veámoslo esquemáticamente en la tabla 5.4. Tabla 5.4 Diagrama de un ejemplo del diseño cuasiexperimental con posprueba únicamente

Universidad del Centro Escuela de Psicología Tercer semestre Grupo A Grupo B Grupo C Grupo D X1 X2 X3 — 01 02 03 04

Recuérdese que los grupos son intactos (no se generan) y ya se habían

constituido por motivos diferentes al cuasiexperimento (en este caso, la elección de estudiar una carrera y la asignación de alumnos a los grupos por parte de la Escuela de Psicología). Los tratamientos experimentales podrían ser métodos educativos.

2. Diseño con preprueba-posprueba y grupos intactos (uno de ellos de control). Este diseño es similar al que incluye posprueba únicamente y grupos intactos, sólo que en este caso a los grupos se les administra una preprueba. La cual puede servir para verificar la equivalencia inicial de los grupos (si son equiparables no debe haber diferencias significativas entre las prepruebas de los grupos). Su esquema más sencillo sería el siguiente: G1 G2 01 03 X — 02 04

Aunque puede extenderse a más de dos grupos (niveles o modalidades de manipulación de la variable independiente), lo cual se esquematizaría así: G1 G2 G3 • • • Gk Gk+1 01 03 05 • • • 02k–1 02k+1 X1 X2 X3 • • • Xk — 02 04 06 • • • 02k 02(k+1)

Las posibles comparaciones entre las mediciones de la variable dependiente y las interpretaciones son las mismas que en el diseño experimental de prepruebaposprueba con grupo de control; solamente que, en este segundo diseño

cuasiexperimental, los grupos son intactos y en la interpretación de resultados debemos tomarlo en cuenta. Recuérdese todo lo que se ha dicho de la probable no equivalencia de los grupos. Este aspecto se aplica a todos los diseños cuasiexperimentales.

3. Diseños cuasiexperimentales de series cronológicas. En ocasiones el investigador pretende analizar efectos al mediano y largo plazos o los efectos de la administración del tratamiento experimental varias veces; pero no cuenta con la posibilidad de asignar al azar a los sujetos o participantes a los grupos del experimento. En estos casos, pueden utilizarse los d i s e ñ o s cuasiexperimentales, salvo que los grupos deben ser intactos. En ambas

situaciones se aplican mediciones repetidas de la variable dependiente y se inserta el tratamiento experimental entre dos de esas mediciones en, al menos, un grupo; mientras que a otro grupo no se le aplica ningún tratamiento en el periodo de “experimentación”. Aunque desde la perspectiva de la literatura clásica sobre experimentos (véase Campbell y Stanley, 1966) se reconoce como cuasiexperimento a un diseño que no tiene grupo de control. Bien, hablemos brevemente de estos diseños.

Series cronológicas de un solo grupo A un único grupo se le administran varias prepruebas, después se le aplica el tratamiento experimental y finalmente varias pospruebas. El diseño se diagrama así: G0
10 20

3

X0

40

50

6

El número de mediciones está sujeto a las necesidades específicas de la investigación que realizamos. Un ejemplo muy difundido de este diseño lo constituyó la evaluación de un

programa que tenía por objeto disminuir la velocidad en carreteras del estado de Connecticut, EE. UU. (Campbell, 1975). Los investigadores recolectaron informes y datos de accidentes de tránsito correspondientes a varios años anteriores y ulteriores a la implantación del programa. Encontraron que después del programa el número de accidentes disminuyó. Pero como las distintas mediciones habían mostrado una pauta ascendente y descendente inestable durante varios años, no se podía tener la certeza de que el programa hubiese sido la razón del descenso en el número de accidentes (Weiss, 1990). Entonces, fue necesario comparar las estadísticas de Connecticut con las de otros cuatro estados vecinos en los que no se habían efectuado los cambios en los reglamentos de tránsito propuestos por el programa del mencionado estado. Estos otros cuatro estados actuaron como grupos de control. Finalmente, se observó que en los otros estados no se había registrado una disminución equivalente al número de accidentes. Las comparaciones dieron pie para concluir que el programa había generados los efectos deseados (Campbell, 1975; Glass, 1968). Esta investigación cuasiexperimental en su primera etapa utilizó las series cronológicas de un solo grupo (ver figura 5.14).

Figura 5.14 Ejemplo de un cuasiexperimento en su primera etapa

G
Accidentes 1951 Accidentes 1955 Accidentes 1953 Accidentes 1954 Accidentes 1955

X
Accidentes 1956 Accidentes 1957 Accidentes 1958

(Estado de Connecticut)

(Programa para disminuir accidentes)

Figura 5.15 Ejemplos de resultados en series cronológicas de un solo grupo

Escala de la variable dependiente

a)

Otro ejemplo de este diseño sería medir las ventas de un producto durante varios meses, introducir una campaña publi-

01

02

03

X

04

05

06

citaria para ese producto y, después, medir durante meses el nivel de ventas. Las series cronológicas de un solo grupo llegan a producir diversos patrones de resultados.

Interpretación: Aparentemente no hay efecto, sino una tendencia de aumento en la variable dependiente que comienza desde antes del tratamiento.
Escala de la variable dependiente

b)

A manera de ejemplo podríamos tener los patrones mostrados en la figura 5.15 (algunos de los cuales fueron expuestos en las series

01

02

03

X

04

05

06

cronológicas experimentales). En las series cronológicas de un único grupo debe tomarse muy en cuenta que no se tiene

Interpretación: Posible efecto del tratamiento sobre la variable dependiente.
Escala de la variable dependiente

punto de comparación (grupo de control); por lo tanto, la

interpretación del patrón en la variable dependiente (o patrones de las variables dependientes)
01 02 03 X 04 05 06

tiene que ser muy cuidadosa, y habrá de analizarse si no han

Interpretación: Aunque entre la primera y la última mediciones se aprecian diferencias, no puede concluirse que haya o no efecto, pues el patrón es irregular.

actuado o interactuado otras posibles causas, además del tratamiento experimental o variable independiente. La historia y el hecho de que el grupo sea atípico son riesgos que se afrontan en este diseño, al igual que la instrumentación. Normalmente, este diseño cuasiexperimental se utiliza con propósitos correlacionales y no explicativos.

Series cronológicas cuasiexperimentales con múltiples grupos. Estos diseños pueden adoptar la estructura de las series cronológicas experimentales, con la diferencia de que en estas últimas los individuos se asignan al azar a los grupos, mientras que en las cuasiexperimentales tenemos grupos intactos. Por lo tanto, ocurrirían las mismas variaciones3 que se muestran en la figura 5.16.

Figura 5.16 Ejemplos de diseños cuasiexperimentales con series cronológicas

Sin prepruebas y grupo de control

G1 G2 G3 G4

X1 X2 X3 __

O1 O4 O7 O10

O2 O5 O8 O11

O3 O6 O9 O12

Con prepruebas y grupo de control

G1 G2

O1 O7

O2 O8

O3 O9

X __

O4 O10

O5 O11

O6 O12

Estas series también son similares a sus correspondientes experimentales, pero
Recomendamos al lector que revise los apartados relativos a las series cronológicas experimentales antes de leer este apartado. De hecho, podrá notar que los diseños son los mismos, salvo que en los esquemas y diagramas de las series experimentales aparece el símbolo “R” de asignación al azar. Por ello, aquí se omiten explicaciones, interpretaciones y ejemplos; de lo contrario, pecaríamos de redundantes. Únicamente nos limitaremos a esquematizar los diseños, sin explicaciones, porque lo que puede decirse es lo mismo que lo dicho en las series cronológicas experimentales. Desde luego, debe resaltarse que en las series cuasiexperimentales los grupos son intactos y es necesario asegurar que los grupos sean equiparables.

con grupos intactos. Así, tendríamos los siguientes diagramas para ilustrarlas: G1 G2 G1 G2 G3 01 011 01 07 013 02 X1 03 04 X1 05 06 07 X 1 08 09 010 020 06 012 018

012 — X1 X2 — 02 08 014

013 014 — X1 X2 —

015 016 017 — 03 09 015 X1 X2 — 04 010 016

018 019 X1 X2 — 05 011 017

Series cronológicas cuasiexperimentales con tratamientos múltiples Al igual que en los casos anteriores, estas series son similares a sus correspondientes experimentales, sólo que con grupos intactos. Por lo tanto, tendríamos diagramas como éstos: G1 G2 G3 G4 G5 G6 X1 X2 X3 X2 X1 X3 01 08 02 09 X2 X1 X2 X3 X3 X1 03 04 X3 X3 X1 X1 X2 X2 05 06 07 014 021 028 035 042

010 011 017 018 024 025 031 032 038 039

012 013 019 020 026 027 033 034 040 041

015 016 022 023 029 030 036 037

Tipos de variables en experimentos y cuasiexperimentos Como complemento a lo que se menciona en el libro
Cuasiexperimento Experimento en el que los sujetos no se asignan al azar a los grupos ni se emparejan, porque tales grupos ya existían (grupos intactos).

sobre variables y experimentos, únicamente queremos ahondar un poco sobre los tipos de variables en los diseños experimentales y cuasiexperimentales. Los principales tipos de variables son:

1. Independiente: Tratamiento experimental que provoca efectos (causa). 2. Dependiente: Efecto o consecuencia (provocado o provocada por el tratamiento o variable independiente).

3. Interviniente: Moderador de la relación causal entre la variable independiente y dependiente. Si no se conoce su efecto o no se controla, el experimento puede invalidarse. 4. Explicaciones rivales o fuentes de invalidación interna (pueden ser variables independientes o intervinientes): Su influencia debe conocerse o controlarse, de no ser así, el experimento puede invalidarse. Asimismo, es factible que se combine con otras variables para afectar a la dependiente. 5. Variable de control: Influye en la dependiente, pero es neutralizada por el diseño o por los procedimientos estadísticos.

La diferencia entre la variable de control e interviniente reside en que en la primera se neutralizan sus efectos, y en la segunda se conocen éstos (Creswell, 2005). Un ejemplo sería el que se muestra en la figura 5.16

Figura 5.16 Diferencia entre variable interviniente y de control

Variable de control: Tipo de escuela (pública-privada). Variable independiente: método educativo (tradicional-moderno): Dos grupos experimentales. Variable interviniente: Horas de estudio.

Variable dependiente: aprendizaje de estadística.

La variable independiente se manipula (a un grupo se le expone a un método, al otro a un método distinto). El tipo de escuela se controla al asignar a los dos grupos por igual (en la misma proporción) alumnos de escuelas públicas y privadas

(la composición de cada uno sería: 50% de estudiantes de instituciones públicas y 50% de estudiantes de escuelas privadas). Los efectos de la variable interviniente se conocen, al medir el número de horas dedicadas al estudio (con su introducción al análisis). La variable dependiente se mide. Los análisis estadísticos ayudan a esclarecer las relaciones entre todas las variables.

Nota final: Los pasos para un diseño cuasiexperimental son los mismos que para uno experimental.

CAPÍTULO 6
ENCUESTAS (SURVEYS)

1

DEFINICIÓN DE UNA ENCUESTA O S U R V E Y
Las encuestas recolectan datos de numerosos individuos para entender a la población o universo al que representan (McMurtry, 2005). Houston (s.f.) define a la encuesta como un método sistemático que recolecta información de un grupo seleccionado de personas mediante preguntas. Pueden ser con la finalidad o alcance descriptivo y/o correlacional-causal. 1. Descriptivo. Se pretende caracterizar a la población en función de las variables seleccionadas. Adicionalmente, las encuestas descriptivas pueden ser útiles para: • • • • • Proveer un perfil más o menos exacto del fenómeno, variables o planteamiento de interés. Mostrar las facetas o dimensiones de un fenómeno, sistema, proceso o mecanismo. Crear tipologías o categorías. Clarificar secuencias o conjuntos de etapas. Documentar información que confirme o contradiga datos previos sobre un fenómeno o planteamiento. 2. Correlacional-causal. Cuando se busca caracterizar relaciones entre variables en una población. Tambien para: • • • • • Encontrar información que estimule nuevas explicaciones. Determinar la validez de un principio. Vincular diferentes asuntos, tópicos o cuestiones en un ámbito o una proposición. Confirmar o construir teoría e hipótesis generadas por medio de otros diseños. Extender teoría e hipótesis a nuevas áreas de conocimiento o campos.

2

Incluso, al realizar una encuesta el investigador puede tener en mente ambos alcances. Las encuestas pueden recabar datos sobre diversas cuestiones como preferencias, actitudes, opiniones, creencias, motivaciones, conocimientos, emociones, etc. Son diseños n o experimentales de naturaleza transversal o transeccional. Desde luego, los resultados de distintas encuestas aplicadas en tiempos diferentes, pero que utilicen el mismo instrumento, pueden compararse y se genera un diseño longitudinal. Usualmente su método de recolección de los datos lo constituye el cuestionario, que recodemos consiste en un conjunto de preguntas respecto a una o más variables a medir y puede administrarse de diferentes formas: autoadministrado de manera individual, autoadministrado en grupos pequeños o medianos, autoadministrado que se envía por correo tradicional, electrónico o mensajería, por entrevista telefónica o mediante entrevista “cara a cara”. Asimismo, se efectúan en una muestra del universo (con excepción de los censos), que puede ser probabilística o no probabilística, lo más conveniente es la primera opción si se pretenden generalizar estadísticamente los resultados de la muestra a la población. La encuesta es un diseño investigativo de relativamente bajo costo y que se implementa de manera rápida. El proceso es similar a cualquier otro tipo de estudio cuantitativo, sus etapas generales se presentan en la figura 6.1, las cuales ya fueron comentadas en la segunda parte de Metodología de la investigación, 4ª edición, sin embargo debemos puntualizar algunos elementos. En primer término, es necesario identificar con precisión al usuario o usuarios de la encuesta. A veces el usuario resulta ser el mismo investigador, pero frecuentemente se trata de un candidato a un puesto de elección popular y su equipo de la campaña política; o bien, un grupo de directivos de una empresa; o tal vez, los editores de un diario o periódico de circulación nacional; los habitantes de una colonia, o la opinión pública de un sistema social. Tal identificación implica obtener un perfil de los usuarios: ¿quiénes son? (edad, género, nivel educativo, conocimientos en materia de investigación, afiliación política, intereses y otras cuestiones que pudieran vincularse a la investigación);1 así como sus requerimientos:
1

A veces asuntos aparentemente triviales resultan importantes. En una ocasión se presentaron los resultados de una encuesta electoral a un candidato al gobierno de una provincia que era daltónico (los colores utilizados en las gráficas no fueron lo suficientemente contrastantes y el usuario se sintió agredido). Igualmente, pueden molestarse los usuarios si se les muestran estadísticas que no comprenden.

¿qué necesidades de información tienen?, ¿cuáles son sus expectativas respecto a la encuesta?, ¿qué tipo de decisiones tomarán sobre la base de los resultados de la

Figura 6.1 Proceso de una encuesta o survey

Identificar con exactitud a los usuarios de la encuesta

Especificar con los usuarios el tipo de información requerida (necesaria)

Planteamiento del problema (conjuntamente con los usuarios)

Definir cómo va a ser administrado el cuestionario

Establecer quiénes van a ser entrevistados (unidad o unidades de análisis y muestra –con inclusión del tamaño o n–)

Determinar las variables que van a medirse

Integrar el equipo que llevará a cabo la encuesta

Determinar qué recursos son necesarios para conducir la encuesta

Establecer si se usa un instrumento existente o si se genera uno nuevo

Llevar a cabo la prueba piloto

Construir el instrumento

Visualizar cómo los datos e información de la encuesta van a ser analizados y reportados

Recolectar datos

Analizar datos

Revisar resultados con el equipo de investigación

Elaborar reporte de resultados de la encuesta

encuesta?, ¿de qué manera utilizarán los resultados que se obtengan?, ¿cómo va a ser clasificada la información por ellos?, ¿qué datos generales y específicos necesitan?, ¿en qué formatos desean que se les proporcione la información?, etc. Las respuestas a las preguntas anteriores ayudarán a que el investigador y los usuarios, conjuntamente, planteen de una manera más adecuada su problema de estudio y definan los tópicos que pretenden incluir en la encuesta. Los tópicos son ubicados como variables. En ocasiones un tópico es una variable y en otras, un tópico está conformado por diversas variables. Recordemos que cada variable debe ser definida conceptualmente y operacionalmente. Todas las precisiones se realizan “mano a mano” con los usuarios (ya sea interactivamente o al desarrollar las respectivas propuestas y con la obtención de retroalimentación por su parte). Posteriormente, se acuerdan decisiones con los usuarios sobre tareas con las cuales el lector estará familiarizado; esto resulta claro, si leyó previamente los capítulos 7, 8 y 9 del libro (que se refieren a la muestra, el cuestionario y su contexto de administración). Asimismo, se integra el equipo que colaborará con el investigador en la realización de la encuesta (esta decisión casi siempre recae en el investigador). Tal grupo abarca a los coinvestigadores (si se requieren), supervisores de campo (que guían a los encuestadores, además de monitorear y revisar su trabajo), los propios encuestadores y personal auxiliar (que pueden ser especialistas en análisis estadístico, computación y diseño gráfico). Aunque como bien sabemos, estos equipos suelen ser más pequeños en nuestros ambientes académicos latinoamericanos (incluso los jóvenes estudiantes suelen hacer tareas de investigador, encuestador, analista y diseñador). El equipo debe encontrarse compenetrado con el estudio y motivado hacia su trabajo. Por otra parte, nunca debemos olvidar la importancia de la capacitación del grupo en sus funciones y todo lo que se explicó en el libro. Adicionalmente, es importante considerar los costos que se habrán de desembolsar con motivo de la realización de la encuesta, principalmente: pagos u honorarios de los participantes (equipo), viáticos, impresión y reproducción de cuestionarios, envío de cartas y otros documentos, o llamadas telefónicas (ya sea que el instrumento sea enviado por correo, mensajería o electrónicamente, autoadministrado individualmente o en grupos, por entrevista telefónica o “cara a cara”), recursos de cómputo (adquisición de programas, ingreso y procesamiento de datos) y los costos de elaboración del reporte, así como de las presentaciones respectivas.

El resto de los pasos en la implementación de la encuesta resultan conocidos si se revisó la obra Metodología de la investigación, 4ª edición, decidir si empleamos un cuestionario desarrollado previamente, adaptamos uno o generamos un nuevo instrumento; de este modo, construir los ítems o preguntas y sus formatos de respuesta, elaborar la introducción e instrucciones, diseñar el cuestionario, efectuar la prueba o pruebas piloto (que abarca también los tiempos de respuesta al instrumento) y diseñar la versión final. Se programa el trabajo de campo (con labores y movimientos en un calendario), asimismo se recolectan y analizan los datos. Durante esta parte es muy recomendable que el investigador y su equipo se reúnan frecuentemente para llevar a cabo la evaluación de los avances, problemas, respuestas de los encuestados y la evolución general del estudio. También, antes de preparar el reporte conviene juntarse con el grupo de colaboradores para conocer las interpretaciones de todos, sus opiniones (parti cularmente de quienes trabajaron con los entrevistados) y producir retroalimentación. Generalmente se obtiene información más amplia y profunda sobre las respuestas de los participantes. Asimismo, después de que hayamos elaborado el reporte conviene organizar una sesión para verificar una vez más su contenido. Los resultados regularmente se exponen por medio de una presentación audiovisual y la entrega del informe escrito en dos versiones: ejecutiva (breve) y técnica (larga). En la actualidad, en Iberoamérica crece el número de encuestas que se aplican, en parte se debe a que son citadas cotidianamente en los medios de comunicación colectiva. Las encuestas telefónicas son muy socorridas, debido a su utilidad cuando los encuestados potenciales se encuentran dispersos geográficamente. Algunos ejemplos de encuestas serían los siguientes: Integración de la tecnología en salones de clase Judge (2001) estudió el estatus de la integración de la tecnología computacional en los salones de clase de educación especial en el nivel preescolar. Su cuestionario incluyó como variables centrales: a) selección de programas de computación (software), b) uso e integración de la tecnología computacional, c) actitudes de los profesores(as) hacia dicha tecnología (fundamentalmente disposición a utilizarla y soporte). Su muestra objetivo estaba constituida por maestros de educación especial en el nivel preescolar del estado de Tennessee (el procedimiento de muestreo fue el sistemático).

Conformó la muestra mediante el directorio

de escuelas públicas del

Departamento de Educación Estatal. Identificó a 225 docentes, a quienes les envió por correo un paquete con el cuestionario integrado por 30 ítems y la carta explicativa de la encuesta. 106 cuestionarios le fueron devueltos y de éstos, solamente 91 estaban correctamente contestados. Censos económicos en México El Instituto Nacional de Estadística, Geografía e Informática (INEGI) realiza cada cinco años, desde 1930, los censos económicos (con los cuales se pretende incluir a todo el universo de las unidades económicas que componen el sector productivo de este país y por lo tanto, no se muestrea). Por medio de cada censo se registran las características de tales unidades (una parte fundamental de éstas, las empresas formalmente constituidas). La información se levanta o recaba mediante un conjunto de cuestionarios diseñados específicamente para recopilar los datos individuales de cada establecimiento (según la actividad que desarrolle) (INEGI, 2005). Los rubros principales (variables) que abarcan los cuestionarios son: Categoría jurídica Participación de capital extranjero Inicio de actividades Forma de operaciones Personal ocupado dependiente de la razón social Personal ocupado no dependiente de la razón social Remuneraciones Gastos por consumo de bienes y servicios Gastos no derivados de la actividad Ingresos por suministro de bienes y servicios Ingresos no derivados de la actividad Valor de la producción Existencias Activos fijos Unidades y equipo de transporte Innovación e investigación

Además, se incluyen algunos temas particulares según el sector de actividad que se trate. Barómetro en España En España, el Centro de Investigaciones Sociológicas (CIS), efectúa mensualmente –desde 1979– una encuesta nacional denominada Barómetro (cuyo muestreo se comentó en el capítulo 8 del libro). Su objetivo es medir
el estado de la opinión pública española en relación con la situación política y económica del país y sus perspectivas de evolución. Asimismo, en cada Barómetro se abordan temas referidos a aquellas cuestiones que destacan en la actualidad social, económica y política del momento (CIS, 2005, p. principal).

Desde 1998 los resultados se incluyen en su página web. Las muestras oscilan entre 2500 y 2700 casos. Los tópicos que pueden ser incluidos son básicamente los siguientes (macrovariables): • • • • • • • • • • • • • • • • • Política Temas internacionales Economía Trabajo Población Medio ambiente Comunicación Cultura Deporte y ocio Ciencia y tecnología Educación Sanidad Justicia Vida cotidiana Valores y actitudes Conflictos y problemas sociales Comunidades autónomas

8

Es importante recalcar que el cuestionario puede variar (y de hecho varía) en ciertas preguntas. Por ejemplo, para el Barómetro de septiembre del 20052 n = 2 487 entrevistas, puntos de muestreo: 242 municipios y 50 provincias. El universo está constituido por población española de ambos géneros de 18 años y más. Los cuestionarios se aplicaron mediante entrevista personal en los domicilios. Procedimiento de muestreo: Polietápico, estratificado por conglomerados, con selección de las unidades primarias de muestreo (municipios y secciones) de forma aleatoria proporcional, de las unidades últimas (individuos) por rutas aleatorias y cuotas de sexo y edad. Los estratos se formaron por el cruce de las 17 comunidades autónomas con el tamaño de hábitat, dividido en siete categorías: menor o igual a 2 000 habitantes, de 2 001 a 10 000, de 10 001 a 50 000, de 50 001 a 100 000, de 100 001 a 400 000, de 400 001 a un millón y más de un millón de habitantes. Error muestral: Para un nivel de confianza del 95.5% (dos sigmas), y P = Q, el error real es de ±2.0% para el conjunto de la muestra y en el supuesto de muestreo aleatorio simple. Fecha de realización: Del 23 de septiembre al 3 octubre de 2005. Se hicieron preguntas como: 1. Refiriéndonos a la situación económica general de España, ¿cómo la calificaría usted: muy buena, buena, regular, mala o muy mala? Los resultados se muestran en la tabla 6.1. Tabla 6.1 Percepción de la situación económica en España

% Muy buena 0.6

(n) (15)

2

El Barómetro de referencia puede consultarse en: http://www.cis.es/cis/opencms/Archivos/Marginales/2600_2619/e261800.html

9

% Buena Regular Mala Muy mala N.S. N.C. TOTAL 21.8 51.3 19.5 5.2 1.2 0.4 100.0

(n) (541) (1276) (484) (130) (31) (10) (2487)

2. Y, ¿cree usted que dentro de un año la situación económica del país será mejor, igual o peor que ahora? 3. Refiriéndonos ahora a la situación política general de España, ¿cómo la calificaría usted: muy buena, buena, regular, mala o muy mala? 4. ¿Cree usted que dentro de un año la situación política del país será mejor, igual o peor que ahora? 5. ¿Cuáles son, a su juicio, los tres problemas principales que existen actualmente en España? (máximo tres respuestas). Los resultados fueron los de la tabla 6.2. Tabla 6.2 Problemas percibidos en España

Problemas El paro Las drogas La inseguridad ciudadana

% 55.6 6.7 12.8

(n) (1317) (159) (302)

10

Problemas El terrorismo, ETA Las infraestructuras La sanidad La vivienda Los problemas de índole económica Los problemas relacionados con la calidad del empleo Los problemas de la agricultura, ganadería y pesca La corrupción y el fraude Las pensiones La clase política, los partidos políticos Las guerras en general La administración de justicia Los problemas de índole social El racismo La inmigración La violencia contra la mujer Los problemas relacionados con la juventud La crisis de valores La educación Los problemas medioambientales

% 35.9 0.9 6.7 24.5 17.2 8.5 0.7 0.4 3.3 6.3 0.6 1.5 5.1 0.4 32.8 3.1 2.4 2.7 5.8 5.7

(n) (850) (21) (158) (580) (407) (202) (16) (10) (77) (148) (15) (36) (120) (9) (776) (74) (56) (65) (137) (135)

11

Problemas El Gobierno, los políticos y los partidos El funcionamiento de los servicios públicos Los nacionalismos Los problemas relacionados con la mujer El terrorismo internacional Las preocupaciones y situaciones personales Otras respuestas Ninguno TOTAL

% 1.4 0.5 3.3 0.3 0.0 0.4 5.0 0.4 100.0

(n) (32) (12) (77) (8) (1) (10) (119) (10) (2368)

Recordemos que los encuestados podían proporcionar hasta tres respuestas. 6. A continuación voy a leerle una serie de aspectos en la vida de las personas que la gente considera importantes. Puntúe, por favor, cada uno de ellos según la importancia que tiene para usted, al considerar que el uno significa que "no tiene ninguna importancia" y el 10 que "tiene la máxima importancia". La familia Los amigos El trabajo o actividad principal La vivienda Disponer de tiempo libre 7. ¿Podría decirme dónde vive habitualmente, es decir, la mayor parte del año? Así como otras preguntas tales como la 27: Cuando se habla de política se utilizan normalmente las expresiones izquierda y derecha. (En esta tarjeta hay una

serie de casillas que van de izquierda a derecha.) ¿En qué casilla se colocaría usted? (Pedir al entrevistado que indique la casilla en la que se colocaría y redondear el número correspondiente); y la 28: ¿Me podría decir a qué partido o coalición votó Ud. en las elecciones generales de marzo de 2004? En total, 38 preguntas base y otras derivadas de ellas. Encuesta de tendencias electorales y conocimiento de precandidatos La empresa Comunicometría, S. C. ha realizado diversas encuestas en municipios de diferentes países latinoamericanos. La siguiente3 fue realizada en Naucalpan, Estado de México, en mayo de 2005. Un total de 500 entrevistas en el hogar fueron efectuadas (la población del municipio o N es prácticamente de 900 000 habitantes). 4 Los objetivos de la encuesta fueron: • • • Conocer la intención de voto para presidente de la República (por partido) Conocer la intención de voto para presidente municipal de Naucalpan (por partido) Determinar el conocimiento espontáneo (“top of mind”) y ayudado (recordación) de posibles candidatos a la presidencia municipal de Naucalpan. • Conocer la intención de voto bajo supuestos candidatos a la presidencia de Naucalpan. Entre las preguntas que incluyó el cuestionario tenemos como ejemplo:5 1. Si en este momento fueran las elecciones para presidente de la República, ¿por qué partido votaría? 2. Y si en este momento fueran las elecciones para presidente o presidenta municipal de Naucalpan, ¿por qué partido votaría?

3 4

Comunicometría, S. C. (2005). Estudio no publicado. México, DF, México. Fuente: Instituto de Información e Investigación Geográfica, Estadística y Catastral del Gobierno del Estado de México (dato de 2000). Disponible en: http://www.edomexico.ob.mx/r_edomex/ regiones.asp 5 En negritas se trata de instrucciones para entrevistadores.

13

3. Pensando en la próxima elección para presidente municipal aquí en Naucalpan, ¿ha escuchado o sabe de algún candidato o candidata de cualquier partido político? (En caso de que no mencione candidatos, pasar a pregunta 7). 4. (En caso de una respuesta positiva, sí): ¿Me podría decir sus nombres? 5. (Si respondió solamente a una opción: pasar a la 7. Si respondió a más de una opción): De estas personas mencionadas de las cuales usted sabe quién es o conoce, ¿por quién votaría usted para que fuera presidente o presidenta municipal de Naucalpan? 6. ¿Por qué razones? 7. De las siguientes personas que se dedican a actividades políticas, ¿me podría decir en cada caso si sabe quién es, si la identifica? (Leer nombres de precandidatos y precandidatas, en cada caso marcar la respuesta). 8. Y si tuviera que elegir entre las siguientes personas para presidente o presidenta municipal de Naucalpan, ¿por quién votaría? (Mencionar precandidatos y precandidatas). 9. ¿Por qué? Y demás preguntas formuladas. En la intención de voto presidencial en ese municipio se obtuvieron los resultados de la figura 6.2 (nota: se omiten nombres de partidos, simplemente se intenta mostrar el tipo de información producto de la encuesta). Figura 6.2 Intenciones de voto, elección presidencial
Si en este momento fueran las elecciones para presidente de la República, ¿por qué partido votaría?

40,0% 35,0% 30,0% 25,0% 20,0% 15,0% 10,0% 5,0% 0,0% 17,6% 24,0%

37,9%

10,9% 5,3% 0,7% 3,6%

14

Poselectoral del País Vasco. Elecciones autonómicas, 2005 (Álava)6 Una vez más, una encuesta del Centro de Investigaciones Sociológicas (CIS) de España efectuada en Álava. El universo fue la población de ambos sexos de 18 años de edad o más. Tamaño de la muestra: 686 entrevistas. Puntos de muestreo: 14 municipios. Procedimiento de muestreo: polietápico, estratificado por conglomerados, con selección de las unidades primarias de muestreo (municipios) y de las unidades secundarias (secciones) de forma aleatoria proporcional, además de las unidades últimas (individuos) por rutas aleatorias y cuotas de sexo y edad. Los estratos se han formado según el tamaño del hábitat de los municipios, dividido en seis categorías: menor o igual a 2 000 habitantes, de 2 001 a 10 000, de 10 001 a 50 000, de 50 001 a 100 000, de 100 001 a 400 000 y más de 400 000 habitantes. Los cuestionarios se aplicaron mediante entrevista personal en los domicilios. Error muestral: para un nivel de confianza del 95.5% (dos sigmas), y P = Q, el error real es de ±3.8% para el conjunto de la muestra. Fecha de realización: del 22 de abril al 10 de mayo de 2005. Preguntas (algunos ejemplos): - Para empezar, ¿cómo calificaría usted la situación económica actual del País Vasco? - ¿Y cómo calificaría usted la situación política actual del País Vasco? - ¿Y cómo calificaría usted, en líneas generales, la actuación del Gobierno Vasco en estos últimos cuatro años: muy buena, buena, regular, mala o muy mala? - Hablando ahora del Gobierno Central, ¿cómo calificaría usted: muy buena, buena, mala o muy mala, la labor que se lleva a cabo en cada uno de los siguientes temas?  La política exterior y la guerra en Irak 
6

El conflicto de los astilleros IZAR

Los resultados se pueden consultar en la siguiente dirección de internet del CIS: http://www.cis.es/cis/opencms/-Archivos/Marginales/2600_2619/2601/e260101.html

15

 

La reforma de la Constitución y los Estatutos La política económica

- Cambiando de tema, ¿en las elecciones al Parlamento Vasco del pasado domingo 17 de abril…? Fue a votar y votó . Fue a votar, pero no pudo hacerlo. No fue a votar porque no pudo. Prefirió no votar. SÓLOAQUIENESPREFIRIERONNOVOTAR Sonvariaslasrazonesquepuedenllevaraunapersonaala votar. En su caso, ¿cuál fue larazónprincipalqueleimpulsó pasadas elecciones autonómicas del 17 de abril? Otros ejemplos The National Opinion Research Center (NORC) de la Universidad de Chicago (2005), con el patrocinio de la Fundación de Poesía de Chicago, realizó en 2005, una encuesta nacional telefónica en EE.UU. (n = 1 000 casos). La finalidad del estudio fue determinar dónde se encuentra la poesía en la cultura norteamericana, por medio de una medición de actitudes respecto a ésta y preguntas a los participantes sobre qué tanto leían poesía, cuáles eran sus autores favoritos, etcétera. El diario The Star-Ledger (1991) llevó a cabo en New Jersey una encuesta con 800 adultos para evaluar: si las personas poseían armas en sus hogares y el uso que les daban, si tenían planeado en el futuro comprar un arma, si habían poseído armas, si estaban inscritos en The National Rifle Association, etcétera. Igualmente se hacen encuestas epidemiológicas a fin de describir la ocurrencia de una enfermedad, conocer evaluaciones de los clientes respecto al servicio que ofrece una empresa, etc. No hay límites. decisión de no a no votar en las

16

CAPÍTULO 7
RECOLECCIÓN DE LOS DATOS CUANTITATIVOS

segunda parte

1

INTRODUCCIÓN
En este capítulo se tratan algunos temas que por cuestiones de espacio no fueron incluidos en Metodología de la investigación, 4ª edición; fundamentalmente los siguientes: Pruebas e inventarios, el escalograma de Guttman (escala de actitudes), la recolección y análisis de datos secundarios (comprendido el metaanálisis) y un comentario sobre las fuentes de error en las mediciones.

PRUEBAS E INVENTARIOS
¿Cómo pueden dividirse las pruebas e inv entari os? Fundamentalmente en dos tipos: estandarizados y no estandarizados. Las primeras se caracterizan esencialmente porque poseen uniformidad en las instrucciones para administrarse y calificarse, así como ciclos específicos de desarrollo y reconfirmación. Las segundas, usualmente se generan mediante un proceso menos riguroso y su aplicación es limitada (como una prueba de un maestro para evaluar el aprendizaje de sus alumnos en una asignatura). Desde luego, las no estandarizadas pueden irse robusteciendo (validándose en diferentes contextos) hasta convertirse en pruebas estandarizadas. En teoría, un inventario estandarizado puede aplicarse a cualquier persona del tipo para el cual fue elaborado (Mertens, 2005) y el tiempo que se brinda para contestarlo en ocasiones es flexible y en otras no. Cabe destacar que solamente podemos comparar los resultados entre grupos a los que se les administró una prueba estandarizada (por ejemplo, en experimentos), cuando n o existen diferencias entre los grupos que puedan generar sesgos en las respuestas (imaginemos que pretendemos comparar las respuestas a un test de razonamiento matemático entre niños de 10 años y niñas de seis años de edad, sería incorrecto). Por supuesto que, cuando contrastamos grupos (hombres frente a mujeres, entre distintos niveles socioeconómicos, jerarquías en la empresa, ocupaciones, entre otros) buscamos evaluar si hay o no diferencias, pero nos interesan las diferencias de la(s) variable(s) medida(s), de los resultados a la prueba. En cambio, no nos deben interesar las discrepancias entre grupos en las capacidades para el
2

desempeño de ésta, porque supuestamente las capacidades son las mismas (salvo que el objetivo del estudio sea considerar disparidades en la ejecución de un inventario). El esquema que se pretende al comparar grupos podría esquematizarse como en la figura 7.1. Figura 7.1 Interés al comparar grupos con la misma medición

Grupo 1 Nos interesan las similitudes-diferencias en las puntuaciones a la prueba por parte de los grupos.

Grupo 2

Grupo 3 Las capacidades y habilidades para responder (desempeño) deben ser equivalentes entre los grupos.

Por ejemplo, si queremos comparar a varios pilotos y saber cuál es el mejor, entonces los autos deberán ser los mismos, la pista igual, el combustible, equipo humano, etc. Si probamos autos y pilotos, la pista será la misma, las condiciones ambientales también, etc. Imaginemos que queremos comparar a cuatro grupos en cuanto a su inteligencia, uno de españoles, otro de peruanos, un tercero de italianos y un cuarto de germanos, y la prueba está en alemán (¿los resultados reflejarán la inteligencia o el conocimiento del idioma? Más bien lo segundo). ¿Qué pruebas estandarizadas se encuentran disponibles? En la actualidad existe una amplia diversidad de pruebas e inventarios desarrollados por diversos investigadores para medir gran número de variables. Estas pruebas tienen su propio procedimiento de aplicación, codificación e interpretación, además se encuentran disponibles en diversas fuentes secundarias y terciarias, así como en centros de investigación y difusión del conocimiento. Hay
3

pruebas para medir habilidades y aptitudes (como habilidad verbal, razonamiento, memoria, inteligencia, percepción, habilidad numérica), la personalidad, los intereses, los valores, el desempeño escolar, la motivación, el aprendizaje, el clima laboral en una organización, la inteligencia emocional, etc. También se puede disponer de pruebas clínicas para detectar conducta anormal, pruebas para seleccionar personal, pruebas para conocer las percepciones u opiniones de las personas respecto a diversos tópicos, pruebas para medir la autoestima y, en fin, otras muchas variables del comportamiento. El problema en el empleo de estas pruebas es que la mayoría se han desarrollado en contextos muy diferentes al iberoamericano, por lo que en ocasiones su utilización resulta inadecuada, inválida y poco confiable. Cuando se utilice como instrumento de medición una prueba estandarizada, es conveniente que se seleccione una desarrollada o adaptada por algún investigador para el mismo ámbito de nuestro estudio, que sea válida y confiable (debemos tener información sobre este respecto). En caso de que elijamos una prueba diseñada en otro contexto, será necesario adaptarla y efectuar pruebas piloto para calcular su validez y confiabilidad, así como ajustarla a las condiciones de nuestra investigación. Recordemos que cada vez que se administra un instrumento resulta indispensable demostrar que es válido y confiable para el ámbito en el cual se va a aplicar. Nuñez (2001), por ejemplo, desarrolló una prueba estandarizada para medir el sentido de vida (bajo la concepción de Victor Frankl) con 59 ítems, mediante el escalamiento tipo Likert, con el reporte de una confiabilidad alfa-Cronbach de 0.91, asimismo con una solución de ocho factores, ubicados en cuatro cuadrantes de dos ejes: homo faber (éxito-fracaso) y homo patiens (plenitud-desesperación). Revisó, antes de crear su prueba, 15 instrumentos como el
PIL,

Logo Test y Song

Test, Mile Test, Life Purpose Questionnaire Test, etc. Comenzó con un instrumento de 180 reactivos que depuró hasta llegar a sus 59 finales. Es un excelente ejemplo de una adaptación al medio latinoamericano de una prueba estandarizada sobre el sentido de vida. Los ítems definitivos se incluyen al terminar esta sección del capítulo. En la actualidad encontramos gran variedad de estas pruebas en formato digital (CD –disco compacto– y DVD) que hacen mucho más fácil y divertido contestarlas; un ejemplo es la prueba Emotional IQ Test (prueba de inteligencia emocional) de Meyer, Salovey y Caruso (1996). En internet hay diversos sitios donde se localizan estas pruebas, como Psychtests. En su buscador teclee entre

4

comillas la variable a medir y la palabra “prueba o test”, y encontrará un sinnúmero de estos instrumentos para recolectar datos. Un tipo de pruebas estandarizadas bastante difundido lo constituyen las pruebas proyectivas, las cuales presentan estímulos a los participantes para que respondan a ellos; después se pueden analizar las respuestas tanto cuantitativa como cualitativamente, y se interpretan. Estas pruebas evalúan proyecciones de las personas, como por ejemplo la personalidad. Dos pruebas proyectivas muy conocidas son el test de Rorschach (que presenta manchas de tinta en tarjetas o láminas blancas numeradas a los sujetos y éstos relatan sus asociaciones e interpretaciones en relación con las manchas) y el test de apercepción temática (que, con un esquema similar al de Rorschach, muestra a los participantes cuadros que evocan pasajes o historias, y ellos deben elaborar una interpretación). Dichas pruebas poseen un procedimiento estandarizado, aunque también se consideran instrumentos cualitativos para recolectar los datos, dada la profundidad de información que recogen de las personas en sus propias palabras. Cabe señalar que su aplicación regularmente es estandarizada; pero su interpretación no. El análisis es más bien de corte cualitativo. Bastantes pruebas estandarizadas (como las proyectivas) requieren de un entrenamiento considerable y un conocimiento profundo de las variables por parte del investigador que habrá de administrarlas e interpretarlas. No pueden aplicarse con superficialidad e indiscriminadamente. La manera de aplicar, codificar, calificar e interpretar las pruebas estandarizadas es tan variada como los tipos existentes. Algunos ejemplos de las pruebas, se incluyen en la tabla 7.1.

Tabla 7.1 Ejemplos de pruebas estandarizadas Variable general
Inteligencia

Variable específica
Coeficiente de inteligencia o I. Q. en adultos.

Instrumento
Escala de inteligencia de Wechsler. Inventario Multifacético de la Personalidad (MMPI), buscar

Personalidad

Personalidad en prácticamente todas sus dimensiones

actualizaciones recientes lo más que sea posible (versión adultos y versión adolescentes). 5

Nivel general de aptitudes Aptitudes mentales mentales en niños Aptitud cognitiva (nivel mental) Actitud de adaptación en el Actitud hacia el colegio colegio en estudiantes de educación media y superior Creencias familiares de los padres Creencias familiares Creencias familiares de los adolescentes

Escala Stanford-Binet para niños. Escala Binet-Simon. Cuestionario de adaptación al colegio WPS (Western Psychological Services). Inventario de las creencias familiares de los padres de Roehling y Robin (FBI A) (Corcoran y Fischer, 2000). Inventario de las creencias familiares de los adolescentes de Roehling y Robin (FBI P) (Corcoran y Fischer, 2000). Cuestionarios del dolor McGill [MPQ] de Melzack. Escala de felicidad marital [MHS] de Azrin, Naster y Jones (Corcoran y Fischer, 2000). Escala de satisfacción con la vida de Diener, Emmons, Larsen y Griffin (Lopez y Snyder, 2003). Escala de nueva conciencia ecológica de Ellis y Thompson (Robinson, Shaver y Wrightsman (1999). Inventario de intervenciones para asistir al paciente en situaciones estresantes de Edelman y Mandle (Stanhope y Knollmueller, 2000). Inventario de dependencia interpersonal de Hirschfield, Klerman y Gough (HG) (Tzeng, 1993). Escala de Wunderman de

Dolor

Dolor físico Satisfacción de la relación marital

Satisfacción en el matrimonio

Percepción de la vida

Satisfacción con la vida

Conciencia ecológica

Conciencia ecológica

Calidad en la práctica de la enfermera

Intervenciones para asistir al paciente en estado de estrés

Dependencia

Dependencia interpersonal

Lealtad del cliente

Lealtad hacia la marca

experiencia con la marca (Morel, 2003).

6

Hay miles de pruebas e inventarios en las fuentes secundarias y bases de datos que se mencionan en los apéndices 1 y 2 de este CD, así como páginas en internet como: - Tests and Measures in the Social Sciences: Tests available in compilation volumes (pruebas de diversas clases): http://libraries.uta.edu/helen/test&meas/testmainframe.htm - PsycInfo: http://www.apa.org/psycinfo/ - TestLink (ETS Test Collection Advanced Search o Tests on Microfiche) y The Mental Measurements Yearbook (también en versión manual de base datos). Se ingresa por medio de las páginas de las universidades (debe su institución estar suscrita). - ERIC (mencionada ampliamente): http://www.eric.ed.gov/ Adicionalmente se recomiendan: Mertens (2005) (particularmente pruebas para personas con capacidades diferentes), Kamphaus y Reynolds (2003), Anastasi (1997), Borg y Groenen (1997), Thorndike y Hagen (1989), Cronbach (1984), Norton (1980), Woelfel y Danes (1980) y, desde luego, las obras clásicas de Torgerson (1985) y Nunnally (1970). Se trata de autores especializados sobre medición y manejo de pruebas estandarizadas. Además, existen métodos propios de las diferentes ciencias sociales, como el análisis de redes, para evaluar la forma en que se manifiesta la comunicación en un sistema social (quién se comunica con quién, quiénes distorsionan la información, cómo fluye la comunicación, quiénes son los líderes comunicativos, etc.), sistemas de medición fisiológica, escalas multidimensionales que miden a los sujetos en varias dimensiones (como los sistemas Galileo de J. Woelfel y E. L. Fink, 1980, y ALSCAL), para medir la distancia psicológica entre conceptos en individuos (como por ejemplo: “patria”, “madre”, “presidente”, “nación” y cualquier otro), en los que se consideran dimensiones cognitivas y emocionales. En fin, otros métodos más que escapan del alcance de este libro. Para el análisis de redes, se sugiere a Rogers y Kincaid (1981), Valente (1995), Wellman y Berkowitz (1997) y Wellman (1999).

7

Ejemplo de ítems de prueba estandarizada (Sentido de vida Celaya).1 1. En mi familia nos escuchamos, nos demostramos amor y ocasionalmente analizamos los desacuerdos. 2. Mi religión ha fomentado el crecimiento de mi capacidad de amar y desarrollarme. 3. Dedico parte de mi vida a realizar actividades desinteresadamente. 4. Estoy convencido de que estoy bien; me acepto y me amo. 5. En la búsqueda de la felicidad intento lograr satisfactores materiales. 6. Honestamente tengo conciencia de que amo las cosas y utilizo a las personas. 7. La afectividad es muy importante en mi vida. 8. Mi alto nivel de energía lo empleo para triunfar. 9. Mi religión me ha proporcionado razones para vivir con rectitud, para estar bien con Dios. 10. Acepto que me traten indignamente, con tal de tener una seguridad económica. 11. Promuevo que las personas que dependan de mí tengan aprendizajes significativos. 12. Me gusta todo lo que es fácil y que no requiere pensar mucho. 13. Asisto a congresos, conferencias, tomo cursos y diplomados. 14. Me gusta comunicarme conmigo y sentir que mi cabeza sabe lo que tiene mi corazón. 15. Le agrado a la mayoría de las personas. 16. Si me dieran la oportunidad, podría hacer algo que realmente ayudara a otros. 17. Repentinamente mi estado de ánimo cae en la desesperanza. 18. Valoro todo lo que favorece mis posibilidades de estar bien. 19. Puedo vislumbrar la posibilidad de cambiar y de crecer en mi persona. 20. Me gusta comprometerme en obras de tipo social. 21. Contagio mi optimismo. 22. Mis problemas personales influyen en mi trabajo. 23. En mi proyecto de vida establezco metas relacionadas con un aprendizaje significativo. 24. En mi familia muchas veces hemos rezado juntos.
1

Núñez (2001). 8

25. Siento que mi cuerpo pierde fortaleza interna. 26. He buscado activa y libremente a Dios. 27. A mis familiares les disgusta comprometerse en obras de tipo social. 28. En mi familia mis padres acostumbraban devaluarse unos a otros. 29. Me siento insatisfecho con mi trabajo. 30. Mis sentimientos me impiden ver con claridad la realidad. 31. Tengo la sensación de que algo le falta a mi vida. 32. A la persona que amo la acepto incondicionalmente. 33. Mi meta al educar no solo es informar sino afinar la conciencia. 34. En estos momentos me doy cuenta que no puedo ocuparme de nada porque no tengo voluntad de hacerlo. 35. Promuevo una educación que tenga una relación más estrecha con la vida. 36. Invierto parte de mis ingresos en adquirir revistas científicas, buenos libros, videos, documentales, enciclopedias. 37. Con frecuencia siento que algo malo me va a ocurrir. 38. Mis opiniones políticas no están bien definidas. 39. Renuncio a mi libertad para obtener satisfactores que me convengan. 40. Soy sensible al sufrimiento de los demás. 41. Trato de estar con personas divertidas para que me ayuden a salir de mi aburrimiento. 42. En mi familia se carece de sentimientos de lealtad y de pertenencia. 43. Me siento lleno de vida y vitalidad. 44. Disfruto la lluvia y no me importa mojarme. 45. Me parece que sufro más que los demás cuando rompo una relación. 46. Prefiero mantenerme a cierta distancia de la gente y, quedarme en mi soledad. 47. Me considero una persona optimista. 48. La vida es como una pizza llena de ingredientes apetecible y deliciosa. 49. Me siento capaz para trabajar eficientemente. 50. Soy instrumento de las circunstancias y el destino. 51. No pasa un día en que no dedique unos minutos para contemplar la belleza de la naturaleza. 52. En mi trabajo confío en mis dotes y en mi capacidad de adaptarme para hacer frente a los desafíos que se presentan.

9

53. Admiro a personas como Martin Luther King, Mandela y la madre Teresa de Calcuta. 54. Diariamente trato en mi trabajo de dar lo mejor de mí mismo. 55. Tengo necesidad de protagonismo, de ser notado. 56. Me gusta echarme boca arriba en el césped y sacar figuras de las nubes. 57. Hay en mi interior una gran riqueza y sensibilidad. 58. Puedo permitirme vivir sentimientos delicados o tiernos. 59. Me siento capaz de hacer bien mi trabajo. Recordamos que el escalamiento a las respuestas es del tipo Likert. Reactivos positivos y negativos.

E S C A L O G R A M A D E G U T T M A N2
En el libro Metodología de la investigación, 4ª edición, concretamente en las escalas de actitudes, como técnicas para recolectar datos, se comentaron el escalamiento tipo Likert y el diferencial semántico, por lo que quedó pendiente el escalograma de Guttman. Ahora lo consideraremos. Este método para medir actitudes fue desarrollado por Louis Guttman (19161987).3 Se basa en el principio de que algunos ítems indican en mayor medida la fuerza o intensidad de la actitud. La escala está constituida por afirmaciones, las cuales poseen las mismas características que el escalamiento tipo Likert. Pero el escalograma garantiza que la escala mida una dimensión única. Es decir, cada afirmación mide la misma dimensión de la misma variable. A esta propiedad se le conoce como unidimensionalidad. Algunos autores consideran que el escalograma, más que un método de medición de actitudes, es una técnica para determinar si un conjunto de afirmaciones reúnen los requisitos de un tipo particular de escala (por ejemplo, Edwards, 1983). Para construir el escalograma es necesario desarrollar un conjunto de afirmaciones pertinentes al objeto de actitud. Éstas deben variar en intensidad. Por ejemplo, si pretendiéramos medir la actitud hacia la calidad en el trabajo dentro
2

3

Para profundizar en esta escala se sugiere consultar Cliff, Kyats y Keats (2002), Weller y Romney (1990), Nie et al. (1975), Black y Champion (1976), Guttman (1976), Lingoes (1976), además de Dotson y Sumers (1976). Guttman hizo importantes aportaciones a la medición, además del escalograma, entre otras cuestiones, fue quien conceptualizó en 1944 los niveles de medición nominal, ordinal, de intervalos y de razón (Katz, 1988, Stevens, 1951). 10

del nivel gerencial, la afirmación “la calidad tiene que vivirse en todas las actividades del trabajo y en el hogar”, la cual es más intensa que la afirmación: “la calidad debe vivirse sólo en las actividades más importantes del trabajo”. Dichas afirmaciones se aplican a una muestra a manera de prueba piloto. Y una vez administradas, se procede a su análisis. Cabe mencionar que las categorías de respuesta para las afirmaciones pueden variar entre dos (“de acuerdo-en desacuerdo”, “sí-no”, etc.) o más categorías (por ejemplo, las mismas categorías que en el caso de Likert). Técnica de Cornell La manera más conocida de analizar los ítems o las afirmaciones y desarrollar el escalograma es la técnica de Cornell (Guttman, 1976). En ella se procede a: 1. Obtener el puntaje total de cada participante o sujeto en la escala. 2. Ordenar a los sujetos o encuestados de acuerdo con su puntaje total (del puntaje mayor al menor, de manera vertical descendente). 3. Ordenar las afirmaciones de acuerdo con su intensidad (de mayor a menor y de izquierda a derecha). 4. Construir un cuadro donde se crucen los puntajes de los sujetos ordenados con los ítems y sus categorías, de manera jerarquizada. Así, tenemos un cuadro donde los sujetos constituyen los renglones y las categorías de los ítems forman las columnas. Esto se representa en la figura 7.2. 5. Analizar el número de errores o rupturas en el patrón ideal de intensidad de la escala. Figura 7.2 Manera de disponer los resultados para el análisis de ítems mediante la técnica de Cornell
Í te m s

M á s inte nso Ca te go r ía s

M e no s inte nso

Pe r so na s De a c ue r do c o n su punta je Mayor

Punta je s

M e no r

11

Ejemplo Supongamos que aplicamos una escala con cuatro ítems o afirmaciones a 14 sujetos o participantes, cuyo objeto de actitud es “la calidad dentro de la organización” (la variable es la conciencia sobre la calidad por parte de los empleados). La calidad en la organización, definida como: “el grado en que los empleados de una empresa se orientan a cumplir con las especificaciones y requerimientos de los clientes en cuanto a sus productos y servicios” (en precio, tiempo de entrega, cumplimiento de estándares del mercado, etcétera). Cada afirmación tiene dos categorías de respuesta (“de acuerdo” y “en desacuerdo”, codificadas como uno y cero, respectivamente). Afirmación A: La calidad tiene que vivirse siempre en todas las actividades del trabajo y en el hogar. Afirmación B: La calidad tiene que vivirse siempre en todas las actividades del trabajo. Afirmación C: La calidad tiene que vivirse solamente en las actividades más importantes del trabajo Afirmación D: La calidad tiene que vivirse solamente en la actividad más importante del trabajo. Los resultados se muestran en la tabla 7.2.

Tabla 7.2 Ejemplo de la técnica de Cornell para el análisis de ítems o afirmaciones
AFIRMACIONES C ED DA ED (0) (1) (0) X X X X X X X X X X X X

A SUJETO 1 2 3 4 5 6 7 8 9 DA (1) X X X X X X X X X ED (0) DA (1) X X X X X X

B

D DA (1) X X X X X X X X X ED (0)

PUNTUACIONES TOTALES

4 4 4 3 3 3 2 2 2 12

10 11 12 13 14

X X X X X

X X X X X

X X X X X

X X X X X

2 1 1 0 0

DA = de acuerdo o 1, ED = en desacuerdo

Ahora bien, como se observa en la tabla 7.2, los participantes están ordenados por su puntuación en la escala total. Asimismo, las frases deben ordenarse por su intensidad (en el ejemplo, A tiene mayor intensidad que B, B mayor que C, y a su vez, C mayor que D) también sus categorías se encuentran jerarquizadas de acuerdo con su valor, de izquierda a derecha. Hay que recordar que si la afirmación es negativa, la codificación se invierte (si para la frase: la calidad es poco importante para el desarrollo de una empresa, se tiene la respuesta: “de acuerdo” se codificará con cero, y “en desacuerdo” con uno). En el ejemplo de la tabla 7.2. encontramos cuatro afirmaciones positivas. Los sujetos que estén “de acuerdo” con la afirmación A, que es la más intensa, muy probablemente también lo estén con las afirmaciones B, C y D, ya que su intensidad es menor. Los individuos que respondan “de acuerdo” a la afirmación B tenderán a estar “de acuerdo” con C y D (afirmaciones menos intensas), pero no necesariamente con A. Quienes estén “de acuerdo” con C lo más probable es que se encuentren “de acuerdo” con D, pero no necesariamente con A y B. Debe observarse que el sujeto número 1 estuvo “de acuerdo” respecto a las cuatro afirmaciones. Los sujetos 2 y 3 respondieron de igual forma. Las puntuaciones de todos ellos equivalen a cuatro (1 + 1 + 1 + 1). Los sujetos 4, 5 y 6 obtuvieron una puntuación de tres, pues estuvieron “de acuerdo” con tres afirmaciones y así sucesivamente (los últimos dos sujetos estuvieron “en desacuerdo” respecto a todas las afirmaciones). En forma ideal, los sujetos que obtienen una puntuación total de cuatro en esta escala particular, es porque respondieron “de acuerdo” a las cuatro afirmaciones. Los individuos que alcanzan una puntuación total de tres respondieron que estan “en desacuerdo” con la primera afirmación, pero “de acuerdo” con las demás afirmaciones. Quienes reciben una puntuación de dos manifiestan estar “en desacuerdo” con los dos primeros ítems, pero “de acuerdo” con los dos últimos. Del mismo modo, los sujetos con puntuación de uno
13

respondieron “en desacuerdo” a las tres primeras afirmaciones y “de acuerdo” a la última. Por último, aquellos que estuvieron “en desacuerdo” respecto a las cuatro afirmaciones, recibieron una puntuación total de cero. Los sujetos o participantes se escalan de manera perfecta, sin que nadie rompa el patrón de intensidad de las afirmaciones: si están “de acuerdo” con la afirmación más intensa, también lo están con las menos intensas. En otro ejemplo, si estoy de acuerdo con la afirmación: Podría casarme con una persona de nivel económico diferente al mío, seguramente estaré de acuerdo con la afirmación: Podría viajar en un automóvil con una persona de nivel económico diferente al mío (casarse es más intenso que viajar). Cuando los individuos se escalan de manera perfecta respecto a las afirmaciones, esto quiere decir que los ítems en realidad varían gradualmente en intensidad. Es la prueba empírica de que están escalados por su intensidad. Se le denomina reproductividad al grado en que un conjunto de afirmaciones o ítems escalan perfectamente según su intensidad. Esto significa que el patrón de respuesta de una persona en relación con todos los ítems puede reproducirse con exactitud tan sólo con conocer su puntuación total en la escala completa (Black y Champion, 1976). La reproductividad ideal se da cuando nadie rompe el patrón de intensidad de la escala. Sin embargo, en la realidad sólo algunas cuantas escalas del tipo de Guttman reúnen la reproductividad ideal; la mayoría contienen inconsistencias o rupturas al patrón de intensidad. El grado en que se alcanza el patrón perfecto de intensidad de la escala, o reproductividad, se determina con el análisis del número de personas o casos que rompen dicho patrón, que es el quinto paso para construir el escalograma de Guttman. Análisis del número de e r r o r e s o r u p t u r a s de l patrón ideal de intensidad de la escala Un error es una inconsistencia en las respuestas de una persona a una escala; es un rompimiento con el patrón ideal de intensidad de la escala. La tabla 7.3 muestra tres ejemplos de error encerrados en círculos que, como puede verse, son inconsistencias del patrón ideal. El segundo participante respondió “de acuerdo” a los ítems más intensos o fuertes y “en desacuerdo” al ítem menos intenso. El cuarto sujeto manifestó estar “de acuerdo” con las afirmaciones B y C (supuestamente más intensas), pero “en desacuerdo” con D (supuestamente
14

menos intensa). El quinto sujeto estuvo “en desacuerdo” con los ítems menos intensos, pero “de acuerdo” con el más intenso. Son inconsistencias o errores. Si un escalograma presenta diversos errores significa que los ítems en realidad no tienen distintos niveles de intensidad (o que los participantes no entienden o son deshonestos).

Tabla 7.3 Ejemplos de errores o inconsistencias en un escalograma de Guttman

AFIRMACIONES A SUJETO 1 2 3 4 5 6 X X DA X X X X ED DA X X X X X X B ED DA X X X X X X C ED DA X X X X X D ED X
PUNTUACIONES TOTALES

4 3 3 2 1 0

DA = de acuerdo o 1, ED = en desacuerdo o 0

Los errores se detectan mediante el análisis de las respuestas que rompen el patrón; para ello, se establecen los puntos de corte en el cuadro donde se cruzan las afirmaciones y sus categorías con las puntuaciones totales. En el ejemplo de la tabla 7.2, los “puntos de corte” serían los que se muestran en la tabla 7.4. No se aprecia ninguna inconsistencia. En cambio, en la tabla 7.5 se aprecian tres inconsistencias o errores; las respuestas están desubicadas respecto de los puntos de corte, es decir, rompen el patrón de intensidad. (Los errores están remarcados en blanco.)

15

Tabla 7.4 Ejemplo de establecimiento de los puntos de corte en la técnica de Cornell
AFIRMACIONES

A
SUJETO

B ED (0) DA (1)
X X X X X X X X X X X X X X X X X X X X X X X X X

DA (1)
X X X

ED (0)

C DA (1)
X X X X X X X X X X

D ED (0) DA (1)
X X X X X X X X X X X X X X X X X X

ED PUNTUACIONES TOTALES (0)
4 4 4 3 3 3 2 2 2 2 1 1 0 0

1 2 3 4 5 6 7 8 9 10 11 12 13 14

DA = de acuerdo o 1, ED = en desacuerdo Tabla 7.5 Ejemplo de errores respecto a los puntos de corte
A SUJETO 1 2 3 4 5 6 7 8 9 10 11 12 13 14 X X X X X X X X DA (1) X X X X X X ED (0) DA (1) X X X X X X X X X X X X X X A FI RM A CIO N E S B C ED (0) DA (1) X X X X X X X X X X X X X X ED (0) DA (1) X X X X X X X X X X X X X X D ED (0)

PUNTUACIONES TOTALES

4 4 4 3 3 3 2 2 2 2 1 1 0 0

= Puntos de corte (líneas punteadas) 16

Como se mencionó anteriormente, cuando el número de errores es excesivo la escala no presenta reproductividad y no puede aceptarse. La reproductividad se determina mediante un coeficiente. La fórmula de este coeficiente es:

Número de errores o inconsistencias Coeficiente de reproductividad = 1 — Número total de respuestas

Donde el número total de respuestas es igual al número de ítems o afirmaciones multiplicado por el número de sujetos. Por lo tanto, la fórmula directa sería:
Número de errores Coeficiente de reproductividad = 1 — (número de ítems) (número de sujetos)

En el ejemplo de la tabla 7.5, tendríamos que el coeficiente de reproductividad sería:
Coeficiente de reproductividad = 1—

3 (4) (14)

Cr = 1 – _______

3

(4) (14)

Cr = 1 – 0.053 Cr = 0.947 = 0.95

El coeficiente de reproductividad oscila entre 0 y 1, cuando equivale a 0.90 o más nos indica que el número de errores es tolerable, además de que la escala es unidimensional y se acepta. Cuando es menor que 0.90 no se acepta la escala. Originalmente Guttman recomendó administrar un máximo de 10 a 12 ítems o afirmaciones a un mínimo de 100 personas (Black y Champion, 1976).
17

Una vez determinado el número de errores aceptable mediante el coeficiente de reproductividad, se procede a aplicar la escala definitiva (si dicho coeficiente fue de 0.90 o más; esto es, si el error permitido no excedió 10%) o a realizar ajustes en la escala (reconstruir ítems, eliminar ítems que estén generando errores, etc). Los cinco pasos mencionados son una especie de prueba piloto para demostrar que la escala es unidimensional y funciona. Codificación de respuestas Cuando se aplica la versión definitiva de la escala, los resultados se codifican de la misma manera que en la escala Likert, esto depende del número de categorías de respuesta que se incluyan. Al igual que la escala Likert y el diferencial semántico, todos los ítems deben tener el mismo número de categorías de respuesta. Éste es un requisito de todas las escalas de actitud. Asimismo, se considera una respuesta inválida si se marcan dos o más opciones para una misma afirmación. El escalograma de Guttman es una escala estrictamente ordinal, pero que se suele usar como si fuera de intervalo. Puede aplicarse mediante entrevista (con uso de tarjetas que contengan las opciones o categorías de respuesta) o autoadministrarse.

RECOPILACIÓN Y ANÁLISIS DE DATOS SECUNDARIOS
La recopilación y análisis de datos secundarios se fundamenta en información disponible recolectada por otras personas distintas al investigador. Esta técnica para recabar los datos puede subdividirse en: a) datos estadísticos provenientes de fuentes oficiales y b) datos para metaanálisis. En ambos casos se acude a bases de información que pueden encontrarse en una o varias fuentes y que son útiles para los propósitos del estudio. La diferencia entre estos dos tipos estriba en que los primeros recogen estadísticas (tasas de defunción o mortalidad y nacimiento, número de hectáreas de riego, cifras de egreso en los distintos niveles del sistema escolar, número de camas de los hospitales, número de monumentos históricos, producto interno bruto, número de instalaciones deportivas y clases, así como número de cada una y tamaño en metros cuadrados, extensión de la red de alcantarillado, índice de inflación, monto de la deuda externa pública y privada,
18

etc.). En cambio, el metaanálisis recopila estudios efectuados por otros sobre el planteamiento del problema, los evalúa y puede volver a analizar sus datos e integrarlos en una base mayor de información; o bien, adicionarlos y compararlos. Krysik (2005) considera tres tipos de datos secundarios: Datos obtenidos del nivel “micro”, datos agregados y datos cualitativos micro. a) Datos obtenidos del nivel “micro”: Derivados de unidades de análisis individuales como personas, organizaciones u hogares (número de habitantes por vivienda, número de trabajadores de la empresa, preferencias electorales, satisfacción laboral de los trabajadores, etc.). La mayoría de las veces los datos se recolectan por medio de encuestas. Por ejemplo, los censos económicos (vistos en el capítulo de encuestas del CD) generan esta clase de datos, al igual que los de población. La encuesta nacional de adicciones (implementada anualmente en varios países latinoamericanos)4 es otro caso y recolecta –entre otros datos– los siguientes:5 1. Personas económicamente activas en el sistema familiar. 2. Distribución del tiempo libre del estudiante. 3. Convivencia del alumno en el hogar (padres y otros parientes). 4. Estructura del sistema matrimonial de los tutores del estudiante (padres casados, divorciados, separados, etcétera). 5. Ocupación de las personas económicamente activas en el hogar. 6. Persona(s) con quien(es) dentro del hogar, los estudiantes se comunican más. 7. Actividades deportivas del estudiante (tipos y periodicidad de cada actividad deportiva, tiempos de dedicación, entre otros). 8. Conducta de fumar (inicio, frecuencia de la conducta de fumar, consumo diario de cigarrillos). 9. Ingesta de alcohol (inicio, periodicidad, consumo semanal). 10.Percepción proyectiva del consumo de estupefacientes o drogas ilegales (se responde a la pregunta: ¿A cuántos de tus compañeros de escuela has visto consumir droga?, ¿a cuántos de tus amigos, fuera de la escuela?).
4

5

Para el caso de España recomendamos a Berganza y García (2005) y a Corbetta (2003). Para las organizaciones no gubernamentales latinoamericanas, por ejemplo, en el caso del medio ambiente, la siguiente dirección en internet incluye una gran cantidad de ellas: http://www.ecoportal.net/content/view/full/158 Aplica también a los datos “micro”. 19

11.Conocimiento del tipo de droga que se consume (cuestionamiento: Señala la droga que sabes consumen en este plantel… Señala la droga que sabes se consume en tu vecindario…). 12.Preferencia de consumo en el entorno inmediato por tipo de estupefaciente (fuera de la escuela). 13.Percepción del encuestado respecto de si es un problema el consumo de estupefacientes. 14.Percepción respecto de si se pueden conseguir las drogas o estupefacientes dentro de la escuela. 15.Percepción respecto de si se consume droga o substancias ilegales dentro de la escuela. 16.Percepción respecto de si el consumo de estupefacientes es un problema en su entorno externo. 17.Preferencia de consumo por tipo de estupefaciente en la escuela. 18.Actitud ante el consumo de estupefacientes por una amistad. 19.Manifestación de haber consumido algún estupefaciente. 20.Edad de inicio de consumo. 21.Figura que invitó a experimentar el consumo. 22.Tipo de estupefaciente o droga consumida por primera vez 23.Consumo de diferentes clases de estupefacientes. 24.Preferencia individual de consumo por tipo de estupefaciente. 25.Periodicidad del consumo. 26.Motivo(s) del consumo. 27.Acciones recomendadas por los encuestados para reducir el consumo, evitarlo o prevenirlo. 28.Conciencia del consumo de estupefacientes. 29.Fuente más impactante de conocimiento del problema social que implica el consumo de estupefacientes. 30.Comentarios abiertos (cualitativo). Pero el investigador, aunque no generó estos datos, tiene acceso directo a ellos (a la información individual y original –a los cuestionarios, registros, etc.–) y por lo tanto los puede reanalizar (incluso a veces puede identificar a los encuestados o sus perfiles).

20

b) Datos agregados: Consisten en datos individuales que ya se han procesado y conjuntado con otros en cifras estadísticas, tablas o cuadros. En éstos, las características de las unidades de análisis no pueden ser identificadas (por ejemplo: el investigador recibe el dato sobre el promedio de satisfacción laboral en una escala o la tasa de desempleo y obviamente no puede reanalizar los datos, sólo utilizarlos para los fines que convengan). Estos datos se pueden obtener de: 1) Oficinas y agencias gubernamentales y oficiales (Ministerio de Educación, Ciencia y Tecnología de Argentina; Ministerio de Educación y Ciencia de España; Dirección de Impuestos y Aduanas Nacionales de Colombia; Instituto Nacional de Estadística de Bolivia; Ministerio de Industria, Turismo, Integración y Negociaciones de Perú; Banco Central de Venezuela; etcétera). 2) Organizaciones privadas (Cámara de Comercio de Santiago de Chile, Consejo de Fundaciones Privadas de Guatemala, Fundación Cultural Española para el Fomento de la Artesanía, Centro de Estudios Económicos del Sector Privado en México, Fundación Ford, entre otras). Algunas bases de datos privadas contienen archivos periodísticos, como por ejemplo: U. S. News Archives on the Web (periódicos en Estados Unidos), Reuters y Europrensa (Universidad Complutense de Madrid), etc. Los periódicos más importantes del mundo generalmente poseen su propia base de datos. 3) Organizaciones no gubernamentales (Agencia de Cooperación en Ingeniería Ambiental o ACIA, Pro Amazonia "Selva Para la Vida", Alianza Cívica en México, Red 2002 de Barcelona para el apoyo de enfermos de SIDA, y otras). 4) Organizaciones internacionales (Comisión Económica para América Latina y el Caribe; Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO; Organización Mundial de la Salud, OMS; Fondo de las Naciones Unidas para la Infancia, UNICEF; Fondo Monetario Internacional, FMI; etcétera). Las primeras tres fuentes genéricas varían en cada país, por lo que resultaría impráctico intentar mencionarlas. Por ello, cada estudiante o profesor debe tener en mente cuáles son y qué tipo de información pueden proporcionar.4 De los datos resulta fundamental conocer:5

21

- El nombre y la filiación institucional de quien recolectó los datos. - El periodo de recopilación de los datos. - La muestra (método de selección, tamaño, características…). - El método de recolección de los datos, incluyendo el instrumento, procedimiento, confiabilidad y validez, etc. - Localización (disponibilidad). Y de ser posible: - Procedimientos de codificación. - Análisis practicados. - Sugerencias para el análisis. c) Datos cualitativos micro: Producidos por una persona y recabados por otra. Al investigador le llegan los datos (cartas recopiladas por otros, transcripciones de entrevistas hechas por psicólogos, grabaciones de las llamadas de pasajeros que iban en los aviones secuestrados por terroristas en los atentados a las torres gemelas del World Trade Center en Nueva York, etc.). Tales datos pueden ser reanalizados por el investigador. Las ventajas de los datos secundarios residen en que su costo es generalmente el más barato de todos los métodos de recolección y a veces son la única opción para el investigador (Sieppert, McMurtry y McClelland, 2005), además pueden replicarse estudios con base en ellos. Gran cantidad de datos secundarios se localiza mediante internet. Sus desventajas potenciales son que a veces no son accesibles, no están estandarizados, pueden haberse omitido variables importantes para nuestro estudio y es factible que den una falsa impresión de ciertos subgrupos (los promedios de ingreso nacional per cápita, por ejemplo, suelen resultar engañosos). El proceso para utilizar datos secundarios en una investigación se resume en la figura 7.3, adaptado de Sieppert, McMurtry y McClelland (2005) y Krysik (2005).

22

Figura 7.3 Proceso esencial para utilizar datos secundarios
Analizar la relación entre el planteamiento del problema y los datos secundarios: - ¿Son pertinentes para el estudio? - ¿Representan adecuadamente una operacionalización de nuestras variables?

Evaluar la calidad de los datos: - Muestra. - Confiabilidad. - Validez. - Método de recolección. - Fuente de origen.

Preparar los datos para su análisis.

En el caso de datos estadísticos, verificarlos preferentemente en al menos dos fuentes confiables (validación cruzada).

Para el manejo de archivos se recomienda consultar a Webb, Campbell y Schwartz (2000). El metaanálisis Esta clase de procedimiento de recolección y análisis de los datos implica sintetizar resultados de investigación por medio de un número de estudios que consideran el mismo planteamiento y variables (Wiersma y Jurs, 2005). Los pasos de un metaanálisis son muy similares a los de otros estudios, con la salvedad de que ahora la unidad de análisis ya no es el participante o caso, sino la investigación realizada por otro(s) investigador(es). El reto es resumir los datos a partir de los diferentes estudios de manera muy bien estructurada, que evite errores y facilite su ulterior análisis. Cabe señalar que el metaanálisis será más preciso entre más homogéneos sean los estudios que se consideran, en cuanto a la pregunta de investigación, variables, método, instrumentos de medición y análisis estadístico. Por lo tanto, el primer paso consiste en ponderar si es posible combinarlos (nos referimos únicamente a estudios cuantitativos). Tal consideración nos puede llevar a un sinfín de opciones, desde descubrir que hay varios estudios que son totalmente compatibles y pueden mezclarse, hasta contrastar, aquellos que sólo tienen un ítem en sus cuestionarios.

23

Existen diferentes propuestas para conjuntar estadísticamente los resultados de distintos estudios, destacan tres fundamentalmente, que se conocen con el nombre de modelo de efectos fijos, modelo de efectos aleatorios y por último el modelo bayesiano (Molinero, 2003). En el modelo de efectos fijos los estudios se combinan y se asume que no existe heterogeneidad entre ellos, que por lo tanto todos constituyen estimaciones de un efecto real, cuya magnitud se desea conocer. Así pues, la inferencia realizada se condiciona a los estudios efectuados (Molinero, 2003).
En el modelo de efectos aleatorios la inferencia se fundamenta en suponer que los estudios incluidos en el análisis constituyen una muestra aleatoria del universo de estudios posibles, y sus resultados son más conservadores al tener en cuenta una fuente extra de variación, ya que se incluyen dos fuentes de variación potenciales: la existente dentro de los estudios y la variación entre los estudios (Molinero, 2003, p. 3).

La utilización de modelos bayesianos requiere de modelos estadísticos complejos de varianza. El metaanálisis constituye un intento de resolver contradicciones entre los resultados de diferentes investigaciones y evaluar patrones comunes en distintos estudios. Es un método sumamente importante para generar teoría. Como todo método inferencial, tiene sus problemas y limitaciones. Uno de los principales problemas es que al ser un estudio que generalmente se ejecuta de forma retrospectiva, tiene una posibilidad mayor de introducir sesgos (error sistemático). Otros retos son los que se derivan del procedimiento de combinar datos de múltiples estudios entre los cuales pudiera haber diferencias en cuanto a método y muestreo. El procedimiento general de un metaanálisis es similar al de los datos secundarios, pero se agregan algunos elementos como el análisis mismo (ver figura 7.4).

24

Figura 7.4 Proceso esencial del metaanálisis

Evaluar si el metaanálisis puede responder al planteamiento del problema.

Definir los criterios de selección de los estudios que deben ser incluidos en el análisis (criterios de inclusión y exclusión).

Analizar la relación entre el planteamiento del problema y los estudios: - ¿Son pertinentes los estudios para la investigación planteada? - ¿Qué tan homogéneos o heterogéneos resultan y en qué sí pueden conjuntarse y en qué no?

Preparar los datos para su análisis

Seleccionar los estudios que habrán de incluirse

Analizar los datos

a) Elegir los aspectos, dimensiones y/o variables en las cuales van a conjuntarse o compararse. b) Evaluar la calidad de los estudios: - Muestra. - Confiabilidad. - Validez. - Método de recolección. - Fuente de origen. Otros parámetros: Ver último capítulo del CD.

Algunas recomendaciones para el metaanálisis, las proporciona Céspedes (1995): 1. Seleccionar investigadores independientes que lean, clasifiquen, codifiquen, cuantifiquen y finalmente evalúen y elijan el grupo de estudios que serán incluidos en el metaanálisis (MA). 2. Elaborar una guía de los datos que deben ser recolectados de los estudios escogidos para ser procesados en el MA. 3. Combinar los resultados obtenidos y asegurar la calidad de los datos y su procesamiento estadístico adecuado. En el análisis estadístico general para el modelo de efectos fijos (no existe heterogeneidad, hay homogeneidad o las investigaciones que se estiman muestran un efecto uniforme, debido al uso de un mismo tratamiento), se utiliza el método de Mantel-Haentzel-Peto.
25

Si los estudios son heterogéneos al mostrar el efecto ante un tratamiento (modelo de efectos aleatorios), se utiliza el método de Cochran-Dersimonian-Laird (Céspedes, 1995). En general, se obtiene para las estadísticas calculadas, el tamaño del efecto (Wiersma y Jurs, 2005, y Glass, 1976), el cual se revisó en el capítulo 10 del libro. Recordamos que es una medida de la “fuerza” de la diferencia de las medias u otros valores considerados (Creswell, 2005). Resulta ser una medida en unidades de desviación estándar. Su cálculo fue ejemplificado con la prueba t. Existen diversos programas computacionales para el metaanálisis, entre los cuales se encuentran los siguientes: - Easy MA (Vers. 99) (1997) [M. Cucherat]. Lyon, France: University of Lyon. http://www.spc.univ-lyon1.fr/~mcu/easyma - Meta: Meta-analysis Programs (Vers. 5.3) (1989) [R. Schwarzer]. Raleigh, NC: National Collegiate Software Clearinghouse. http://userpage.fu-berlin.de/ ~health/meta_e.htm - Meta-Test (1997) [J. Lau]. Boston, MA: New England Medical Center. http://hiru.mcmaster.ca/cochrane/cochrane/sadt.htm http://som.flinders.edu.au/FUSA/Cochrane/COCHRANE/sadt.htm - RevManTM: The Cochrane Collaboration’s Review Manager (Vers. 5.0) (2001). The Cochrane Collaboration: http://www.cc-ims.net/RevMan - BUGS y WinBUGS: http://www.mrc-bsu.cam.ac.uk/bugs - SAS™ (programa ya comentado, en su página existe un programa para metaanálisis). http://www.sas.com/ - Stata™. http://www.stata.com/ Y otros muchos que puede buscar vía disparador (o motor de búsqueda) en internet. Recuerde que las direcciones electrónicas pueden cambiar en cualquier momento.

EJEMPLOS DE ESTUDIOS BASADOS EN DATOS SECUNDARIOS
E S T U DI O
P AR A E L DI AGNÓS T I C O M UN I C I P AL

En las anteriores ediciones de esta obra, se integraba un ejemplo para diagnosticar y caracterizar a un municipio, con el fin último de elaborar su plan de desarrollo.

26

Regularmente estos diagnósticos son estudios mixtos, pero una parte muy importante de sus insumos la constituyen los datos secundarios, que se generan con base en indicadores, los cuales se han desarrollado por diferentes organizaciones dedicadas a la investigación municipal (por ejemplo: el Instituto Vasco de Estadística; El Centro de Investigación y Desarrollo Económico de México, CIDE; Instituto de Estadística de la Comunidad de Madrid; el Sistema Nacional de Indicadores Municipales (SINIM) de la Unidad de Información Municipal del Gobierno de Chile; Instituto Nacional de Estadística, Geografía e Informática en México, INEGI; Instituto Brasileiro de Geografia e Estadística; Sistema Nacional de Información Municipal, CEDEMUN de la Secretaría de Gobernación de México; La Federación Nacional de Departamentos de Colombia; Departamento de Estadística del Ayuntamiento de Barcelona; etcétera). Algunos indicadores se aplican a cualquier municipio y son relevantes para todas las entidades poblacionales (número de habitantes, ingreso per cápita, ingresos totales del municipio, gasto total del municipio, inversión total, etc.), mientras que otros indicadores resultan importantes sólo para ciertos municipios (por ejemplo, indicadores relativos a la producción agrícola son irrelevantes para un municipio completamente urbano). Por ello, en cada diagnóstico municipal deben elegirse los indicadores (datos secundarios) significativos para la entidad en cuestión. También, cada provincia, departamento, región o estado genera indicadores a su nivel; lo mismo que las naciones. En el documento anexo, titulado Ejemplos de indicadores municipales, se incluyen algunos casos sencillos para que los estudiantes que apenas comienzan en estos menesteres de la metodología de la investigación los puedan comprender sin mayores complicaciones (se cubren unas cuantas áreas, pero desde luego, no en su totalidad ni mucho menos). No son los únicos, ya que hay miles de ellos. Están agrupados por áreas generales (las cuales también pueden fluctuar según el autor u otros criterios). Determinados indicadores pueden formar parte de dos o más áreas. Sin polemizar (porque cuando se sopesan pueden generar discusiones severas), se presentan a continuación como muestras de datos secundarios y fueron en particular desarrollados para un municipio del Estado de México, México. Sería interesante como ejercicio que en cada institución se propusieran los que serían los más adecuados para su municipio.

27

ERRORES EN LAS MEDICIONES
Esta parte se escribe porque es una pregunta que se nos ha hecho constantemente sobre los tipos de errores en la medición. En cualquier instrumento de medición se tiene un grado de error (recordemos lo señalado en el capítulo 9 del libro y al inicio de este capítulo). Imaginemos que realizamos la evaluación de la autoestima en un grupo de estudiantes. Si la mido un día y la vuelvo a medir al día siguiente, y posteriormente a la semana; podemos esperar que las puntuaciones sean las mismas en las tres mediciones. La autoestima como otros atributos no varían a través del tiempo, a menos que “algo” las haga variar (un estímulo, la maduración de la persona, un suceso de vida, entre otros). Es decir, si los estudiantes obtuvieron puntuaciones diferentes en las pruebas, su desempeño se debió a la influencia de otro motivo distinto a su propia autoestima. Estas otras razones provocan error. El grado en que un instrumento se encuentra libre de error indica su confiabilidad. Entre más fiable resulta un instrumento, el investigador puede acercarse a una verdadera estimación del atributo considerado. Tal “exactitud” se obtiene al minimizar las fuentes de error en la medida de lo posible y con la estimación del grado de error que permanece. Pues bien, hay dos tipos de errores que pueden ocurrir: sistemáticos y no sistemáticos. Los primeros maximizan o minimizan el desempeño de un instrumento y afectan a la validez (Mertens, 2005). En el ejemplo de la autoestima, un método para desarrollarla o fortalecerla (por ejemplo, motivacional o terapéutico) puede ser visto como una influencia sistemática en la variable o atributo. El efecto del error sistemático en las respuestas es constante y puede predecirse. Pero los errores no sistemáticos (que conciernen a los investigadores) varían de situación en situación (aplicaciones distintas) y en consecuencia n o pueden predecirse (o es sumamente complejo), pero sí prevenirse. Estos errores pueden caer en tres categorías: a) personales (dependen de cada individuo, como el estrés, el cansancio o la motivación), b) condiciones de administración del instrumento (instrucciones distintas a los respondientes, temperatura ambiental, lenguaje, etc.) y c) modificaciones en los instrumentos o tareas (por ejemplo, cambios en ítems o las conductas a observar). Normalmente, la confiabilidad es calculada mediante una estadística que compara el desempeño de los mismos individuos en tiempos diferentes o partes distintas del instrumento y que oscila entre cero y uno, su fin es precisamente ayudar al investigador a
28

identificar el grado de error que se presenta en la medición, en su consistencia interna; mediante la fiabilidad y un análisis del investigador se deben hacer transparentes las fuentes de error.

29

CAPÍTULO 8

ANÁLISIS ESTADÍSTICO-MULTIVARIADO DE LOS DATOS

1

INTRODUCCIÓN
Con este capítulo se complementa el 10 de Metodología de la investigación, 4ª edición, además de que se actualizó su contenido. Se presenta a continuación por el tipo de análisis estadístico. Asumimos que se revisó previamente el capítulo en cuestión.

CÁLCULO DEL COEFICIENTE DE CONFIABILIDAD (FIABILIDAD) ALFA-CRONBACH
En los capítulos 9 y 10 se definió el coeficiente alfa de Cronbach ( ), así como sus usos e interpretación. Los programas de análisis estadístico como SPSS, Minitab, SAS y otros, lo incluyen y calculan instantáneamente. Pero para quienes no tienen acceso a estos programas, presentamos la forma de obtenerlos. De acuerdo con Carmines y Zeller (1988, pp. 44 y 45), así como Corbetta (2003), existen tres procedimientos para determinar el coeficiente “ ” o alfa : 1. Sobre la base de la varianza de los ítems, con la aplicación de la siguiente fórmula:

= –1
1–
2

( )

s2 x

En donde N representa el número de ítems de la escala, “ s2 (Yi)”es igual a la sumatoria de las varianzas de los ítems y “s2x” equivale a la varianza de toda la escala. 2. Sobre la base de la matriz de correlación de los ítems, el procedimiento sería:

2

a) Se aplica la escala. b) Se obtienen los resultados. c) Se calculan los coeficientes de correlación r de Pearson entre todos los ítems (todos contra todos de par en par). d) Se elabora la matriz de correlación con los coeficientes obtenidos. Por ejemplo: Ítems 1 1 2 3 4 —
ya fue calculado ya fue calculado ya fue calculado

2 0.451 —
ya fue calculado ya fue calculado

3 0.399 0.489 —
ya fue calculado

4 0.585 0.501 0.541 —

Los coeficientes que se mencionan como “ya fue calculado”, se ubican en la parte superior de las líneas horizontales (guiones). Es decir, cada coeficiente se incluye una sola vez y se excluyen los coeficientes que vinculan al ítem o puntuación consigo misma (1 con 1, 2 con 2, 3 con 3 y 4 con 4). e) Se calcula p (promedio de las correlaciones). P NP ( P es la sumatoria de los valores de las correlaciones y NP el número de correlaciones no repetidas o no excluidas).

p=

0.451 + 0.399 + 0.585 + 0.489 + 0.501 + 0.541 p = —––––––––––——————————————— 6 p = 0.494 = Np 1 + p (N 1)

f) Se aplica la fórmula siguiente:

3

En donde N es el número de ítems y p el promedio de las correlaciones entre ítems. En el ejemplo:
4(0.494) 1 + 0.494(4 – 1) 1.98 2.48

=

=

= 0.798 = 0.80 (cerrando) Es un coeficiente aceptable y recordemos que todos los ítems de la escala deben estar medidos en intervalos o razón. 3. Mediante otra fórmula que se basa en la correlación promedio (Corbetta, 2003, p. 238). Se usa la siguiente fórmula :
nr = —––––––––— 1 + r (n – 1)

Donde n representa el número de ítems o elementos de la escala y r es su correlación promedio.

ANÁLISIS MULTIVARIADO
En el capítulo 10 del libro, cuando se analizaron los principales métodos estadísticos paramétricos, concretamente, después de revisar el ANOVA unidireccional, nos preguntábamos: ¿Pero qué ocurre cuando tenemos diversas variables independientes y una dependiente, varias independientes y dependientes? Tal como

4

observábamos en diagramas como el que se muestra en la figura 8.1.

Figura 8.1 Ejemplo con cuatro variables independientes y una dependiente

Autoestima de la persona Sentido de vida de la persona

Edad

Género

Religión

La respuesta era: Entonces, requerimos de otros métodos estadísticos. Éstos son los que revisaremos a continuación y una vez más, sobre la base de que existen computadoras y programas como el SPSS, del mismo modo centrándonos en los elementos fundamentales de interpretación. ¿Qué son los métodos de análisis multivariado? Los métodos de análisis multivariado son aquellos en que se analiza la relación entre diversas variables independientes y al menos una dependiente. Son métodos más complejos que requieren del uso de computadoras para efectuar los cálculos necesarios (normalmente se enseñan a nivel postgrado). ¿Qué es el análisis factorial de varianza? ANOVA (análisis de varianza de k direcciones) Definición: Es una prueba estadística para evaluar el efecto de dos o más variables independientes sobre una variable dependiente. Responde a esquemas como el que se muestra en la figura 8.2.

5

Figura 8.2 Esquema de un análisis factorial de varianza

X1

X2

Y

Xk

Constituye una extensión del análisis de varianza unidireccional, solamente que incluye más de una variable independiente. Evalúa los efectos por separado de cada variable independiente y los efectos conjuntos de dos o más variables independientes. Variables: Dos o más variables independientes y una dependiente. Nivel de medición de las variables: La variable dependiente (criterio) debe estar medida en un nivel por intervalos o razón, y las variables independientes (factores) pueden estar en cualquier nivel de medición, pero expresadas de manera categórica. Interpretación y ejemplo Hi: La similitud en valores, la atracción física y el grado de retroalimentación positiva son variables que inciden en la satisfacción sobre la relación en parejas de novios. Contexto: Muestra de parejas de adultos jóvenes (23-29 años) de Santiago de Chile, pertenecientes a estratos económicos altos (n=400). El ANOVA efectuado mediante un paquete estadístico computacional como SPSS produce los siguientes elementos básicos: • Fuente de la variación (source of variation). Es el factor que origina variación en la dependiente. Si una fuente no origina variación en la dependiente, no tiene

6

efectos. • Efectos principales (main effects). Es el efecto de cada variable independiente por separado; no está contaminado del efecto de otras variables independientes ni de error. Suele proporcionarse la suma de todos los efectos principales. • Interacciones de dos direcciones (2-way interactions). Representa el efecto conjunto de dos variables independientes, aislado de los demás posibles efectos de las variables independientes (individuales o en conjuntos). Suele proporcionarse la suma de los efectos de todas estas interacciones. • Interacciones de tres direcciones (3-way interactions). Constituye el efecto conjunto de tres variables independientes, aislado de otros efectos. Suele proporcionarse la suma de los efectos de todas estas interacciones. • Puede haber efecto de K-direcciones, esto depende del número de variables independientes. En nuestro ejemplo, tenemos los resultados que se muestran en la tabla 8.1. Tabla 8.1 Ejemplo de resultados en el ANOVA VARIABLE DEPENDIENTE: SATISFACCIÓN EN LA RELACIÓN
FUENTE DE VARIACIÓN (SOURCE OF VARIATION) SUMAS DE CUADRADOS (SUMS OF SQUARES) GRADOS DE LIBERTAD (DEGREES OF FREEDOM) MEDIAS CUADRÁTICAS (MEAN SQUARES)

SIGNIFICANCIA
RAZÓN “F” DE “F”

– Efectos principales (main effects) SIMILITUD ATRACCIÓN RETROALIMENTACIÓN — — — — — — — — — — — — 22.51 31.18 21.02 11.84 0.001** 0.001** 0.001** 0.004**

– Interacción de dos direcciones (2-way interactions) SIMILITUD ATRACCIÓN — — — — — 7.65 4.32 0.010* 0.040*

7

SIMILITUD

2.18

0.110

RETROALIMENTACIÓN ATRACCIÓN —Interacción de tres direcciones (3-way interaction) SIMILITUD ATRACCIÓN RETROALIMENTACIÓN —Residual —Total
NOTA:

1.56

0.190

— —

— —

8.01 8.01

0.020* 0.020*

A los estudiantes que se inician en el ANOVA normalmente les interesa saber si los autores recomiendan

las razones “F” resultaron o no significativas; por tanto, sólo se incluyen estos valores. Por lo que, es a estos estudiantes que experimentado acostumbra estudiar todos los valores. **— Razón “F” significativa al nivel del 0.01 (p < 0.01) *—Razón “F” significativa al nivel del 0.05 (p < 0.05) Como podemos ver en la tabla 8.1, la similitud, la atracción y la retroalimentación tienen un efecto significativo sobre la satisfacción en la relación. Respecto a los efectos de dos variables independientes conjuntas, sólo la similitud y la atracción tienen un efecto, hay un efecto conjunto de las tres variables independientes. La hipótesis de investigación se acepta y la nula se rechaza. Asimismo, se recuerda al lector que en el capítulo 5 del presente disco: Otros diseños experimentales (en el apartado sobre diseños factoriales) se explica la noción de interacción entre variables independientes. Cabe agregar que el ANOVA es un método estadístico propio para los diseños experimentales factoriales. concentrarse en dichos valores y evitar confusiones. Desde luego, el investigador

8

¿Qué es el análisis de covarianza?
Definición: Es un método estadístico que analiza la relación entre una variable dependiente y dos o más independientes, con el que se elimina o controla el efecto de al menos una de estas independientes. Similar al ANOVA, excepto que permite controlar la influencia de una variable independiente, la cual con frecuencia es una característica antecedente que puede variar entre los grupos (Mertens, 2005) o influir los resultados y afectar la claridad de las interpretaciones. Perspectivas o usos: Wildt y Ahtola (1978, pp. 8-9) destacan tres perspectivas para el análisis de covarianza: A. Perspectiva experimental. Se aplica a aquellas situaciones en que el interés del investigador se centra en las diferencias observadas en la variable dependiente, por medio de las categorías de la variable independiente (o variables independientes). Pero el experimentador asume que hay otras variables independientes cuantitativas que contaminan la relación y cuya influencia debe ser controlada (ver la figura 8.3). Figura 8.3 Ejemplo de variables independientes que afectan a una dependiente

X1 Variables Independientes categóricas X2 Xk

Y

Variable dependiente

Variables Independientes cuantitativas continuas

Z1 Z2 Zk

Y el investigador únicamente se interesa por conocer la relación entre las
9

variables independientes categóricas y la variable dependiente. Desea al mismo tiempo remover y controlar el efecto de las variables independientes cuantitativas no categóricas (continuas). Es decir, desea tener un esquema como el de la figura 8.4. Figura 8.4 Ejemplo de control de variables independientes no categóricas

X1 X2 Xk

Y
Z1 Z2 Zk
Remover o controlar

El objetivo es “purificar la relación entre las independientes categóricas y la dependiente, mediante el control del efecto de las independientes no categóricas o continuas”. Ejemplos de variables independientes categóricas serían: género (masculino, femenino), inteligencia (alta, media, baja), ingreso (menos de un salario mínimo, dos a cuatro salarios mínimos, cinco a 10 salarios mínimos, 11 o más salarios mínimos). Los niveles de medición nominal y ordinal son categóricos en sí mismos, mientras que los niveles de intervalos y razón deben transformarse en categorías más discretas. Estos últimos son en sí: cuantitativos, continuos y de categorías múltiples. Por ejemplo, el ingreso en su “estado natural” (pesos, dólares, euros, etc.) varía de la categoría cero hasta la categoría (K)k, ya que puede haber millones de categorías.

10

Variable categórica — unas cuantas categorías o un rango medio. Variable continua — muchas categorías (a veces una infinidad). A dichas variables independientes cuantitativas continuas, cuya influencia se controla, se les denomina “covariables”. Una covariable se incluye en el análisis para remover su efecto sobre la variable dependiente, e incrementar el conocimiento de la relación entre las variables independientes categóricas de interés y la dependiente, lo cual aumenta la precisión del análisis. En esta perspectiva, el análisis de covarianza puede ser concebido primero como un ajuste en la variable dependiente respecto a diferencias en la covariable o las covariables y, posteriormente, como una evaluación de la relación entre las variables independientes categóricas y los valores ajustados de la variable dependiente (Wildt y Ahtola, 1978). En términos de Creswell (2005): El procedimiento “ajusta” las puntuaciones en la dependiente para dar cuenta por la covarianza (por decirlo en términos sencillos: “hace equivalentes a los grupos en la(s) covariable(s)” y controla influencias potenciales que pueden afectar a la variable dependiente). B. Perspectiva de interés por la covariable. Esta perspectiva se ejemplifica con aquellas instancias en las cuales el interés principal se centra en analizar la relación entre la variable dependiente y la covariable (variable cuantitativa continua) o las covariables. Aquí el enfoque es distinto; la influencia que se remueve es la de las variables independientes categóricas. Primero se controla el efecto (en este caso contaminante) de estas variables y después se analiza el efecto “purificado” de las covariables. C. Perspectiva de regresión. En esta tercera perspectiva, tanto las variables independientes categóricas como las covariables resultan de interés para el investigador, quien puede desear examinar el efecto de cada variable independiente (covariables y no covariables, todas) y después ajustar o corregir los efectos de las demás variables independientes. En cualquier caso, el análisis de covarianza elimina influencias no deseadas sobre la variable dependiente. Se puede utilizar en contextos experimentales y no experimentales. La mayoría de las veces la función del ANCOVA es “remover” la varianza compartida entre una o más covariables y la dependiente, de este modo, se valora en su justa dimensión la relación causal entre la(s) variable(s) independiente(s) de interés y la dependiente (Creswell, 2005). Veámoslo conceptualmente pero de forma gráfica con un ejemplo simple:

11

Ejemplo Estudio: Al investigador le interesa analizar el efecto en el aprendizaje de la computación, por medio de un nuevo método para su enseñanza a niños. La hipótesis es: El nuevo método de enseñanza de la computación (MA-RH) provocará un mayor aprendizaje en los niños que un método tradicional. Entonces, implementa el siguiente experimento: A un grupo de infantes lo expone al nuevo método de enseñanza de computación (MA-RHS); a otro grupo no lo expone al nuevo método, éste aprende con el método tradicional; finalmente, un tercer grupo, de control, no recibe ningún tipo de enseñanza en computación. La variable independiente es el tipo de método con tres categorías o niveles (método nuevo, método tradicional y ausencia de método), la dependiente es el aprendizaje en computación (medida por una prueba estandarizada a nivel de intervalos). Se tiene un esquema como el de la figura 8.4. Figura 8.4 Ejemplo del control de las covariables (con una covariable)
Tipo de método (X) Aprendizaje (Y)

El investigador sabe que el aprendizaje se puede deber a muchas razones, además del método. Es decir, el aprendizaje varía por diversos motivos, lo cual se representa en forma de conjuntos de la siguiente manera:

Variable independiente: Método (X)

Variable dependiente: Aprendizaje (Y

Varianza en común entre método y aprendizaje

Varianza del aprendizaje no explicada (que no se debe al método sino a otros factores)

12

Con el experimento el investigador desea conocer la varianza en común entre método y aprendizaje (cuantificarla), la relación X Y (pura). Si los niños son asignados al azar a los grupos del experimento y tiene grupos de tamaño aceptable, por el diseño mismo, remueve la influencia de las covariables que pudieran afectar. Pero si no es factible hacerlo y tiene un diseño cuasiexperimental (grupos intactos), debe remover tal influencia con el análisis de covarianza (eliminar al mínimo posible la varianza del aprendizaje no explicada), para evitar que las covariables impidan ver con claridad la relación X Y. Por ejemplo, el nivel educativo tecnológico de los padres puede influir (hace variar al aprendizaje) y este efecto debe ser controlado, al introducirlo como covariable.

Variable independiente: Método (X)

Variable dependiente: Aprendizaje (Y)

El nivel educativo tecnológico de los padres (COVARIABLE)

Varianza en común: entre método y aprendizaje Varianza compartida entre el nivel educativo de los padres y el aprendizaje (la cual se controla con el ANCOVA)

Entre más covariables se controle, más se explicará sobre la varianza común entre el método y el aprendizaje.

Lo que el investigador desea también se puede expresar gráficamente así:

Tipo de método

Aprendizaje

ANCOVA Nivel educativo tecnológico de los padres (covariable)

Controlar influencia de la covariable

13

Wildt y Ahtola (1978, p. 13) definen algunos usos del análisis de covarianza: 1. Incrementar la precisión en experimentos con asignación al azar. 2. Eliminar influencias extrañas o contaminantes que pueden resultar cuando las pruebas o los individuos no son asignados al azar a las diferentes condiciones experimentales (grupos de un experimento). 3. Eliminar efectos de variables que confundan o distorsionen la interpretación de resultados en estudios no experimentales. Nivel de medición de las variables: La variable dependiente siempre está medida por intervalos o razón y las variables independientes pueden estar medidas en cualquier nivel. Interpretación: Depende de cada caso específico, ya que el análisis de covarianza efectuado mediante un programa estadístico computacional, produce un cuadro de resultados muy parecido al del análisis de varianza. Los elementos más comunes pueden obsevarse en la tabla 8.2. Tabla 8.2 Ejemplo de elementos comunes de un análisis de covarianza
Fuente de variación (Source of variation) Sumas de cuadrados y productos cruzados (Sum of squares and cross products) Sumas de cuadrados ajustadas (Adjusted sum of squares) Grados de libertad (Degrees of freedom) Medias cuadráticas Razón F (F) Significancia de F (Sig.)

La razón F es, igual que en el análisis de varianza, una razón de varianzas. El razonamiento estadístico es el mismo y F se interpreta igual, incluso se utiliza el mismo cuadro de la distribución F (tabla 3, apéndice 4). Solamente que las inferencias y conclusiones se hacen al considerar que las medias de la variable dependiente, a través de las categorías de las variables independientes, se han ajustado, de este modo eliminan el efecto de la covariable o covariables.

14

Ejemplo Diseño de investigación que utiliza el análisis de covarianza Hi: Los trabajadores que reciban retroalimentación verbal sobre el desempeño de parte de su supervisor mantendrán un nivel mayor de productividad que los trabajadores que reciban retroalimentación sobre el desempeño por escrito, más aún que los trabajadores que no reciban ningún tipo de retroalimentación.

__ Hi: X1
(verbal)

>

__ X2
(por escrito)

>

__ X3
(ausencia)

El investigador plantea un diseño experimental para intentar probar su hipótesis. Sin embargo, no puede asignar aleatoriamente a los trabajadores a los tres grupos del experimento. El diseño sería con grupos intactos (cuasiexperimental) y se esquematizaría así:

G1 G2 G3

X1 X2 —

__ X1
__

X2
__

X3

Asimismo, el investigador presupone que hay un factor que puede contaminar los resultados (actuar como fuente de invalidación interna): la motivación. Diferencias iniciales en motivación pueden invalidar el estudio. Como la asignación al azar está ausente, no se sabe si los resultados se ven influidos por dicho factor. Entonces, el experimentador decide eliminar o controlar el efecto de la motivación sobre la productividad para conocer los efectos de la variable independiente: tipo de retroalimentación. La motivación se convierte en covariable. El esquema es el que se muestra en la figura 8.5.

15

Figura 8.5 Ejemplo donde la motivación es covariable

Retroalimentación (variable independiente categórica). ANCOVA Motivación (covariable)

Productividad (variable dependiente)

Cabe destacar que, para introducir una covariable en el análisis, de preferencia debe medirse antes del inicio del experimento. El análisis de covarianza “quita” a la variabilidad de la dependiente lo que se debe a la covariable. Ajusta la varianza de la variable dependiente en las categorías de la independiente, al basarse en la covariable. En el ejemplo, ajusta la varianza de la productividad debida a la motivación, en las categorías experimentales (tratamientos o grupos). El ajuste se realiza sobre la base de la correlación entre la covariable y la dependiente. Esto se muestra esquemáticamente en la tabla 8.3. Una vez realizado el análisis de covarianza, se evalúa si F es o no significativa. Cuando F resulta significativa se acepta la hipótesis de investigación. Si el resultado fuera:

G1 = 35 G2 = 36

La correlación entre la calificación en motivación y las puntuaciones en productividad es la base para el ajuste. G3 = 38 Gl entre = K – 1 = 3 – 1 = 2 Gl intra = N – K = 106 F = 1.70

16

Comparamos con el valor de la tabla respectiva: en el nivel de 0.05 es igual a 3.07, y nuestra razón F a 1.70 es menor a este valor. Por lo tanto, rechazamos la hipótesis de investigación y aceptamos la hipótesis nula. Esto se contrasta y profundiza con las medias ajustadas de los grupos que proporcione el análisis de covarianza (no las medias obtenidas en el experimento por cada grupo, sino las ajustadas con base en la covariable). Recordemos que SPSS nos proporciona automáticamente la significancia de F.

Tabla 8.3 Ejemplo de un diseño de investigación que utiliza el análisis de covarianza como herramienta para ajustar diferencias en motivación entre los grupos

Covariable
Calificación en motivación

Variable independiente
Tipo de retroalimentación

Variable dependiente
Puntuaciones en productividad ajustadas, tomando en cuenta la covariable

G1 G2 G3

0 0 0

X1 X2 —

0 0 0

¿Qué es la regresión múltiple? Es un método para analizar el efecto de dos o más variables independientes sobre una dependiente. Asimismo, constituye una extensión de la regresión lineal sólo que con mayor número de variables independientes. Es decir, sirve para predecir el valor de una variable dependiente, cuando se conoce el valor y la influencia de las variables independientes incluidas en el análisis. Si queremos conocer el efecto que ejercen las variables: a) satisfacción sobre los ingresos percibidos, b) antigüedad en la empresa, c) motivación intrínseca en el trabajo y d) percepción del crecimiento y desarrollo personal en el trabajo; sobre la variable “permanencia en la empresa” (duración o estancia), el modelo de regresión múltiple es el adecuado para aplicarlo a los datos obtenidos. Otro ejemplo sería el siguiente:

17

Figura 8.6 Esquema de un modelo con una variable dependiente y varias independientes, donde se conoce el efecto de cada una de éstas
VARIABLES INDEPENDIENTES VARIABLE DEPENDIENTE

Diseño de estrategias de cooperación entre maestros para la enseñanza en las clases.

Grado de utilización de la tecnología computacional en el aula. Desempeño escolar de los alumnos Grado de involucramiento de los padres en las estrategias de enseñanza.

Grado de cooperación y trabajo en equipo por parte de los alumnos para realizar las tareas.

Es decir, el modelo de regresión múltiple nos indica: • La relación entre cada variable independiente y la única dependiente (cómo cambios en la independiente se vinculan con cambios en la dependiente). • La relación entre todas las variables independientes (en conjunto) y la dependiente (cómo cambios en las independientes se vinculan con cambios en la dependiente). • La predicción de la dependiente a partir de las independientes. • La correlación entre las variables independientes (colinealidad). Las variables independientes se denominan “predictoras”1 y anteceden temporalmente a la variable dependiente o criterio. La información básica que proporciona la regresión múltiple es el coeficiente de correlación múltiple (R) y la ecuación de regresión.
1

Término anglosajón.

18

Coeficiente de correlación múltiple (R). Señala la correlación entre la variable dependiente y todas las variables independientes tomadas en conjunto. El coeficiente puede variar de cero a uno; cuanto más alto sea su valor, las variables independientes estarán más correlacionadas con la variable dependiente y explicarán en mayor medida sus fluctuaciones (varianza); en consecuencia, son factores más efectivos para predecir el comportamiento de esta última. En el capítulo 10 del libro, se comentó el coeficiente de correlación de Pearson y se mencionó que cuando el coeficiente r se eleva al cuadrado (r2), se obtiene el coeficiente de determinación y el resultado indica la varianza de factores comunes, esto es, el porcentaje de la variación de una variable debido a la variación de la otra y viceversa (o cuánto explica o determina una variable la variación de la otra). Pues bien, algo similar ocurre con el coeficiente de correlación múltiple, solamente que tenemos más variables a considerar. Cuando el coeficiente R se eleva al cuadrado (R2), se produce el llamado coeficiente de determinación o correlación parcial, que nos señala la varianza explicada de la variable dependiente por todas las independientes (dicho de otra forma, el porcentaje de variación en la dependiente es debido a las independientes consideradas). Veámoslo gráficamente en la figura 8.6 con dos independientes y una dependiente, a fin de que resulte menos complejo de entender. Figura 8.7 Esquema de un coeficiente de determinación o correlación parcial

Variable independiente

Variable independiente

Variable dependiente

R2 (expresa en porcentaje la varianza compartida por las tres variables)

19

Este coeficiente (R 2) resulta útil también para determinar la cantidad de varianza que una variable interviniente explica tanto de la variable independiente como de la dependiente, de este modo, se puede remover la varianza compartida de la interviniente con la variable independiente o la dependiente (Creswell, 2005), que es algo similar a lo que se efectua con el análisis de covarianza. Tal sería el caso de una relación del siguiente tipo: Figura 8.8 Ejemplo del coeficiente de determinación (correlación parcial)

Autoestima del estudiante (independiente)

relación negativa

Consumo de estupefacientes (dependiente)

Reforzamiento de los valores del estudiante por parte de sus tutores (interviniente)

relación negativa

Si resumimos lo visto en el capítulo 10 del libro sobre correlación y regresión lineal y lo expuesto hasta aquí, tenemos los coeficientes que se resumen en la tabla 8.4. Tabla 8.4 Resumen de coeficientes de correlación bivariada y múltiple Coeficiente Pearson Coeficiente determinación de Símbolo r r2 Información producida Grado de asociación entre dos variables (oscila entre 0 y 1). Varianza de factores comunes (porcentaje de la variación de una variable debido a la variación de la otra variable y viceversa). Oscila entre 0 y 100%.

20

Múltiple

R

Correlación

entre

la

variable

dependiente y todas las variables independientes tomadas en conjunto. Oscila entre 0 y 1. Determinación (correlación parcial) R2 Varianza explicada de la dependiente por todas las independientes.

Otra información relevante producida por el análisis de regresión múltiple son los valores “beta” (β o b) que indican el peso o influencia que tiene cada variable independiente sobre la dependiente, al controlar la varianza de todas las demás independientes. Cada peso beta es un coeficiente que señala la magnitud de la predicción de una variable independiente para una variable dependiente (criterio), después de remover los efectos de todas las demás independientes. Los valores beta están estandarizados, es decir, no importa que cada variable predictora esté medida en una escala diferente (como ocurría con las puntuaciones z) y se interpretan como el coeficiente de Pearson, de – 1.00 a + 1.00 (Creswell, 2005). También el análisis proporciona coeficientes de correlación bivariados entre la dependiente y cada independiente. Para predecir valores de la variable dependiente se aplica la ecuación de regresión múltiple: y = a + b1X1 + b2X2 + b3X3 + … bkXk Donde a es una constante de regresión para el conjunto de puntuaciones obtenidas, b1, b2, b 3, …b k son los pesos “beta” de las variables independientes. Mientras que X1, X2, X3 y …Xk son valores de las variables independientes que fija el investigador para hacer la predicción. La variable dependiente debe estar medida en un nivel por intervalos o de razón. Las independientes, en cualquier nivel de medición (el modelo estandariza mediciones). Cuando se utilizan variables categóricas (nominales u ordinales como género, grupo étnico, nivel jerárquico, etc.) se transforman en variables “dummy” y se introducen al modelo como predictores. Los códigos dummy son series de números asignados para indicar la pertenencia a un grupo en cualquier categoría exhaustiva y mutuamente excluyente. De acuerdo con Mertens (2005), la cantidad de varianza que cada

21

independiente aporta para la variable dependiente, puede tener cambios con diferentes órdenes de entrada de las variables independientes. Al respecto no hay reglas, se usa la lógica del investigador o criterios como los siguientes: Ingresar las variables de acuerdo con la fuerza de su correlación con la variable dependiente, de la más alta a la más baja. Seguir el orden en que se han introducido en estudios previos. Proceder de acuerdo con la teoría. Orden cronológico (tiempo en que se introducen las variables en un experimento o al medirse, si es que su medición fue por etapas, de la primera a la última). Los resultados más relevantes que produce SPSS sobre la regresión múltiple se muestran en las tabla 8.5, 8.6 y en la figura 8.8, que corresponden a un estudio para predecir el clima laboral (criterio o dependiente) sobre la base de las siguientes variables independientes (Hernández Sampieri, 2005): • • • • • • • • • • • • Normalización (formalización de políticas en documentos). Pago (salario). Antigüedad en la empresa (en meses). Motivación general. Innovación departamental. Avance del proceso de calidad en el departamento (un nuevo esquema de trabajo introducido en el 2004). Cultura (arraigo de la cultura organizacional definida por la dirección de la empresa). Identificación del trabajo individual en los resultados generales de la organización. Desempeño (índice de productividad del empleado). Liderazgo (percepción del superior inmediato como líder). Satisfacción general en el trabajo. Comunicación (percepción del grado en que la información relevante de la empresa les es transmitida a los empleados de su departamento).

22

Tabla 8.5 Variables introducidas en el ejemplo de regresión múltiple Primero. Se presentan las variables introducidas en el modelo de regresión:

Modelo 1

Variables introducidas pago, innovación, antigüedad, motivación, normalización, proceso de calidad, cultura, identificación desempeño, liderazgo, satisfacción, comunicación

Variables eliminadas

Método

.

Introducir

a. b.

Todas las variables solicitadas introducidas Variable dependiente: clima

Tabla 8.6 Ejemplo de resultados básicos de la regresión múltiple Segundo. Se presentan resultados de varianzas (ANOVA), los cuales omitimos, y los coeficientes beta y estadísticas de colinealidad (tabla 8.6).

Figura 8.8 Gráfica de una variable en el ejemplo de regresión múltiple Tercero. Se muestran los valores estadísticos sobre los residuos (residuales) y las gráficas de regresiones parciales (una por cada variable introducida). Cada gráfica es una regresión lineal de la variable independiente en cuestión y la dependiente, se

23

tendrán tantas gráficas como variables predictoras). Mostramos el ejemplo de la variable cultura en la figura 8.8.

Gráfico de regresión parcial

Variable dependiente: clima
0,10

0,05

clima

0,00

-0,05

-0,10

-0,15 -2,00 -1,50 -1,00 -0,50 0,00 0,50 1,00

cultura

Finalmente, mostramos un ejemplo de interpretación del coeficiente R2 de otro de los estudios de Hernández Sampieri (2005), en el cual la variable dependiente es el clima organizacional total (medido por la escala de la Universidad de Celaya o ECOUNI) y las independientes son: moral, apoyo de la dirección, innovación, percepción de la empresa, comunicación, percepción del desempeño, motivación intrínseca, autonomía, satisfacción general, liderazgo, visión y recompensas o retribución. Las variables independientes fueron evaluadas a través de diferentes mediciones no incluidas en la ECOUNI2. Ejemplo Para cierto laboratorio químico-farmacéutico (empresa), la R2 fue de 0.989 (0.988 corregida). Todos los pesos beta tuvieron una significancia menor al 0.01 (excepto recompensas, la cual fue de 0.175). Una vez más, esta variable parece no ser “predictora” del clima. La tendencia resultante es tan contundente que poco puede comentarse al respecto, tal como lo muestra el diagrama respectivo3. En el caso de la institución educativa, el coeficiente R2 fue de prácticamente 0.80. Pero no tuvieron pesos beta significativos: desempeño, motivación intrínseca y liderazgo. Autonomía se encuentra en la frontera de la significancia (0.078). Por lo tanto, estas cuatro dimensiones no pueden considerarse -en la muestrapredictoras de la escala de clima organizacional total. La tendencia se presenta en el diagrama correspondiente.
2

3

Mediciones “clásicas” de origen distinto a las de la ECOUNI. Por ejemplo, para la variable visión se usó la escala de Anderson y West (1998), para satisfacción el Job Satisfaction Survey, versión en español (Spector, 1997), para motivación la escala de Wang y Guthrie (2004), etc. En el presente libro le denominaremos figura 8.9, pero en realidad es un diagrama de dispersión.

24

Figura 8.9 Diagrama de dispersión del clima organizacional: laboratorio
Variable dependiente: Clima total
1.00

.75

.50

.25

0.00 0.00 .25 .50 .75 1.00

¿Qué es el análisis lineal de patrones o path analysis? Es una técnica estadística multivariada para representar interrelaciones entre variables a partir de regresiones, así como analizar la magnitud de la influencia de unas variables sobre otras, influencia directa e indirecta. Se trata de un modelo causal. Supongamos que tenemos el diagrama que se observa en la figura 8.10 y deseamos probarlo. Figura 8.10 Un esquema propicio para el análisis de patrones o vías

Responsabilidad experimentada en el trabajo

Satisfacción laboral

Autonomía en el trabajo

Ingreso

El análisis path constituye un método para someterlo a prueba y una extensión de la regresión múltiple (Webley y Lea, 1997). La información principal que
25

proporciona son los coeficientes path, los cuales representan la fuerza de las relaciones entre las variables (son coeficientes de regresión estandarizados como los pesos beta). También cuantifica efectos. En el modelo puede haber variables independientes, intervinientes y dependientes; incluso una variable puede ser dependiente en una parte del modelo e independiente en otra (en la figura 8.10, ingreso es dependiente de autonomía y responsabilidad, pero también es independiente en relación a la satisfacción laboral). La ecuación del análisis es la siguiente4 para cada secuencia causal: variable dependiente = b1 (variable independiente 1) + b2 (variable independiente 2) + bk (variable independiente k). En el ejemplo tenemos tres secuencias causales, por lo tanto, las correspondientes ecuaciones serían:

Satisfacción = b11 responsabilidad + b12 autonomía + b13 ingreso = b21 responsabilidad + b22 autonomía + e

ingreso + e1

autonomía = b31 responsabilidad + e3

Al igual que Webley y Lea (1997) se utiliza una notación diferente para los coeficientes de Bryman and Cramer, con la finalidad de clarificar que b 11 en la primera ecuación es diferente de b 21 en la segunda; e 1, e 2 y e3 representan el error o los términos de la varianza no explicada. En la figura 8. 11 se muestra un ejemplo para ilustrar este tipo de análisis.5 Cuanto más se acerque un coeficiente “path” a cero menor efecto tendrá (recordemos que son equivalentes en su interpretación al coeficiente de Pearson).

4 5

Adaptado de Webley y Lea (1997). Extraído de Parker et al. (2003), quienes buscaron por medio del análisis probar el modelo de dos etapas del clima organizacional, el cual ya se comentó en el texto. 26

Figura 8.11 Ejemplo de un análisis “path” con el modelo de dos etapas del clima organizacional

Trabajo 0.32 0.48 0.59 0.80 Grupo de trabajo 0.61 Satisfisfacción en el trabajo 0.18 0.15 0.43 0.28

Papel

0.23

Líder

PCg

Motivación

Desempeño
0.06

0.74 Organización

Actitudes en el trabajo -Involucramiento en el trabajo -Compromiso

Al visualizar el análisis completo nos damos cuenta de la mayor o menor influencia de unas variables sobre otras. ¿Qué es el análisis de factores? Es un método estadístico multivariado que se utiliza para determinar el número y la naturaleza de un grupo de constructos subyacentes en un conjunto de mediciones. Un constructo es un atributo para explicar un fenómeno (Wiersma y Jurs, 2005). En este análisis se generan “variables artificiales” (denominadas factores) que representan constructos. Los factores se obtienen de las variables originales y deben ser interpretados de acuerdo con éstas. Como menciona Naghi (1984), es una técnica para explicar un fenómeno complejo en función de unas cuantas variables. Es muy útil para la validez de constructo. Las variables deben estar medidas en un nivel por intervalos o razón. Veamos varios ejemplos del empleo de esta técnica.6

6

En los ejemplos, no se incluyen todos los análisis, con el fin de no complicar su entendimiento.

27

Primer ejemplo: Relación vendedor-comprador7 El estudio pretendió analizar los factores que determinan la relación entre los vendedores y los compradores industriales de las tres principales ciudades de México (D.F., Guadalajara y Monterrey). Se midieron variables entre las que destacan: coordinación (coord.), conflicto (confl.), frecuencia de la relación comprador-vendedor (frec.), reciprocidad económica en la relación (R F2), reciprocidad en el manejo de consideraciones administrativas (RF1) e importancia de la relación (monto de las operaciones) (impor.). Los resultados se muestran en la tabla 8.7.

Tabla 8.7 Ejemplo de algunos resultados en un análisis de factores

MATRIZ DE PATRÓN FACTORIAL ELEGIDA
SUBMUESTRA “COMPRAS” VARIABLE O COMPONENTE ESCALADO ÍTEM COMUNALIDAD FI FII FIII FIV FV FVI FACTOR EN QUE CARGA

Coord.

23 24 25 26

.66997 .46446 .59113 .63988

.84392 .71642 .67853 .74737

–.00895 –.05609 –.11175 .04695

–.11828 –.01958 .02581 .13472

–.03405 .07106 –.09507 –.04837

.06502 .00043 –.02857 .07117

–.27645 –.07127 .14978 .02225 FI

Confl.

47 48 49 50

.55724 .59072 .35530 .54716

–.05110 .06230 –.05665 –.07908

.62553 .65163 .55503 .61007

–.20945 .17884 –.11163 .08675

–.05248 –.10916 –.12946 .20431

–.27963 .31061 –.07981 –.24058

–.06387 .04245 –.17370 .14142 FII

Frec.

15 16
7

.46081 .44245

–14748 .03606

–.06276 .08501

.63660 .62797

–12476 .00401

–.06299 .11692

.13488 –.03968 FIII

Paniagua (1988) con la colaboración de los autores.

28

18 19 RF2 42 43

.50307 .71311 .46781 .50097

–05359 .06664 –.01380 .10175

–.02787 .02881 –.18030 –.07970

.71169 .84213 .09416 –.16207

.03786 .07161 .63133 .64202

–.10795 –.16806 .17716 –.02808

–.06775 –.11058 .06309 –.18530 FIV

RFI

40 41

.72202 .48405

.01579 .15684

–.03548 –.18489

.04181 –.06425

–.18914 .01958

.77312 .58187

.14292 .19379 FV

Impor.

53 54 58

.31524 .44550 .53236

.02822 –.04376 .26836

.02945 .08383 –.05219

–.10069 .01731 .10026

.08605 –.18396 –.11741

.01579 .13956 –.02893

.55431 .58137 .55080 FVI

EIGENVALUE

5.36433

2.53081

2.47621

1.55248

1.23464

1.06932

% VARIANZA

37.7%

17.8%

17.4%

10.9%

8.7%

7.5%

T = 100%

EXPLICADA DELTA =.00

FI = FII = FIII = Y así sucesivamente.

Coordinación(explica 37.7% de la varianza) Conflicto(explica 17.8% de la varianza) Frecuencia(explica 17.4% de la varianza)

Eigenvalue: representa la cantidad de varianza con que contribuye cada factor. Obsérvese que debajo de las columnas FI a FVI aparecen coeficientes que corresponden a los ítems de una escala. Si estos coeficientes son medios o elevados, se dice que los ítems cargan o forman parte del factor correspondiente. Por ejemplo, los ítems 23, 24, 25 y 26 cargan en el primer factor (obtienen valores de 0.84392, 0.71642, 0.67853 y 0.74737, respectivamente) y no pesan o cargan en otros factores (tienen valores bajos). Así, descubrimos una estructura de seis factores (F) en 19 ítems. Los factores reciben un nombre para saber qué constructos se encuentran subyacentes (el cual debe reflejar al factor y generalmente se extrae de la teoría). El análisis de factores también proporciona la varianza explicada y puede diagramarse en forma gráfica en las coordenadas X y Y.

29

Segundo ejemplo: Escala del clima organizacional8 Para la validación del instrumento sobre el clima organizacional se consideraron varias muestras independientes. Entre éstas, un laboratorio químico farmacéutico y una institución educativa. El primero de 500 trabajadores, dos subunidades o centros de trabajo, con la inclusión de una planta y oficinas-; 19 áreas funcionales y una antigüedad de más de 76 años. Se trata de una organización de alta tecnología y parte de un grupo corporativo internacional. El tamaño de muestra final fue de 421 casos válidos (n), 216 hombres y 186 mujeres (19 personas no especificaron). De los cuales 90% tienen 18 a 40 años (63% menores a 33); mientras que, solamente 2% fue de nivel gerencial o mayor. El instrumento pretendió medir las siguientes dimensiones: moral, apoyo de la dirección, innovación, percepción de la empresa-identidad-identificación, comunicación, percepción del desempeño, motivación intrínseca, autonomía, satisfacción general, liderazgo, visión y recompensas o retribución. Recordemos que lo que se evalúa son las percepciones sobre tales atributos organizacionales. Constó de 73 ítems con frases de la escala tipo Likert y 23 preguntas (cuyas respuestas se escalaron también tipo Likert), 96 reactivos en total. Primero, se realizó un análisis sin rotar los factores (solución inicial o simple, sin consideraciones específicas). Los resultados completos de la rotación inicial se muestran en el apéndice respectivo, que produce 19 factores, pero debe hacerse notar que prácticamente los ítems “cargan” en un solo factor. El resto de los factores n o muestra reactivos con “cargas” o “pesos” significativos. Posteriormente, los factores fueron “rotados” para visualizar posibles cambios (con los métodos varimax, equamax y quartimax). Los resultados prácticamente no variaron. Esta solución de un único factor significativo y 18 factores sin pesos importantes, nos indica que la escala del clima organizacional es un constructo básicamente homogéneo, al menos en esta muestra. La solución factorial se presenta parcialmente en la tabla 8.8 (no se incluye toda, pues como ya se comentó exclusivamente un factor fue significativo, los restantes factores muestran pesos para los ítems como el segundo, tercero, cuarto y quinto factor).

8

Este ejemplo fue tomado de una aplicación del instrumento de la Universidad de Celaya para medir el clima laboral (Hernández Sampieri, 2005).

30

Tabla 8.8 Cargas de factores en el ejemplo de la escala para medir el clima organizacional (laboratorio químico-farmacéutico)
Pregunta Factor o componente
Factor 1 Frases Likert F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11 F12 F13 F14 F15 F16 F17 F18 F19 F20 F21 F22 F23 F24 F25 F26NEG F27 F28 F29 F30 F31NEG F32 .352 .508 .511 .555 .631 .586 .615 .595 .609 .655 .659 .589 .591 .636 .675 .646 .651 .534 .690 .590 .727 .765 .649 .656 .534 -2.383E-02 .592 .593 .398 .677 .236 .673 Factor 2 .286 .382 .211 .359 .325 .312 -.224 -.165 -.272 -.235 8.963E-02 .152 -.217 -.198 -.217 -.166 .164 .328 -3.630E-02 -9.375E-02 -.150 -.213 -.211 .335 -9.697E-03 3.496E-02 -.257 .231 .103 -8.654E-02 .210 .317 Factor 3 -.276 -7.527E-03 .304 -1.285E-02 -.120 -.121 .162 .125 .325 .294 .140 -.161 .189 .113 5.034E-02 .243 .213 .269 -9.095E-05 -6.703E-02 -.404 -.389 2.260E-02 -8.049E-02 .342 .124 4.450E-02 .216 -8.613E-02 -.223 .114 5.273E-02 Factor 4 -.160 -1.853E-02 .153 -4.903E-02 -.137 -.287 -.262 -.330 -.296 -.293 3.780E-02 -5.420E-02 .231 .237 -7.586E-02 -.215 -7.052E-02 .276 -6.007E-02 .359 5.516E-02 2.251E-02 .141 -1.521E-02 7.291E-02 .187 .410 .384 .326 -5.095E-02 .102 -3.608E-02 Factor 5 .365 .245 .153 .247 4.398E-02 -4.812E-02 -6.974E-02 4.410E-02 -5.500E-03 -2.404E-02 -.167 -.107 5.625E-02 3.174E-02 4.885E-02 3.701E-02 -8.041E-03 -7.664E-02 7.306E-02 3.371E-02 -8.518E-03 -5.801E-03 3.218E-02 .211 -.135 .280 -3.095E-02 -.123 -.170 -3.149E-02 .333 .204

31

F33 F34 F35 F36 F37NEG F38NEG F39 F40 F41 F42NOUNI F43 F44NEG F45NEG F46 F47 F48 F49 F50NOUNI F51 F52NEG F53NEG F54 F55 F56 F57 F58 F59 F60 F61 F62NEG F63 F64 F65 F66 F67 F68 F69 F70NOUNI F71NOUNN F72NOUNI F73NOUNI

.657 .604 .547 .669 .163 .555 .701 .643 .730 .518 .229 .246 8.139E-02 .642 .764 .612 .720 .505 .676 .376 .156 .542 .509 .467 .528 .617 .737 .584 .395 .424 .684 .565 .540 .746 .742 .469 .400 .488 4.747E-02 .272 .555

-.276 .397 .417 -.256 -.144 -.176 .312 .412 -.269 -.336 6.211E-02 -.223 -.207 -.141 -.155 -.186 -.148 -.339 .389 -.164 -.214 .128 .344 1.753E-02 .393 7.204E-02 -.114 .181 -2.439E-02 -.241 -.138 -.142 -6.075E-02 -.171 4.266E-02 -.167 6.046E-02 -.284 -.153 -.132 -.205

.226 3.055E-02 3.127E-02 -9.381E-02 -.254 -.255 -9.353E-02 -.144 .235 .161 -3.422E-03 -.105 -.170 -.339 -.338 -.359 -.339 .191 -2.925E-02 -6.835E-02 .187 .117 .233 -.273 5.363E-02 -.184 -.448 1.196E-03 -1.207E-02 -.308 .132 .235 .154 -.341 -.249 .267 9.498E-02 .297 .129 7.687E-02 .275

-.277 -1.101E-02 -2.232E-04 .296 .161 1.392E-02 -.209 -.149 -.210 -.167 -2.360E-02 .263 7.145E-02 3.685E-02 -5.616E-02 -.192 -.105 -9.964E-02 -5.744E-02 .239 .336 6.809E-02 .333 .343 .321 7.046E-02 -8.039E-04 .341 .330 6.336E-02 -1.317E-02 2.183E-02 .189 -6.588E-02 -9.802E-02 .180 .430 -.115 .113 -8.865E-02 -6.823E-02

-8.926E-02 1.358E-02 -3.890E-02 4.097E-04 .367 .226 .184 .130 2.546E-02 .255 9.347E-02 .292 .404 -.175 2.326E-02 -8.310E-02 -.117 .260 .226 .363 .244 -.115 -.101 -.132 -6.305E-02 -.256 -.138 -3.219E-02 -3.374E-02 .213 3.409E-02 -3.918E-02 -6.796E-02 -6.952E-02 -2.049E-02 -.137 -.135 .221 .324 -.108 6.611E-03

32

Preguntas P1 P2 P3 P4 P5 P6 P7 P8 P9 P10 P11 P12 P13 P14 P15 P16 P17 P18 P19 P20 P21 P22 P23

.588 .482 .576 .738 .729 .651 .687 .714 .700 .485 .564 .708 .668 .653 .767 .759 .792 .727 .718 .702 .653 .661 .660

4.995E-02 .396 .397 -.208 -.236 -5.214E-02 -.203 5.413E-03 .375 .403 .275 -.123 -.143 -.367 -.225 -.188 -.196 5.139E-02 .117 6.121E-02 .246 .284 .117

.345 -.230 2.461E-02 .202 .180 .152 .334 .424 9.235E-03 4.916E-03 9.553E-02 .161 -.133 5.745E-02 -.405 -.431 -.408 -3.487E-03 -1.238E-02 2.808E-03 8.018E-02 4.514E-02 2.673E-02

4.504E-02 -.122 -.124 -.266 -.239 .169 -1.692E-02 4.213E-03 -9.991E-02 -4.660E-02 -3.650E-02 -.104 -9.723E-02 .311 6.120E-02 3.359E-02 -2.678E-03 -1.964E-02 -2.477E-02 -4.372E-02 -.169 -.102 -5.360E-02

7.539E-02 .336 .272 -7.068E-02 3.344E-02 9.607E-02 -3.240E-03 -5.577E-02 .100 2.116E-03 -.135 6.737E-02 .102 7.085E-02 -.112 -.118 -.106 -.170 -.237 -.282 -.265 -.224 -.267

En tablas o cuadros como el anterior resulta muy fácil “perderse en un mundo de cifras”. Por ello es necesario concentrarse en lo relevante: - La tabla es una matriz de correlaciones de cada ítem con los factores (estructura completa de ítems o reactivos). - Las cargas factoriales (valores en las celdas) son una especie de coeficientes de correlación y en consecuencia se interpretan como tales. - El análisis de factores también proporciona la varianza explicada por cada factor de la estructura, así como otros valores que omitimos deliberadamente para no complicar la interpretación al estudiante a nivel de licenciatura. - El factor 1 (sombreado) es el único que realmente emergió de la administración de la escala del clima organizacional9 (véanse los valores para cada ítem del factor 1 comparados con los valores de los demás
9

Da cuenta del 39% de la varianza total (los tres primeros factores generan el 60%). Al factor se le denominó: Proceso de juicio común para evaluar las percepciones del entorno laboral.

33

factores en los mismos ítems). Un ejemplo (pregunta 17):
ítem Fa ctor 1 demás factores

P17

.792

-.196

-.408

-2.678E-03

-.106

carga factorial alta

cargas factoriales bajas

- Los ítems con cargas bajas en todos los factores deben desecharse de la escala, no miden realmente lo que nos interesa: los componentes o dimensiones del clima organizacional (afectan la validez del instrumento). Por ejemplo, el ítem 53 (frase):
ítem Factor 1 demás factores

F53NEG

.156
carga factorial baja

-.214

.187

.336

.244

cargas factoriales bajas

- En este caso, la conclusión principal del resultado sería: El hecho de que el análisis de factores haya revelado un único factor significativo en la muestra, nos lleva a la conclusión provisional de que el clima organizacional es un constructo “molar”, en el cual se “funden” distintas percepciones sobre aspectos centrales del ambiente de trabajo. Por lo anterior, hemos de decir que los resultados respaldan la noción de Parker et al. (2003) respecto a que, detrás de las dimensiones laborales del clima, se encuentra presente un “proceso de juicio común”, el cual se refleja en las distintas mediciones de la percepción del entorno de trabajo. Es un “proceso subyacente” que se expresa de diversas maneras. Asimismo, el análisis de factores y la matriz de correlación entre dimensiones apoyan el modelo de dos niveles postulado principalmente por L. A. James, L. R. James y C. P. Parker.

34

La confiabilidad alfa para la escala fue 0.9747, que aumenta a 0.98 si se eliminan los ítems que no cargan en algún factor. Tercer ejemplo: Validación de un instrumento para medir el espíritu empresarial en estudiantes10 Objetivo del estudio: Validar un instrumento que evalúa el espíritu empresarial en una muestra de estudiantes mexicanos. Instrumento desarrollado en 2003 por Leslie Borjas Parra, Universidad Metropolitana de Venezuela. Confiabilidad total (alfa): 0.925. A partir del análisis de factores por componentes principales, se puede observar una carga mayor a 0.50 de 24 ítems hacia el factor 1 (F 1), lo que proporciona confianza respecto de que el instrumento realmente mide lo que pretende (validez de constructo). Tabla 8.9 Ejemplo de análisis de factores para la validación de un instrumento (espíritu empresarial en estudiantes)
F1 0.60 0.53 0.63 0.63 0.54 0.57 0.59 0.48 0.54 0.55 0.48 0.52 0.39 0.64 0.68 0.60 F2 -0.40 -0.23 -0.06 -0.43 -0.44 0.00 -0.43 0.46 0.05 -0.15 0.57 0.29 0.32 0.06 0.08 0.21 F3 0.26 -0.24 0.27 0.02 -0.15 0.31 -0.24 0.30 0.31 0.21 0.25 -0.01 -0.02 0.38 0.28 -0.12 F4 0.19 0.09 -0.18 -0.14 -0.11 -0.17 0.07 -0.25 0.35 -0.09 0.35 0.46 0.61 0.16 -0.04 -0.33 F5 0.02 0.24 0.29 -0.04 0.06 0.02 -0.12 0.00 -0.38 -0.49 0.05 0.01 0.21 0.06 -0.22 -0.01 F6 -0.22 0.01 -0.15 -0.19 0.17 0.27 0.01 0.04 0.02 0.02 -0.09 -0.22 0.12 -0.28 -0.08 -0.23 F7 -0.03 -0.39 -0.17 -0.19 -0.13 -0.07 -0.12 0.26 0.17 0.08 -0.08 -0.03 0.00 0.08 -0.12 0.13 F8 0.12 -0.31 -0.22 -0.14 0.10 0.39 0.24 -0.04 0.26 -0.06 -0.06 0.23 -0.23 0.06 -0.10 -0.15

PREGUNTA P9_CREATIVIDAD P8_GRUPO P7_CREATIVIDAD P6_RIESGOS P5_RIESGOS P4_EVENTOS P32_GRUPO P31_EVENTOS P30_HONESTIDAD P3_CREATIVIDAD P29_EVENTOS P28_AUTODETERMINACION P27_SOCIAL P26_AUTODETERMINACION P25_AUTODETERMINACION P24_GRUPO

10

Este ejemplo fue proporcionado por Moisés Mendoza Escobar (2006).

35

P23_CAMBIO P22_HONESTIDAD P21_HONESTIDAD P20_SOCIAL P2_CREATIVIDAD P19_SOCIAL P18_CAMBIO P17_SOCIAL P16_GRUPO P15_CAMBIO P14_RIESGOS P13_RIESGOS P12_CAMBIO P11_EVENTOS P10_AUTODETERMINACION P1_HONESTIDAD

0.59 0.60 0.41 0.53 0.64 0.49 0.70 0.64 0.68 0.56 0.58 0.57 0.72 0.36 0.31 0.45

-0.16 -0.05 0.08 0.20 0.04 0.40 0.07 0.42 0.19 -0.15 -0.21 0.17 -0.42 0.59 -0.48 -0.26

0.06 -0.43 -0.17 -0.38 -0.26 -0.37 -0.17 -0.21 -0.27 -0.40 0.36 0.28 0.09 0.14 0.31 -0.33

-0.26 0.04 -0.07 0.19 0.27 -0.32 -0.17 -0.25 -0.17 0.19 -0.23 -0.04 0.05 -0.12 0.14 0.11

0.25 -0.26 0.46 -0.26 0.24 0.06 -0.05 -0.13 -0.26 -0.15 0.04 0.21 -0.01 0.14 0.04 0.41

-0.31 0.08 -0.26 -0.22 0.20 -0.05 -0.11 -0.02 0.16 0.31 0.39 0.35 -0.08 0.32 0.12 0.17

0.04 0.26 0.47 -0.19 -0.01 -0.03 0.07 0.02 0.00 0.20 0.08 0.02 -0.23 -0.35 0.37 0.15

0.32 -0.20 -0.15 -0.03 0.07 0.37 -0.10 -0.07 -0.06 -0.03 -0.13 -0.06 -0.12 0.03 -0.12 0.25

Para quien desee compenetrarse con esta técnica recomendamos consultar Harman (1976), Gorsuch (1983), Nie et al. (1975), Kim y Mueller (1978a y 1978b), así como Hunter (1980). Del mismo modo, para aplicarlos se sugiere revisar a Nie et al. (1975), Cooper y Curtis (1976), en español a Pádua (2004) y otras referencias más sobre el paquete SPSS que se citan en el siguiente capítulo y que fueron escritas en este siglo. Aunque es requisito conocer el programa estadístico computacional. ¿Qué es el análisis multivariado de varianza (MANOVA)? Es un modelo para analizar la relación entre una o más variables independientes y dos o más variables dependientes. Es decir, es útil para estructuras causales del tipo:
X1 Y1

X2

Y2

Xk

Yk

36

La técnica posee varios usos, entre los que destacan: - Evaluar diferencias entre grupos a través de múltiples variables dependientes (medidas por intervalos o razón). La(s) variable(s) independiente(s) es(son) categórica(s) (no métricas). Tiene el poder de evaluar no solamente las diferencias totales, sino diferencias entre las combinaciones de las dependientes. En este sentido representa una extensión del análisis de varianza (ANOVA) para cubrir casos donde hay más de una variable dependiente y/o cuando las variables dependientes simplemente no pueden ser combinadas. En otras palabras, reconoce si los cambios en la(s) variable(s) independiente(s) tienen un efecto significativo en las dependientes. Señala qué grupos difieren en una variable o en el conjunto de variables dependientes. - Identificar las interacciones entre las variables independientes y la asociación entre las dependientes. Las tres clases principales del MANOVA son: 1) Hotelling's T. Es parecida a la prueba t (dos grupos) pero con más dependientes: una variable independiente dicotómica y varias dependientes. 2) MANOVA unidireccional. Análogo al ANOVA de una sola vía, pero con más dependientes: una variable independiente multicategórica y varias dependientes. 3) MANOVA factorial. Similar al ANOVA factorial, solamente que con dos o más dependientes: varias independientes categóricas y varias dependientes. Los modelos del MANOVA tienen en común que forman combinaciones lineales de las dependientes que discriminan mejor entre los grupos en un experimento o una situación no experimental. Es una prueba de significancia de las diferencias en los grupos en un espacio multidimensional donde cada dimensión está definida por combinaciones lineales del conjunto de variables dependientes. Una pregunta que suele hacer el estudiante al revisar el MANOVA es ¿por qué no hacemos ANOVAS separados, uno para cada dependiente? La respuesta: las dependientes están correlacionadas muy frecuentemente, por lo cual los resultados de varios ANOVA pueden ser redundantes y difíciles de integrar. He aquí una síntesis de la explicación de Wiersma y Jurs (2005) sobre este tipo de análisis: Al incluir dos o más variables dependientes simultáneamente no se consideran las diferencias entre las medias en cada variable, sino las diferencias en variables canónicas. El interés no sólo es saber si los grupos definidos por las variables
37

independientes difieren en las variables canónicas, sino conocer la naturaleza de éstas. Una variable canónica es una variable artificial generada a partir de los datos. Representa constructos y se compone de variables reales, las cuales deben ser descritas en términos de variables dependientes. Lo anterior se efectúa por medio de las cargas de los coeficientes de correlación entre una variable dependiente y una variable canónica. Si una carga entre la variable canónica y la dependiente es positiva y elevada, significa que altos valores en la dependiente se asocian con altos valores en la canónica. Por ejemplo, si una variable dependiente consiste en puntuaciones a una prueba sobre innovación, y dichas puntuaciones se correlacionan en forma considerable con una variable canónica, inferimos que la variable canónica representa un constructo que involucra esencialmente a la innovación. En los cálculos que se hacen en el MANOVA, se generan variables canónicas hasta que se encuentra que no hay una diferencia estadística significativa entre las categorías o los grupos de las variables independientes; o bien, hasta que se agotan los grados de libertad de las variables independientes (lo que ocurra primero). El número de variables canónicas no puede exceder el número de variables dependientes, pero es común que el número de dependientes sea mayor que el de variables canónicas estadísticamente significativas o los grados de libertad. La hipótesis general de investigación en el MANOVA postula que las medias de los grupos o las categorías de la(s) variable(s) independiente(s) difieren entre sí en las variables canónicas. La hipótesis nula postula que dichas medias serán iguales. Se calculan diversas estadísticas para evaluar ambas hipótesis, entre las que destacan: F (total, toma en cuenta el modelo completo), la prueba Hotelling's TSquare, T2 (cuando hay dos grupos formados por las variables independientes), Wilks' lambda, U (cuando hay más de dos grupos formados por las variables independientes), y Pillai-Bartlett (cuando hay coeficientes canónicos);11 y si resultan significativas en un nivel de confianza, se acepta la hipótesis de investigación de diferencia de medias. Esto indica que hay, por lo menos, una variable canónica significativa (pero puede haber varias). Si diversas variables canónicas son significativas, esto muestra que se presentan diferencias en las variables canónicas en cuestión, entre los grupos o categorías de las independientes. Los paquetes estadísticos que contiene el MANOVA suelen posicionar a los grupos de las variables independientes por puntuaciones discriminantes; éstas son
11

Además, para comparaciones específicas están las pruebas post hoc del ANOVA, ya revisadas en el capítulo 10 del libro.

38

calculadas con una función discriminante, que es una ecuación de regresión para un compuesto de variables dependientes. A cada grupo se le asigna una puntuación discriminante en cada variable canónica. Las puntuaciones discriminantes de una variable independiente pueden ser cero o tener un valor positivo o negativo. Una puntuación discriminante positiva y elevada para un grupo, indica que éste se coloca por encima de los demás en la respectiva variable canónica. Y deben considerarse las cargas, las cuales son positivas o negativas. Las puntuaciones discriminantes son utilizadas para interpretar las separaciones de los grupos en las variables canónicas, en tanto que las cargas se usan para evaluar y ligar los resultados de las variables dependientes (Wiersma y Jurs, 2005). Un ejemplo de las cargas de los coeficientes de correlación entre las variables dependientes y las variables canónicas se muestra en la tabla 8.10, mientras que un ejemplo de las puntuaciones discriminantes viene en la tabla 8.11. Tabla 8.10 Cargas de los coeficientes de correlación entre las variables dependientes y las variables canónicas VARIABLES CANÓNICAS
I II (ATRIBUCIÓN DE CAUSALIDAD EXTERNA) III (DESEMPEÑO LABORAL)

VARIABLE DEPENDIENTE
— Motivación intrínseca (escala intrínseca del inventario de características del trabajo)

(MOTIVACIÓN INTRÍNSECA)

0.90

0.05

0.07

— Atribuciones internas — Sentimientos de éxito en el trabajo — Atribuciones externas — PRODUCTIVIDAD — EFICIENCIA — CALIDAD

0.86 0.70

–0.07 0.80

–0.09 0.00

0.03 –0.12 0.18 0.19

0.61 0.07 –0.04 0.13

0.12 0.74 0.48 0.57

39

Tabla 8.11 Puntuaciones discriminantes con cuatro grupos en tres variables canónicas GRUPO I Ejecutivos Secretarias Empleados Obreros 1.97 –0.19 1.40 –3.18 VARIABLES CANÓNICAS II 0.95 1.18 –1.01 –1.12 III –1.69 1.25 –0.49 0.93

Como observamos en la tabla 8.11, se obtuvieron tres constructos subyacentes en las puntuaciones recolectadas de la muestra: motivación intrínseca, atribución de causalidad externa y desempeño laboral. Vemos en la tabla 8.11 que los grupos (niveles en la empresa) están separados en las tres variables canónicas (los grupos difieren), particularmente en la primera variable canónica (motivación intrínseca) y los obreros ocupan la posición más baja. Las variables dependientes enmarcadas en un recuadro en la primera variable canónica se cargan en ella (tabla 8.10); en consecuencia, los ejecutivos tienen las puntuaciones más altas en motivación intrínseca medida por la escala mencionada, en atribuciones internas y en sentimientos de éxito en el trabajo. Así se interpretan todas las variables canónicas y dependientes. En el MANOVA se incluyen razones F y análisis de varianza. Algunos paquetes estadísticos agregan una prueba denominada correlación canónica, que es muy similar al MANOVA. Ésta es la máxima correlación que llega a obtenerse entre los conjuntos de puntuaciones y las relaciones entre las variables independientes, entre las variables dependientes y entre los conjuntos de ambas (dependientes e independientes) (Kerlinger, 1979). Las variables en el MANOVA y la correlación canónica asumen que las variables dependientes están medidas en un nivel de intervalos o razón. Tal correlación se interpreta como otras; pero el contexto de interpretación varía de acuerdo con el número de variables involucradas.

40

¿Hay otros métodos multivariados? En la actualidad, hay muchos métodos multivariados de análisis, los cuales se desarrollaron con la evolución de la computadora. Los investigadores disponen del análisis discriminante, cuando las variables independientes son medidas por intervalos o razón, y la dependiente es categórica. Tal análisis sirve para predecir la pertenencia de un caso a una de las categorías de la variable dependiente, sobre la base de varias independientes (dos o más). Se utiliza una ecuación de regresión llamada función discriminante. Por ejemplo, si queremos predecir el voto obtenido por dos partidos contendientes (variable dependiente nominal con dos categorías) sobre la base de cuatro variables independientes, aplicaremos el análisis discriminante, para resolver una ecuación de regresión; así se obtienen las predicciones individuales. En el ejemplo, hay dos categorías (votar por A o votar por B); por tanto, los valores a predecir son 0 y 1 (A y B, respectivamente). Si el sujeto obtiene una puntuación más cercana a cero, se predice que pertenece al grupo que votará por A; si logra una puntuación más cercana a 1, se predice que pertenece al grupo que votará por B. Además, se consigue una medida del grado de discriminación del modelo. Se cuenta también con el análisis de conglomerados o clusters (técnica para agrupar los casos o elementos de una muestra en grupos con base en una o más variables), el escalamiento multidimensional (para diseñar escalas que midan a los sujetos en diversas variables y los ubiquen simultáneamente en los ejes de las distintas variables, así como para conocer la estructura de las variables entre sí), el análisis de series cronológicas o de tiempo (para analizar la evolución de los casos en una o más variables a través del tiempo y predecir el comportamiento de las variables o sucesos) y la elaboración de mapas multidimensionales (donde establecemos distancias entre casos, al basarnos en mediciones múltiples de varias dimensiones o variables), para los cuales se requieren bases sólidas en materia de estadística y en matemáticas avanzadas. Sugerimos Ferrán (2001), Shaw (2003) y Lehamn, O'Rourke, Hatcher y Stepanski (2005) para una revisión de tales pruebas y modelos.

41

CAPÍTULO 9
ELABORACIÓN DE PROPUESTAS CUANTITATIVAS, CUALITATIVAS Y MIXTAS

¿EN

QUÉ

CONSISTE

LA

PROPUESTA

DE

INVESTIGACIÓN?
La propuesta, proyecto o protocolo de investigación es un plan para la realización de un estudio, con el que se identifican necesidades, en su redacción el tiempo verbal es en futuro para describir las acciones (se revisará…, se entrevistará a…, la muestra será…, se pretende analizar…, se contempla efectuar…, y otras más). Las intenciones esenciales de una propuesta son: • • • Afinar el planteamiento del problema de investigación. Ayudar al investigador a pensar en todos los aspectos del estudio y anticipar retos a resolver. Obtener la aprobación de los usuarios o revisores para la realización del estudio (sólo si aplica); desde un comité evaluador de tesis hasta un grupo de directivos de una empresa que puede contratar la investigación. • • • • Esclarecer las intenciones del estudio (aclarar el panorama). Conseguir recursos o fondos para efectuar el estudio (financiamiento o patrocinio). Lograr permisos para realizar la investigación (acceso a sitios, archivos y documentos; consentimiento de participantes o tutores, etcétera). Demostrar que el investigador se encuentra capacitado para llevar a cabo el estudio.

¿Qué cuestiones debemos tomar en cuenta al elaborar una propuesta? Antes de escribir una propuesta o protocolo, es necesario determinar quién o quiénes habrán de leerla o revisarla, esto es, definir con precisión a los usuarios o evaluadores (perfiles, características como edad, nivel académico, profesión, etc.; conocimientos en investigación, su orientación –académica, práctica, comercial, entre otras–) y sus expectativas respecto al estudio (lo que podrían esperar), así

como otros aspectos que pudieran ser relevantes. Lo anterior con la finalidad de adaptar la propuesta a sus necesidades y requerimientos, ya que ellos serán quienes aprueben si el estudio procede o no (si se acepta como tesis, si se contrata, si se le asignan fondos, si se admite como tarea del estudiante en un semestre o como parte del trabajo de un profesor, si se autoriza como una de las actividades laborales de un individuo en su organización, si obtiene un premio o reconocimiento, etc.). Generalmente quienes examinan los protocolos son personas muy ocupadas, con distintas actividades y que deben considerar varias propuestas, por lo que éstas tienen que ser claras, sencillas y breves, pero sustanciales. En ocasiones, para presentar el proyecto es necesario completar formatos, formularios y/o solicitudes (por ejemplo, en tesis, en estudios que requieren fondos, en premios, etc.), entonces, deben seguirse las instrucciones cuidadosamente y cumplirse todos los requisitos (y por supuesto, adjuntar el protocolo). Cualquier propuesta, sea cuantitativa, cualitativa o mixta, debe responder al investigador y a los lectores las siguientes preguntas: • • • • • ¿Qué va a ser investigado? ¿Por qué debe investigarse? ¿Cómo va a investigarse? (¿qué métodos se utilizarán?). ¿Cuánto tiempo tomará investigarlo? ¿Cuánto costará investigarlo?

¿Qué estructura y contenidos debe tener una propuesta? Lo más lógico es que la estructura y contenidos se desarrollen en el mismo orden en que el estudio va a ser efectuado (William, Tutty y Grinnell, 2005). Desde luego, cada institución educativa, empresa, fundación, agencia gubernamental u organización en general tiene sus propios lineamientos, los que habrán de seguirse para la elaboración de la propuesta. Sin embargo, expondremos los formatos más frecuentes de acuerdo con diversos autores y asociaciones internacionales.1

1

Los criterios fueron tomados de aspectos comunes de distintas fuentes: Creswell (2005), Mertens (2005), Wiersma y Jurs (2005), William, Tutty y Grinnell (2005), Williams, Unrau y Grinnell (2005), Journal of Communication (2005), International Journal of Epidemiology (2005), Thackrey (2005), University of Notre Dame (2005), y American Psychological Association (2002).

PROPUESTAS CUANTITATIVAS
Para propuestas de estudios cuantitativos, Creswell (2005) sugiere la estructura que se muestra en la tabla 9.1. Tabla 9.1 Estructura para propuestas de investigación cuantitativa2 • • • • Portada. Resumen (a veces en español e inglés). Índice o tabla de contenidos. Introducción. - Planteamiento del problema. Objetivos. Preguntas. Justificación. Viabilidad. - Perspectiva (enfoque y disciplina desde la cual se aborda el estudio). - Hipótesis y variables. - Definición de términos centrales (conceptuales y operacionales). - Alcances y limitaciones. • • Revisión de la literatura (marco teórico). Método. - Diseño (en el caso de experimentos se describe el tratamiento). - Muestra (universo, tamaño de muestra, perfil de participantes o unidades, tipo de muestra y técnica de selección). - Procedimientos. Instrumento(s). Proceso de recolección de los datos.

2

Adaptado de Creswell (2005) y Thackrey (2005).

Confiabilidad. Validez. - Análisis de los datos (cómo se piensa efectuar y qué pruebas básicas se utilizarán).3 Resultados preliminares (si se dispone de éstos). • Programación de tiempos (calendarización) y presupuesto (con inclusión del equipo de trabajo, las personas y sus funciones). • • • Estructura tentativa del reporte (por ejemplo: capítulos de la tesis). Referencias (bibliografía). Apéndices (entre éstos el currículo de los investigadores).

Algunos autores como Creswell (2005) consideran que las hipótesis y las preguntas deben ir en el mismo apartado, otros colocan a la muestra como parte del diseño. Desde luego, ciertas investigaciones no cubrirán todos los elementos, particularmente las comerciales (en un contexto no académico). Veamos algunos de estos elementos más a detalle. Portada Como mínimo incluye: el título de la investigación (en ocasiones es tentativo), el nombre del autor o los autores (investigadores) y su afiliación institucional, así como la fecha en que se elaboró o se presenta la propuesta. Los diseños de las portadas varían de acuerdo con los lineamientos establecidos por el comité revisor de la autoridad pública o la institución de educación superior correspondiente (en trabajos, tesis y disertaciones), por la empresa o agencia gubernamental (en estudios comerciales), por la fundación o equivalente (en estudios que solicitan financiamiento) y por otros comités; esto depende del contexto en el cual se exponga el proyecto. Es recomendable que tales lineamientos se revisen antes de iniciar la elaboración de la propuesta.

3

Como se comentará más adelante, el análisis de los datos es concebido por algunos autores como un apartado en sí mismo.

Resumen El resumen es muy importante, ya que es la única parte que revisan algunas personas (sea por tiempo, ocupación u otras circunstancias), por ello, éste “deberá comunicar por sí mismo la esencia del proyecto de investigación”.Se trata de un apunte conciso de lo que será el estudio, contiene regularmente el objetivo o la pregunta de investigación central, la justificación abreviada (fundamentalmente en un párrafo), el método o procedimientos y los resultados esperados (de forma sucinta). Thackrey (2005) y Reid (2001) sugieren que sea de alrededor de 200 palabras. Índice del reporte o tabla de contenidos Esta sección incluye apartados y subapartados (numerados o diferenciados por tamaño y características de la tipografía). A veces se agrega un índice de tablas, figuras, diagramas, etc., si resulta pertinente. Introducción La introducción y otros elementos, al igual que en los reportes de resultados, varían dependiendo del contexto en el que se presenta la propuesta, si es académico o no académico. En el segundo caso, los protocolos suelen ser más breves y puntuales (por ejemplo, el planteamiento muchas veces se limita a uno o dos párrafos en los que se abarcan únicamente el tema específico del estudio a efectuar y el objetivo y/o pregunta de investigación primaria, así como la justificación). Solamente incluimos varios objetivos cuando resulta esencial. Un defecto de diversas propuestas es que contienen seis, siete o más objetivos y ello normalmente refleja un planteamiento desubicado. La justificación debe responder a las preguntas: ¿por qué es importante el problema de investigación?, ¿por qué debe investigarse? y ¿quién o quiénes se beneficiarán con los resultados? (Creswell, 2005). Debemos recordar que la justificación puede apoyarse en motivos teóricos o de conocimiento, metodológicos, sociales o prácticos, se aplican los criterios considerados en Metodología de la investigación, 4ª. edición. También, es indispensable acordarnos que sustentar el planteamiento con datos o cifras y testimonios resulta muy conveniente. Williams, Unrau y Grinnell (2005) destacan que la justificación debe vincularse a los intereses de los revisores de la propuesta y tiene que atraer su atención, incluso si sabemos quienes son, ya que podemos analizar a fondo sus motivaciones.

Ejemplos Contexto académico Contexto no académico

Objetivo: Analizar las causas del incremento Objetivo: Investigar la disminución en este en la violencia dentro de las escuelas de año del monto de compras por parte de los educación media en la ciudad. clientes con crédito. (Otra redacción: investigar la disminución durante el presente año en las ventas a los clientes que tienen crédito). Pregunta de investigación: ¿Cuáles son las Pregunta de investigación: ¿Cuáles son las causas del incremento en la violencia dentro razones por las que los clientes con crédito de las escuelas de educación media en la compraron este año un monto mucho ciudad? menor respecto al año anterior? (no necesaria para el contexto, o bien, puede sustituir al objetivo). Justificación: Los actos de violencia física en Justificación: La empresa, respecto al año las escuelas de educación media de esta pasado, ha disminuido sus ventas 18% población aumentaron 10% en los últimos entre los clientes que compran a crédito, cinco años (riñas, asaltos con armas blancas incluso se detectó que participan un 20% o punzocortantes, asaltos con armas de menos en las promociones y la décima parte fuego, violaciones, asesinatos y otros de ellos cancelaron su crédito. Es necesario crímenes). investigar los motivos que han provocado tal Las instituciones educativas de dicho nivel descenso. Los clientes que compran a necesitan reducir la violencia por varios crédito representan la mitad de las motivos, entre los que pueden destacarse: adolescentes. alumnos de su actividad esencial: el estudio (la violencia evita que puedan concentrarse en su aprendizaje). operaciones, por lo que de mantenerse esta problemas financieros. Resulta indispensable 1) La integridad y seguridad de los propios caída, la empresa podría enfrentar serios 2) El hecho de que la violencia distrae a los realizar el estudio.

3) El clima de violencia propicia un aumento en otras cuestiones negativas y áreas delictivas como el tráfico de estupefacientes, entre otras. De acuerdo con un estudio de Lowry et al. (1999) y la encuesta “Conducta de riesgo entre la juventud de Utah: 1991, 1993 y 1995”, así como los trabajos de Rodríguez (2002 y 2004), la violencia en la escuela está vinculada a la disponibilidad y el consumo de estupefacientes, aún en jóvenes que no consumen drogas. Otra investigación de… señala… además… Es necesario desarrollar planes para lidiar adecuadamente con la escalada de violencia en las escuelas de educación media, pero para ello deben conocerse primero las causas… Asimismo, el estudio esclarecerá la relación entre la violencia y el tráfico y consumo de drogas… Beneficiarios del estudio: Las escuelas Beneficiarios: Es muy obvio, se omite. (profesores, estudiantes, autoridades y padres de familia), los investigadores que analizan la violencia en las escuelas y la drogadicción, y cualquier persona interesada en el tema. La viabilidad en cuanto a conocimientos y habilidades del investigador, tiempo, lugar y presupuesto deberá ser explícita. De no ser así, no vale la pena presentar el protocolo, constituiría “un suicidio académico, laboral o profesional”. La perspectiva (enfoque y disciplina desde la cual se aborda el estudio) puede ser necesaria si el proyecto se presenta en un contexto académico y no resulta obvia. En contextos comerciales es común prescindir de ésta.

Por su parte, las hipótesis son muy relevantes siempre y cuando el proyecto sea correlacional o causal (o se establezca un pronóstico). Las variables resultan indispensables en todos los casos. Es ineludible definir conceptual y operacionalmente los principales términos, que generalmente son las variables esbozadas en el planteamiento y contenidas en las hipótesis. Finalmente, como parte de la introducción y con el propósito de dar credibilidad a nuestra propuesta se requiere fijar los alcances y reconocer las limitaciones del estudio. Debemos evitar el generar falsas expectativas en los revisores; si las creamos, al largo plazo lo único que provocaremos es nuestro propio descrédito, tenemos que ser optimistas, pero a la vez, realistas. Además la mayoría de las veces los revisores son personas experimentadas y subestimarlos suele ser una de las peores estrategias. Revisión de la literatura De acuerdo con Williams, Unrau y Grinnell (2005), la revisión de la literatura en una propuesta o protocolo cumple con cinco funciones básicas: A) B) C) Asegurar que los revisores o evaluadores entiendan completamente los asuntos o tópicos vinculados con nuestro problema de investigación. Indicar las diferencias y similitudes de nuestro estudio con otros realizados previamente (diferenciación). Ubicar la investigación dentro del conocimiento actual en un campo determinado (en este sentido, la revisión de la literatura o marco teórico, debe mostrar cómo embona nuestro planteamiento en un área del saber). D) E) Introducir y conceptuar las variables que serán consideradas en el estudio (e idealmente mostrar relaciones potenciales entre las variables). Describir cómo los resultados contribuirán al campo de conocimiento o práctica en el cual se inserta el proyecto (qué dudas resolverá, qué controversias ayudará a esclarecer, etcétera). La revisión de la literatura no consiste en un listado de referencias ni resúmenes de éstas, tampoco es una compilación de fuentes que vagamente se refieren al problema del estudio; sino que representa la integración de referencias escogidas

de manera selectiva para cumplir con las funciones señaladas previamente.4 Colocar demasiadas referencias (más aún cuando no se vinculan directamente con el planteamiento) puede aburrir al lector y dejar a un lado referencias importantes; además de implicar falta de conocimiento por nuestra parte sobre un problema o fenómeno (Thackrey, 2005, también Williams, Tutty y Grinnell, 2005). Desde luego, el marco teórico o revisión de la literatura de un protocolo es mucho más breve que el del reporte de resultados y contiene menos referencias. Mertens (2005), Creswell (2005), además de Williams, Tutty y Grinnell (2005) coinciden en que en el apartado de Método se incluye el diseño (cuál y por qué lo elegimos), la muestra (población y sus características, unidad de análisis y su justificación, tipo de muestra y procedimiento de selección, así como tamaño) y los procedimientos (instrumento o instrumentos para recabar los datos, así como cuándo, cómo y dónde van a ser implementados –periodo, proceso y lugar de recolección–; además de la forma en que se aportará evidencia para la confiabilidad y validez de los instrumentos,5 incluso si se tiene contemplada una prueba piloto). Creswell (2005) agrega en esta sección el análisis de los datos y los resultados preliminares (si es que se efectuó un sondeo previo o estudio exploratorio).6 Mertens (2005), Williams, Tutty y Grinnell (2005) consideran que el análisis es un rubro o apartado distinto. Los autores creemos que la decisión de cada estudiante respecto a dónde incluirlo, tiene más que ver con los criterios de su propia institución. Si se trata de diseños experimentales, en los procedimientos debe explicarse con precisión en qué va a consistir el tratamiento o tratamientos experimentales (niveles de la variable independiente), el número de grupos involucrados, la manera como se habrán de asignar los participantes a los grupos, el papel del investigador en el experimento, el tiempo que transcurrirá entre la preprueba, el tratamiento y la postprueba en cada grupo, la forma como se monitorearán los grupos y el lugar donde se llevará a cabo.

4

5

6

Referencias lo más relacionadas que sea posible al planteamiento del problema y las hipótesis, y recientes (o clásicas que han hecho aportaciones significativas a dicho planteamiento). Por ejemplo: se utilizará el coeficiente alfa-Cronbach para evaluar la confiabilidad de la escala. La validez de contenido se establecerá mediante un muestreo aleatorio del universo de dimensiones respecto a la variable de interés que ha sido considerado por los autores más relevantes durante los últimos 10 años, la validez de criterio se analizará midiendo la construcción “______”, que de acuerdo con la teoría está sumamente relacionada a la variable que nos incumbe. La validez de constructo se revisará a través del análisis de factores. En ocasiones se presentan proyectos de varias etapas, de las cuales alguna ya fue desarrollada y se dispone de datos iniciales.

En torno al análisis de los datos Mertens (2005), Williams, Tutty y Grinnell (2005) incluyen: o Plan para el procesamiento de los datos: codificación, programa estadístico, pruebas estadísticas a efectuar (para cada hipótesis y/o variables; si no hay hipótesis, para cada pregunta de investigación y variables). o La forma como el análisis o los análisis se vincularán con el planteamiento del problema y las hipótesis (no solamente mencionar las pruebas que se aplicarán sino establecer la relación y el tipo de resultados visualizados). Programación de tiempos (calendarización) y presupuesto Este apartado incluye una tabla de tiempos, calendarización o programación detallada de las acciones a realizarse. Por un lado (renglones o columnas) se colocan las acciones y por el otro, periodos. Se recomienda que al enunciar las tareas, se busque un balance entre lo general y lo exageradamente específico. Por ejemplo, una programación que incluya rubros demasiado globales como: » » » » » Revisión de la literatura. Método. Recolección de los datos. Análisis de los datos. Elaboración del reporte.

Resulta inconveniente, por otro lado, detallar en exceso. Por ejemplo: 1. Revisión de la literatura. 1.1. Consultar en internet las bases de datos. 1.1.1. Consultar ERIC. 1.1.2. Consultar Psychological Abstracts. 1.1.3. Consultar Sociological Abstracts. 1.2. Consultar en la biblioteca de la universidad. 1.2.1. Buscar a través de la red interna. 1.2.2. Buscar en los estantes. 1.3. Localizar las referencias.

1.4. Obtener las referencias. 1.5. Revisar cada referencia. 1.5.1. Revisar el resumen. 1.5.2. Revisar el método. 1.5.3. Revisar los resultados. 1.6. Seleccionar las referencias apropiadas (recientes y vinculadas al planteamiento). 1.7. Acudir con profesores expertos en el tema. 1.7.1. Profesores del departamento. 1.7.2. Profesores de otros departamentos. 2. Método. 2.1. Enfoque. 2.1.1. Reflexionar cuál es el enfoque más apropiado para el estudio. 2.1.2. Decidir el enfoque más apropiado. 2.2. Contextualizar la investigación… Los periodos pueden ser días (si la investigación toma menos de un mes), semanas (si la duración del proyecto es de dos o más meses), meses (si llevará años completar el estudio).

p er i od o s

a c c i o n e s

Semana 1

Semana 2

Semana k

Acción 1 Acción 2

Acción k

Lo importante de una tabla de tiempos es saber cuándo inicia cada etapa y cuando concluye (Thackrey, 2005). Debe ser realista. Con respecto al presupuesto, éste es más común cuando se solicitan fondos para la investigación o se trata de un estudio comercial (en tesis o trabajos no financiados es muy raro que se agregue). Se puede presentar primero el monto

total y luego el desglose en los rubros más importantes, para adicionar en un apéndice una separación detallada. O bien, primero el desglose de los rubros y posteriormente el total. A veces los recursos son en unidades monetarias (euros, pesos, dólares, quetzales, bolívares, etc.), otras veces en especie (computadoras, programas de análisis, oficinas, entre otros) o en ayudas concretas (alumnos que contribuyan, permisos u otros). Lo más adecuado para presentar el presupuesto es informarse sobre la manera como lo solicita el comité revisor en cuestión. Algunos conceptos que pueden integrar el presupuesto son: - Costos directos (relacionados con el proyecto en sí como salarios, equipo permanente, viáticos, mantenimiento del equipo, servicios subcontratados, cargos de publicaciones, etc.) (University of Notre Dame, 2005). - Costos indirectos (que no repercuten directamente en el proyecto: contabilidad, mantenimiento de edificios, administración del proyecto, etcétera). Elementos adicionales Al final del protocolo o propuesta se incluye: a) El índice tentativo de lo que sería el reporte final de resultados (la tesis, disertación o informe), el cual regularmente se excluye en protocolos comerciales. b) Las referencias o bibliografía, de acuerdo con los criterios que se comentaron en los capítulos 4, 11 y 16 del libro (Metodología de la investigación, 4ª. Edición). c) Los apéndices, que varían en función del tipo de proyecto de que se trate (entre éstos el que resulta ineludible en la mayoría de los casos es la hoja de vida o el resumen curricular del investigador o investigadores –cuando mucho media cuartilla, en el que se destaque conocimientos y habilidades asociadas al estudio–, en ocasiones también la estructura del equipo de trabajo). Entre los apéndices pueden incluirse mapas del lugar donde se realizará una encuesta, un instrumento de medición ya validado al medio en que se va a aplicar, una fotografía del lugar en el cual se efectuará el experimento, etc. Se agregan solamente si son requeridos.

¿Qué sugerencias pueden hacerse para elaborar una propuesta? Algunas recomendaciones para elaborar una propuesta o protocolo son las siguientes: • Adecuarlo a la definición y características de los usuarios o revisores. Si el protocolo es para presentarse ante un comité académico, la revisión de la literatura es más extensa que para un comité de una organización que puede otorgar fondos o un comité de adquisiciones de una empresa. • Diversos autores como Williams, Unrau y Grinnell (2005) sugieren redactar en “tercera persona”, aunque la American Psychological Association (2002, p. 34) recomienda que al referirnos a nosotros mismos, seamos directos. El ejemplo señalado es: “El experimentador instruirá a los participantes”, cuando el sujeto “el experimentador” se refiere a usted mismo es confuso y podría interpretarse como que usted no tomará parte en su propio estudio. En lugar de ello, utilice un pronombre personal (yo) o escriba el verbo conjugado en primera persona del singular: “Instruiré a los participantes”. En las propuestas cuantitativas la redacción es más formal que en las cualitativas, puesto que en estas últimas, los sentimientos y pensamientos del investigador son un componente importante. • La propuesta debe ser inteligible por sí misma, sin que requiera presentación, pues a veces se entrega simplemente a revisión o no hay tiempo para explicarla. • William, Tutty y Grinnell (2005) aconsejan quitar anécdotas respecto a los motivos de nuestro interés por el estudio, a menos que sean importantes, llamativas e inusuales (por supuesto, los motivos o razones de elegir el planteamiento son necesarios). • • • Resulta muy importante señalar los límites geográficos, poblacionales y temporales del proyecto. Anticipe críticas y respuestas hostiles. De acuerdo con Thackrey (2005) y la University of Notre Dame (2005), las principales razones por las que se rechazan las propuestas (particularmente cuando se solicita financiamiento) son:

- El problema de estudio no es lo suficientemente importante o no proporciona información novedosa o útil. - El problema es sumamente local y con pocas aplicaciones. - El planteamiento es muy general. - La propuesta abarca demasiados elementos, resulta muy complicada y poco operativa. O bien, no es realista. - La propuesta es nebulosa, no se comprende. - La propuesta parece hecha con rapidez o premura (apresuradamente), sin reflexión. - El protocolo está incompleto. - La justificación no es sólida. - El proyecto contiene errores (por ejemplo, se señalan procedimientos estadísticos inapropiados para las hipótesis). - El investigador es percibido como inexperto o digno de poca confianza. - Los resultados, beneficios y efectos son vagos o imprecisos. - No se respetan los lineamientos solicitados por el debido comité para un protocolo. • Obtener retroalimentación de colegas, profesores y tutores es esencial antes de presentar el proyecto.

PROPUESTAS CUALITATIVAS
Las propuestas para estudios cualitativos comparten la mayoría de los elementos o apartados de las propuestas cuantitativas, por lo que nos centraremos más bien en sus diferencias. Desde luego, el formato cualitativo posee una estructura menos estandarizada y al desarrollarlo suele haber mayor flexibilidad. Creswell (2005) sugiere la estructura que se muestra en la tabla 9.2. Tabla 9.2 Estructura para propuestas de investigación cualitativa7 •
7

Portada.

Adaptado de Creswell (2005), Mertens (2005) y Williams, Unrau y Grinnell (2005).

• • •

Resumen (a veces en español e inglés). Índice o tabla de contenidos. Introducción. - Planteamiento del problema. Objetivos. Preguntas. Justificación. Viabilidad. - Perspectiva teórica (encuadre: feminista, constructivista, etc.). No siempre se incluye, es opcional. - Descripción de términos centrales. - Alcances y limitaciones.

• •

Revisión de la literatura (marco teórico). Algunos autores la incluyen en sus propuestas y otros no. Procedimiento o método. - Diseño. - Contexto (ambiente, sitio, evento, hecho). - Periodo. - Muestra (unidad de análisis, procedimiento de selección de participantes, unidades o casos, perfil de participantes). - Procedimientos de recolección de los datos. Instrumento(s). Dependencia, credibilidad, transferencia y confirmabilidad. - Equipo de trabajo. - “Coreografía” del análisis de los datos.

• • •

Programación de tiempos (calendarización) y presupuesto. Referencias (bibliografía). Apéndices.

Con respecto a la portada, el resumen y el índice, no hay nada nuevo para agregar, las propuestas cualitativas suelen sujetarse a los mismos lineamientos que las cuantitativas. En la introducción ya sabemos que los objetivos y preguntas regularmente son más generales, pero deben redactarse con claridad. La justificación habrá de

responder también a las preguntas: ¿por qué es importante el problema de investigación?, ¿por qué debe investigarse? y ¿quién o quiénes se benefician con los resultados? Y de nuevo, apoyarnos en datos o cifras y testimonios resulta muy adecuado. Hay autores que hasta incluyen alguna breve historia de vida para ilustrar la magnitud de un problema (por ejemplo, en el caso de un estudio como el de Morrow y Smith, 1995, sobre el abuso sexual, puede ayudar un testimonio verdadero). La viabilidad del planteamiento en cuanto a experticia y habilidades del investigador, tiempo, lugar y presupuesto también deberá ser explícita. Asimismo, al igual que los protocolos cuantitativos, la perspectiva puede ser necesaria si el proyecto se presenta en un contexto académico y no es obvia. En este caso es factible comentar si el encuadre es feminista, constructivista, etnográfico, fenomenológico, hermenéutico, interaccionista simbólico, etc.8 La revisión de la literatura puede o no excluirse, cuando se contempla, regularmente es más breve que en las propuestas cuantitativas. Nuestra sugerencia es incluirla, pero con referencias realmente significativas y vinculadas de manera directa al planteamiento del problema. Williams, Unrau y Grinnell (2005) señalan que vale agregar, además de la revisión de la literatura, un marco conceptual que abarque: – Hipótesis (si es que pueden elaborarse, recordemos que gran parte de los estudios cualitativos no prueban hipótesis sino que las generan y otros las esbozan en términos más amplios). – Variables o conceptos (tentativos, ya que en las investigaciones cualitativas normalmente no preestablecemos todas las variables o conceptos de interés, sino que más bien emergen de los datos. En diversas ocasiones ni siquiera se han conceptualizado, lo que se tiene en mente son áreas de exploración). – Definición de términos centrales o claves (que más bien son descripciones generales y están sujetas a la experiencia en el campo. Por ejemplo, podemos definir para un estudio etnográfico el concepto de cultura y sus componentes; pero al inducirse en una cultura específica

8

Para considerar los principales marcos interpretativos cualitativos ver Álvarez Gayou (2003) y Sandín (2003).

pueden florecer otros elementos). Recordemos que son los participantes quienes nos proporcionan las definiciones. El apartado de procedimiento o procedimientos comprende, desde luego: • El diseño, el cual va ligado con el marco interpretativo (etnográfico, fenomenológico, teoría fundamentada, investigación-acción, etcétera). • El contexto inicial (ampliamente descrito y con la debida explicación de por qué fue elegido). • El periodo aproximado de recolección de los datos (como sabemos es relativo).9 • La muestra inicial (principalmente: los participantes o casos –descritos ampliamente–, el método de muestreo, una estimación tentativa de la muestra final). • El método o los métodos de recolección de los datos (entrevistas, grupos de enfoque, etc.). Este subapartado abarca los medios de registro de los datos (videograbación, audiograbación, notas, bitácora). • Equipo de trabajo (personas y funciones). • Los modos como se pretende incrementar: dependencia, credibilidad, transferencia y confirmabilidad (por ejemplo, si se va a efectuar triangulación de datos, si se consultará con colegas alguna cuestión, si se efectuarán análisis exhaustivos de datos negativos, si se obtendrá retroalimentación de participantes, entre otros). En el caso de la transferencia puede especularse sobre los contextos o situaciones a las cuales les serán útiles los resultados. • “Coreografía” del análisis de los datos (la forma como se analizará, quién o quiénes harán las transcripciones y de qué manera, qué programa de análisis se utilizará como apoyo, cómo se llevará la bitácora de análisis). El resto de los apartados es similar a las propuestas cuantitativas, pero en los protocolos cualitativos se resalta en todo el documento el papel del investigador (Wiersma y Jurs, 2005).

9

Un ejemplo lo sería un arqueólogo, puede saber ¿cuándo descubrirá ciertos vestigios que está decidido a encontrar, ¿acaso Howard Carter pudo predecirle a Lord George Carnarvon (quien financiaba su trabajo) cuánto tiempo le tomaría encontrar una tumba de un faraón del antiguo Egipto y a quién pertenecería?, ¿podía saber que sería la tumba del Rey Tutankhamen o Tutankamón?

PROPUESTAS MIXTAS
En el caso de los diseños mixtos la propuesta abarca la portada, resumen e índice o tabla de contenidos, programación de tiempos, referencias y apéndices para cualquier estudio. Posteriormente, en los modelos de dos etapas y en paralelo, la introducción suele incluir por separado lo referente a la parte cuantitativa y a la cualitativa. La revisión de la literatura regularmente es una para ambas fases o dimensiones de la investigación. El método o procedimiento también se presenta fragmentado (primero un segmento sobre el enfoque que inicialmente se vaya a aplicar y luego un segmento respecto al otro enfoque). En el modelo del enfoque principal, se sigue el formato respectivo (cuantitativo o cualitativo), esto depende de cuál enfoque sea el dominante y se insertan los elementos del enfoque menor donde correspondan (instrumento, análisis, etc.). En el diseño mixto complejo, tanto en la introducción, como en la revisión de la literatura y el método se entretejen elementos de ambos enfoques.

PROPUESTAS PARA ESTUDIOS DE CASO
Yin (2003) sugiere para los protocolos de estudios de caso la estructura que se presenta en la tabla 9.3., la cual no requiere mayor explicación, pues la mayoría de los conceptos ya fueron comentados al hablar de las propuestas cuantitativas y cualitativas. Tabla 9.3 Estructura para propuestas de estudios de caso • • • • Portada. Resumen (a veces en español e inglés). Índice o tabla de contenidos. Introducción. - Planteamiento del problema. o Objetivos. o Preguntas. o Definición del caso (definición y descripción del caso,
ubicación en

términos del lugar y tiempo, y

descripción del contexto del caso en las dimensiones que interesan, ya sea política, social, económica, laboral, empresarial, médica,

ubicación en

términos del lugar y tiempo, y

descripción del contexto del caso en las dimensiones que interesan, ya sea política, social, económica, laboral, empresarial, médica, etcétera). o Justificación del estudio y la elección del caso (¿por qué fue seleccionado?). o Viabilidad. - Hipótesis y variables. - Definición de términos centrales (conceptuales y operacionales). - Alcances y limitaciones. • Antecedentes del caso. - Origen. - Historia del caso (generalmente de forma cronológica). • Método. -Diseño (de un solo caso o múltiples casos, cuando se trata de experimentos se describe el tratamiento). - Acceso al caso (personas que deben localizarse y contactarse). - Procedimientos. Instrumento(s). Proceso de recolección de los datos. Confiabilidad. Validez. - Análisis de los datos (cómo se piensa efectuar y qué pruebas básicas se utilizarán). Resultados preliminares (si se dispone de éstos). • Programación de tiempos (calendarización) y presupuesto (con inclusión del equipo de trabajo, con las personas y sus funciones). • • Estructura tentativa del reporte (por ejemplo, capítulos de la tesis). Referencias (bibliografía).

Apéndices (entre éstos el currículo de los investigadores).

Difícilmente hay propuestas perfectas Después de haber revisado este capítulo, diversos estudiantes y profesores seguramente comentarán que elaborar una propuesta con todos los apartados, elementos y características presentadas resulta algo muy complejo. Y en parte tienen razón. Hemos tratado de mostrar el ideal de una propuesta. Pero no todos los apartados aplican a todas las propuestas, cada quien elegirá los que requiera, de acuerdo con los lineamientos que solicite el comité o individuo de su institución o empresa, cliente u organización, al cual habrá de presentar el proyecto. Ahora bien, cuando uno desarrolla una propuesta es necesario esforzarse al máximo y cubrir los aspectos marcados. Pero difícilmente una propuesta es “perfecta”, de inicio porque los evaluadores o revisores son seres humanos y, por lo tanto, sus percepciones varían (lo que a unos les puede resultar “genial”, a otros les puede parecer una “tontería”); además, siempre tendremos el factor tiempo en nuestra contra. Asimismo, al terminar una propuesta invariablemente nos quedará la sensación de que falta “algo”, lo que es normal. De igual forma, los requerimientos y exigencias para un protocolo de una disertación doctoral son mayores que para un protocolo a nivel de maestría, y éstos se encuentran por encima de los que se solicitan a nivel de licenciatura o para un trabajo de una materia o asignatura. Hemos agregado en la página web del libro un ejemplo de una propuesta doctoral aceptada en la Universidad Anáhuac del Sur y que incluso fue seleccionada para presentarse en 2007 durante un congreso internacional en Venecia, Italia (se incluye propuesta y presentación en Power Point); asimismo, colocamos en el CD un proyecto sobre sentido de vida y otros casos. Son ejemplos perfectibles (y seguramente varios profesores les encontrarán defectos, inconveniencias y/o errores). Así pues, no se exhiben como el “ideal” de una propuesta, sino como muestras de protocolos reales y aceptables. Ojalá y diversos alumnos que cursan asignaturas relativas a la metodología de la investigación nos hicieran llegar más ejemplos de estos protocolos, a través de la página web del libro, para circularlos entre nuestra comunidad (vale también para profesores). Tales ejemplos se subirán a la mencionada página.

Páginas web recomendadas Con la finalidad de ampliar lo expuesto en este capítulo, sugerimos las siguientes páginas web, hay que recordar que las direcciones y páginas pueden modificarse.

Para consejos específicos: Ruchti, R. (2005, octubre). Keys to success: Writing proposals. Arlington, VI, EE. UU.: Program Officer at National Science Foundation. Disponible en: http://www.nd.edu/~research/ProposalPrep/Ruchtipres05.pdf Para escribir la propuesta, obtener fondos y elaborar presupuestos (con vínculos a decenas de páginas y documentos relativos al tema): University of Notre Dame (2005). Proposal Preparation. Office of Research. Notre Dame, IN, EE. UU.: University of Notre Dame, Office of Research. Disponible en: http://www.nd.edu/ ~research/ProposalPrep/

Índice de un reporte de resultados como ejemplo que quedó pendiente en el libro

Metodología de la investigación , 4ª. edición. Finalmente y para concluir, en el capítulo 11 del libro, por cuestiones de
espacio, no se incluyó el índice del trabajo de Meza y Hernández Sampieri (2005), ejemplo que se desarrolló durante la segunda parte. Ahora se reproduce junto con el índice de tablas. EL ABUSO SEXUAL INFANTIL

Índice 1. INTRODUCCIÓN 1.1 DESCRIPCIÓN DEL PROBLEMA 1.2 REVISIÓN DE LA LITERATURA 1.3 ORGANIZACIÓN DEL DOCUMENTO 2. DESCRIPCIÓN DEL MÉTODO DE INVESTIGACIÓN

2.1 PARTICIPANTES 2.2 PROCEDIMIENTO 3. ESCALA COGNITIVA 3.1 DESARROLLO 3.2 RESULTADO DE LAS MEDIDAS PSICOMÉTRICAS 3.2.1 Confiabilidad 3.2.2 Análisis de sensibilidad al cambio 4. ESCALA CONDUCTUAL 4.1 DESARROLLO 4.2 RESULTADO DE LAS MEDIDAS PSICOMÉTRICAS 4.2.1 Confiabilidad 4.2.2 Validez convergente 4.2.3 Análisis de sensibilidad 4.2.4 Análisis por grupo de edad 5. RESULTADOS DE CORRELACIONES ENTRE ESCALAS 6. DISCUSIÓN REFERENCIAS BIBLIOGRÁFICAS APÉNDICES A. PROGRAMAS DE PREVENCIÓN DEL ABUSO SEXUAL INFANTIL: METODOLOGÍAS, ALCANCES Y CONTENIDO B. CKAQ-R C. WHAT IF SITUATION TEST (WIST) D. ROLE PLAY PROTOCOL (RPP) E. TALKING ABOUT TOUCHING EVALUATION PROGRAM F. CKAQ-ESPAÑOL G. RP-MÉXICO H. EVALUACIÓN DE LA PREVENCIÓN DEL ABUSO (EPA) Índice de Tablas Tabla 1. Incidencia del abuso sexual infantil. Tabla 2. Definición operacional y conceptual de las variables involucradas en la hipótesis Tabla 3. Descripción de los grupos experimentales. Tabla 4. Semejanza de distribución de CKAQ-Español en test-retest por ítem Tabla 5. Estadística descriptiva en el test y retest de instrumentos conductuales.

Tabla 6. Correlación test-retest de instrumentos conductuales. Tabla 7. Descriptivos Wilcoxon en test-retest de instrumentos conductuales. Tabla 8. Confiabilidad interna para los instrumentos conductuales. Tabla 9. Estadística descriptiva en instrumentos conductuales. Tabla 10. Promedio de rangos en instrumentos conductuales. Tabla 11. Frecuencias relativas al promedio general en instrumentos conductuales. Tabla 12. Porcentajes de rangos relativos con respecto al grupo que termina un PPASI. Tabla 13. Promedios de rangos por grupo experimental “Al terminar un PPASI” y “Control” en instrumentos conductuales. Tabla 14. Resumen descriptivo de puntajes por escala y grupo experimental. Tabla 15. Razón de proporcionalidad con respecto al grupo que termina un PPASI Tabla 16. Razón de proporcionalidad de grupo experimental a su correspondiente de CKAQ-Español

CAPÍTULO 10
PARÁMETROS, CRITERIOS, INDICADORES Y/O CUESTIONAMIENTOS PARA EVALUAR LA CALIDAD DE UNA INVESTIGACIÓN

1

INTRODUCCIÓN
Tal como lo señalamos en el capítulo anterior: no existe la investigación perfecta, como tampoco hay un ser humano perfecto (la perfección constituye un estándar ideal). Por lo tanto, en cualquier estudio siempre tendremos limitaciones. En la realidad es lo común y resulta imposible evitarlas en un 100 por ciento. Sin embargo, ¿hasta dónde podemos decir que un estudio es razonablemente digno de ser considerado?, ¿qué elementos debemos tomar en cuenta para evaluar una investigación? Las respuestas a estas preguntas son complicadas y existen varios criterios que se han generado para analizar la calidad de una investigación, pero actualmente no existe un consenso general ni un acuerdo definitivo entre los autores sobre cuáles deben contemplarse. Por ello, a continuación presentamos tres listados sobre tales elementos. El primero se generó durante 1995 a 2003 por profesores que enseñan metodología de la investigación en diferentes universidades latinoamericanas, y algunos de sus criterios se han incluidos en la página web o manuales del instructor en ediciones anteriores a esta obra (Metodología de la investigación, 4ª edición). El segundo listado fue una adecuación sobre el trabajo de Fischer (2005) y, finalmente, el tercero constituye una adaptación de diferentes autores en la materia (en cada rubro se mencionan los autores que aportaron elementos). Los dos primeros listados se aplican fundamentalmente a investigaciones cuantitativas y el último se ha segmentado en estudios cuantitativos y cualitativos. Pero cada profesor o lector puede construir su propia lista, considerando elementos de los tres listados y otros más. Entre los listados, algunos elementos son muy similares o incluso redundantes, pero hemos preferido que sea el usuario del libro quien los edite y no nosotros. Asimismo, a veces se presentan en forma de pregunta y en otras ocasiones a manera de frase. Alguien podría elaborar su lista con los elementos que seleccione planteados siempre en forma de pregunta y su respuesta podría ser dicotómica, o bien, plantearlos en forma de pregunta con algún tipo de escala. De hecho, los criterios pueden calificarse dicotómicamente (sí-no, se cumplió-no se cumplió, se logró-no se logró, u otros pares), del uno al cuatro (Fischer, 2005), del cero al 10, etc. Los valores son percepciones y como tales poseen cierta carga subjetiva. Pero por algún lado debíamos comenzar. La lista puede enriquecerse y agradeceremos a

2

quienes por medio de la página de internet de esta cuarta edición, nos hagan llegar más criterios o sus puntos de vista. Por otra parte, los elementos o criterios podrían servir para analizar estudios que se someten a concurso, para editores de revistas científicas (desde luego, la mayoría tienen ya los suyos propios), o simplemente con fines de autoevaluación o verificación y detectar fuentes potenciales de error.

Tabla 10.1 Primer listado de rubros y factores para evaluar una investigación1 Aplica exclusivamente a estudios cuantitativos Rubro: Planteamiento del problema. Rango: Máximo 60, mínimo cero. Elemento, indicador o factor 1. Comprensión de la redacción de los objetivos de investigación. 2. Comprensión de la redacción de las preguntas de investigación 3. Precisión de objetivos. 4. Delimitación del problema de investigación 5. Concordancia entre objetivos y preguntas de investigación. 6. Justificación de la investigación por al menos dos razones (desarrollo de conocimiento, aportaciones a teorías, solución de situaciones prácticas o problemáticas sociales, resolución de controversias, aportaciones metodológicas, etcétera). Escala*

1

Este listado fue producto de presentaciones que los autores han realizado en más de 20 países y por cuestiones de espacio resultaría sumamente difícil incluir a todos los docentes e investigadores que han aportado factores o elementos. Se utilizan calificando cada uno en una escala del cero al 10. * Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

3

Rubro: Revisión de la literatura o marco teórico. Rango: Máximo 60, mínimo cero.

Elemento, indicador o factor 1. Revisión de autores destacados en el campo o campos de conocimiento en los cuales se inserta el problema de investigación. 2. Inclusión de una o más revisiones del estado del arte y/o metaanálisis en dicho campo o campos. 3. Utilización de bancos de datos o bibliográficos más importantes en las áreas de conocimiento abarcadas por el problema de investigación (por lo menos uno y de ser posible los tres más importantes). 4. Inserción de referencias recientes (dos o menos años). 5. Presentación de estudios que apoyan las hipótesis de investigación y de los que las refutan (si es el caso). 6. Vinculación lograda entre el planteamiento y la revisión de la literatura o marco teórico.

Escala*

Rubro: Hipótesis. Rango: Máximo 90, mínimo cero. Elemento, indicador o factor 1. Grado en que la(s) hipótesis sea(n) comprensible(s) para otros colegas o lectores. 2. Grado en que la relación planteada entre las variables sea lógica.
*

Escala*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

4

3. Grado en que la relación planteada entre las variables sea consistente (o congruente). 4. Precisión de las definiciones conceptuales. 5. Grado en que las definiciones conceptuales son comprensibles para otros colegas o lectores. 6. Precisión de las definiciones operacionales. 7. Grado en que las definiciones operacionales son comprensibles para otros colegas o lectores. 8. Congruencia de las hipótesis con los objetivos y preguntas de investigación. 9. Identificación de variables susceptibles de medir, evaluar, diagnosticar y/o analizar.

Rubro: Diseño de investigación. Rango: Máximo 60, mínimo cero. Elemento, indicador o factor 1. Adecuación del diseño de investigación al planteamiento del problema. 2. Adecuación del diseño de investigación a la realidad. 3. Congruencia del diseño con la(s) hipótesis. 4. Factibilidad de aplicación del diseño. 5. Resolución de obstáculos que plantee el diseño. 6. Control de las fuentes que puedan invalidar la aplicación del diseño. Escala*

Rubro: Muestra. Rango: Máximo 60, mínimo cero. Elemento, indicador o factor 1. Precisión con la que se delimite el universo de estudio. Escala*

*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

5

2. Claridad con la que se defina la muestra. 3. Grado en que la muestra es adecuada al enfoque del estudio. 4. Grado en que se conoce la probabilidad de los elementos del universo para formar parte de la muestra. 5. Grado en que la muestra es representativa del universo (tamaño y nivel de confianza-error). 6. Grado de semejanza entre las estadísticas descriptivas (y distribuciones) de las variables demográficas de la muestra y las del universo (género, edad, ocupación, estado civil, nivel socioeconómico, etcétera). Aplica sólo si se dispone de tales estadísticas del universo o población.

Rubro: Recolección de los datos. Rango: Máximo 150, mínimo cero. Elemento, indicador o factor 1. Elección apropiada del lugar de recolección de los datos u obtención de información. 2. Elección apropiada del momento de recolección de los datos u obtención de información. 3. Capacidad del investigador para adaptarse al momento de recolección de los datos u obtención de información. 4. Capacidad del investigador para adaptarse al lugar de recolección de los datos u obtención de información. 5. Explicación del contexto en que ocurrió la recolección. 6. Capacitación adecuada del personal que obtuvo los datos o la información.
*

Escala*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

6

7. Grado de supervisión por parte del investigador en la recolección de los datos o información. 8. Poder de medición o evaluación (en gran medida determinado por la utilización de distintas formas o métodos de evaluación o medición). 9. Confiabilidad del instrumento o instrumentos.
Un punto por cada 10 décimas del coeficiente de confiabilidad o correlación.

10. Evidencia sobre la validez de contenido del instrumento o instrumentos (muestreo de dimensiones). 11. Evidencia sobre la validez de “rostro” o “de cara al instrumento” (face validity) (revisión de expertos). 12. Evidencia sobre la validez de criterio (ya sea concurrente o predictiva). 13. Evidencia sobre la validez de constructo. 14. Evidencia sobre la validez convergentediscriminante (que se vincula con la validez de constructo). 15. Elaboración de una bitácora del proceso de recolección de la información (opcional y muy vinculado al quinto elemento o criterio: explicación del contexto en que ocurrió la recolección).

Rubro: Preparación de los datos o información para su análisis. Rango: Máximo 50, mínimo cero. Elemento, indicador o factor 1. Revisión con respecto a si están completas y de acuerdo con lo programado: las respuestas, mediciones, ejemplares del instrumento de medición o equivalentes de la investigación. Escala*

*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

7

2. Número de errores en la codificación (hoy en día debe ser nulo o no superar 1%, ya que al analizar los datos podemos identificarlos). 3. Existencia de un respaldo para los datos codificados en la matriz. 4. Preparación adecuada de la información para su análisis o evaluación. 5. Posibilidad de que la información o datos sean analizados o evaluados por otros investigadores.

Rubro: Análisis de los datos. Rango: Máximo 90, mínimo cero. Elemento, indicador o factor 1. Congruencia de los análisis elegidos con los objetivos y preguntas de la investigación. 2. Congruencia de los análisis elegidos con las hipótesis de la investigación. 3. Congruencia de los análisis con el diseño de investigación. 4. Aplicación completa de los análisis requeridos para los datos. 5. Utilización de un paquete o programa confiable para los análisis o evaluaciones. 6. Descripción de las razones por las cuales se llevaron a cabo los análisis o evaluaciones practicadas. 7. Interpretación adecuada de las estadísticas descriptivas. 8. Interpretación adecuada de los análisis para la prueba de hipótesis (resultados de las pruebas, valores y significancia estadística). 9. Integración adecuada entre distintos análisis (coherencia y vinculación entre resultados).
*

Escala*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

8

Rubro: Veracidad en la interpretación de resultados. Rango: Máximo 60, mínimo cero. Elemento, indicador o factor 1. Presentación de los resultados obtenidos tal como se dieron (evitar ocultar información y n o distorsionar los datos ni presentar parcialmente los resultados). 2. Grado en que se distinguen con claridad cuáles fueron las interpretaciones del investigador. 3. Grado en que los resultados están apoyados por la evidencia de los datos y análisis. 4. Medida en que se pueden generalizar a la población los resultados obtenidos en la muestra. 5. Grado en que la información y los datos son suficientes para considerar que las inferencias resultan sólidas. 6. Grado en que se respetaron las premisas o requisitos de cada prueba o método estadístico. Escala*

Rubro: Redacción del documento final o reporte de resultados. Rango: Máximo 110, mínimo cero. Elemento, indicador o factor 1. Grado en que los resultados y descubrimientos respondieron al planteamiento del problema. 2. Grado en que las conclusiones están soportadas en los datos. 3. Grado en que la discusión al final del trabajo es congruente con los resultados y descubrimientos. Escala*

*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

9

4. Ortografía. 5. Sintaxis. 6. Claridad en la redacción. 7. Coherencia interna del documento. 8. Inclusión de índices o tablas de contenidos. 9. Inclusión de resumen. 10. Elaboración adecuada de citas y referencias en el texto. 11. Elaboración adecuada de citas y referencias en la bibliografía.

Rubro: Diseño gráfico del reporte (elementos deseables). Rango: Máximo 50, mínimo cero. Elemento, indicador o factor. 1. Selección e inclusión apropiada de esquemas, gráficos, dibujos e imágenes. 2. Calidad de esquemas, gráficos, dibujos e imágenes. 3. Diseño de la portada. 4. Diferenciación clara entre apartados. 5. Calidad de impresión de acuerdo con los lineamientos solicitados por la institución en la que se presenta el reporte (papel, encuadernación, entre otros). Un rubro adicional que tal vez no se aplique a todos los estudios, pero que se ha solicitado por instituciones educativas en Puerto Rico, Panamá y Bolivia, es el siguiente. Escala*

Rubro: Inclusión o desarrollo de modelos y patrones. Rango: Máximo 30, mínimo cero.

*

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto.

10

Elemento, indicador o factor 1. Utilización de un modelo, patrón, teoría o enfoque a lo largo de la investigación. 2. Generación de uno o varios modelos, patrones, enfoques o teorías como producto de la investigación. 3. Comparación del modelo, patrón o teoría con otros(as) desarrollados(as) por distintos investigadores.

Escala*

Tabla 10.2 Segundo listado de rubros y factores para evaluar una investigación2 Este listado se califica al estilo Likert del cero al cuatro (Fischer, 2005), pero lo hemos adaptado del uno al cinco, aunque podría también considerarse del cero al cinco o del cero al 10. Insistimos en que algunos elementos o criterios pueden ser similares o los mismos del primer listado. Aplica a estudios cuantitativos. Criterios relativos al planteamiento del problema. Número 1. 2. 3. 4. 5. literatura. Claridad de la idea. (objetivos). Claridad del planteamiento del problema 1 (preguntas). Claridad del planteamiento del problema 1 (justificación).
* 2

Criterio Adecuación de la revisión de la 1
1 2

Escala**
3 4 5

2 2

3 3

4 4

5 5

Claridad del planteamiento del problema 1

2

3

4

5

2

3

4

5

Del cero al 10, donde cero implicaría el valor más bajo y 10 el más alto. Adaptado de Fischer (2005, p. 387-398). Se agregaron diversos elementos a la lista original, particularmente después de una visita a la Universidad Católica de Costa Rica y a la Facultad de Pedagogía de la Universidad Veracruzana. El valor más bajo es el uno y el más alto el cinco.

**

11

(justificación). 6. 7. 8. 9. 10. 11. Claridad en la formulación de hipótesis. variables. Claridad en las definiciones conceptuales 1 de las variables. Claridad en las definiciones opera- 1 cionales de las variables. Sensatez en la suposición de relaciones 1 entre las variables. Inclusión de todas las variables 1
2 3 4 5 2 3 4 5 2 3 4 5 2 3 4 5 1 2 2 3 3 4 4 5 5

Claridad en la especificación de las 1

pertinentes de acuerdo con el planteamiento del problema. 12. 13. 14. Transparencia en los patrocinios de la 1 investigación. Sensatez de las suposiciones y premisas 1 del investigador. Claridad en la orientación del 1
2 3 4 5 2 3 4 5 2 3 4 5

investigador. En experimentos, cabría agregar los dos siguientes criterios: 15. Claridad en la especificación de la(s) 1 variable(s) dependiente(s). 16. Claridad en la formulación de hipótesis 1 rivales.
2 3 4 5 2 3 4 5

independiente(s)

y

Criterios relativos al método. Número 1. 2. Criterio Conveniencia de las mediciones en relación con el planteamiento del problema. Conveniencia de las mediciones en relación con 1 los objetos, personas, casos o equivalentes de la investigación.
**

Escala** 1 2 2 3 3 4 4 5 5

El valor más bajo es el uno y el más alto el cinco.

12

investigación. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. Grado de confiabilidad de las mediciones. contenido de las mediciones realizadas. Grado de validez “encarada” (face validity). de las mediciones realizadas. Cantidad de evidencia sobre la validez de 1 constructo de las mediciones realizadas. Grado de utilización de diferentes instrumentos para recolectar datos. Claridad acerca de cómo se recolectaron los datos. Claridad respecto de quién o quiénes 1 1 1 1 1 1 1 2 2 2 2 2 2 2 3 3 3 3 3 3 3 4 4 4 4 4 4 4 5 5 5 5 5 5 5 recolectaron los datos. Grado en que se evitaron errores en la recolección de los datos. Claridad en el del diseño de investigación. Adecuación del diseño al planteamiento. Precisión en la definición del universo. Adecuación del tamaño de muestra al planteamiento. Grado de conocimiento de la probabilidad que tienen los casos del universo o población de ser seleccionados para conformar la muestra (procedimiento de muestreo). 17. 18. Representatividad de la muestra. Grado en que las estadísticas demográficas de la muestra se parecen a las del universo o población. 19. 20. 21. Grado de confiabilidad en la codificación. Grado de confiabilidad en la revisión de la matriz de los datos. En cuestionarios-escalas-pruebas estandarizadas y equivalentes: claridad de instrucciones. 1 2 3 4 5 1 1 2 2 3 3 4 4 5 5 1 1 2 2 3 3 4 4 5 5 1 2 3 4 5 1 2 3 4 5 2 3 4 5 1 2 2 3 3 4 4 5 5 Cantidad de evidencia sobre la validez de criterio 1 1 2 2 3 3 4 4 5 5 Cantidad de evidencia sobre la validez de 1

13

22. 23.

En cuestionarios- escalas-pruebas estandarizadas y equivalentes: claridad del formato. En análisis del contenido: claridad del sistema de codificación.

1 1

2 2

3 3

4 4

5 5

En experimentos, cabría agregar: 24. 25. 26. 27. 28. 29. 30. 31. 32. Claridad en la especificación de los cambios deseados. Grado de control de las fuentes de invalidación interna. Grado de control de las fuentes de invalidación externa. Conveniencia del método de asignación de los participantes a los grupos. Inclusión de grupo(s) de control. Conveniencia del(los) tratamiento(s) experimental(es): Operacionalización. Inclusión de chequeos de manipulación. Grado de control de los efectos de interacción. Seguimiento o monitoreo de los grupos. 1 1 1 2 2 2 3 3 3 4 4 4 5 5 5 1 1 2 2 3 3 4 4 5 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5

Criterios relativos a los análisis y resultados. Número 1. Criterio Conveniencia de los análisis seleccionados y realizados de acuerdo con el planteamiento e hipótesis. 2. Conveniencia de los análisis seleccionados y realizados de acuerdo con el nivel de medición de las variables. 3. 4. Claridad en la presentación de estadísticas descriptivas. Claridad en la presentación de estadísticas para prueba de hipótesis. 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 Escala** 3 4 5

** El valor más bajo es el uno y el más alto el cinco.

14

5. 6. 7. 8. 9. 10. 11. 12.

Claridad en la presentación de tablas. Claridad en la presentación de cuadros. Claridad en la presentación de diagramas. Claridad en el orden de presentación de resultados. Conveniencia de las tablas presentadas. Conveniencia de los cuadros presentados. Conveniencia de los diagramas presentados. Uniformidad en las tablas, cuadros y diagramas.

1 1 1 1 1 1 1 1

2 2 2 2 2 2 2 2

3 3 3 3 3 3 3 3

4 4 4 4 4 4 4 4

5 5 5 5 5 5 5 5

Criterios relativos a la discusión. Número 1. Criterio Grado de claridad que los datos ofrecen acerca de la prueba de hipótesis (ya sea que la apoyen o refuten). 2. 3. 4. 5. Grado de coherencia de las conclusiones con 1 los datos. Grado de exclusión de deseos y tendencias 1 personales del investigador o investigadores . Claridad en el significado de los resultados. descubrimientos de estudios previos (marco teórico). 6. 7. 8. 9. 10. Grado en que el estudio cumplió con sus 1 objetivos. Grado en que el estudio respondió a las 1 preguntas de investigación. Conveniencia de las opiniones sobre las 1 implicaciones del estudio. Conveniencia para generalizar los resultados. hipótesis rivales o alternativas. 1 2 2 3 3 4 4 5 5 Grado con el cual se someten a discusión 1 2 3 4 5 2 3 4 5 2 3 4 5 1 2 2 3 3 4 4 5 5 Adecuación de la discusión a los resultados y 1 2 3 4 5 2 3 4 5 1 2 Escala** 3 4 5

**

El valor más bajo es el uno y el más alto el cinco.

15

11. 12. 13. 14. 15. 16.

Adecuación en el manejo de situaciones no 1 esperadas. Adecuación en el manejo de resultados no 1 esperados. Grado de relevancia práctica. Grado de relevancia teórica. Claridad de las recomendaciones. Grado en que las direccionan futuros estudios dentro del área o campo de conocimiento donde se inserta la investigación. 1 1 1

2 2 2 2 2 2

3 3 3 3 3 3

4 4 4 4 4 4

5 5 5 5 5 5

recomendaciones 1

Criterios relativos al documento y difusión. Número 1. 2. estudio. Grado de elaboración del reporte de acuerdo 1 con las normas aceptadas por la comunidad científica-académica del área donde se insertó la investigación. 3. 4. Calidad en la redacción del reporte. Calidad en el diseño gráfico del reporte.
1 1 2 2 3 3 4 4 5 5 2 3 4 5

Criterio Número de espacios donde se difundió el 1 2

Escala** 3 4 5

Los máximos y mínimos para cada rubro dependerán de la escala utilizada.

Tabla 10.3 Tercer listado de rubros y factores para evaluar una investigación En cada rubro se mencionan los autores que se tomaron en consideración. Primero se presentan los criterios para los estudios cuantitativos y posteriormente los relativos a los estudios cualitativos. En esta edición el formato es en forma de
**

El valor más bajo es el uno y el más alto el cinco.

16

pregunta y la respuesta puede ser positiva o negativa. En la mayoría de los casos la respuesta positiva (sí) es más conveniente, pero en algunos cuestionamientos es al contrario (“no” resulta más adecuado). Investigación cuantitativa Rubro: Título. 1) ¿El título refleja el planteamiento final? 2) ¿Refleja el trabajo completo o investigación realizado(a)?

Rubro: Planteamiento del problema. 1) ¿Posee claridad? 2) ¿Está redactado el planteamiento de tal manera que el lector puede comprender el estudio? 3) ¿Es completo el planteamiento? 4) ¿Es exacto el planteamiento? 5) ¿Posee valor teórico? 6) ¿Posee valor práctico? 7) ¿Posee valor metodológico? 8) ¿El planteamiento incluye a las hipótesis y variables centrales?

Nota: Obsérvese que las preguntas están planteadas para una respuesta dicotómica, pero podrían elaborarse para una respuesta ordinal. Por ejemplo: - ¿Qué tanta claridad posee el planteamiento?
5 Bastante claridad 4

Claridad aceptable

2

Poca claridad

1

Muy poca claridad

(O agregar un punto intermedio: Mediana claridad.)

17

Rubro: Revisión de la literatura.3 1) ¿Se utilizó la literatura para documentar la importancia del planteamiento? 2) ¿La estructura de la revisión de la literatura es clara? 3) ¿Se identificó una teoría o se integraron varias teorías? 4) ¿Se identificaron hipótesis potenciales por medio de la revisión de la literatura? 5) ¿Mediante la revisión de la literatura se ubicó el planteamiento dentro del campo de conocimiento en que está inserto? 6) ¿Por medio de la revisión de la literatura se identificaron variables claves para el planteamiento? 7) ¿Las conclusiones de la revisión de la literatura son claras? 8) ¿Se eligieron fuentes relevantes que demuestren conocimiento del planteamiento por parte del investigador? 9) ¿Se vincularon la referencias con el planteamiento del problema? (relación de la literatura con el estudio, tanto conceptual como metodológicamente). 10) ¿Las referencias son de actualidad? (recientes). 11) ¿Las referencias están basadas en estudios que obtuvieron datos empíricos? 12) ¿Las referencias se citan apropiadamente?

Rubro: Hipótesis y variables.4 1) ¿Se identificaron las variables de manera apropiada? (dependiente, independiente, de control, interviniente, etcétera). 2) ¿Las definiciones conceptuales son exactas o precisas?
3 4

Creswell (2005). Creswell (2005).

18

3) ¿Las definiciones conceptuales son claras? 4) ¿Las definiciones operacionales son precisas o exactas? 5) ¿Las definiciones operacionales son claras? 6) En experimentos: ¿se controlaron las variables independientes? (¿las de interés y las que se pretende controlar su influencia?).5 7) ¿Constituye la hipótesis una respuesta tentativa a la pregunta de investigación? (relación de la hipótesis con el planteamiento). 8) ¿La hipótesis sirve como guía para establecer el diseño de investigación? 9) ¿Existe claridad en la relación o relaciones entre las variables establecidas por la hipótesis?

Rubro: Diseño. 1) ¿Se identificó el diseño? (¿se señaló y especificó?). 2) ¿El diseño es apropiado de acuerdo con el planteamiento e hipótesis?

Rubro: Diseño en experimentos.6 1) ¿El estímulo fue implementado en un lugar apropiado? 2) ¿El estímulo o tratamiento fue administrado adecuadamente? 3) ¿El experimentador indicó los cambios que ocurrieron en la(s) variable(s) dependiente(s) como resultado de la manipulación o introducción de la(s) independiente(s)? (además: ¿explicó cómo ocurrieron tales cambios?). 4) ¿Los grupos eran inicialmente equiparables? (procedimiento de asignación de los participantes a los grupos). 5) ¿Durante el desarrollo del experimento se mantuvo la equivalencia inicial de los grupos? 6) Si no pudieron asignarse al azar, ¿se emparejaron?, ¿en cuáles variables se basó el emparejamiento? En el caso de grupos intactos,
5

Este criterio podría ser incluido en el rubro de diseño en experimentos. 6 Fischer (2005) ¿los grupos pueden equipararse?

19

variables se basó el emparejamiento? En el caso de grupos intactos, ¿los grupos pueden equipararse? 7) Si hubo preprueba, ¿se presentaron los resultados? 8) ¿El tiempo transcurrido entre la preprueba y la posprueba fue el adecuado? (para que se manifestaran los cambios en la dependiente o dependientes). 9) ¿Se incluyeron controles para evitar sesgos de las personas que manejaron los grupos en el experimento?

Hemos agregado algunos criterios que aplican exclusivamente a experimentos y en particular al control de las fuentes internas y externas, están basados en los conceptos de Campbell y Stanley (1966), Campbell (1975) y Mertens (2005, p. 302). A diferencia de los rubros y criterios anteriores (en los cuales las respuestas adecuadas deben ser positivas: “sí”), en los siguientes que se refieren a la validez interna, entre más respuestas negativas (no), la evaluación es más favorable. En los que tienen que ver con la validez externa, la evaluación favorable varía en cada caso.

Validez interna. 1. Historia: ¿Ocurrieron eventos que pudieron afectar los resultados? (además de la variable independiente o el tratamiento o tratamientos) 2. Maduración: ¿Se presentaron cambios biológicos o psicológicos en los sujetos participantes que pudieran afectar los resultados? (diferentes a aquellos asociados a la variable independiente o al tratamiento o tratamientos) 3. Administración de pruebas: ¿La preprueba pudo influir en forma significativa las respuestas a la posprueba y confundido los resultados reales? 4. Instrumentación: ¿Hay diferencias entre la(s) preprueba(s) y la(s) posprueba(s)? (obviamente no en las respuestas, sino en los instrumentos). 5. Regresión: ¿Se utilizaron grupos extremos? 6. Selección: ¿Los grupos difieren aparte de la(s) variable(s) independiente(s) o tratamiento(s)?
20

tratamiento(s)? 7. Mortalidad experimental: ¿Varios participantes abandonaron el experimento? 8. Selección-maduración: ¿Estuvieron la selección y asignación de sujetos a los grupos basadas en características biológicas o psicológicas de la muestra? 9. Difusión de tratamientos experimentales: ¿Participantes de distintos grupos pudieron haber comentado sobre las condiciones experimentales? 10. Rivalidad-desmoralización-compensación: ¿Alguno de los grupos realizó esfuerzos adicionales para lograr mejores resultados?, ¿alguno de los grupos mostró desmoralización durante el experimento?, ¿se les proporcionaron recursos o beneficios adicionales a algún grupo que pudieran ser conocidos por miembros de otros grupos?

Validez externa. 1. ¿El tratamiento experimental fue descrito de manera detallada y específica? Respuesta adecuada o correcta: Sí. 2. ¿Se utilizaron diferentes tratamientos múltiples?, ¿interfirieron entre sí?, ¿la secuencia de tratamientos provocó efectos que son identificados y se puede saber cómo afecto cada tratamiento? Las respuestas adecuadas a las dos primeras preguntas pueden ser “sí” o “no”, dependiendo de la naturaleza del experimento. A veces una opción será la adecuada y otras no. Pero la respuesta correcta a la tercera pregunta es “sí”. 3. ¿Operó el efecto Hawthorne? Respuesta adecuada o correcta: No. 4. ¿Los resultados pudieron haber sido influidos por ser novedoso(s) el(los) tratamiento(s) experimental(es) o por interrumpir la actividad normal de los participantes? Respuesta correcta: No. 5. ¿El experimentador influyó de manera significativa en los participantes y sus respuestas?, ¿su papel fue más allá de lo planeado? Respuestas correctas: No. 6. ¿Se presentó una sensibilización notoria o significativa en los sujetos por efectos de prepruebas y pospruebas en sus respuestas? Respuesta adecuada: No. 7. ¿Se presentó alguna interacción entre los efectos del tratamiento y otros factores que pudieran afectar los resultados del estudio y su aplicación a situaciones no experimentales? Respuesta correcta: No.
21

situaciones no experimentales? Respuesta correcta: No. 8. ¿Los resultados del experimento se alteran dependiendo del tipo de instrumento de medición utilizado? Respuesta correcta: No. 9. ¿Influye el periodo de tiempo comprendido entre el tratamiento y la posprueba en los resultados? La respuesta adecuada depende de si se planteó la hipótesis de un efecto a corto, mediano o largo plazo; así como, si el periodo de tiempo es una variable independiente de interés. 10. ¿Se administró el (los) tratamiento(s) de acuerdo con lo planeado? Respuesta correcta: Sí.

A partir de este rubro, la mayoría de las respuestas a las preguntas debe ser afirmativa (“sí”).

Rubro: Muestra.7 1) ¿Existe congruencia entre el enfoque y la muestra? 2) ¿Existe congruencia entre el planteamiento y la muestra? 3) ¿Existe congruencia entre el diseño y la muestra? 4) ¿El método de muestreo es riguroso?, ¿el procedimiento de selección de los casos o unidades fue adecuado?, ¿se justificó? (rigor del método de muestreo). 5) ¿El tamaño de muestra es el adecuado?8 (el cual depende del nivel de confianza al calcular el tamaño de muestra, 95% como mínimo). 6) ¿La muestra representa a la población? (representatividad de la muestra: grado de error, comparación de variables demográficas de la muestra con las de la población –la muestra debe tener una distribución similar a la población en variables como género, edad, ocupación, nivel socioeconómico, entre otras–). 7) ¿Se detectaron los casos de interés de acuerdo con el planteamiento?
7 8

Creswell (2005), Mertens (2005) y Corbetta (2003). Recordemos que entre mayor es el tamaño de muestra los resultados tienen mayor probabilidad de ser estadísticamente significativos.

22

8) ¿La muestra tiene fortalezas?, ¿cuáles? (número de fortalezas de la muestra). 9) ¿La muestra tiene debilidades?, ¿cuáles? (número de debilidades de la muestra) (La respuesta es negativa, un “sí” sería desfavorable). 10) ¿Se evitaron errores de selección? 11) ¿Hubo casos o personas que fueron seleccionados(as) en la muestra y no participaron en el estudio? (pregunta cuyo “sí” es desfavorable). Cuando la respuesta resulta desfavorable debe justificarse: ¿por qué no participaron en la investigación? 12) ¿Hubo casos o participantes que abandonaron el estudio? (pregunta cuyo “sí” es desfavorable). Cuando la respuesta resulta desfavorable debe justificarse: ¿por qué abandonaron la investigación?

Rubro: Procedimientos (incluyendo recolección de los datos). 1) ¿Se solicitaron los permisos o autorizaciones necesarias para recolectar los datos? (si se requerían). 2) ¿Se especificó quién o quiénes recolectaron los datos, cómo los recabaron, dónde y cuándo fueron obtenidos? 3) ¿Se incluyeron controles para evitar sesgos de los encuestadores? (en encuestas). 4) ¿Se evitaron sesgos provocados por el investigador?

Rubro: Instrumento(s).9 1) ¿El instrumento o instrumentos son apropiados para los propósitos del estudio? 2) ¿El instrumento o instrumentos son apropiados para el tipo de datos e información que se requiere para el estudio? (¿son la mejor manera de obtener la información necesaria?).

9

Bostwick y Kyte (2005) y Fischer (2005).

23

3) ¿El instrumento o instrumentos son apropiados de acuerdo con las características de los participantes? (por ejemplo, se debió tomar cuenta si eran analfabetos o alfabetos, mujeres u hombres, o de ambos géneros, nivel socioeconómico, etcétera). 4) ¿Se efectuó una prueba piloto? (¿fue satisfactoria?). 5) ¿Se determinó evidencia sobre la confiabilidad?, ¿fue satisfactoria? 6) ¿Se determinó evidencia sobre la validez de contenido?, ¿fue satisfactoria? 7) ¿El dominio de contenido de las variables medidas se especificó? 8) ¿El dominio de contenido de las variables medidas resulta claro? 9) ¿La elección de los ítems es lógica? 10) ¿Se determinó evidencia sobre la validez de criterio concurrente?, ¿fue satisfactoria? (¿se compararon los datos obtenidos o resultados contra un criterio externo actual?). 11) ¿Se determinó evidencia sobre la validez de criterio predictivo?, ¿fue satisfactoria? (¿se compararon los datos obtenidos o resultados contra un criterio externo futuro?). 12) ¿Se hizo análisis convergente-discriminante?, ¿fue satisfactorio? 13) ¿Se determinó evidencia sobre la validez de constructo?, ¿fue satisfactoria? (¿se efectuó análisis de factores?). 14) ¿El instrumento demostró consistencia interna? 15) ¿Las personas que recolectaron los datos se encontraban calificadas para tal tarea? 16) ¿El grado de estandarización del instrumento o instrumentos para recabar los datos fue elevado? 17) ¿El investigador utilizó diversos instrumentos para medir las variables? (triangulación de métodos de recolección o como los autores siempre hemos denominado “multimétodos”).

24

Rubro: Análisis.10 1) ¿Los análisis son pertinentes o apropiados para el planteamiento e hipótesis desarrolladas? 2) ¿Los análisis son pertinentes o apropiados para el nivel de medición de las variables involucradas? 3) ¿Los análisis son pertinentes o apropiados al diseño? 4) ¿La unidad de análisis es adecuada? 5) ¿Los análisis son suficientes? (cantidad y calidad). 6) ¿Se cubrieron diferentes ángulos del análisis? 7) ¿Se presentaron los análisis completos de todas las hipótesis? (que no aplicaría a reportes breves como artículos de revistas, en cuyo caso podría cuestionarse: ¿se presentaron los análisis más relevantes vinculados con el planteamiento e hipótesis?). 8) ¿Se evitaron errores en el tratamiento de los datos?

Rubro: Resultados.11 1) ¿Se encontró significancia estadística en la(s) prueba(s) de hipótesis? (¿en qué niveles?). De no resultar significativos los valores de las pruebas estadísticas, ¿se explicaron razones?, ¿se justificó el hecho? 2) ¿Se interpretaron correctamente las pruebas de significancia? 3) ¿Los resultados están adecuadamente representados en tablas y figuras? 4) ¿Los resultados responden al planteamiento del problema e hipótesis?

Rubro: Discusión.12 1) ¿Los resultados y descubrimientos aportan a alguna teoría o conceptualización?

10 11 12

Bostwick y Kyte (2005), Creswell (2005), Wiersma y Jurs (2005). Creswell (2005) y Mertens (2005). Creswell (2005).

25

2) ¿Los resultados y descubrimientos ayudan a resolver un problema? 3) ¿Los resultados y descubrimientos aportan metodológicamente algo? 4) ¿Las interpretaciones son razonablemente lógicas? 5) ¿Las implicaciones están definidas? 6) ¿Las implicaciones resultan claras? 7) ¿La discusión es convincente para los usuarios? 8) ¿Se hicieron predicciones en el estudio? 9) ¿Fueron exactas tales predicciones? 10) ¿Por medio de los resultados se eliminaron posibles explicaciones rivales? 11) ¿Las conclusiones se encuentran vinculadas al planteamiento, revisión de la literatura (marco teórico) e hipótesis? 12) ¿Se reconocieron las limitaciones del estudio? 13) ¿Es posible replicar el estudio?

Rubro: Reporte en general.13 1) A lo largo de todo el documento, ¿se citaron adecuadamente las referencias? 2) ¿El texto es legible? 3) ¿El texto es ameno? 4) ¿La ortografía es aceptable? 5) ¿El tono es el apropiado? (no emotivo). 6) ¿Hay progresión en las ideas?

Rubro: Difusión. 1) ¿Se difundió en varios foros? (congresos, publicaciones, etcétera). 2) ¿Se generaron varios subproductos? 3) ¿Los resultados se utilizaron para promover el bien común?, ¿los resultados se utilizaron para generar conocimiento?, ¿los resultados se utilizaron para resolver un problema? (alguna respuesta debería ser positiva).

13

Mertens (2005).

26

Rubro: Financiamiento de la investigación. 1) ¿Es legal el financiamiento? 2) ¿Los resultados se encuentran sujetos al financiamiento? (¿si se obtenían ciertos resultados el financiamiento no operaría? (una respuesta positiva es inconveniente para la credibilidad del estudio).

Investigación cualitativa Rubro: Título. 1) ¿Refleja el planteamiento final? 2) ¿Refleja el trabajo completo realizado?

Rubros generales.14 1) ¿El investigador manifiesta honestidad? 2) ¿Los participantes demuestran o manifiestan honestidad a lo largo del estudio? 3) ¿El investigador demuestra autenticidad? 4) ¿Los participantes demuestran o manifiestan autenticidad a lo largo del estudio? 5) ¿El estudio agrega información novedosa? (por ejemplo, llenar huecos de conocimiento u obtener perspectivas internas “frescas”).

Rubro: Planteamiento del problema.15 1) ¿Las preguntas de investigación son claras? 2) ¿Las preguntas de investigación son congruentes con las características del diseño de investigación? 3) ¿Se especificó con claridad el paradigma básico que guía a la investigación?
14 15

Creswell (2005). Franklin y Ballau (2005), Mertens (2005), Creswell (2005), Álvarez-Gayou (2003), y Miles y Huberman (1994).

27

4) ¿Se especificó con claridad el marco interpretativo que guía a la investigación? (feminismo, etnografía clásica, etcétera). 5) ¿Demostramos que el planteamiento es significativo o importante?

Rubro: Papel del investigador. 1) ¿Se especificó el papel del investigador en todo el estudio? 2) ¿El investigador conoció su papel como observador? (¿estuvo consciente?)

Rubro: Relación investigador-participantes.16 1) ¿El investigador logró empatía con los participantes? (Autoevaluación). 2) ¿El investigador demuestra que logró tal empatía? 3) ¿El investigador se ganó la confianza de los participantes? (Autoevaluación). 4) ¿El investigador demuestra que se ganó la confianza de los participantes? 5) ¿Se agradeció a los participantes por su colaboración en el estudio?

Rubro: Revisión de la literatura. 1) ¿Se utilizó la literatura para documentar la importancia del planteamiento? 2) ¿La literatura fue contrastada con los resultados del estudio? 3) ¿Las referencias son de actualidad? (recientes). 4) ¿Las referencias están basadas en estudios que obtuvieron datos empíricos? 5) ¿Las referencias se citaron apropiadamente?

16

Creswell (2005).

28

Rubro: Inmersión general en el ambiente (proceso completo). 1) ¿El investigador obtuvo permiso para ingresar al ambiente y estudiarlo? 2) ¿Se reportó cómo se tuvo acceso al ambiente? 3) ¿Se tuvo acceso completo al ambiente? 4) ¿Se describió detalladamente el ambiente? 5) ¿El acceso al ambiente fue lo más meticuloso y sigiloso posible? 6) ¿El acceso al ambiente fue lo menos obstrusivo posible?

Rubro: Inmersión inicial.17 1) ¿La inmersión inicial logró que el investigador se enfocara en los conceptos fundamentales del planteamiento? 2) ¿La inmersión inicial contribuyó a mejorar el planteamiento original?

Rubro: Muestra.18 1) ¿Se detectaron los casos de interés de acuerdo con el planteamiento? 2) ¿El tipo de muestra es congruente (acorde) con el planteamiento y el enfoque elegido? 3) ¿La muestra tiene fortalezas? (¿cuáles?) 4) ¿La muestra tiene debilidades? (¿cuáles?) (negativa, un “sí” es desfavorable). 5) ¿Hubo casos o personas que habían sido seleccionados(as) en la muestra y no participaron en el estudio? (pregunta cuyo “sí” es desfavorable). Cuando la respuesta resulta desfavorable debe justificarse: ¿por qué no participaron en la investigación? 6) ¿Hubo casos o participantes que abandonaron el estudio? (pregunta cuyo “sí” es negativo, implica desfavorable). Cuando la respuesta resulta desfavorable debe justificarse: ¿por qué abandonaron la investigación?
17 18

Creswell (2005). Mertens (2005).

29

7) ¿El o los perfiles de la muestra están descritos con suficientes detalles? (género, edad, estado civil, ingresos, nivel educativo, entre otros). 8) ¿El perfil de los participantes es el que se había concebido? ¿Por qué sí o por qué no? 9) ¿Se encuentran representadas todas las voces? (Recordemos la premisa de evitar silenciar voces). 10) ¿Se excluyeron mujeres u hombres de la investigación? ¿es justificable su exclusión? (por ejemplo, depresión posparto es por naturaleza necesario). Una respuesta injustificada resulta desfavorable. 11) ¿Se obtuvo la diversidad de casos requerida? 12) ¿Se saturaron las categorías relativas al planteamiento del problema?

Rubro: Recolección en general.19 1) ¿El instrumento o instrumentos son apropiados para el tipo de datos e información que se requiere para el estudio? 2) ¿El instrumento o instrumentos estaban diseñados de acuerdo con las características de los participantes? (por ejemplo, tomar en cuenta si eran analfabetos o alfabetos, mujeres u hombres, o de ambos géneros, nivel socioeconómico, entre otros). 3) ¿Los participantes pudieron expresarse libremente? 4) ¿Hubo rigor en la recolección de los datos? (sistematización). 5) ¿Se tuvieron diferentes fuentes de datos? (¿múltiples?, ¿triangulación?) 6) ¿Los datos son extensos? 7) ¿El periodo fue lo suficientemente largo para recolectar los datos necesarios de acuerdo con el planteamiento? 8) ¿Resultan abundantes y significativas las descripciones del proceso de recolección de los datos? 9) ¿Las fases de la recolección fueron las adecuadas de acuerdo con el planteamiento y ambiente?

19

Creswell (2005) y Mertens (2005).

30

10) ¿Se cuenta con evidencia directa de actores? (¿evidencia de testigos directos?). 11) ¿Se encontraron significados?, ¿cuáles? 12) ¿Coinciden entre sí las diversas fuentes en cuanto a la cronología de hechos? 13) ¿Coinciden entre sí las diversas fuentes en cuanto a las descripciones de los hechos? 14) ¿Coinciden entre sí las diversas fuentes en cuanto a las causas y consecuencias de los hechos? (particularmente en lo referente al planteamiento del problema).

Rubro: Notas (anotaciones). 1) ¿Se elaboraron notas completas? 2) ¿Las notas fueron profundas? (¿captaron las emociones, vivencias y creencias de los participantes?). 3) ¿Las notas incluyeron los conceptos esenciales del planteamiento? 4) ¿Se codificaron las notas? 5) ¿Se alcanzó la saturación de categorías en las anotaciones?

Rubro: Análisis de los datos.20 1) ¿Se tuvieron múltiples niveles de análisis? 2) ¿Son abundantes y significativas las descripciones de los procesos de análisis de los datos? 3) ¿Las fases del análisis fueron las adecuadas de acuerdo con el planteamiento y el ambiente? 4) ¿Cada categoría, tema y/o patrón está apoyada(o) en los datos? 5) ¿El fenómeno o planteamiento se analizó desde diversas perspectivas?

20

Creswell (2005).

31

Rubro: Dependencia (confiabilidad).21 Recordatorio de la definición: Grado en que diferentes investigadores que recolecten datos similares en el campo y efectúen los mismos análisis, generan resultados equivalentes. 1) ¿Se implantaron diversas estrategias para generar dependencia? 2) ¿Se describió explícitamente el papel y estatus del investigador dentro del ambiente o contexto? 3) ¿Los resultados y descubrimientos muestran un paralelismo significativo entre fuentes de datos? (¿los resultados son congruentes al compararlos entre diversas fuentes?). 4) ¿Las categorías y temas fueron inducidas(os) apropiadamente por los participantes? 5) ¿Las categorías y temas se encuentran claramente especificadas(os)? 6) ¿Las estructuras de categorías son lógicas? (en caso negativo: ¿está justificado que sean ilógicas?). 7) ¿Las decisiones sobre la codificación y categorización están justificadas? (¿se explican y demuestran?). 8) ¿Las reglas de codificación se aplicaron coherentemente (entre unidades e investigadores, si es el caso)? 9) ¿Los datos fueron recolectados por medio de un rango completo de ambientes, tiempos y participantes apropiados de acuerdo con el planteamiento? 10) ¿Se involucraron varios investigadores en el campo? (triangulación entre investigadores); y si así fue: ¿siguieron el mismo protocolo e instrucciones para recolectar los datos (incluyendo el instrumento o instrumentos)? 11) ¿Se efectuaron chequeos de codificación entre investigadores?, ¿mostraron un alto de nivel de acuerdo o concordancia en unidades, categorías y temas? 12) ¿Los resultados fueron validados por distintos investigadores? y más riguroso: ¿los resultados fueron validados por distintos investigadores de diferentes edades, género y otras características que pudieran introducir sesgos?
21

Mertens (2005), Franklin y Ballau (2005), Creswell (2005), y Miles y Huberman (1994).

32

13) ¿Se hicieron verificaciones sobre la calidad de los datos? (¿cuáles?). 14) ¿Los investigadores convergieron en lugares, tiempos e instancias donde se esperaba que estuvieran? 15) En el campo, ¿se hicieron revisiones de pares o colegas? 16) ¿Los significados generados son creíbles para los participantes? 17) ¿El entendimiento generado resulta creíble para los participantes? 18) ¿Los resultados se encuentran fundamentados en los datos? 19) ¿Las inferencias son lógicas? 20) ¿Las decisiones respecto a la recolección y el análisis están justificadas? (justificación metodológica). 21) En el análisis, ¿se hicieron auditorías de pares?

Rubro: Credibilidad (validez interna).22 Recordatorio de la definición: Se refiere a si el investigador ha captado el significado completo y profundo de las experiencias de los participantes, particularmente de aquellas vinculadas con el planteamiento del problema. 1) ¿Se utilizaron o desarrollaron estrategias para generar credibilidad? 2) ¿Los datos de diferentes fuentes fueron recolectados en el mismo contexto o ambiente? 3) ¿En todos los casos de la muestra se obtuvo la información completa y detallada requerida? 4) ¿Se registraron todos los datos? 5) ¿Se les pidió a todos los participantes o a la mayoría que proporcionaran retroalimentación sobre el estudio? 6) ¿El investigador autoevaluó el efecto de presencia en el ambiente? 7) ¿El investigador autoevaluó si sus sesgos y tendencias influyeron o no los resultados? 8) ¿El investigador autoevaluó sus bitácoras y notas? 9) ¿Se capturaron o registraron los cambios en el ambiente? 10) ¿Se introdujeron los sesgos o tendencias del investigador? (no en un sentido cuantitativo sino general), ¿se explicaron tales sesgos?, ¿se justificaron?
22

Franklin y Ballau (2005), y Miles y Huberman (1994).

33

justificaron? 11) ¿Los resultados se encuentran fundamentados en los datos? (Este criterio ya se había mencionado, afecta la dependencia y la credibilidad). 12) ¿Coinciden los resultados con la documentación existente y estudios previos? (en caso negativo, ¿es justificable?) 13) ¿Existe correspondencia entre la manera como los participantes perciben los conceptos sociales y la manera como el investigador capta, retrata y describe sus puntos de vista? 14) ¿Se incrementó la credibilidad mediante una estancia sustancial y prolongada en el campo? 15) ¿Se incrementó la credibilidad mediante una observación persistente y sistemática? 16) ¿Se incrementó la credibilidad con la recolección de datos por pares? (por ejemplo, en una entrevista al estar presentes dos investigadores). 17) ¿Se incrementó la credibilidad al analizar casos negativos? 18) ¿Se incrementó la credibilidad por medio de subjetividad progresiva? 19) ¿Se incrementó con la evaluación de resultados particulares con los participantes? (chequeo con participantes). 20) ¿Se incrementó triangulando datos? 21) ¿Se aumentó la credibilidad triangulando métodos? 22) ¿Son abundantes (completas) y significativas las descripciones del ambiente? 23) ¿Son abundantes (completas) y significativas las descripciones de los sucesos o hechos? 24) ¿Son abundantes (completas) y significativas las descripciones de los participantes? 25) ¿Los resultados tienen sentido o se muestran convincentes para los participantes? 26) Si hubo triangulación entre métodos de recolección de datos o fuentes de datos: ¿la triangulación o comparación entre métodos complementarios o fuentes de datos generalmente produce conclusiones convergentes? 27) ¿Los resultados mantienen coherencia interna?

34

28) ¿Se identificaron las áreas de incertidumbre? 29) ¿Los datos presentados se encuentran vinculados a categorías de otros estudios similares o teoría emergente? 30) ¿Se buscó evidencia negativa o contraria a los resultados? 31) ¿Se consideraron activamente explicaciones rivales? 32) ¿Los resultados y descubrimientos han recibido réplicas en diferentes elementos de la base de datos? 33) ¿Las conclusiones fueron consideradas precisas y verdaderas por los participantes y/o informantes originales?

Rubro: Transferencia o validez externa.23 1) ¿Los datos presentados se encuentran vinculados a categorías de otros estudios similares o teoría emergente? (Este criterio fue considerado también en la credibilidad). 2) ¿Los resultados presentados son congruentes o están conectados a otros estudios previos y a la teoría generada por éstos? 3) ¿Los resultados han recibido réplicas en otros estudios para robustecer su transferencia? 4) ¿Los procedimientos y resultados descritos en las conclusiones son lo suficientemente genéricos para aplicarse en ambientes similares? 5) ¿Las características de la muestra original de personas, contextos y/o procesos se han descrito completamente para permitir comparaciones con otras muestras? 6) ¿Se examinaron obstáculos y amenazas posibles para poder comparar los resultados con otras muestras? 7) ¿La muestra es lo suficientemente diversa para encontrar una aplicabilidad mayor? 8) ¿Se definieron las fronteras del alcance y aplicabilidad del estudio? 9) ¿Los resultados incluyen descripciones completas y suficientes para que el lector pueda valorar la posibilidad de transferirlos o adecuarlos a su propio contexto u otros ambientes? 10) ¿Se logró un balance entre las perspectivas interna y externa del investigador?
23

Franklin y Ballau (2005) y Henwood (2004).

35

11) ¿Las secuencias narrativas son transparentes y claras? 12) ¿Lectores del reporte con perfiles similares a los participantes considerarían que los resultados son congruentes con sus experiencias? (verificación ulterior). 13) ¿Los lectores (principalmente otros investigadores) pueden reconstruir el análisis? 14) ¿Es posible replicar el estudio?

Rubro: Historias orales.24 1) ¿Las historias orales de los participantes son creíbles? 2) ¿Las historias orales de los participantes son equilibradas? 3) ¿Las historias orales de los participantes son completas?

Rubro: Entrevistas.25 1) ¿Las condiciones de las entrevistas permitieron a los participantes explayarse libremente? 2) ¿Las condiciones de las entrevistas permitieron a los participantes concentrarse en sus respuestas?

Rubro: Diseño. 1) ¿Se señaló y especificó el diseño? 2) ¿El diseño es el adecuado de acuerdo con el planteamiento? 3) ¿El diseño es el adecuado de acuerdo con la inmersión en el ambiente? 4) ¿El diseño es el adecuado de acuerdo con la evolución del trabajo de campo?

24 25

Mertens (2005). Cuando se revisó el tema de entrevistas cualitativas se consideraron varios criterios, a los cuales se podrían agregar los siguientes de Mertens (2005).

36

Rubro: Resultados.26 1) ¿Se expresó la realidad construida por los participantes? 2) ¿Los resultados son realistas? 3) ¿Los resultados son aceptables? 4) ¿Los descubrimientos están enraizados o ligados con los datos? (Este criterio ha sido expresado en diferentes rubros, pero se encuentra vinculado a todo el proceso cualitativo). 5) ¿Los resultados son comprensibles o claros para el lector? 6) ¿Los métodos particulares utilizados son coherentes con una estrategia más amplia? 7) ¿Se tomaron en cuenta varias perspectivas para justificar las interpretaciones?

Rubro: Discusión.27 1) ¿Las premisas del estudio son coherentes con el enfoque? 2) ¿Se demostró mediante la discusión que el planteamiento fue significativo o importante? 3) ¿Las conclusiones son prematuras o cuentan con elementos sólidos para su desarrollo? (La respuesta debe ser: Sí cuentan con elementos sólidos). 4) ¿Las conclusiones están fundamentadas en los datos? 5) ¿Las conclusiones están fundamentadas en los resultados? 6) ¿Mediante los resultados se eliminaron posibles explicaciones rivales? 7) ¿Las interpretaciones se derivaron de manera analítica? 8) ¿Se demostró que se reconstruyó cada caso para ser analizado? 9) ¿Se tuvieron múltiples perspectivas? 10) ¿Las conclusiones se encuentran vinculadas al planteamiento y revisión de la literatura (marco teórico)? 11) ¿Se reconocieron las limitaciones del estudio?

26 27

Henwood (2004). Mertens (2005) y Henwood (2004).

37

Rubro: Reporte.28 1) ¿Existe una relación evidente entre las categorías y los datos? (unidades o fragmentos), ¿emergieron las categorías de los datos? 2) ¿Se logró vincular conceptualmente a las categorías en temas? 3) ¿La teoría producida funciona? (¿la teoría emergente permite un entendimiento del fenómeno estudiado?). 4) ¿Se requieren más datos o fueron suficientes para generar teoría? (La respuesta favorable es: Sí, fueron suficientes los datos). 5) ¿Se desarrolló un modelo para conceptualizar el planteamiento? 6) ¿Se respondió satisfactoriamente al planteamiento?

(Los siguientes criterios serían propios de cada diseño y se agregarían a los anteriores).

Rubro: Diseños etnográficos.29 1) ¿Se identificó al grupo o cultura?, ¿se definió y especificó? 2) ¿Se detectaron patrones de la cultura, grupo o evento analizada(o)? 3) ¿Se comprendieron los patrones culturales? 4) ¿El estudio contribuyó a conocer más al grupo o cultura analizado(a)? 5) ¿El investigador refleja en el reporte su papel en el estudio? 6) ¿En la interpretación se describen las categorías y temas? 7) ¿Se ilustraron las categorías más importantes con segmentos de los datos?

Rubro: Diseños narrativos.30 1) ¿Se concentró el estudio en experiencias individuales? 2) ¿Se respetaron las voces de las fuentes creíbles?
28 29 30

Creswell (2005). Creswell (2005). Creswell (2005).

38

3) ¿Se triangularon datos? 4) ¿Se exploró el pasado, presente y futuro? 5) ¿Se describió el contexto ampliamente? 6) ¿Se ilustraron las categorías más importantes con segmentos de los datos?

Rubro: Diseños de investigación-acción. 1) ¿Se detectó al menos una problemática? 2) ¿Se abordó la problemática en el entorno de los participantes? 3) ¿Se realizó un diagnóstico completo de la problemática? 4) ¿Se involucró en todo el estudio a los participantes? (grupo, organización o comunidad). 5) ¿La interacción entre el investigador y los participantes fue constante? 6) ¿La interacción entre el investigador y los participantes fue fructífera? 7) ¿El investigador y los participantes interactuaron constantemente con los datos? 8) ¿Participaron activamente las personas del grupo, organización o comunidad involucradas en el estudio? 9) ¿Se formuló un plan o programa para resolver el problema o introducir el cambio? 10) ¿Se implementó el plan o programa? 11) ¿Se evaluaron los resultados? 12) ¿Se obtuvo retroalimentación sobre los resultados preliminares? 13) ¿Se obtuvo retroalimentación sobre los resultados finales? 14) ¿Se transformó positivamente la realidad de los participantes? 15) ¿Se resolvió al menos un problema o se mejoró al menos una práctica?

39

Rubro: Diseños de teoría fundamentada (diseño sistemático). 1) ¿Se produjo una teoría fundamentada? 2) ¿De los datos obtenidos surgieron hipótesis o proposiciones teóricas? 3) ¿El modelo producido incluye condiciones causales? 4) ¿El modelo generado abarca acciones e interacciones? 5) ¿El modelo emergente contiene consecuencias? 6) ¿El modelo producido incluye estrategias? 7) ¿El modelo generado contiene condiciones contextuales? 8) ¿El modelo emergente abarca condiciones intervinientes? 9) ¿La categoría central es la más importante? (¿todas o la mayoría de las demás categorías se vinculan a ella?) 10) ¿Las categorías del modelo o teoría son las que aparecen con mayor frecuencia en los datos? 11) ¿La teoría capta la esencia del planteamiento?

Investigación mixta Los criterios para la investigación mixta se encuentran en proceso de desarrollo, los autores estamos trabajando en ellos, en cuanto esté lista una propuesta inicial, se incluirá en la página web de esta cuarta edición.

40

You're Reading a Free Preview

Descarregar
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->