Você está na página 1de 16

Pilares de la investigación científica

La investigación en las Ciencias del Comportamiento, las Ciencias Sociales y las


Ciencias de la Salud se construye sobre tres pilares básicos (Kline, 2011; Pedhazur y
Smelkin, 1991):

 La MEDIDA se refiere a la identificación y definición de las variables


(observables o latentes) objetode investigación y la generación de datos empíricos
(numéricos o categóricos) que son la entrada de los procedimientos de análisis
estadístico.
 El DISEÑO es un plan estructurado para abordar un problema de investigación
con el objeto de obtener resultados rigurosos, libres de sesgo y generalizables, con
el menor esfuerzo posible.
 El ANÁLISIS concierne a la estimación de parámetros y la prueba de hipótesis
estadísticas acerca del objetivo de investigación planteado.

Fases del proceso de investigación


Siguiendo al profesor Arnau (1990, pp. 12-18), se describe el proceso de investigación
distinguiendo tres fases o niveles en su aplicación, en correspondencia con las secciones
del informe de investigación recomendados por la APA:

 NIVEL TEÓRICO-CONCEPTUAL, donde se introduce el problema de


investigación y se delimitan los objetivos e hipótesis (primarias y secundarias)
susceptibles de comprobación empírica en relación con el marco conceptual
donde se generó el problema.
 NIVEL TÉCNICO-METODOLÓGICO, donde se describe el diseño de la
investigación, incluyendo la definición de las variables experimentales
(independiente/s y dependiente/s) y de las variables extrañas o covariantes
(observadas y no observadas), los procedimientos de control de las variables
extrañas, la selección y características de los sujetos participantes junto con el
tratamiento ético de los mismos, el proceso de asignación de participantes a
grupos, los instrumentos usados y el procedimiento específico seguido para la
recogida de los datos empíricos.
 NIVEL ESTADÍSTICO-ANALÍTICO, donde se utilizan los procedimientos
descriptivos e inferenciales del análisis estadístico o se ajustan modelos
estadísticos (enfoque del modelado estadístico) con el objeto de realizar
inferencias de tipo causal o asociativo sobre los datos empíricos recogidos. La
normativa APA recomienda que, además de los resultados de las pruebas
estadísticas para los efectos observados, se incluyan también medidas de
magnitud del efecto, intervalos de confianza y una descripción (y a ser posible,
tratamiento) de los datos perdidos (missing data ).

Existe de hecho una última fase, que retorna de nuevo a la primera (el nivel
conceptual), donde los resultados obtenidos se comparan con los objetivos planteados y
la/s hipótesis (primarias y secundarias) de investigación, articulándolos dentro de la teoría
que generó el problema. Es imprescindible que la interpretación de los resultados tenga
en cuenta todas las limitaciones detectadas en el estudio.

Estrategias para la investigación empírica


Pueden distinguirse tres estrategias claramente diferenciadas para realizar
investigación empírica en Psicología (véase Ato et al., 2013b, Light et al., 1990), donde
cada una de las estrategias se caracteriza por formular hipótesis específicas, por generar
tipos de diseño determinados y por la consecución de cierto grado de control:

La estrategia manipulativa configura un conjunto de los diseños que son típicos de


la investigación experimental, pues se utilizan alguna forma de hipótesis causal, que se
formula genéricamente con el argumento ’X es la causa de Y’. Se requieren al menos dos
grupos de unidades experimentales, un grupo que recibe el tratamiento (también llamado
GRUPO EXPERIMENTAL o GE) y otro que no lo recibe o al que se administra un
fármaco alternativo (llamado GRUPO CONTROL o GC).

Las estrategias asociativas y descriptivas conforman un conjunto de los diseños que


son típicos de la investigación no experimental. La primera utiliza alguna forma de
hipótesis de covariación, que se formulan con el argumento ’X se relaciona
funcionalmente con Y ’, mientras que en la segunda, en general, no se formulan hipótesis
(causales o de covariación), sino que se limitan a describir las características de las
variables que son objeto de interés.

Unidad experimental, unidad de observación y unidad de muestreo


 Unidad experimental, que es el elemento más pequeño al que puede asignarse un
tratamiento.
 Unidad de observación, es simplemente el elemento más pequeño sobre el que se
registra (o se mide) la respuesta.
 Unidad de muestreo, que es un elemento seleccionado de una población de origen.

Inferencia causal
Se somete a prueba una hipótesis que asume una relación causa-efecto entre al
menos un Tratamiento o programa de intervención (la supuesta causa) y una Respuesta
(el supuesto efecto).

Kline (2009) sintetiza la propuesta de varios autores y señala que deben cumplirse
tres condiciones antes de poder hablar de causalidad:

 Antecedencia temporal: la supuesta causa debe ocurrir antes que el supuesto


efecto.
 Asociación: hay una covariación observable entre la presunta causa y el presunto
efecto.
 Aislamiento: no hay ninguna otra explicación posible (variables extrañas) sobre
la presunta relación entre la presunta causa y el presunto efecto.

El experimento como modelo de investigación


El diseño experimental típico posee dos propiedades distintivas esenciales, a saber:

 MANIPULACIÓN activa de (al menos) una variable independiente por parte del
investigador. La manipulación se entiende como facultad del investigador para
variar a voluntad los niveles de tratamiento (programa o intervención) que
representa la variable independiente.
 ALEATORIZACIÓN, o utilización de una regla de asignación aleatoria para
distribuir las unidades experimentales entre los niveles de tratamiento, evitando
la presencia de sesgos.

Para profundizar en las diferencias entre diseño experimental, cuasiexperimental y


no experimental, Judd y Kenny (1981a) han distinguido entre tres diferentes REGLAS
DE ASIGNACIÓN de unidades experimentales a los tratamientos:

 Regla de asignación aleatoria: las unidades experimentales se asignan al azar a los


grupos. En esta situación se asume que los diferentes grupos de unidades que
reciben los tratamientos son equivalentes antes de administrar el tratamiento.
 Regla de asignación no aleatoria, pero sí conocida: las unidades experimentales
se asignan a los tratamientos en función de una puntuación de corte (p.e., la
puntuación obtenida en un pretest). En este caso, los grupos no se asumen iguales,
pero la probabilidad de asignación de unidades experimentales, y por ende las
diferencias iniciales entre los grupos, se conoce perfectamente.
 Regla de asignación no aleatoria ni conocida: no se conoce, ni puede conocerse
con exactitud, cómo difieren entre sí los grupos de unidades antes de administrar
el tratamiento.

Estas reglas asumen la existencia de una variable de asignación, que representa una
probabilidad conocida e igual para todas las unidades experimentales (o sea, una
constante) en el caso (a), una puntuación de corte que representa la pertenencia a grupo
(o sea, una variable binaria) en el caso (b) y una variable extraña desconocida en el caso
(c).

Aunque se recomienda la aplicación de las dos etapas aleatorias en la investigación


experimental, la selección aleatoria se emplea sólo para extraer al azar un conjunto de
unidades experimentales de una población, mientras que la asignación aleatoria se utiliza
para distribuir al azar las unidades entre los dos grupos. Con la primera se persigue que
las unidades experimentales sean representativas de su población de origen, objetivo
fundamental de los diseños selectivos, y afecta en lo fundamental a la validez externa de
la investigación, pero no es común su aplicación en diseños experimentales. Con la
segunda se persigue que las unidades experimentales se distribuyan aleatoriamente entre
los grupos para asegurar la igualdad de los grupos ante de la administración del
tratamiento, evitando así los SESGOS DE SELECCIÓN, objetivo primario del diseño
experimental, y afecta en lo fundamental a la validez interna.

En el diseño experimental más simple, donde sólo hay un grupo de unidades


experimentales que recibe tratamiento (GE) y otro grupo que no lo recibe (GC), la
asignación aleatoria de unidades experimentales al GE y GC reparte de forma homogénea
las unidades experimentales entre los dos grupos antes de la administración del
tratamiento. Como consecuencia, es bastante probable (en particular si se dispone de un
tamaño muestral numeroso) equilibrar los grupos en todas las variables extrañas,
observables o no observables. Éste es un contexto óptimo para estimar efectos de
tratamiento libres de sesgo sistemático.

Técnicas de control de variables extrañas

En ocasiones el efecto de una variable extraña puede distorsionar sistemáticamente


los resultados en un grupo/tratamiento respecto de otro, produciendo entonces sesgo
sistemático, y en otras ocasiones puede afectar a la variación de la variable dependiente
incrementando la varianza de error, o sea, la variación no atribuible al efecto de la/s
variable/s independiente/s. Sesgo sistemático y error aleatorio pueden incluso actuar de
forma combinada, generando el peor de los escenarios posibles para interpretar un efecto
de tratamiento. De ahí la importancia de que el investigador sepa reconocer la presencia
de confundidores e introduzca técnicas de control apropiadas para corregir sus efectos.

Las técnicas de control de variables extrañas difieren en función de si los efectos de


tratamiento tienen naturaleza transversal (o sea, se estiman en una ocasión temporal
determinada), o longitudinal (o sea, se estiman a lo largo del tiempo). Hay tres técnicas
básicas de control de naturaleza transversal:

 ELIMINACIÓN de una variable extraña, que consiste simplemente en suprimirla


de la situación experimental.
 CONSTANCIA, que implica emplear un único Nivel de la variable extraña.
 EQUILIBRACIÓN, cuyo objeto es distribuir el efecto de las variables extrañas
entre los grupos.

La equilibración es la técnica de control más común para corregir o reducir el sesgo


de selección, o sea, la existencia de grupos no iguales antes de comenzar el tratamiento.
Hay dos formas básicas para intentar igualar el efecto de las variables extrañas entre los
grupos: mediante el control experimental, que son un amplio conjunto de técnicas que se
introducen durante la etapa de diseño de la investigación, o mediante el control
estadístico, que son técnicas de control que se introducen durante la etapa de análisis
estadístico de los datos.

La más importante técnica de control experimental es la ALEATORIZACIÓN, que


se asume tanto más efectiva cuanto mayor es el tamaño muestral y más objetiva es la
forma concreta de aplicarla. En el caso ideal, su principal virtud es la distribución de todas
las variables extrañas (observadas y no observadas) entre los grupos de tratamiento, no
afectando diferencialmente a un grupo respecto de otro. Su principal desventaja es que la
composición de los grupos mediante aleatorización usualmente genera grupos de
participantes muy heterogéneos.

Desgraciadamente, para muchos problemas de investigación no es aplicable o no es


ético aplicar la técnica de aleatorización. Si el investigador conoce qué variables extrañas
pueden estar interviniendo en tales casos, hay dos técnicas de control por equilibración
que pueden acaparar su atención para intentar reducir el error aleatorio y minimizar el
sesgo sistemático, a saber:

 BLOQUEO, que consiste en formar conjuntos homogéneos de participantes para


cada uno de los niveles de al menos una variable extraña y asignarlos después (de
forma aleatoria o no aleatoria) a las condiciones de tratamiento dentro de cada
bloque. Esta acción produce como resultado la introducción de la variable extraña
(categorizada) como un nuevo factor en el diseño de investigación. Si la
asignación de participantes de un conjunto homogéneo a los grupos es aleatoria el
diseño será experimental; si no es aleatoria, el diseño será cuasiexperimental
(siempre que sea el experimentador quien defina la naturaleza de los grupos) o
comparativo (si los grupos ya se han definido y el experimentador no tiene control
alguno sobre su producción).
 EMPAREJAMIENTO, que trata de conseguir, disponiendo de una muestra de
participantes para un grupo (p. ej., el GE), participantes con las mismas
características en un conjunto de variables extrañas para asignarlos a otro/s
grupo/s (p. ej., un GC). El emparejamiento es la técnica de control experimental
más versátil, porque se puede practicar tanto de forma individualizada (o sea,
emparejando caso a caso para formar los grupos) como de forma grupal o
generalizada (o sea, emparejando los grupos en su conjunto).

Sin embargo, a veces el control experimental no es posible o no se ha podido conseguir


un control efectivo. Cuando se utilizan grupos naturales, la única forma de
emparejamiento posible es el emparejamiento post-hoc (o sea, la constitución de un grupo
de control una vez que el tratamiento ha tenido lugar). Como alternativa al control
experimental, el control estadístico persigue el mismo objetivo que la equilibración, pero
utilizando procedimientos estadísticos para ajustar la desigualdad entre los grupos de
tratamiento. Las técnicas de control estadístico más relevantes son:

 Residualización, que consiste en controlar la influencia de al menos una variable


extraña conocida eliminando de la variable de respuesta lo que explica la variable
extraña. Se practica comúnmente con los coeficientes de correlación (y
determinación) parcial y semiparcial. Por ejemplo, R2Y X.Z es el coeficiente de
determinación parcial entre X e Y una vez que se ha eliminado de X y de Y el
efecto de Z, y R2Y (X.Z) es el coeficiente de determinación semiparcial entre X e Y
una vez eliminado de X, pero no de Y, el efecto de Z. La idea se generaliza a más
de una variable extraña.
 Ajuste de regresión mediante ANCOVA es la técnica de control estadístico más
usada. Consiste en introducir una (o más) variable/s extraña/s de naturaleza
numérica (continua o discreta), con el objeto de controlar su efecto eliminando la
varianza que explica de la variable de respuesta. La selección de las variables
extrañas y su relevancia como variables de control son la cuestión crucial para que
este procedimiento sea efectivo.

Validez de la investigación

La ventaja de la investigación experimental es la creación de unas condiciones


óptimas para posibilitar la inferencia causal. Su debilidad fundamental es el grado en que
se puede generalizar tal inferencia. Otras alternativas a la investigación no experimentales
se proponen lograr el máximo acercamiento posible a las propiedades de la investigación
experimental. Para valorar la calidad de la inferencia y el grado de generalización de la
misma, Shadish et al. (2002), desarrollando ideas inicialmente planteadas por Campbell
y Stanley (1963, 1966), y posteriormente elaboradas por Cook y Campbell (1979),
propusieron un esquema de la validez de la investigación que distingue cuatro tipos de
validez, los dos primeros relacionados con la validez de la inferencia causal y los dos
últimos con la generalización de la inferencia. El esquema de la validez se articula con
los tres pilares que consideramos entorno a las mismas cuestiones que un investigador
debe plantearse cuando realiza una investigación.

 Validez de la conclusión estadística: Se refiere esencialmente a dos inferencias


estadísticas relacionadas que pueden afectar a la relación entre las supuestas
variables causa y efecto, en concreto: 1) ¿covarían las variables causa y efecto?,
y 2) en caso de que covaríen, ¿cuál es la magnitud empírica de su covariación?

**Para la primera de las inferencias, se puede concluir de forma incorrecta que causa y
efecto covarían cuando de hecho no covarían (en cuyo caso se comete un error tipo I) o
concluir también incorrectamente que no covarían cuando de hecho sí lo hacen (en cuyo
caso se comete un error tipo II). Para la segunda de las inferencias, al obtener una
estimación de la covariación, se puede subestimar o sobreestimar la magnitud de la
covariación.
El medio más establecido de determinar si causa y efecto covarían es el contraste
de hipótesis, donde se compara una hipótesis nula contra una hipótesis alternativa y se
determina mediante una prueba estadística la probabilidad de rechazar la hipótesis nula
bajo el supuesto de que es verdadera. Por ejemplo, si se desea utilizar la prueba de t para
determinar si difieren las medias empíricas de dos grupos (GE y GC), la hipótesis nula
establece que la diferencia entre las medias es nula en la población de donde tales medias
empíricas se han extraido. La prueba produce un valor empírico del estadístico t (que se
asume distribuido según una distribución t de Student), y se acompaña de un argumento
de probabilidad (por ejemplo, p = .015), que es la probabilidad de que una diferencia
absoluta entre medias como la empíricamente obtenida haya ocurrido por azar en una
población donde se asume que la diferencia es nula.

Siguiendo una sugerencia de Fisher (1926), es común describir este resultado de


forma dicotómica, es decir, como estadísticamente significativo si p ≤ .05, o
estadísticamente no significativo si p > .05, dado un criterio prefijado de α = .05. Del
mismo modo se decide con otros criterios comúnmente aceptados (por ejemplo, el criterio
α =.01).

Una larga controversia ha existido en torno a las pruebas de significación, y la


elección de los criterios del .05 y del .01 para aceptar o rechazar hipótesis nulas es usual
dentro del enfoque NHST (Null Hypothesis Significance Testing’). Pero en lugar de
presentar un argumento de significación basado en criterios establecidos, actualmente se
prefiere presentar los resultados bajo la forma de tamaños de efecto e intervalos de
confianza en torno a los estimadores de los parámetros y los tamaños del efecto.

**Cabe notar que la conclusión estadísticamente significativo es un argumento que sólo


hace referencia a la probabilidad de una hipótesis, pero no a la relevancia práctica del
resultado obtenido. Todas las pruebas estadísticas se construyen utilizando como
numerador la diferencia observada (en el caso más simple, una diferencia de medias) y
como denominador el error típico de la diferencia. En general, cuanto mayor sea la
diferencia observada mayor será la probabilidad de ser significativa, pero la conclusión
depende también del error típico, que a su vez depende del tamaño muestral. Si el tamaño
muestral es pequeño, el error típico tiende a ser grande y más grande habrá de ser la
diferencia entre medias para resultar significativa; si el tamaño muestral es grande, el
error típico tiende a ser pequeño y más pequeña será la diferencia entre medias para
resultar significativa.
No es aconsejable fundamentar la interpretación de los resultados de investigación
en su significación estadística, ya que pueden obtenerse resultados significativos con
diferencias de escasa importancia científica o práctica y resultados no significativos con
diferencias de alta relevancia científica y práctica. Por tanto, a la hora de valorar los
resultados de una investigación debe considerarse también si el tamaño de la diferencia
es científica o prácticamente relevante. La interpretación conjunta de la significación
estadística y la magnitud de la diferencia permite aproximar la significación práctica del
resultado. Esta es la razón por la que resulta más conveniente un informe de los resultados
a base de un intervalo de confianza (que incluye una estimación puntual de la diferencia
y su error típico) más que un argumento de probabilidad, que concluir si la prueba resultó
o no significativa.

 Validez interna: Utilizamos el término validez interna para hacer referencia a


inferencias acerca de si la covariación observada en un efecto (Y) se ha producido
debido a cambios en el nivel o intensidad de una variable explicativa (X) y no por
otras fuerzas causales alternativas. La forma más común de inferir de causa a
efecto consiste en eliminar esas otras causas posibles (terceras variables, variables
extrañas, confundidores o variables espurias) que podrían haber ocurrido en
presencia o en ausencia de la variable explicativa y ser responsables el efecto
observado.

La presencia de variables espurias o de confundido en una investigación reducirá


la validez interna de la investigación, mientras que su ausencia se asocia con alta
validez interna. La asignación aleatoria de unidades experimentales a
tratamientos es por ello el procedimiento metodológico más efectivo para lograr
que un diseño tenga alta validez interna, porque elimina los sesgos de selección y
genera una situación donde es improbable que existan efectos de confundido.
Entre sus propiedades destacan (Anderson et al., 1980, p. 32-35) las siguientes:

— La asignación aleatoria implica en general una distribución similar de las


características de los participantes en cada grupo, antes de administrar el
tratamiento, y por tanto facilita la inferencia causal en mayor medida cuanto
mayor sea el tamaño muestral.

— La asignación aleatoria elimina el sesgo de selección. Si una muestra


seleccionada de una población se asigna a grupos mediante una regla de
asignación aleatoria, es bastante improbable que los sesgos de selección puedan
intervenir. Aunque es posible que ambos grupos no queden perfectamente
equilibrados en alguna característica antes de administrar el tratamiento, esta
posibilidad es tanto menor cuanto mayor es el tamaño de los grupos.

— La asignación aleatoria proporciona un fundamento para la inferencia


estadística al equilibrar los grupos antes de la administración de los tratamientos.

Validez de la conclusión estadística y validez interna se relacionan estrechamente.


Ambas se ocupan de analizar las operaciones de causa y efecto respecto de los
constructos que se supone que representan.

 Validez de constructo: Las teorías psicológicas se definen en términos de


conceptos teóricos y constructos hipotéticos que no pueden ser directamente
observados o medidos. Con el fin de ser sometidos a prueba empírica, los
constructos abstractos tienen que ser traducidos en indicadores tangibles
susceptibles de observación y medida. Este proceso se denomina
operacionalización. La validez de constructo se refiere precisamente a la
capacidad de generalizar de indicadores tangibles a sus constructos de referencia,
en otras palabras, representa una forma de generalizabilidad de los resultados
observados de un estudio empírico al marco conceptual en que se inserta.
 Validez externa: Se refiere a la cuestión de si un efecto observado en un contexto
de investigación puede ser observado en otros contextos, con diferentes
participantes, con otros tratamientos y respuestas distintos y con diferentes
procedimientos de investigación. Tiene que ver con la replicabilidad empírica del
fenómeno, es decir, con la posibilidad de que pueda ser reproducido en las mismas
condiciones en que originalmente se produjo.
Se ocupa de aquellas situaciones donde suelen producirse interacciones
estadísticas que generan inferencias incorrectas de generalización de los
resultados de un estudio a diferentes personas, contextos, tratamientos y
respuestas. En tales situaciones, la investigación sólo es representativa de las
personas, contextos, tratamientos y respuestas empleados, lo que limita
severamente su generalidad.
Planteamiento del problema

Consiste en describir de manera amplia la situación objeto de estudio, ubicándola


en un contexto que permita comprender su origen, relaciones e incógnitas por responder.

Formulación del problema

Es la concreción del planteamiento en una pregunta precisa y delimitada en cuanto


a espacio, variables y población.

Características:

 Se debe formular en forma de pregunta y obviar términos que impliquen juicios


de valor.
 La pregunta no debe originar respuestas como un simple si o un no.
 La respuesta a la pregunta debe aportar un nuevo conocimiento.
 Debe existir la posibilidad de ser respondido mediante procedimientos empíricos.
 Puede referirse al comportamiento de una variable o la relación entre dos o más
variables.

Objetivos de investigación

Es un enunciado que expresa lo que se desea indagar y conocer para responder a un


problema planteado.

Características de los objetivos de investigación:

 Precisan las variables o dimensiones que serán medidas.


 Delimitan el problema de la investigación.
 Se redactan comenzando con un verbo en infinitivo.

Tipos de objetivos de investigación:

 Objetivo general: Expresa el fin concreto de la investigación en correspondencia


directa con la formulación del problema.
 Objetivos específicos: Indican con precisión los conceptos, variables o
dimensiones que serán objeto de estudio. Se derivan del objetivo general y
contribuyen al logro de éste.
Hipótesis

Es una suposición que expresa la posible relación entre dos o más variables, la cual
se formula para responder tentativamente a un problema o pregunta de investigación.
Orientan la investigación, indicando al investigador dónde debe iniciar su labor de
verificación mediante la recolección de los datos o para generar nuevas teorías.

Las hipótesis se desprenden de la teoría, es decir, no surgen de la simple


imaginación sino que se derivan de un cuerpo de conocimientos existentes que le sirven
de respaldo (Arias, Fidias; 2004).

Hipótesis de investigación: Es la suposición que se aspira verificar o comprobar.


También se le denomina hipótesis de trabajo. Éstas se clasifican en:

 Explicativas: Expresan la posible causa de un hecho.

Ejemplo: “A fue ocasionado por B”

 Predictivas: Plantean el posible efecto o consecuencia de un hecho. Deben


redactarse empleando verbos en futuro:
Ejemplo: La aplicación del tratamiento X disminuirá el nivel de colesterol en la
sangre."
 Comparativas: Contrastan resultados o características de grupos en condiciones
diferentes.
o Direccional: Indica la tendencia de los resultados.
Ejemplo: "El grupo A obtendrá mayor puntaje que el grupo B."
o No direccional: No indica tendencia, sólo expresa la posible diferencia entre
los resultados esperados.
Ejemplo: "Existirá una diferencia entre el puntaje del grupo A y el puntaje
del grupo B."
 Correlacionales: suponen una posible relación estadística entre variables
cuantitativas.
Ejemplos: "A mayor X, mayor Y." "A menor X, mayor Y."
 Descriptivas: indican una probable relación no causal entre variables cualitativas.
Ejemplo: "A diferencia de las mujeres, los varones prefieren ocupar su tiempo
libre en actividades deportivas."
Hipótesis alternativas: Son aquellas que plantean opciones distintas a la hipótesis de
trabajo o de investigación.

Hipótesis nula: Es la que niega lo supuesto en la hipótesis de investigación. En el caso


de comparación de grupos, expresa que no existen diferencias significativas entre los
resultados obtenidos por éstos. Así mismo es contraria a la hipótesis no direccional.

¿Cómo redactar las hipótesis?

Mientras la formulación del problema adopta la forma interrogativa, las hipótesis se


redactan de manera afirmativa, excepto la hipótesis nula, que niega la hipótesis de
investigación. Claro está, dicha afirmación, como toda hipótesis, debe ser sometida a
prueba para poder llegar a una conclusión.

Ejemplo de hipótesis de investigación:

Hi: "El grupo A obtendrá mayor puntaje en la prueba de razonamiento numérico


que el grupo B."

Ejemplo de hipótesis nula:

Ho: "No existirá diferencia entre el puntaje del grupo A y del grupo B en la prueba
de razonamiento numérico.

Además, tenga presente las siguientes recomendaciones para la redacción de


cualquier tipo de hipótesis:

 Evite emplear adjetivos que impliquen juicios de valor, por


 Incluya las variables identificadas en la formulación del problema y en los
objetivos específicos.
 Pueden ser expresadas en términos conceptuales u operacionales.
Conceptos básicos de muestreo

Concepto de población

Una característica del conocimiento científico es la generalidad, de allí que la


ciencia se preocupe por extender sus resultados de manera que sean aplicables a muchos
casos similares o de la misma clase. En este sentido, una investigación puede tener como
propósito el estudio de un conjunto numeroso de objetos, individuos, e incluso
documentos. A dicho conjunto se le denomina población.

La población, o en términos más precisos población objetivo, es un conjunto finito


o infinito de elementos con características comunes para los cuales serán extensivas las
conclusiones de la investigación. Ésta queda delimitada por el problema y por los
objetivos del estudio.

Concepto de muestra y tipos de muestreo:

Cuando por diversas razones resulta imposible abarcar la totalidad de los elementos
que conforman la población accesible, se recurre a la selección de una muestra.

La muestra es un subconjunto representativo y finito que se extrae de la población


accesible. En este sentido, una muestra representativa es aquella que por su tamaño y
características similares a las del conjunto, permite hacer inferencias o generalizar los
resultados al resto de la población con un margen de error conocido.

Para seleccionar la muestra se utiliza una técnica o procedimiento denominado


muestreo. Existen dos tipos básicos de muestreo: Probabilístico o aleatorio y no
probabilístico.

Muestreo probabilístico o aleatorio: es un proceso en el que se conoce la probabilidad


que tiene cada elemento de integrar la muestra. Este procedimiento se clasifica en:

o Muestreo al azar simple: procedimiento en el cual todos los elementos tienen la


misma probabilidad de ser seleccionados. Dicha probabilidad, conocida
previamente, es distinta de cero (0) y de uno (1).
Ejemplo: Valiéndose de la lista de alumnos, el docente asigna un número a cada
uno. Luego todos los números se introducen en una caja para extraer, por sorteo,
los integrantes de la muestra.
o Muestreo al azar sistemático: se basa en la selección de un elemento en función
de una constante K. De esta manera se escoge un elemento cada k veces.
Ejemplo: Para una población de 120 individuos, se define una muestra integrada
por 30 sujetos. La constante K obtenida al azar es igual a 4. Luego se asigna un
número a cada uno de los 120 individuos y se calcula el valor de inicio con la
siguiente fórmula: N/n , entonces 120/30= 4. Esto significa que comenzaremos
seleccionando el número 4 al que se le sumará la constante K=4, y así
sucesivamente hasta obtener los treinta individuos que conformarán la muestra
definitiva: 4, 8, 12, 16, 20, …
o Muestreo estratificado: consiste en dividir la población en subconjuntos cuyos
elementos posean características comunes, es decir, estratos homogéneos en su
interior. Posteriormente se hace la escogencia al azar en cada estrato.
Ejemplo: En una institución de educación superior, se divide la población por
carreras o especialidades, las cuales conformarán los estratos. Después se efectúa
la selección aleatoria en cada una de ellas. Muestreo por conglomerados: parte de
la división del universo en unidades menores denominadas conglomerados. Más
tarde se determinan los que serán objeto de investigación o donde se realizará la
selección.

Muestreo no probabilístico: Es un procedimiento de selección en el que se desconoce


la probabilidad que tienen los elementos de la población para integrar la muestra. Éste se
clasifica en:

o Muestreo casual o accidental: es un procedimiento que permite elegir


arbitrariamente los elementos sin un juicio o criterio preestablecido.
Ejemplo: Un encuestador se ubica en un sector y aborda a los transeúntes que
pasan por el lugar. Lógicamente, las personas que no circulen por la zona, carecen
de toda probabilidad para integrar la muestra.
o Muestreo intencional u opinático: en este caso los elementos son escogidos con
base en criterios o juicios preestablecidos por el investigador. Ejemplo: Para un
estudio sobre calidad de la educación, previamente, se establecen como criterios
de selección de la muestra los siguientes:
-Mínimo de 20 años de experiencia en el campo educativo.
-Poseer título de postgrado.
-Haber ocupado un cargo directivo.
Por supuesto, la muestra la integrarán sólo aquellos que cumplan con las
condiciones anteriores.
o Muestreo por cuotas: se basa en la elección de los elementos en función de ciertas
características de la población, de modo tal que se conformen grupos o cuotas
correspondientes con cada característica, procurando respetar las proporciones en
que se encuentran en la población.
Ejemplo: Se establecen como características importantes para un sondeo de
opinión, el sexo y la edad de la población. Luego se procederá a seleccionar cuotas
de hombres, mujeres, jóvenes y adultos.

Você também pode gostar