FASES DE LA INVESTIGACIÓN EN PSICOLOGÍA

INTRODUCCIÓN

Marco Aurelio (121 d. C. -180 d. C). Nada tiene tanto poder para ampliar la mente como la capacidad de investigar de forma sistemática y real todo lo que es susceptible de observación en la vida.

Empleamos el método científico como forma de obtener conocimientos objetivos, válidos y fiables. En líneas generales, toda investigación puede ser considerada como un proceso de toma de decisiones respecto a diversos aspectos: cuál va a ser el problema que vamos a investigar; qué esperamos encontrar y, por tanto, qué hipótesis queremos poner a prueba; qué instrumentos vamos a utilizar para recopilar los datos que sirvan para probar esas hipótesis; quiénes van a componer la muestra de la que obtendremos los datos y cómo van a ser seleccionados; y qué análisis vamos a realizar para alcanzar conclusiones a partir de los datos obtenidos. Como podemos imaginar, las fases de este proceso están interrelacionadas, las decisiones tomadas en una de las etapas condicionarán los siguientes pasos del proceso. Por tanto, aunque las expongamos como fases diferenciadas, debe quedar claro que están todas ellas relacionadas, al ser el proceso investigador más que una mera suma de pasos a seguir.

FASES DE LA INVESTIGACIÓN EN PSICOLOGÍA

Las investigaciones llevadas a cabo según el método hipotético-deductivo siguen una serie de pasos:

inves1.1
  1. Constatación de la existencia de un problema que, por el momento, no tiene solución o esta se desconoce.
  2. Planteamiento de hipótesis o posibles explicaciones de ese problema.
  3. Definición operativa de los conceptos (variables) reflejados en las hipótesis.
  4. Elección de la mejor estrategia metodológica para contrastar esas hipótesis.
  5. Análisis de los datos obtenidos.
  6. Interpretación y extracción de conclusiones a partir de los resultados alcanzados.
  7. Difusión de dichos hallazgos a través del informe de investigación.

Podría dar la impresión de que se trata de un proceso rígido e inflexible, lo cual es en parte cierto al seguir un orden, lógico y establecido, en la forma de plantear y llevar a cabo la investigación, pero dicha rigidez es solo parcial, puesto que la interrelación entre sus fases hace que las decisiones tomadas en cada una de ellas afecten a las siguientes; es decir, no se trata de etapas totalmente independientes como «compartimentos estancos» sino que podemos admitir cierta flexibilidad en el proceso asociada a las decisiones que iremos tomando en cada paso y que repercutirán en los siguientes.

Identificación del problema

Meltzoff (2000). Distintos tipos de preguntas requieren aproximaciones distintas para buscar respuestas. El tipo de pregunta determina en gran medida las características formales requeridas por el diseño de investigación.

El problema de investigación, entendido como cualquier pregunta que surge en torno a un tema concreto sobre el cual queremos ampliar conocimientos, es un componente fundamental de la investigación ya que será su origen; es decir, la primera fase de todo proceso investigador es la identificación del problema o pregunta de investigación.

Podemos identificar distintos tipos de preguntas de investigación, exponiendo algunos ejemplos ilustrativos (Meltzoff, 2000):

  • De existencia: ¿Existe la percepción subliminal? ¿Los recién nacidos pueden identificar rostros?
  • De descripción y clasificación: ¿Cómo es la percepción subliminal? ¿Hay diversos grados de percepción subliminal?
  • De composición: ¿Cuáles son los componentes de la percepción de rostros? ¿Qué factores forman la personalidad?
  • De relación: ¿Existe asociación entre la velocidad perceptiva y la inteligencia? ¿Se relaciona la valoración que los alumnos hacen de los recursos de la biblioteca con el número de libros que tienen en préstamo?
  • Descriptivo-comparativas: ¿Los estudiantes de ciencias sanitarias son más empáticos que los de ciencias exactas? ¿La velocidad de procesamiento de imágenes digitales es mayor en los jóvenes que en los ancianos?
  • De causalidad: ¿El consumo diario de cannabis provoca fallos de memoria? ¿El aumento de horas de sueño produce aumento de peso?

La diferenciación entre relaciones de covariación y de causalidad está vinculada con la estrategia metodológica que emplearemos en nuestro estudio, de manera que la metodología manipulativa nos permitirá establecer relaciones causales y la no-manipulativa únicamente relaciones de covariación. Una relación de covariación o asociación entre variables significa que ninguna de las variables puede ser claramente identificada como causa de la otra, es decir, solamente podemos constatar que se relacionan. Por otro lado, las relaciones causales significan que una de las variables es la causante de los cambios en la otra. Las relaciones causales son las que establecemos al emplear estrategias de investigación manipulativas.

Planteamiento de objetivos e hipótesis

Ramos et al. (2004). El objetivo final de toda investigación es el conocimiento del fenómeno objeto de estudio; es decir, su descripción y/o explicación, para de esta forma poder predecirlo.
Chalmers (2010). La formulación de hipótesis no se desarrolla de la nada sino que parte de un conocimiento significativo del área sobre la que versa la investigación, presuponiendo un conocimiento apropiado del entramado conceptual por parte del investigador.

El siguiente paso es concretar nuestro objetivo, del cual también dependerá la estrategia metodológica que seleccionaremos posteriormente. Podemos identificar dos tipos de finalidades u objetivos generales: uno descriptivo y otro explicativo.

  • Descriptivo (o exploratorio). La investigación que persigue este tipo de objetivo trata de conocer el fenómeno de estudio, cómo es y cómo se manifiesta, para lo que mide o recolecta datos sobre diversos aspectos o componentes del fenómeno de interés. Aunque estrictamente no es igual un objetivo descriptivo (el cual describe situaciones, eventos y hechos) que uno exploratorio (en el que pretendemos examinar un problema de investigación poco estudiado, del que se tienen muchas dudas o que, incluso, no ha sido abordado antes), en este tema no haremos mayor distinción entre ambos. Este tipo de objetivo emplea fundamentalmente la estadística descriptiva como herramienta para representar los datos obtenidos. Un ejemplo de investigación descriptiva podría ser el estudio de la frecuencia con que aparece una enfermedad en una población determinada.
  • Explicativo (o confirmatorio). Las investigaciones con este objetivo tratan de establecer qué variables contribuyen a la aparición del fenómeno objeto de estudio. Cuando podemos identificar las causas que producen un fenómeno nos encontramos en posición de predecir su aparición, lo que solo ocurre si empleamos estrategias manipulativas (puesto que son las únicas en las que podemos asegurar cuáles son las causas y cuáles los efectos). Si utilizamos estrategias no manipulativas también podremos pretender un objetivo explicativo, aunque tendremos ciertas limitaciones debidas al hecho de no poder establecer relaciones causales. Por tanto, las investigaciones con este objetivo pueden considerar relaciones entre las variables tanto causales como de covariación, siendo necesario en ambas el contraste de hipótesis, por lo que la estadística inferencial tiene un papel relevante. Un ejemplo de investigación con un objetivo explicativo podría ser comprobar si una nueva intervención psicoterapéutica produce una disminución mayor en el nivel de estrés percibido que la producida por la intervención clásica.

Una vez que tenemos clara la pregunta de investigación y cuál es el objetivo general del estudio, el siguiente paso será formular la hipótesis de la investigación. La hipótesis puede ser definida como una predicción sobre los resultados concretos que esperamos encontrar, es decir, nuestra respuesta (potencial o posible) a la pregunta de investigación, en la cual se explicita la relación que creemos existe entre las variables implicadas en nuestro estudio (en el ejemplo expuesto como investigación explicativa, la relación existente entre las variables intervención psicoterapéutica y estrés percibido). Es importante señalar que no todas las investigaciones van a plantear hipótesis. Por ejemplo, los estudios cuyo objetivo es descriptivo o exploratorio no suelen formular hipótesis. Sin embargo, siempre que se persigue un objetivo explicativo, tanto de covariación como de causalidad, se plantearán hipótesis que serán posteriormente contrastadas.

En líneas generales, para llevar a cabo el contraste de hipótesis debemos reformular la hipótesis de investigación, expresándola en términos adecuados para el contraste de datos en lo que se denomina hipótesis estadística, la cual engloba siempre dos hipótesis diferentes y mutuamente excluyentes: la hipótesis nula (H0) y la hipótesis alternativa (H1), de manera que rechazar una de ellas conlleva aceptar la otra.

  • La hipótesis nula (H0) es la afirmación sobre la no existencia de relación entre variables o que, de existir, esta se debe solo al azar. Esta H0 es la que se emplea para realizar la contrastación estadística, asumiéndose como verdadera hasta que la prueba estadística aplicada a los datos del estudio (a modo de prueba empírica) indique lo contrario. Un ejemplo de hipótesis nula podría ser: «El grupo tratado con la nueva intervención psicoterapéutica reducirá de igual forma su nivel de estrés percibido que el tratado con la intervención clásica».
  • La hipótesis alternativa (H1) se identifica normalmente con la hipótesis de investigación, ya que solemos realizar investigaciones que hipotetizan la existencia de relaciones entre variables. La hipótesis alternativa asociada a la hipótesis nula anteriormente presentada sería: «El grupo tratado con la nueva intervención psicoterapéutica reducirá en mayor medida su nivel de estrés percibido que el tratado con la intervención clásica».
Las variables
Fairchild y MacKinnon (2009). Este tipo de variables moderadoras se suelen estudiar, por ejemplo, en los programas de prevención de la salud con el objeto de conocer los motivos por los que un programa es más efectivo en unos subgrupos que en otros.

El término variable puede definirse como cualquier característica susceptible de cambiar por lo que, al menos, presenta dos valores distintos. Por tanto, variable es lo opuesto a constante. Según la Teoría de las Escalas de Medida de Stevens (1946) hay cuatro tipos de escalas y cada una de ellas soporta una clase de transformación determinada:

  1. La escala nominal o categórica consiste en la asignación arbitraria de números a cada una de las categorías o niveles de la variable. En esta escala los números asignados no tienen propiedades lógico-matemáticas (suma, resta, multiplicación o división) sino exclusivamente simbólicas puesto que los empleamos para identificar las diversas características de la variable. La única relación que tiene en cuenta esta escala es la de igualdad-desigualdad, es decir, podemos decir si una característica personal (variable) es igual o diferente a la de otra persona (por ejemplo, el sentido de su voto, llevando a cabo la siguiente codificación VOX = 1; PP = 2; PSOE = 3; PODEMOS = 4; MÁS PAÍS= 5) pero no podemos establecer relaciones de orden ni de cantidad.
  2. La escala ordinal, además de asignar números a cada una de las categorías o niveles de la variable, clasifica a las personas, eventos u objetos en una posición con relación a un cierto atributo, pero sin indicar la distancia que hay entre las posiciones; solo se señala si existe una relación «mayor o menor que» entre ellas. Las etiquetas, números o símbolos asignados sí indican jerarquía aunque, como hemos comentado, no es posible conocer la magnitud de la diferencia entre cada una de las categorías. Por ejemplo, según los criterios de Hoehn y Yahr hay 5 estadios de la enfermedad de Parkinson (estadio I, II, III, IV o V), por lo que encontrarse en un estadio IV significa que la enfermedad está más avanzada que hallarse en un estadio II, pero no se puede precisar «cuánto más avanzada» está en cada caso, o dicho de otro modo, no podemos afirmar que la diferencia del grado de deterioro que hay entre el estadio I y II sea la misma que hay entre el estadio IV y V.
  3. La escala de intervalo además de identificar la categoría que posee la persona y clasificarla en una posición en relación a un cierto atributo, a diferencia de la escala ordinal, sí permite «establecer las distancias» entre los individuos. Podemos decir que lo que caracteriza a esta escala es la existencia de una unidad de medida común y constante, que permite asignar un número real al nivel de la variable que posee la persona. Otra de las principales características de esta escala de medida es que el cero no es absoluto, es decir, no designa la ausencia de la característica o variable que estamos midiendo, lo que se conoce como «origen arbitrario» de la escala de medida. Por ejemplo, una puntuación de 0 en el cuestionario de ansiedad STAI no significa ausencia total de ansiedad. Además, podemos afirmar que la diferencia entre una puntuación de 20 y otra de 40 es la misma que entre 40 y 60, aunque no podemos decir que 40 sea «el doble de ansiedad» que 20.
  4. La escala de razón admite como válidas las relaciones de igualdad-desigualdad, orden, suma, resta, multiplicación y división. Es la escala de medida «más precisa» dado que usa un sistema numérico en el que el cero es un valor que indica ausencia de la característica que se está midiendo (origen absoluto), es decir, cuando afirmamos que hay 0 pacientes citados en la consulta de salud mental el próximo lunes significa que carece de esa propiedad, esto es, que no hay ninguna persona citada. Además de origen absoluto, la distancia entre sus unidades es igual, de forma que los números asignados a los objetos se pueden sumar, restar, multiplicar y dividir. Por ello, podemos afirmar que 20 pacientes citados son el doble de 10 pacientes (debido a la misma distancia entre sus unidades).
tipos de variables
Tipos de variables y su equivalencia con el nivel de medida.

Como acabamos de ver, las variables se pueden clasificar en función de su nivel de medida en nominales, ordinales, de intervalo y de razón que, a su vez, podemos «reclasificar» en variables cualitativas, cuasicuantitativas y cuantitativas, pudiendo considerarse las variables nominales como cualitativas, las ordinales como cuasicuantitativas y las de intervalo y de razón como cuantitativas.

  • Variables cualitativas. Variables que solo designan una cualidad o atributo, pueden ser:
    • dicotómicas, si solo tienen dos categorías (p. ej., fumador – no fumador).
    • politómicas, si poseen más de dos categorías (p. ej., estado civil: soltero, casado, viudo o separado).
  • Variables cuasicuantitativas. Variables cuyos valores no son numéricos aunque sí admiten una ordenación natural (p. ej., el grado de satisfacción con un determinado servicio valorándolo como «5-excelente», «4-bueno», «3-regular», «2-malo» y «1-pésimo»)
  • Variables cuantitativas. Aquellas variables que definen una cantidad (p. ej., perímetro craneal), pueden ser:
    • discretas, adoptar valores aislados (p. ej., número de hijos).
    • continuas, tener valores en cualquier punto de una escala de for ma ininterrumpida (p. ej., podemos registrar que una persona pesa 79 kg, 79.3 kg, 79.34 kg, 79.343 kg, etc. «afinando» en el registro todo lo que queramos).

Es importante señalar que las variables cuantitativas se pueden transformar en dicotómicas o politómicas si queremos emplearlas para clasificar. Por ejemplo, en función de su altura nos puede interesar clasificar a las personas en 3 grupos: altos, medios y bajos, y no trabajar directamente con esta variable cuantitativa.

Desde el punto de vista metodológico, podemos distinguir tres tipos de variables: dependientes, independientes y extrañas.

  • 👁️‍🗨️Variable dependiente (VD). Es la variable que vamos a medir para ver si se dan cambios en ella a causa de las modificaciones producidas en la variable independiente. Si, por ejemplo, quisiéramos estudiar la eficacia de un programa de risoterapia para mejorar los síntomas depresivos de pacientes con hospitalización prolongada, la variable dependiente sería los síntomas depresivos de estos pacientes que, pensamos, se verán alterados (esperamos que disminuyendo) por el efecto de la variable independiente, esto es, debido al programa de risoterapia. La variable dependiente se denomina de diversas formas, en función de si estamos trabajando con una estrategia manipulativa, donde se conoce también como variable consecuente, efecto o resultado (output), o si trabajamos con una estrategia no manipulativa, donde se suele denominar variable criterio o pronóstico.
  • 👁️‍🗨️Variable independiente (VI). Variable causante o responsable de los cambios de otra variable (p. ej., el aumento en la ingesta de calorías -VI- es la causante del aumento de peso en las personas). La variable independiente puede ser activa o asignada.
    • Activa o manipulada. Aquella que, de forma intencional, es manipulada por el investigador para estudiar qué efectos produce en la variable objeto de estudio, es decir, en la variable dependiente. Por ejemplo, si quisiéramos estudiar el efecto que un fármaco antidepresivo produce en la sintomatología de los pacientes, podríamos manipular la dosis de fármaco que toman (p. ej., un grupo de pacientes tomará una dosis baja, otro grupo una dosis más alta y un tercer grupo un placebo) y estudiar los cambios en su sintomatología depresiva. Cuando la variable independiente es de manipulación también se le conoce como antecedente, causa o factor.
    • Asignada o de selección de valores. Muchas veces, por razones éticas o de otro tipo, no podemos llevar a cabo una manipulación intencional de la variable independiente, aunque sí nos interesa estudiar la relación que este tipo de variable puede tener con la variable dependiente. Se trata de variables prexistentes en las personas, a partir de las cuales realizamos la selección de los participantes. Frecuentemente son variables organísmicas (p. ej., edad, sexo, altura, índice de masa corporal, etc.), aunque también pueden ser de otros tipos (p. ej., nivel educativo, nacionalidad, estatus socioconómico, lugar de residencia, etc.). Por ejemplo, si queremos conocer si existe relación entre un nivel de estrés elevado y duradero y padecer colon irritable, no podemos manipular nuestra VI (es decir, no podemos inducir un nivel alto de estrés y mantenerlo a lo largo del tiempo en nuestros participantes), por lo que seleccionaremos un grupo de personas cuyo nivel de estrés sea elevado y mantenido a lo largo del tiempo (p. ej., bomberos, organizadores de eventos y altos ejecutivos de empresas —todas ellas profesiones cuyo nivel de estrés se ha confirmado que es alto y duradero—) y otro compuesto por personas cuyo trabajo se ha demostrado que es poco estresante (p. ej., dietistas, bibliotecarios y técnicos de historias clínicas), y registraremos el número de personas que padecen colon irritable en uno y otro grupo, estudiando así las covariaciones existentes entre nivel de estrés y padecer colon irritable. Esta clase de variable independiente de selección de valores también se denomina variable predictora.
  • 👁️‍🗨️Variable extraña (VE). Variable que no es objetivo directo del estudio pero que puede ejercer un efecto pernicioso sobre los resultados que obtengamos. Las variables extrañas deben ser controladas (p. ej., mediante elimi- nación u otras técnicas que veremos en capítulos posteriores) para que los resultados estén libres de sus efectos y, por tanto, sean válidos y fiables. En el ejemplo visto sobre la eficacia de un tratamiento de risoterapia para mejorar los síntomas depresivos de pacientes con larga hospitalización, se deberían controlar algunas variables como, por ejemplo, el tiempo de hospitalización, la edad de los participantes, el sexo, el tipo de enfermedad, el tiempo de evolución de dicha enfermedad, etc. Todas estas son variables extrañas que, en caso de no ser controladas, pueden hacer que las conclusiones que saquemos en la investigación sean erróneas. Por ejemplo, es posible que el tratamiento de risoterapia en sí mismo no sea efectivo pero se observe una mejora de los síntomas depresivos debido a que el paciente se siente más motivado al participar en alguna actividad, es decir, podríamos confundir el efecto producido por el factor motivación con un efecto de mejora en los síntomas depresivos vinculado al tratamiento específico (la risoterapia). A pesar de controlar algunas variables extrañas, seguramente habrá otras muchas variables que sigan teniendo efecto en la VD, lo cual influiría negativamente en la validez del estudio. A mayor cantidad de variables extrañas no controladas menos concluyentes serán nuestros resultados.

En líneas generales, que una variable sea dependiente, independiente o extraña no es algo intrínseco o propio de la variable, sino que casi todas las variables pueden desempeñar cualquiera de esos papeles en la investigación, dependiendo de la función que asuman en el estudio. Como sabemos, la realidad es compleja, por lo que es probable que para poder explicar determinados fenómenos no podamos reducirlos a una relación entre únicamente dos variables, sino que también deberemos estudiar el papel de otras variables implicadas en esta relación. Estas terceras variables pueden producir diversos efectos en la relación VI-VD, como el espurio o de confusión, el de mediación y el de moderación, que veremos a continuación.

efecto espurio
Representación de un modelo simplificado de efecto espurio o de confusión, ya que la relación VI-VD desaparecería o se debilitaría (lo cual se refleja por el hecho de que la flecha que une ambas variables sea discontinua) al controlar la influencia de la tercera variable.

El efecto espurio o de confusión se produce por una tercera variable que se relaciona tanto con la variable independiente (o predictora) como con la dependiente (o criterio). Un ejemplo de este efecto se podría producir al estudiar la relación entre la soledad percibida por las personas (VI) y su edad de fallecimiento (VD). Es factible pensar que las personas que se sienten solas fallecerán antes que las que no experimentan este sentimiento, pero la asociación entre estas dos variables, si es que se da, puede reducirse o incluso desaparecer al controlar sus hábitos de salud (física y mental). Las personas que cuidan su alimentación, hacen deporte, se mantienen mentalmente activas, practican actividades de ocio y se sienten integrantes de un grupo, posiblemente sean más longevas y también se sientan menos solas. Por tanto, la relación que podemos encontrar entre la soledad y la edad de fallecimiento, en realidad, estaría explicada por la asociación que tiene esta tercera variable (hábitos saludables) tanto con la variable predictora (soledad percibida) como con la variable criterio (edad de fallecimiento).

Respecto al papel mediador o moderador, la variable mediadora es aquella tercera variable que explica el mecanismo de la relación VI-VD en la medida en que el efecto de la VI sobre la VD es total o parcialmente indirecto, produciéndose a través de dicha variable mediadora. Es decir, la relación VI-VD está mediada o mediatizada por esta tercera variable. Por su parte, las variables moderadoras son aquellas terceras variables que en función del valor que tomen, alteran la magnitud y/o el signo (positivo o negativo) de la relación VI-VD.

variable mediadora
Representación de un modelo simplificado de mediación. Para comprender mejor este papel mediador, podemos poner como ejemplo una investigación sobre la relación entre conflicto familiar (predictora) y consumo de sustancias estupefacientes en adolescentes (criterio), siendo la autoestima una posible variable mediadora en esta relación. En el análisis de esta relación VI-VD podemos encontrar una asociación significativa: cuanto mayor sea el nivel de conflicto familiar, mayor será el consumo de sustancias. Pero si por investigaciones previas conocemos que existe una relación negativa entre el conflicto familiar y el nivel de autoestima de los adolescentes, y a su vez que niveles bajos de autoestima se asocian con mayor consumo de sustancias estupefacientes, podemos plantearnos una hipótesis que considere la autoestima como variable de mediación. Si en el análisis de los datos añadimos al modelo explicativo la variable mediadora «nivel de autoestima del adolescente», podremos comprobar si la relación entre el conflicto familiar y el consumo de sustancias se explicaría, total o parcialmente, por la incidencia negativa que tienen los conflictos familiares en la autoestima de los adolescentes, cuyo deterioro a su vez se relaciona con el consumo de sustancias nocivas.
variable moderadora
Representación de un modelo simplificado de moderación. Si queremos estudiar la relación entre el número de horas de estudio semanal (nuestra VI) y la calificación en la asignatura de Psicología del Pensamiento (nuestra VD), podemos considerar como una posible variable moderadora de esta relación el «cociente intelectual» (CI) de la persona. Parece lógico pensar que cuantas más horas dedique una persona a estudiar, mayor será su calificación en la asignatura de Pensamiento. Si añadimos el CI como moderador significa que el nivel de CI de una persona modula (amplificando o reduciendo) el efecto de la variable «horas de estudio» en su nota. Es decir, cuanto más alto sea su CI, menos horas de estudio necesitará dedicar para superar la asignatura de Psicología del Pensamiento. El valor de CI altera (modula), por tanto, el efecto de la relación causa-efecto entre las horas de estudio y la nota del examen.

Método: procedimiento para la recogida de datos

En esta fase se toman decisiones sobre el diseño específico que utilizaremos en nuestro estudio, sobre la muestra que seleccionaremos para recoger los datos del estudio, así como sobre los instrumentos que emplearemos y los procedimientos que implementaremos para ello.

Diseño de la investigación

Necesitamos elegir qué estrategia metodológica será la que empleemos para alcanzar los objetivos de nuestro estudio, es decir, debemos identificar la estructura formal del estudio o plan de investigación (experimental, cuasiexperimental, ex post facto, etc.).

Selección de los participantes
Dowdy y Wearden (1991). El objetivo de seleccionar la muestra es, a partir de los datos obtenidos de ella, hacer inferencias o estimar los resultados que obtendríamos si lleváramos a cabo el estudio con toda la población a la que pertenece esa muestra (es decir, a partir de los valores concretos de los estadísticos muestrales inferir los parámetros poblacionales). Para que esta estimación sea segura, la situación ideal sería que la muestra cumpliera una serie de condiciones, concretamente: ser representativa, suficientemente grande y aleatoria.

Aunque normalmente entendemos la población como el total de personas que forman un país o estado, en investigación no es así en términos estrictos. Mediante el término población representamos el conjunto de todos los elementos que comparten una característica, condición o propiedad (o varias) bien determinada y en función de la cual se definen o identifican. Por ejemplo, la población «mujeres mayores de 45 años que no ejercen su derecho a voto» estará compuesta por todas las mujeres que cumplen las citadas características (es decir, que no votan, y tienen más de 45 años). Por otro lado, el término muestra se define como una parte o subconjunto de elementos de una población que representa las características de esta (p. ej., un grupo de 600 mujeres, mayores de 45 años y que no ejercen su derecho a votar, seleccionadas aleatoriamente de entre todas las provincias españolas). Cada elemento seleccionado de la población para constituir la muestra se denomina unidad muestral y debe cumplir los criterios de selección establecidos (p. ej., pertenecer a un colectivo, tener una determinada configuración, encontrarse en determinada zona geográfica, etc.). La unidad muestral no siempre va a ser un individuo o participante, aunque sea lo más frecuente, sino que las unidades muestrales también pueden ser grupos de individuos (p. ej., familias, equipos de fútbol, etc.), instituciones (p. ej., colegios, universidades, etc.) o ámbitos (p. ej., ciudades, provincias, etc.).

Por otro lado, el tamaño de la muestra también es importante y está directamente asociado con el grado de precisión que se desea obtener en la estimación de los parámetros de la población, en líneas generales, se recomienda que la muestra sea grande para garantizar la representación de todas las características de la población en esa muestra. Si la población es homogénea, el tamaño muestral necesario será menor que si es heterogénea, en cuyo caso habrá que aumentar el tamaño muestral para que sea representativa de la población. También deberemos tener en cuenta que en estudios donde se van a tomar varias medidas a lo largo del tiempo puede producirse una pérdida de unidades muestrales por abandono, por lo que se recomienda seleccionar un tamaño muestral aún mayor para que no se produzca ninguna alteración en la representatividad asociada a esta pérdida. Existen diversas calculadoras disponibles en Internet para hallar el tamaño muestral necesario según el tipo de contraste que queramos llevar a cabo en nuestra investigación (de medias, de proporciones…), pero dicho contenido excede el de esta materia, por lo que no lo abordaremos.

Por último, la tercera característica que idealmente debe tener la muestra es que sea aleatoria. Las muestras aleatorias permiten cualquier inferencia estadística. En las situaciones donde, por los motivos que sea, no es posible obtener una muestra de manera aleatoria, el investigador deberá asumir los riesgos de emplear un muestreo no probabilístico para llevar a cabo la inferencia estadística (p. ej., posibles problemas de generalización, potencial falta de replicabilidad, etc.). Existen dos tipos de técnicas de selección de una muestra: probabilísticas y no probabilísticas.

👁️‍🗨️Técnicas de muestreo
TIPOS DE MUESTREO
Clasificación de los tipos de muestreo
  • Muestreo probabilístico. En este tipo de muestreo, todos los elementos de la población tienen una probabilidad conocida de ser seleccionados para formar parte de la muestra. Dentro de los métodos de muestreo probabilístico o aleatorio destacamos:
    • Muestreo aleatorio simple (m.a.s.). Consiste en seleccionar al azar un número n de elementos de una población. Para poder emplear este tipo de muestreo todos los elementos de la población deben tener la misma proba- bilidad de ser elegidos y la selección de uno de ellos no debe influir sobre la selección de otro. Este tipo de muestreo se realiza cuando existen listados de todos los elementos de la población y tenemos acceso a ellos.
    • Muestreo aleatorio estratificado. Empleamos este tipo de muestreo cuando la característica objeto de estudio no se distribuye de forma homogénea en la población, pero podemos identificar subgrupos o estratos que sí presentan homogéneamente dicha característica. En este tipo de muestreo, de cada estrato se extraerá una muestra aleatoria simple. Previamente, se debe decidir cuál es el criterio de afijación de la muestra, es decir, la regla de selección aleatoria de los participantes entre los diferentes estratos. Hay tres criterios para llevar a cabo la afijación:
      • Simple: se selecciona el mismo número de participantes en cada estrato.
      • Proporcional: la selección de los participantes se realiza de forma proporcional al peso que cada estrato tiene en la población (p. ej., si en la población hay un 10% de zurdos y un 90% de diestros la muestra también contendría el 10% de zurdos y el 90% de diestros).
      • Óptima: la selección de la muestra tiene en cuenta no solo el peso de los estratos en la población sino también su grado de homogeneidad-heterogeneidad en la característica objeto de estudio, lo que lleva a seleccionar menos individuos de los estratos que sean muy homogéneos y más casos de aquellos estratos que sean más heterogéneos. La dificultad de aplicación de este tipo de muestreo está en la exigencia de conocer previamente el grado de homogeneidad-heterogeneidad de los estratos.
    • Muestreo aleatorio por conglomerados. Este tipo de muestreo consiste en obtener la muestra partiendo de conglomerados o grupos ya formados (p. ej., las clases de un colegio, los equipos de fútbol de la liga, etc.), en lugar de hacerlo directamente de los individuos de la población; es decir, es un muestreo en el que los elementos de la muestra son conglomerados. Por ejemplo, si queremos estudiar las condiciones de salud de los escolares en una ciudad determinada, lo que hacemos es seleccionar aleatoriamente una muestra de escuelas (las cuales son conglomerados o grupos) y medir las condiciones de salud de todos los alumnos pertenecientes a esas escuelas seleccionadas.
  • Muestreo no-probabilístico. En el muestreo no probabilístico se desconoce la probabilidad de seleccionar cada uno de los elementos que forman la población. Este tipo de muestreo se emplea cuando: no es posible extraer una muestra aleatoria porque desconocemos el total de las unidades que componen la población, estas son inaccesibles o se trasladan de forma continua; tenemos limitaciones de recursos, temporales, personales y económicos, que imposibilitan la aplicación del muestreo probabilístico; o queremos tener simplemente un primer acercamiento al problema objeto de estudio, lo que exige un control de selección de la muestra menos riguroso. Los resultados obtenidos mediante este tipo de muestreo podrán describir o explicar lo ocurrido en una situación determinada pero no podrán extrapolarse o generalizarse a toda la población, puesto que no tenemos seguridad sobre la representatividad de la muestra. Esto hace que su capacidad de generalización sea reducida (validez externa). Entre las técnicas de muestreo no probabilístico podemos destacar:
    • El muestreo por cuotas. Es un tipo de muestreo no probabilístico que se realiza cuando la estratificación aleatoria no es posible. Se asienta generalmente sobre la base de un buen conocimiento de los estratos de la población y/o de los individuos más «representativos» o «adecuados» para los fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter aleatorio de este. En este tipo de muestreo es necesario saber qué proporción de la población tiene determinada característica que, pensamos, puede influir en el estudio (p. ej., sexo, la distribución de la edad, la distribución de mujeres trabajadoras, etc.). En función de dicha característica se establecen unas cuotas de participantes por grupos (p. ej., por sexo, edad, etc.), aunque la selección posterior de los participantes será no aleatoria y estará basada en el juicio del investigador, quien determinará las características y el número de personas que las reúnen que deben ser evaluadas según las cuotas establecidas.
    • Muestreo intencional, opinático, teórico o de juicio experto. El investigador selecciona la muestra con un propósito en mente, es decir, según su idea sobre qué o quién debe formar la muestra (p. ej., casos atípicos).
    • Muestreo incidental, casual, subjetivo o de conveniencia. Consiste en seleccionar los elementos de la población que son fácilmente accesibles al investigador. Por ejemplo, se seleccionan los casos que están disponibles en el momento en el que se lleva a cabo el estudio (p. ej., participantes voluntarios, personas que salen de una estación de metro, etc.).
    • Muestreo de bola de nieve o en cadena. Se emplea para acceder a casos pertenecientes a poblaciones de difícil localización. En determinados casos la población no es fácilmente accesible al investigador (p. ej., personas sin hogar, miembros de bandas juveniles, etc.), de manera que recurrimos a esta técnica mediante la cual los primeros participantes que han colaborado en la investigación identifican e incorporan al estudio, de forma sucesiva, a otros participantes de su red social en la cual estamos interesados.
El registro de las variables: instrumentos y procedimiento
Hernández et al. (2007). La recogida de datos implica seleccionar o elaborar uno o varios instrumentos de recolección de datos entre los disponibles en el área de estudio en la cual se inserta nuestra investigación, debiendo ser instrumentos válidos y fiables, ya que, de lo contrario, no podremos basarnos en sus resultados.

Escogeremos el instrumento o instrumentos de medida a través de los cuales recogeremos los datos de la VD, pudiendo ser estos estandarizados y publicados o, por el contrario, elaborados ad hoc por los propios investigadores para el estudio. En ambos casos, es necesario aportar información sobre la calidad métrica de los datos que proporcionan. Además, en esta toma de decisión respecto a la elección del instrumento de medida debemos tener presente que la escala en la que sean medidas las variables condicionará el análisis de datos que podamos realizar posteriormente. Es también necesario tener en cuenta el procedimiento de investigación propiamente dicho por lo que tendremos que tomar decisiones, además de sobre los instrumentos como acabamos de comentar, sobre el momento temporal y el lugar donde se recogerán los datos, si se hará una única recolección o se tomarán repetidas medidas a los participantes, quién hará esta recogida de datos, qué instrucciones recibirán los participantes, etc.

Análisis de datos

Hernández et al. (2007). Los análisis de datos que llevemos a cabo en nuestra investigación van a depender principalmente: a) del propósito o finalidad que tengamos y b) del planteamiento del problema y de las hipótesis.
Camerer et al. (2018); Cohen (1994); Ioannidis (2005); Kitchener et al. (2019). Gran parte del problema de no obtener los mismos resultados cuando se replican los estudios reside en que muchos de esos resultados de investigación no siguen un buen estándar de evidencia científica, producto del mal uso o la mala interpretación de los métodos estadísticos utilizados, particularmente del contraste de hipótesis basado en la significación estadística y los p-valores.

El análisis de datos normalmente tiene dos propósitos:

  • Resumir y buscar regularidades en los datos obtenidos. Para alcanzar este objetivo empleamos la estadística descriptiva.
  • Predecir resultados y generalizarlos a otras situaciones, poblaciones o momentos temporales. Para ello recurriremos a la estadística inferencial, que es la herramienta de la que nos serviremos para realizar el contraste de hipótesis.

El análisis de datos también va a depender del problema planteado y de las hipótesis derivadas de él, ya que vamos a poner a prueba si nuestros datos apoyan o refutan la predicción sobre los resultados concretos que esperamos encontrar y, por tanto, nos llevan a aceptar o a rechazar nuestra hipótesis. Este proceso se conoce como contraste de hipótesis. Las pruebas estadísticas concretas que vamos a utilizar para contrastar la hipótesis, van a depender de:

  • El nivel de medida de las variables registradas. No vamos a poder realizar el mismo tipo de análisis si nuestra variable tiene un nivel de medida nominal, donde podremos analizar el porcentaje de participantes que tienen esta característica y poco más (p. ej., 58% mujeres y 42% hombres), que si trabajamos con una variable con un nivel de medida de intervalo, que nos permite llevar a cabo una gran cantidad de análisis (p. ej., utilizando medias, proporciones, índices de dispersión, etc.).
  • El diseño de investigación utilizado. La estrategia que vayamos a seguir y las decisiones que tomemos sobre el número de variables independientes de nuestra investigación, los niveles que tengan estas variables independientes, el trabajar con grupos distintos o tomar medidas repetidas de un solo grupo, etc. condicionarán la prueba estadística que empleemos para analizar los datos y contrastar las hipótesis.
  • Las características que tengan los datos recogidos. Dependiendo de que estos cumplan determinados requisitos respecto a su distribución, dispersión, etc. vamos a poder llevar a cabo un tipo de análisis paramétrico (si se cumplen dichos requisitos) o no paramétrico (cuando el cumplimiento de dichos requisitos no se produce).

Cada análisis estadístico tiene su razón de ser, puesto que no son un fin en sí mismos sino únicamente una herramienta de la que nos servimos para el contraste de las hipótesis, no debiéndose llevar a cabo más análisis de los necesarios. El contraste de hipótesis es el proceso mediante el cual podemos determinar si las predicciones que hacíamos al principio de la investigación (hipótesis) son congruentes con los datos obtenidos en nuestro estudio. Por tanto, una vez recogidos estos datos y analizados a través de la prueba estadística correspondiente, obtendremos el valor del estadístico que hallamos calculado (p. ej., t de Student si comparamos las medias de dos grupos; r de Pearson si analizamos la correlación entre dos variables numéricas; etc.) y el valor de probabilidad (p) asociado al valor de dicho estadístico el cual, como expondremos más adelante, será importante en la toma de decisiones del contraste de hipótesis. Para poder llevar a cabo dicho contraste necesitamos «traducir» las hipótesis planteadas a hipótesis estadísticas. La hipótesis nula (H0) y la hipótesis alternativa (H1) son mutuamente excluyentes por lo que, al realizarse el contraste de hipótesis en base a la H0, si nuestros resultados nos llevan a mantener la H0 como verdadera tendremos que rechazar la H1 y viceversa, si rechazamos la H0 entonces aceptaremos la H1.

A través de los análisis estadísticos realizados, obtendremos el valor del estadístico para los datos de nuestra muestra, el cual lleva a asociado un nivel de probabilidad (p-valor, también denominado simplemente p). Para llevar a cabo el contraste de hipótesis propiamente dicho, recurrimos al criterio de significación estadística de los resultados, mediante el que comparamos el nivel de riesgo o significación marcado previamente por el investigador (α = 0.05 o α = 0.01) con el valor p asociado al estadístico de contraste. Si p es mayor que a mantenemos la H0, es decir, concluimos que no hay asociación estadísticamente significativa entre las variables objeto de nuestra investigación. En cambio, si p es menor o igual que a rechazamos la H0 y podemos afirmar que sí existe asociación estadísticamente significativa entre las variables.

contraste
Decisiones a tomar respecto la aceptación, o no, de la H0.

Cada vez son más las voces críticas respecto a la validez del criterio de significación estadística de los resultados, ya que, al tratarse de una convención, no siempre es garantía de calidad, pudiendo resultar un criterio precario para establecer la relevancia de los datos obtenidos, máxime si tenemos en cuenta la «crisis de replicabilidad» que se está produciendo en varias áreas, entre ellas la Psicología. Hay autores que proponen emplear el tamaño del efecto para valorar la relevancia de los resultados encontrados en un estudio en lugar de hacerlo únicamente basándose en la significación estadística.

Interpretación de los resultados

Tras analizar los datos, es cuando podemos interpretar los resultados obtenidos en relación con los supuestos teóricos sobre los que planteamos el estudio. Además de poder vincular los resultados obtenidos con los conocimientos teóricos existentes y las investigaciones afines sobre el área, también debemos hacerlo con la hipótesis de partida, de manera que llevaremos a cabo un proceso de discusión donde pondremos en relación los hallazgos obtenidos con dichas hipótesis. Además de la discusión, llegados este punto podemos sacar unas conclusiones claras respecto al trabajo realizado. A pesar de haber alcanzado unas conclusiones, hay que recordar que el proceso investigador no es definitivo puesto que el conocimiento científico es modificable y será válido únicamente hasta que aparezcan datos opuestos a los hallazgos vigentes.

Comunicación de los resultados de la investigación

No tendría sentido el enorme esfuerzo que supone cualquier proceso investigador si después no se divulgan los resultados obtenidos. De qué hubiera servido el descubrimiento de la anestesia si no se hubiera compartido con el resto del mundo; seguro que la medicina y sus avances no serían tal cual los conocemos en la actualidad.

estructura informe

REFERENCIAS

  • Quintanilla Cobián, Laura. Fundamentos De Investigación En Psicología. 2ª Ed. [adaptada a 7ª Ed. Normas APA]. ed. Madrid: Universidad Nacional De Educación a Distancia, 2020. Print. Grado (UNED) ; 6201104.

Deja un comentario

8 + 11 =

Ir al contenido