Crisis de replicación
La crisis de replicación en psicología se refiere a preocupaciones sobre la credibilidad de los hallazgos en la ciencia psicológica. El término, que se originó a principios de la década de 2010, denota que los hallazgos en la ciencia del comportamiento a menudo no se pueden replicar: los investigadores no obtienen resultados comparables a los del estudio original revisado por pares cuando repiten ese estudio usando procedimientos similares. Por esta razón, muchos científicos cuestionan la exactitud de los hallazgos publicados y ahora piden un mayor escrutinio de las prácticas de investigación en psicología.
Contenido
Algunos científicos han advertido durante años que ciertas formas de recopilar, analizar y presentar datos, a menudo denominadas prácticas de investigación cuestionables, hacen que sea más probable que los resultados parezcan ser estadísticamente significativos aunque no lo sean. Los diseños de estudios defectuosos y un "sesgo de publicación" que favorece los resultados confirmatorios son otras fuentes de preocupación desde hace mucho tiempo.
Una serie de proyectos de replicación a mediados de la década de 2010 amplificó estas preocupaciones. En un proyecto importante, menos de la mitad de los estudios que los replicadores intentaron recrear arrojaron resultados similares, lo que sugiere que al menos algunos de los hallazgos originales eran falsos positivos.
Una variedad de hallazgos se han cuestionado después de los intentos de replicación, incluidos los bien conocidos que sugieren que tipos específicos de preparación cognitiva, poses físicas y otras intervenciones simples podrían afectar el comportamiento de manera sorprendente o beneficiosa. Sin embargo, es importante señalar que la psicología no está sola: otros campos, como la investigación del cáncer y la economía, se han enfrentado a cuestiones similares sobre el rigor metodológico.
La creciente conciencia de cómo las prácticas de investigación pueden conducir a falsos positivos ha coincidido con casos extremos de tergiversación y falsificación intencionales, lo que en algunos casos ha dado lugar a la destitución o la dimisión de científicos destacados.
El campo de la psicología comenzó a contar con la reproducibilidad alrededor de 2010 cuando un estudio particularmente dudoso afirmó que los humanos tenían "precognición" o la capacidad de predecir el futuro. Luego, los científicos comenzaron a discutir preocupaciones metodológicas y repetir experimentos para corroborar los estudios publicados. El hecho de no poder replicar consistentemente esos hallazgos impulsó el movimiento hacia adelante.
Se incentiva a las revistas a publicar hallazgos interesantes y sorprendentes. Esto conduce al sesgo de publicación, la tendencia a publicar hallazgos positivos en lugar de estudios que no encuentran ningún efecto. Se incentiva a los investigadores a publicar con la mayor frecuencia posible para avanzar en sus carreras. Por lo tanto, pueden ejercer flexibilidad en su análisis de datos para lograr significación estadística.
Un artículo histórico en 2015 reveló que de 97 intentos de replicar hallazgos de investigaciones anteriores, menos del 40 por ciento se consideraron exitosos. Otro proyecto a gran escala en 2018 probó 28 hallazgos que datan de la década de 1970 hasta 2014. Encontró evidencias de aproximadamente la mitad. Un examen de 21 hallazgos publicados en revistas de primer nivel encontró que dos tercios se replicaron con éxito.
Otros campos también han tenido problemas con la replicabilidad, como la economía y la medicina. Sin embargo, la psicología puede enfrentar distintos desafíos: medir el comportamiento humano puede ser menos preciso que medir marcadores fisiológicos como la presión arterial o la frecuencia cardíaca.
La validez de la investigación psicológica es importante tanto para la búsqueda de conocimientos sobre el comportamiento humano como para la influencia de las intervenciones del mundo real en la atención de la salud mental, la medicina, la educación, los negocios y la política.
A pesar de enfrentar desafíos de confiabilidad, incluso los científicos escépticos todavía creen en algunas verdades fundamentales sobre el comportamiento humano. Algunas de esas ideas son que los rasgos de personalidad permanecen bastante estables en la edad adulta, que las creencias individuales están moldeadas por creencias grupales, que las personas buscan confirmar sus creencias preexistentes y más.
Para comprender mejor la crisis de replicación, vale la pena explorar algunos de los métodos estadísticos utilizados en los experimentos de psicología. La flexibilidad en la metodología de la investigación puede ayudar a explicar por qué los investigadores inconscientemente (y a veces conscientemente) producen resultados poco fiables.
Al realizar un experimento, un investigador desarrolla una hipótesis. Por ejemplo, puede plantear la hipótesis de que pasar tiempo con amigos hace que las personas sean más felices. Luego busca refutar la hipótesis nula mediante una explicación alternativa. En este caso, la hipótesis nula sería que no existe relación entre pasar tiempo con los amigos y la felicidad.
Se dice que un hallazgo es estadísticamente significativo si es probable que los resultados de un estudio puedan generalizarse en la población de interés más amplia, lo que esencialmente significa que el hallazgo es confiable. Un punto de referencia de significancia estadística es a menudo un valor p de .05, lo que significa que solo hay un 5 por ciento de probabilidad de que la hipótesis nula sea cierta.
El valor p es una medida para determinar la significancia estadística; es la probabilidad de obtener los resultados si la hipótesis nula fuera cierta. Cuanto menor sea el valor p, mayor será la evidencia de que la hipótesis es correcta. El umbral de significancia es generalmente un valor p de menos de .05, aunque la crisis de replicación ha llevado a los investigadores a reconsiderar la confianza en los valores p o a usar valores p más pequeños como .01. El hecho de que .05 sea un punto de referencia arbitrario es, para algunos, una prueba más de que los valores p reciben demasiada credibilidad.
Un error de Tipo I ocurre cuando la hipótesis nula se rechaza aunque sea realmente cierta, comúnmente llamado falso positivo. Cuanto menor sea el valor p, o nivel alfa, menor será la probabilidad de un error de tipo I. Un error de Tipo II ocurre cuando se acepta la hipótesis nula aunque en realidad sea falsa, lo que se denomina falso negativo. Cuanto mayor sea la potencia, o beta, menor será la probabilidad de un error de Tipo II.
La crisis de la replicación provocó un acalorado debate interno en el campo, algunos argumentaron que requería una revisión de la ciencia psicológica y otros sostuvieron que la "crisis" era irreal o exagerada. No obstante, los psicólogos interesados en la reforma han seguido adelante con sus esfuerzos para hacer más creíbles las afirmaciones de la investigación psicológica.
Los objetivos inmediatos de los reformadores incluyen una mayor transparencia en la planificación del estudio y el análisis de datos, más pruebas de seguimiento de rutina de los resultados para asegurarse de que se puedan observar de manera confiable y diseños de estudio que se adapten bien a las cuestiones científicas en observación. En última instancia, queda por ver qué enfoques serán más útiles para aumentar la veracidad de los hallazgos psicológicos.
Los psicólogos han establecido una serie de estrategias para garantizar que los hallazgos futuros tengan mayor credibilidad. Estas incluyen realizar esfuerzos de replicación de hallazgos emergentes, confiar en tamaños de muestra más grandes y aprovechar medidas probadas a fondo. Otro es el prerregistro: delinear la hipótesis antes de realizar un estudio. Otro más son los informes registrados, en los que las revistas acuerdan publicar un estudio sin importar los resultados.
Además de los procedimientos específicos para frenar las prácticas de investigación poco confiables, han surgido muchas organizaciones dedicadas a la credibilidad y la transparencia a raíz de la crisis de replicación. Algunas de esas iniciativas incluyen Open Science Collaboration, Society for the Improvement of Psychological Science, Psychological Science Accelerator y PsyArXiv.