fbpx

[ad_1]

Estudio Maxx/Shutterstock

Fuente: Estudio Maxx/Shutterstock

Todos hemos visto los titulares opuestos:

  • Consumo moderado de alcohol Alcohol ¡Bien por usted! vs. ¡Ninguna cantidad de alcohol es segura!
  • ¡La marihuana puede ayudar a mejorar la salud mental! ¡El uso prolongado de marihuana puede ser peligroso!
  • Causas de la deficiencia de serotonina depresión! ¡La lucha contra la serotonina no tiene nada que ver con la depresión!
  • ¡Las vacunas de ARNm eran necesarias para controlar el COVID! ¡Las vacunas anti-ARNm causan más muertes de las que previenen!
  • ¡La colonoscopia puede ayudar a prevenir la muerte por cáncer colorrectal! contra las colonoscopias puede no ser eficaz para prevenir las muertes por cáncer.

Esta es solo una pequeña parte de los titulares opuestos. ¿Cómo puede alguien saber qué titular creer?

La respuesta resulta bastante complicada. En primer lugar, es importante leer el artículo de noticias real porque a veces el titular no refleja con precisión la historia. Por ejemplo, los titulares recientes sobre la ineficacia de la colonoscopia deberían haber dicho con mayor precisión: “Las pautas de la colonoscopia no ayudan a prevenir la muerte si no se siguen las pautas”. En otras palabras, las colonoscopias contribuyen en gran medida a mantener con vida a las personas mientras las tienen.

Incluso si el título refleja con precisión el artículo, los datos científicos que el artículo puede estar reportando pueden ser incorrectos. En mi experiencia, la mayoría de los estudios médicos publicados en las principales revistas tienen fallas que deberían poner en duda su interpretación. Desafortunadamente, a menos que el lector evalúe los estudios científicos informados de manera cuidadosa y sofisticada, es imposible saber si las conclusiones informadas son válidas.

Las causas comunes de estudios defectuosos que conducen a resultados aparentemente contradictorios incluyen estudios mal diseñados, mala interpretación de los resultados y generalización excesiva de los hallazgos. Desafortunadamente, también tenemos que lidiar con estudios publicados que contienen resultados falsificados, como un estudio de 1998 que afirmaba falsamente vincular la vacuna MMR con el desarrollo autismo.

Un ejemplo de un estudio hipotético mal diseñado

En un estudio hipotético, se prueba la eficacia de un fármaco en el tratamiento de una enfermedad. Los pacientes del estudio no son evaluados por la gravedad de la enfermedad. Se informa que el fármaco no es beneficioso en el tratamiento de la enfermedad. Un examen más detallado revela que la mayoría de los pacientes tenían una enfermedad muy leve. Por lo tanto, la falta de una mejora significativa demostrada con el fármaco puede deberse a un margen mínimo de mejora.

Otra falla de diseño común ocurre cuando se incluyen muy pocos participantes en un estudio. Con un pequeño número de pacientes, es menos probable que la intervención resulte beneficiosa, ya que el análisis estadístico requiere un gran número de pacientes para demostrar que la diferencia observada no se debe únicamente al azar.

Otras debilidades incluyen casos en los que los pacientes se autoseleccionan para el estudio (lo que significa que no son representativos de la población general) o cuando los investigadores buscan patrones en sus datos una vez que se completa el estudio. El problema con la última estrategia es que, por lo general, se pueden identificar patrones aleatorios y sin sentido al examinar los datos después de la recopilación.

Un ejemplo de mala interpretación de los resultados

En el mismo estudio hipotético anterior, los investigadores querían identificar posibles factores de riesgo para desarrollar la enfermedad en cuestión. Descubrieron que los participantes del estudio que fumaban cigarrillos tenían más probabilidades de desarrollar la enfermedad. Así lo informan los investigadores de fumar puede causar la enfermedad, lo que parece obvio ya que la gente sabe que fumar puede ser malo para uno.

Un análisis más sofisticado sugeriría que una variable común (como un Estresante vida) podría llevar a que los pacientes comenzaran a fumar y también a ser más propensos a desarrollar la enfermedad. Recordando el adagio de que la correlación no significa causalidad, podemos concluir más correctamente que la asociación del tabaquismo con la enfermedad no significa que el tabaquismo haya causado la enfermedad.

Desafíos académicos y habilidades Lectura básica

Un ejemplo reciente de una posible interpretación errónea de los resultados es un estudio de más de 2000 niños en el que se encontró que aquellos que jugaron videojuegos 21 horas a la semana obtuvieron mejores resultados en las pruebas de habilidades cognitivas que midieron el control de los impulsos y el funcionamiento ejecutivo memoria en comparación con niños que nunca jugaron videojuegos (Chaaran, 2022). Los medios han insinuado que los videojuegos pueden ayudar a mejorar la función cognitiva.

Sin embargo, otras explicaciones del vínculo entre los juegos y una mejor función cognitiva incluyen que los niños con una mejor función cerebral tienen más probabilidades de jugar videojuegos. O las familias que no les dan a sus hijos acceso a los videojuegos tienen más probabilidades de ser pobres y, por lo tanto, es menos probable que brinden a sus hijos un entorno propicio para el desarrollo cognitivo.

Un ejemplo de sobregeneralización de los resultados de la investigación

El mismo fármaco probado en el estudio hipotético anterior se probó en otro estudio hipotético. Para participar en este estudio, los pacientes tenían que estar muy enfermos. Se informa que la droga hace maravillas con la enfermedad. Sin embargo, resulta que la mayoría de los pacientes con esta enfermedad en la población general tienen una forma leve, por lo que no se les debe recetar el medicamento porque no les hará mucho bien.

Tipos similares de errores de generalización ocurren cuando los resultados de un estudio en una población específica, como estudiantes universitarios, se aplican a una población general que incluye niños y ancianos.

Un ejemplo de prueba que puede confundir a un no experto

Con muchos estudios, un laico puede evaluar adecuadamente la validez de ciertos estudios científicos, pero tal persona puede necesitar desarrollar experiencia en el campo científico relevante para hacer una evaluación adecuada.

Por ejemplo, aquí está la “prueba” de que 2 + 2 = 5. ¿Puedes encontrar la falla?

  1. Como 0 = 0, también podemos decir: 4 – 4 = 10 – 10
  2. Manipulamos ambos lados de la ecuación sin cambiar la igualdad: 22 – 22 = (2×5) – (2×5)
  3. Luego, manipulamos la ecuación sumando (2 – 2) a ambos lados sin cambiar la igualdad: (2 + 2) x (2 – 2) = 5 x (2 – 2)
  4. El álgebra te permite realizar la misma operación matemática en ambos lados de una ecuación. Después de dividir ambos lados de nuestra ecuación por (2 – 2), verás que 2 + 2 = 5

Algunas personas notan inmediatamente la falla en esta “demostración”, mientras que a otras les resulta difícil porque no saben o no recuerdan la regla básica de las matemáticas. Dado que la gente cree que 2 + 2 no puede ser igual a 5, pueden argumentar que la falla en esta prueba radica en uno de los tres primeros pasos. Pero esto está mal. Una regla matemática para recordar es que no puedes dividir por 0, y eso es lo que haces en el paso 4 si divides cada lado por (2 – 2), que es 0.

La gran cantidad de personas que intentan encontrar fallas en este ejemplo simple muestra lo difícil que puede ser encontrar fallas en investigaciones científicas publicadas.

Llevar

Dado que el lector casual de artículos de noticias y estudios no puede juzgar la validez de los resultados y conclusiones informados, creo que los cambios significativos en su vida solo deben realizarse después de consultar con un experto en el campo que haya evaluado completamente la literatura publicada.

[ad_2]

Source link