fbpx


Todos los días, los expertos forenses comparan pruebas (p. ej., huellas dactilares, balas) y deciden si “coinciden”, es decir, si provienen de la misma fuente (p. ej., una persona, un arma). Estas decisiones tienen implicaciones legales obvias, aunque el público cree que los errores son muy rarosla triste realidad es que solo No sé con qué frecuencia ocurren errores forenses.. Afortunadamente, la situación está cambiando. Las agencias gubernamentales han pedido investigaciones adicionales sobre la “caja negra”. para medir la tasa de error de los métodos forenses ampliamente utilizados.

Janet Tarbox/Flickr (CC BY-NC 2.0)

Fuente: Janet Tarbox/Flickr (CC BY-NC 2.0)

A principios de este mes me encontré con uno popular artículo titulado “Los expertos forenses son sorprendentemente buenos para determinar si dos muestras escritas coinciden”. El artículo describe un un nuevo estudio de comparación de escritura forense que, según el teaser, ha demostrado ser “eficaz si el examinador tiene la formación adecuada”. Se explicó además que los examinadores de este estudio se habían comprometido falso positivo errores, es decir, confundir muestras de escritura no coincidentes con una coincidencia, lo que implica falsamente a una persona inocente, solo el 3.1 por ciento de las veces.

Parecía una buena noticia, pero ¿era demasiado bueno para ser verdad? Decidí ir directamente a la fuente y leer el trabajo de investigación en sí. Por supuesto, la primera estadística que informaron los investigadores en su propio resumen de sus hallazgos es que los examinadores dieron falsos positivos solo el 3.1 por ciento de las veces. Pero a medida que continuaba leyendo, vi más y más razones para dudar de ese número.

¿De dónde vino el 3,1 por ciento?

En el estudio, 86 expertos forenses analizaron 100 muestras de escritura a mano y decidieron si cada conjunto “coincidía”. Porque los investigadores sabían si cada conjunto Realmente escrito por la misma persona), luego podrían contar la cantidad y los tipos de errores que cometieron los examinadores.

En total, los 86 examinadores de este estudio emitieron 6576 juicios únicos, incluidos 2863 juicios conjuntos coincidentes y 3713 juicios conjuntos no coincidentes. De estos últimos, los examinadores calificaron incorrectamente las muestras inapropiadas escritas por la misma persona 114 veces, con una tasa de error falso del 3,1 por ciento (114/3713).

Decidir no decidir

Podría preguntarse: con 86 examinadores y 100 conjuntos de escritura a mano, ¿no debería haber un total de 8600 juicios? Pero como no había examinadores es requerido juzgar los 100 conjuntos, algunos simplemente optaron por no juzgar. De hecho, solo 45 examinadores calificaron los 100 conjuntos, mientras que 16 examinadores respondieron menos de la mitad de los conjuntos.

No podemos saber por qué algunos examinadores fallaron en ciertos conjuntos; tal vez estaban demasiado ocupados o tenían dificultades técnicas. Pero si los examinados evitaran conjuntos particularmente difíciles, un lujo que no tienen en el mundo real, entonces los resultados del estudio sobrestimarían sus verdaderas habilidades. Por analogía, imagine si su puntaje SAT se basara solo en las preguntas que eligió responder; algunas personas responderían las preguntas más fáciles, se saltarían las más difíciles y obtendrían una puntuación demasiado alta.

Los expertos en este estudio también pudieron calificar los conjuntos de escritura a mano como “no concluyentes”: ellos mismos fueron hacer en el mundo real si sintieran que no había suficiente información para justificar una decisión en cualquier dirección. De los 3.713 juicios totales de conjuntos no coincidentes, 547 no fueron concluyentes.

Los investigadores argumentaron cuando, en todo caso, los juicios inconclusos deben considerarse correctos— pero este estudio en realidad los contó como siempre corregirlos incluyéndolos en el denominador del cálculo de la tasa de error. Es decir, si el examinador eligió “no concluyente” 100 veces, tendría una tasa de error del 0 por ciento (0/100). Pero para saber con qué frecuencia los examinadores decisión fueran incorrectos, debemos eliminar los juicios no concluyentes de este cálculo, lo que aumentaría la tasa de error al 3,6 por ciento (114/3166).

¿Cuestión de grado?

Pero se pone mucho peor. Cuando los examinadores decidieron de cualquier manera, también indicaron si pensaban que su decisión era “definitivamente” o “probablemente” correcta. Es importante destacar que las decisiones solo se consideraron erróneas si el examinador era incorrecto e incorrecto. cierto, que sucedió 114 veces. Pero si el examinador calificó el conjunto inapropiado como aparentemente coincidencia, no se consideró un error, y sucedió 147 veces más.

Marca de dominio público 1.0

Fuente: Marca de dominio público 1.0

Sin embargo, los jurados no hacen esta distinción. en un estudio reciente, por ejemplo, los jurados simulados fueron igualmente persuadidos por el testimonio de un experto en armas de fuego si describió su opinión como “cierta” o “más probable que no”. Por lo tanto, en la práctica, las decisiones “probables” pero incorrectas no son menos dañinas que ciertas, y tenerlas en cuenta eleva la tasa de falsos errores a un asombroso 8,2 por ciento (261/3166).

Lecciones aprendidas

En general, una mirada más cercana a este estudio cuenta una historia muy diferente a la del artículo que me llevó a él. Mirando solo los casos en los que los expertos optaron por tomar una decisión, acusaron erróneamente a una persona inocente el 8.2 por ciento de las veces y, por ejemplo, otros estudios de medicina forense, estas estimaciones se realizaron en condiciones favorables (p. ej., muestras largas, sin presión de tiempo), por lo que la tasa de error del mundo real puede ser aún mayor. Además, los mismos investigadores publicaron un segundo estudio de “caja negra” de comparaciones de calzado que plantea preocupaciones similares.

No quiero denigrar a estos investigadores; su trabajo es fundamental para la mejora criminalística, y este estudio fue impresionantemente ambicioso, minucioso y transparente. Tampoco quiero menospreciar al periodista que lo informó. Más bien, mi propósito aquí es resaltar el valor, pero también las dificultades, de una comunicación académica clara y precisa.

A menudo existe la tentación de reducir los resultados de un estudio complejo a un número significativo, incluso si es engañoso. Los periodistas deben ser atento que los muros de pago y el analfabetismo científico impiden que muchos lectores critiquen la investigación original por sí mismos, por lo que es probable que sus informes se tomen como un hecho. Para ayudar con esto, los investigadores también deberían trabajar con los periodistas para asegurarse de que sus reportajes reflejen los matices de su trabajo. El diablo puede estar en los detalles, pero esto también es cierto.



Source link