[ad_1]
Fuente: Pavlo Danyliuk/Pexels
Los economistas del comportamiento y otros han estudiado durante mucho tiempo cómo surgen las instituciones de gobierno a través de la investigación de laboratorio. Toma de decisiones experimentos en los que los participantes pueden elegir reglas e instituciones votando o eligiendo individualmente una de varias opciones disponibles para ellos. Hay configuraciones clásicas situaciones de dilema socialen el que todos los miembros de un grupo o sociedad pueden estar mejor si todos contribuyen a algún esfuerzo grupal o resisten la sobreexplotación de un recurso común, pero cada miembro enfrenta un incentivo individual para eludir su papel.
Mucha investigación sugiere que en las sociedades modernas el individuo modal prefiere cooperar siempre que los demás lo hagan, y que una proporción significativa de individuos cooperativos también está dispuesta a asumir costos para castigar a los que no cooperan. La presencia de un compañero castigo luego se estabiliza cooperación— tan efectivo, en algunos estudios, que algunos teóricos del comportamiento sugieren que es enfado los infractores de reglas son un rasgo seleccionado evolutivamente de la naturaleza humana.
Surge naturalmente una pregunta: ¿por qué las sociedades crean instituciones centralizadas para hacer cumplir las reglas y por qué en muchas situaciones la aplicación individual de reglas no se percibe como vigilancia? Por supuesto, la respuesta depende en parte de la escala del problema de la acción colectiva: la coerción recae naturalmente en los propios miembros del grupo en un grupo muy pequeño (digamos, compañeros de habitación o copropietarios de una pequeña tienda), pero las instituciones formales se asignan en a gran escala (imponiendo la recaudación de impuestos a millones de hogares).
Habiendo estudiado esta cuestión de una forma más simple, los investigadores han abordado recientemente aspectos más complejos, como el efecto de la información inexacta, que puede conducir al castigo de los inocentes y la liberación de los culpables. La investigación inicial realizada por economistas experimentales encontró, como era de esperar, que cuando se sabe que los informes sobre el nivel de cooperación son propensos a errores, el castigo uno a uno (igual) funciona con menos eficacia.
De manera algo tranquilizadora, en los estudios realizados por Andreas Nicklish, Christian Toni y mi estudio de seguimiento, descubrimos que muchos participantes están dispuestos a pagar al menos un pequeño costo para mejorar la calidad de la información que reciben a fin de castigar de manera más «justa». .» En nuestro estudio, no solo hubo efectos positivos en la cooperación y las ganancias, sino que también encontramos evidencia de que los posibles castigadores incurrían en mayores costos de monitoreo (es decir, mejor información) que los requeridos en términos de efectividad disciplinaria, aparentemente debido a un deseo de justicia punitiva. un bien en sí mismo.
En un estudio más reciente, que pronto se publicará en el Journal of the London School of Economics Economía, Thomas Markussen, Liangjun Wang y yo examinamos cómo saber que los niveles de cooperación se observan “ruidosamente” (es decir, con una probabilidad conocida de error) afecta las preferencias de los participantes para asignar la responsabilidad del castigo a los miembros individuales del grupo. Una alternativa es tener un algoritmo centralizado, que se puede suponer que representa un estado impersonal, castiga automáticamente cuando se recibe un mensaje de no cooperación.
Es importante destacar que la información del estado o del algoritmo es inexacta con la misma frecuencia que los informes de los participantes individuales en una versión del experimento en la que ambos reciben información imperfecta. También examinamos tratamientos en los que ambos reciben información perfecta y aquellos en los que solo los individuos o solo el estado reciben información imperfecta. La información imperfecta llega con un 10 por ciento de posibilidades, y su aleatoriedad impide que se realicen conjeturas efectivas sobre qué informes son falsos y cuáles son exactos.
Comenzamos replicando el resultado anterior: el castigo centralizado y el basado en pares son igualmente populares cuando la información es perfecta, los grupos son pequeños y el esquema centralizado está disponible a un costo moderado. Luego encontramos que cuando solo los miembros del grupo o solo el castigador central reciben información imperfecta, los participantes votan más para poner el castigo en manos de los mejor informados, un resultado que puede verse como inesperado y, en cierto modo, simple confirmación de que los participantes están despierto y con ganas de ganar más.
Sin embargo, observamos que el alejamiento del castigo entre pares es significativamente más pronunciado que el alejamiento del castigo centralizado cuando solo uno sufre de información imperfecta. Finalmente, encontramos que cuando la información que fluye hacia los miembros del grupo y el dispositivo de castigo central es igualmente imperfecta, significativamente más grupos eligen castigar el dispositivo, o lo que podría llamarse castigo algorítmico (simplemente un procedimiento en un programa de computadora experimental que calcula las ganancias de una persona de la que se informa que no ha contribuido al bien público, incluso si el informe es falso, ya que esto es el 10 por ciento de las veces).
¿Por qué los participantes de nuestro experimento prefieren el algoritmo al castigo individual cuando ambos se ven igualmente afectados por la información falsa? Nuestro análisis muestra que la explicación radica en malestar psicológico sobre participar en acciones punitivas, sabiendo que el objetivo puede ser inocente.
A través de un análisis teórico, mostramos que para que la posibilidad del castigo funcione bien como elemento disuasorio de los obsequios, el monto del castigo impuesto cuando se informa que un miembro del grupo no contribuye debe ser mayor con información imperfecta que con información perfecta. Pero nuestros participantes en realidad castigan menos, no más, cuando se sabe que la información contiene errores aleatorios, lo que sugiere que las preocupaciones sobre castigar a los inocentes superan las preocupaciones instrumentales para un número significativo de sujetos.
También analizamos los votos de los participantes sobre si permitir el castigo entre pares o establecer un esquema de castigo central. Los participantes primero deben involucrarse en algunos períodos de interacción sin castigos, algunos con castigo de compañeros y otros con un esquema de castigo central. Luego votan entre castigo igual y central al comienzo de cada uno de los tres períodos de interacción. Preguntamos si la frecuencia de votar por un enfoque sobre otro se explica bien por la diferencia en las cantidades ganadas por participantes específicos en cada enfoque en las primeras etapas.
Nuestro análisis muestra que hay más votos en contra del enfoque de castigo entre iguales cuando la información es imperfecta de lo que puede explicarse únicamente por las diferencias de ingresos. Argumentamos que la explicación basada en preferencias para esto evita la “lucha de dudas” sobre si castigar o no.
Nuestra investigación representa una parte muy específica de lo que sin duda será una de las preguntas más importantes que enfrentará la sociedad en las próximas décadas: en qué situaciones queremos confiar plenamente en los autómatas y en qué situaciones queremos dejar las decisiones a los humanos. agentes? Aunque algunas de las áreas cubiertas pueden requerir un análisis basado completamente en consideraciones de qué modo producirá menos errores (por ejemplo, en el caso de un conductor o un automóvil controlado por computadora), la psicología normativa también requerirá consideración. La impersonalidad de la aplicación centralizada de reglas puede ser, algo sorprendente para Franz Kafka, una de las virtudes por las que a veces se la prefiere.
[ad_2]
Source link