[ad_1]
Fuente: Imagen de Timon Ozemblewski/Pixabay
En mi ultima publicación, hablamos sobre cómo existe una preocupación generalizada sobre la desinformación en línea. Estas preocupaciones están mayormente justificadas efecto de tercera persona es la creencia de que la mayoría de la gente es estúpida y crédula, pero «nosotros» no lo somos. En mi opinión, el uso excesivo de información sobre posibles daños por desinformación es injustificado y distrae la atención de los problemas reales de la sociedad.
Parte de la preocupación por la desinformación se deriva del papel percibido que desempeñan los algoritmos de las redes sociales al impulsar a las personas hacia contenido ideológicamente más extremo. La historia es más o menos así: una persona moderada pero ingenua comienza a mirar publicaciones en una aplicación de redes sociales (como YouTube). Luego, el usuario cae en la proverbial madriguera del conejo, ya que el algoritmo recomienda más y más contenido marginal y extremista lleno de teorías de conspiración desacreditadas y prejuicio, lo que conduce a su radicalización. Al usuario inicialmente cuerdo se le lava el cerebro para convertirlo en un fanático fanático potencialmente violento. ¿Y por qué estas compañías de redes sociales están inventando una tecnología tan vil? Para ganar dinero, por supuesto. este paranoico fantasía ha llevado a muchos estadounidenses a creer que los algoritmos de Internet están socavando la democracia. Pero la investigación sobre este tema, de hecho, ha demostrado exactamente lo contrario.
Estudio de procesos algorítmicos
La mayoría de los algoritmos de redes sociales en realidad recomiendan más contenido convencional y moderado en lugar de contenido extremista. Las aplicaciones de redes sociales no solo «radicalizan» a las personas, sino que funcionan como una forma de que las personas expresen y compartan sus puntos de vista e identidades existentes.
Sabemos esto por el trabajo de científicos que investigaron sistemáticamente estos procesos algorítmicos. Por ejemplo, Mark Ledwich y Anna Zaitseva analizaron más de 800 canales políticos en YouTube, clasificándolos en contenido extremista (p. ej., teorías de conspiración, racismo, troleo) y contenido convencional (p. ej., noticias políticas, comentarios sociales). Recopilaron datos sobre lo que se recomendó después de ver videos de estas categorías.
Según su análisis, después de ver el canal principal, el algoritmo recomienda más del mismo contenido principal. Pero después de ver contenido extremista, es mucho menos probable que el algoritmo recomiende contenido extremista adicional. Las recomendaciones de YouTube disuaden activamente a las personas de ver más contenido extremista. Los autores concluyen: «Por lo tanto, nuestra investigación muestra que el algoritmo de recomendación de YouTube no promueve contenido propagandístico o radical».
El mito del contenido extremista
Pero, ¿por qué los algoritmos deberían redirigir a las personas lejos del contenido extremista? ¿No es más rentable el contenido extremista? Esto es un mito. Los algoritmos de las redes sociales operan sobre la base de la popularidad monetizada. Esto significa que cualquier publicación recibió muchas atención Lo más probable es que se recomienden los de otros usuarios. Esto hace que sea extremadamente difícil para el algoritmo recomendar cualquier tipo de contenido adicional porque tiene que competir con las principales empresas de medios como Fox News o CNN, que ya tienen la audiencia más grande y el contenido más popular. Los algoritmos tienden a promocionar publicaciones de organizaciones que gastan mucho dinero publicidad y promoción, y cuyo contenido tiende a ser más convencional. Es por eso que ha visto toneladas de anuncios de Geico y Allstate, pero probablemente nunca haya oído hablar de Lockhart Insurance Services.
Otros estudios
Otros estudios han mostrado resultados similares. En un análisis realizado en un grupo de participantes representativo a nivel nacional, un equipo de investigación dirigido por Annie Chen rastreó las actividades de los usuarios de YouTube mientras miraban videos (con su consentimiento). Primero, los investigadores encontraron que el contenido extremista es visto por un grupo muy pequeño y altamente concentrado de «superconsumidores»: menos del 2 por ciento de los participantes ven el 80 por ciento del contenido extremista. La gran mayoría de los usuarios rara vez, si alguna vez, encuentran contenido extremista, simplemente siguiendo las recomendaciones del algoritmo.
Una pequeña minoría de «superusuarios» normalmente expresó niveles bastante altos de sentimiento racista o sexista. Esto significa que sus puntos de vista no se han radicalizado por sus hábitos en las redes sociales. Ya eran radicales. Y lo más importante, el contenido extremista que veían se basaba en sus hábitos de navegación deliberados. No fueron recomendados por el algoritmo. La mayoría de los espectadores llegaron a videos extremistas directamente desde enlaces externos en otros sitios web o suscribiéndose a canales que muestran videos extremistas.
Al igual que en otros estudios, el equipo de investigación encontró «poca evidencia de la típica historia de la madriguera del conejo de que el algoritmo de recomendación a menudo lleva a las personas a contenido extremo». En resumen, las personas consumen contenido extremista cuando tienen vistas iniciales que se alinean con dicho contenido y lo buscan activamente.
Investigaciones como esta en realidad arrojan dudas sobre si las empresas de redes sociales están desarrollando algoritmos para subvertir la democracia. Y, sin embargo, esta idea persiste en nuestro imaginario popular. Acepta la extraña ironía. Las personas que muestran una preocupación excesiva por la radicalización de la desinformación en línea, paradójicamente, están difundiendo ideas falsas sobre cómo funcionan los algoritmos de las redes sociales. Espero que los periodistas, expertos y observadores públicos comiencen a adoptar un enfoque más responsable de la investigación científica sobre este tema.
[ad_2]
Source link