fbpx

[ad_1]

Gerd Altman/Pixabay

Crédito: Gerd Altmann/Pixabay

en mi última publicación, presenté una descripción general de la arquitectura de elección y argumenté que puede haber un desajuste entre los deseos del arquitecto de elección y los deseos del tomador de decisiones. Dado que los arquitectos de elección a menudo tienen poca comprensión de las preferencias y los valores de aquellos a quienes buscan influir, simplemente no hay evidencia suficiente para concluir que los arquitectos de elección son generalmente capaces de saber qué opciones son las mejores para los intereses o las preferencias de la mayoría de las personas. Tomadores de decisiones.[1].

Mucho de lo que se discutió en la publicación anterior implicaba que un ser humano era el arquitecto elegido, usando evidencia de sesgos humanos para aumentar la frecuencia con la que se elegía la opción de arquitecto preferida. Muchas indicaciones hechas por humanos se enfocan en facilitar la elección de la opción preferida por parte del arquitecto de elección, por ejemplo, mediante la preselección de la opción predeterminada preferida (p. ej., activado o desactivado), colocando la opción preferida en una ubicación más fácilmente accesible (o identificable) (p. ej. , colocando fruta fresca a la altura de los ojos en la cafetería) o aportando información adicional que facilitará la elección deseada[2].

Pero, ¿qué pasaría si hubiera más datos disponibles para construir una arquitectura de elección con mayor precisión, de modo que los tomadores de decisiones tuvieran más probabilidades de responder de acuerdo con las preferencias del arquitecto de elección? ¿Se pueden usar tales datos para presentar información de una manera que aproveche más los sesgos idiosincrásicos de los tomadores de decisiones?

Big Data ciertamente existe, pero a las personas les lleva tiempo (mucho tiempo) extraer esos datos, y aún más convertirlos en conocimientos significativos que puedan ser utilizados por los arquitectos de elección. Incluso si la minería de datos impulsada por humanos puede proporcionar información útil, se basa en promedios humanos y no se adapta fácilmente a las tendencias idiosincrásicas de un usuario en particular.

IA autónoma y semiautónoma

En el entorno tecnológico actual, tanto la naturaleza laboriosa de la minería de datos como el desafío de adaptar directamente las opciones a los usuarios individuales se han vuelto mucho menos restrictivos. Hemos entrado en la era del mundo inteligente (como lo discutió Gerd Gigerenzer en un el ultimo pódcast), en el que ahora vemos que las decisiones de arquitectura de elecciones se toman de forma autónoma y semiautónoma Inteligencia artificial (AI; Molinos y Setra, 2022).

Tomemos, por ejemplo, las noticias en Twitter, Facebook u otras redes sociales. De forma predeterminada, la fuente de noticias no consta de los últimos tweets o publicaciones; es impulsado por un algoritmo[3] que determina qué publicaciones o tweets mostrarle y en qué orden. De acuerdo a Newberry y Zell (2021)Twitter dice que su algoritmo toma decisiones en función de los tuits de las cuentas que sigues, las cuentas con las que has interactuado, las recomendaciones que Twitter cree que les gustarán a los usuarios, el contenido con el que interactúan, «y más».[4]

Pero, ¿cómo se determinan? Aparte del hecho de que la IA solo tiene acceso a los datos que están disponibles a través del sitio (o que los usuarios dan permiso para usar) y ciertas restricciones establecidas por quienes diseñaron el sistema, nadie, ni siquiera la gente de Twitter, conocer la fórmula utilizada para determinar qué información ve un usuario en particular (Newberry & Sehl, 2021). Si bien una persona (o grupo de personas) puede ser responsable de configurar la arquitectura de datos del sistema y desarrollar restricciones para la IA, la IA puede trabajar de manera autónoma dentro de ese marco para decidir qué información presentar al usuario.[5]para animar al usuario a interactuar con el sitio[6].

El paternalismo libertario apoya la idea de utilizar la arquitectura de elección para influir en los tomadores de decisiones para que tomen las decisiones que mejor les convengan. ¿El algoritmo de Twitter (o cualquier otro algoritmo de redes sociales) sirve para este propósito?

En última instancia, la respuesta depende de si el contenido que recibe amplificación algorítmica (un término que Twitter usó en su último informe discusión de este fenómeno) es consistente con las preferencias del usuario. La amplificación algorítmica de contenido hace que sea más probable que los usuarios vean contenido que los haga interactuar con él.[7]. Pero la amplificación algorítmica también aumenta la probabilidad de una cámara de eco donde se amplificará el mismo pequeño conjunto de cuentas para un usuario.[8]incluso si ese usuario tiene intereses más amplios que los representados por estas cuentas[9].

El mismo tipo de análisis de datos asistido por IA ocurre en varios sitios de compras, como Amazon, y cuando los usuarios participan en Búsquedas de Google. IA de Amazonpor ejemplo, se basa en datos proporcionados por el usuario para controlar la información publicidad correos electrónicos, productos/búsqueda recomendados y otras formas personalizadas de influir en el comportamiento de compra.

Ahora imagine si alguno de estos sitios tuviera acceso a la información del usuario de muchos más sitios web. Dichos sistemas pueden extraer datos de sitios de compras, sitios de noticias, motores de búsqueda de Internet, bases de datos de terceros y otras fuentes para crear un gran conjunto de grandes datos impulsados ​​por el usuario que la IA puede extraer con fines predictivos. Con este conjunto de datos más amplio, la IA puede tomar decisiones rápidamente sobre qué anuncios mostrar a un usuario en particular, qué información priorizar en las noticias y qué sitios recomendar, todo con un claro interés en influir en el usuario de manera que beneficie al sitio. . .

Sin embargo, no hay necesidad de imaginar, porque eso es exactamente lo que ha hecho Facebook, recopilar datos de una amplia gama de actividades de los usuarios para crear una mina de oro publicitaria valorada en varios miles de millones de dólares al año (Dewey, 2016). De acuerdo a éxito (2021)sin embargo, algunos de estos pueden cambiar como resultado de las cambiantes expectativas de los consumidores, las normas digitales y las mejoras en la protección de datos y la privacidad en algunas plataformas.[10].

Pero incluso a medida que cambia Facebook, la IA se está volviendo cada vez más común en varios sectores comerciales. A medida que se expande y las diferentes empresas se interconectan más (a través de asociaciones y adquisiciones), existe un potencial cada vez mayor para utilizar grandes cantidades de datos propios de los usuarios para influir en ellos (para bien o para mal).

Problemas con la expansión de la IA

Uno de los principales problemas de extender la IA de esta manera es que las limitaciones impuestas a sus algoritmos predictivos dependen en gran medida de la previsión de quienes los programan. El problema aquí es que las personas a menudo no pueden ver las posibles consecuencias no deseadas debido a la gran cantidad de incertidumbre. Esto fue demostrado recientemente por el Sr. IA ética llamado Ask Delphi, que respaldó cometer genocidio como ético, aunque afortunadamente solo si hacía felices a todos (Dunhill, 2021).

Otro desafío importante es que la inteligencia artificial tiene el potencial de adaptarse constantemente a las elecciones de los tomadores de decisiones. Por lo tanto, una IA puede confiar en un sistema de avisos que aprenden continuamente cómo aumentar la probabilidad de que el tomador de decisiones tome la decisión deseada por el arquitecto de la elección (nuevamente, independientemente de las preferencias del tomador de decisiones).

El llamado hiper-nudge es un concepto que Molinos (2022) recientemente disecado. La constante adaptación de la IA a las elecciones de los tomadores de decisiones puede ser relativamente benigna, como en el caso de Google Maps, que ajusta constantemente sus direcciones en función de las elecciones realizadas por el tomador de decisiones para guiarlo a su preferencia. destino. Sin embargo, esa adaptación continua también puede ser perjudicial, como lo demuestran los escándalos de datos de Facebook y Cambridge Analytica.[11]. Setra (2019) concluir que tales tácticas pueden cambiar fácilmente de libertarias a coercitivas y manipuladoras, reconociendo que puede haber compensaciones entre libertarismo y utilidad[12].

Esto ha dado como resultado un entorno en línea en el que los consumidores son empujados casi constantemente de una forma u otra, a menudo sin tener en cuenta sus preferencias. Cuanto más interconectados se vuelven nuestros datos en línea, más probable es que los llamados sistemas de hiper-empujón aumenten su influencia en el comportamiento de las personas, para bien o para mal. Sin embargo, en qué momento estos sistemas comienzan a violar el libertarismo fundamental que empuja al empujoncito es actualmente un debate abierto.



[ad_2]

Source link