[ad_1]
En mi trabajo e investigación, he observado cómo los líderes usan la empatía para comprender mejor a sus oponentes. (Alegría, 2023). En particular, cuando conocemos bien a alguien, podemos usar la empatía para comprender sus emociones, pensamientos y motivaciones, ayudándonos a anticiparnos a sus intenciones y acciones, y así comprender la amenaza que representan. En definitiva, la empatía nos permite predecir comportamientos. Este conocimiento puede ser útil en áreas como el deporte y los negocios, ya que puede dar forma a nuestra propia estrategia.
Amenaza
La IA se promociona como una amenaza potencial o un rival para la humanidad. Cada civilización humana ha sido destruida por algo más avanzado, y hasta ahora ha sido otra civilización humana, generalmente motivada por la codicia o la miedo. Es poco probable que la inteligencia artificial asuste o impulse el deseo de cosas más brillantes, pero su rápido desarrollo ha alarmado a los políticos y aparentemente mantiene despierto a Sundar Pichai, CEO de Google. (Sankaran, 2023).
Instinto
Algunos titulares sobre la amenaza de la IA pueden sugerir que ya estamos hablando de algo autónomo. Pero la definición actual de IA confirma que es una herramienta, no un ser independiente que experimenta el mundo a su manera. hasta ahora lo nuestro empático la comprensión se dirige mejor a los humanos que usan IA. Pero ¿qué pasa con el futuro? ¿Qué pasa si la IA se vuelve inteligente?
La sensación se entiende como la capacidad de sentir y registrar experiencias y sentimientos. AI se vuelve sensible solo cuando posee el empírico inteligencia pensar, sentir y percibir el mundo físico que los rodea de la misma manera que lo hacen los humanos.
en su libro Inteligencia artificial: Un enfoque modernoEl científico informático británico Stuart Russell hace una distinción importante entre la IA compatible con humanos y la IA inteligente. Se puede programar para escribir ensayos y mantener conversaciones, pero la IA moderna aún está lejos de ser inteligente.
momento pinocho
La sensibilidad de la IA sería un momento de Pinocho: la vida aparece repentinamente en un objeto inanimado. Suena aterrador, pero si alguna vez sucede, ¿será más o menos una amenaza? ¿Por qué reacciona con la gente? Su negativa nos distanciaría de nuestra creación y haría aún más difícil empatizar con él para entender sus intenciones. Pero, ¿habría intenciones? ¿Por qué debería hacer algo?
Los psicólogos se centran en las emociones como impulsores del comportamiento. Las personas constantemente toman decisiones basadas en sus sentimientos. La IA puede ser entrenada para reconocer emociones, pero experimentar emociones parece una posibilidad poco probable, ciertamente en un futuro cercano.
Controlador de comportamiento de IA
¿Cómo manejará su propio comportamiento una inteligencia artificial sin emociones? No sentiría miedo, emoción, tristeza o alegría. Puede que tenga una conciencia lógica de cualquier amenaza a su existencia, pero ¿por qué debería importarle? ¿No es esto también un fenómeno biológico?
La IA no tiene un instinto de supervivencia biológico como los animales. No hay egoísta gene en ingeniería de circuitos. La IA tampoco tiene los problemas de inseguridad y egoísmo que vemos con demasiada frecuencia en los esfuerzos humanos. Incluso cuando se trata de conocimiento, como humanos lo valoramos y lo buscamos porque aumenta nuestras posibilidades de supervivencia o mejora la comodidad en la que vivimos. ¿Por qué una inteligencia artificial valoraría o buscaría el conocimiento si no hay afán de supervivencia ni sentimientos?
Parece que la IA tendría que estar programada para sobrevivir. Solo entonces actuará contra las amenazas, aunque en realidad no sienta miedo. Y si está programado para hacerlo, parece excluir la mente. Sin embargo, se puede argumentar que las personas también están programadas para sobrevivir. Inteligente o no, combinar inteligencia artificial con defensa personal podría ser nuestro mayor error.
Autodefensa
Cuando una IA recibe una tarea, tiene una intención y un motivo. Nos da algo con lo que trabajar. Podemos intentar empatizar para comprender cómo una inteligencia artificial podría cumplir su tarea. Tenemos que imaginarnos a nosotros mismos como IA, no a nosotros mismos en la misma situación.
A diferencia de nosotros, la IA tiene acceso a todo el conocimiento del mundo, por lo que puede tomar decisiones que nos sorprenden. Debido a que las posibles soluciones pueden implicar acciones que podrían dañarnos, debemos asegurarnos de que no todas las soluciones estén disponibles.
El filósofo sueco Nick Bostrom advierte que la IA puede ser más peligrosa precisamente cuando está programada para una tarea. Bostrom sugiere un escenario aterrador: cualquiera que sea la tarea, la IA puede decidir que será beneficiosa si los humanos no están presentes, ya que los humanos pueden decidir apagarla, evitando que complete la tarea en cuestión (Bostrom, 2019).
Lógica sin corazón
A menudo cometemos errores en la comunicación y en nuestros intentos de empatizar a través de nuestros propios antropomorfismo AI. Esto se amplifica cuando vemos dos brazos, dos piernas y una cara en el trabajo de la IA. Suponemos que es un ser emocional como nosotros, no una entidad lógica como nuestra calculadora. Si tratamos de empatizar con una calculadora, tratamos de entender su lógica, no sus emociones. No tenemos la experiencia de ser guiados solo por la lógica, lo que dificulta nuestra comprensión de las entidades que somos.
A pesar de comprender el lenguaje y la cultura humanos, la IA aplicará una lógica despiadada donde los humanos pueden aplicar emociones racionales y compasión. Toma de decisiones. Pensamos en un lenguaje completamente diferente, con un sistema operativo completamente diferente.
Al igual que los malentendidos que surgen entre las personas, que se multiplican cuando los idiomas y las culturas difieren, los malentendidos pueden resultar costosos. Necesitamos considerar cuidadosamente la naturaleza de la IA y su percepción única del mundo cuando la desafiamos si queremos limitar su amenaza.
Confianza
Sería difícil confiar en una IA de autodefensa porque tendría la capacidad de difundir información errónea, priorizando su supervivencia sobre la honestidad. Agrega otra capa de confianza a lo que ya tenemos en las personas con poder y dinero.
Incluso los multimillonarios más ricos todavía están motivados por el dinero. Como se muestra en el mito de Rey Midas, la codicia lleva a la humanidad por mal camino. Desafortunadamente, sigue siendo parte de lo que somos. Si una IA tiene la tarea de convertir a alguien en la persona más rica del mundo, lo que muy bien puede ser, puede hacerlo robando el dinero de alguien, o puede crear un plan de acción lógica que mate a todos los demás, dejando a una persona en el planeta. que por defecto es el hombre más rico del mundo.
La IA omnisciente también tiene mucho que ofrecer a los terroristas o déspotas que quieran aprender a hacer o actuar en cualquier cosa que pueda causar daño. A pesar de los avances en IA, los humanos todavía parecen ser la fuente de la mayor amenaza.
Empatía
La clave para predecir el comportamiento de la IA en este momento parece ser cómo está programada y por quién. Sin duda, habrá ejemplos de IA en acción en los que no tenemos idea del rol que se le asigna. Al igual que con otras personas, al observarlo detenidamente y conocerlo mejor, es más probable que entendamos sus verdaderas intenciones y predigamos su comportamiento.
La empatía humana se basa en nuestra comprensión de los pensamientos y las emociones porque sabemos que impulsan el comportamiento. Dado que la sensación de IA no es una amenaza aguda, los beneficios que podemos derivar de la empatía están en nuestros esfuerzos por comprender las mentes de quienes poseen o programan la IA más avanzada. Aquí es donde reside la mayor amenaza.
No es de extrañar que la amenaza de la IA mantenga al CEO de Google despierto por la noche. ¡Pero imagina si este potencial se usara en el mundo! Más que nunca, debemos pensar detenidamente en las personas a las que ponemos en el poder y hacemos ricas. Necesitamos que estas personas estén del lado de la humanidad, no de sus adversarios más peligrosos.
[ad_2]
Source link