fbpx

[ad_1]

Fuente: 0fjd125gk87/Pixabay

Fuente: 0fjd125gk87/Pixabay

Estás emocionado o agitado sin parar Inteligencia artificial (IA) ¿bombo? Si es estudiante, podría pensar que la IA puede ahorrarle tiempo o darle una ventaja competitiva. Si eres profesor, la llegada de la inteligencia artificial significa que monitorear la integridad académica se ha vuelto exponencialmente más difícil, o al menos requiere mucho tiempo. Si es un creador o editor de contenido, se ha enfrentado al dilema de la originalidad, la autoría y el plagio. En diversas situaciones, los usuarios de inteligencia artificial son vulnerables a cuestiones éticas, morales y legales sobre lo que es o no un uso adecuado de las nuevas tecnologías.

Artificial Inteligencia se refiere al desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requieren inteligencia humana, como la percepción visual, reconocimiento de voz, Toma de decisionesy traducción de idiomas (Chat GPT, 2023a). Al igual que con la introducción de otras tecnologías nuevas y desconocidas, la inteligencia artificial inspira miedo y inquietud en muchas personas. La gente está preocupada por todo, desde la sustitución de sus trabajos por inteligencia artificial hasta la eventual desaparición de la humanidad como resultado de la propagación de la IA. Tenga en cuenta que las mismas preocupaciones surgieron con el advenimiento de la imprenta (alrededor de 1436), la radio y Facebook (ahora llamado Meta); sin embargo, ninguna de estas nefastas predicciones se hizo realidad (Bell, 2010). Al igual que la tecnología anterior, la inteligencia artificial es una herramienta diseñada para asistir, no reemplazar, el juicio humano y productividad.

Sin embargo, los beneficios previstos de la IA son limitados por al menos tres razones. Según el sistema de IA “Chat GPT” (2023b), la IA carece de sentido común y comprensión contextual y es limitada arte y no intuición, y tiene una capacidad mínima para comprender e interpretar las emociones y el comportamiento humanos. En otras palabras, el aprendizaje automático no reproduce bien el pensamiento y el razonamiento humanos porque la máquina carece de inteligencia. La falta de capacidad para usar y expresar emociones es una clara desventaja en comparación con los humanos. Fuerte evidencia empírica muestra que a través de tipos de carreras y culturas, los grandes triunfadores inteligencia emocional son mucho más efectivos que sus pares estrictamente lógicos o insensibles (O’Boyle et al., 2011).

Si bien la IA se puede utilizar para mejorar la productividad y el conocimiento, se necesita precaución para contrarrestar los inconvenientes mencionados anteriormente. Se establece el apoyo a estos liderazgo y las tácticas de evaluación pueden eliminar esencialmente las trampas de la IA.

en el lugar de trabajo

Desde una perspectiva de liderazgo, reste importancia a los plazos y, en su lugar, céntrese en la innovación. Cuando están bajo presión, las personas a menudo buscan soluciones rápidas y recurren a métodos que brindan una gratificación instantánea. En el futuro, espere que las solicitudes obligatorias de IA se conviertan en algo común.

En lugar de buscar soluciones inmediatas y miopes, reserve tiempo para resolver el problema que incluye cooperación y lluvia de ideas en grupo para aprender métodos poco ortodoxos para resolver problemas de negocios. Ayudar a los miembros del equipo a ser innovadores a través de la tolerancia a la ambigüedad y la recompensa por los errores, lo que finalmente contribuirá al crecimiento organizacional (Iberra et al., 2018). Use IA solo cuando se necesite conocimiento basado en hechos o cuando optimice procedimientos estandarizados para procesos comerciales repetitivos.

Minimizar el uso de la IA por parte de los estudiantes

Los instructores pueden cambiar los tipos de evaluaciones para minimizar el uso de IA. En términos de aprendizaje, además de usar el software de detección de IA, enfóquese en evaluaciones que midan la creatividad o apliquen el conocimiento en contextos específicos en lugar de solo evaluar la precisión. Evite el uso de conocimientos de reconocimiento y recuperación al eliminar las preguntas de opción múltiple. Minimice el uso de ensayos que se centren en regurgitar el conocimiento de una sola fuente y requieran la reorganización de la información como núcleo de la evaluación. En su lugar, pida ejemplos de la vida de los estudiantes que se centren en aplicar el conocimiento para resolver problemas reales o hipotéticos.

Enfatice los problemas que son reales y relevantes para los estudiantes, y permita múltiples soluciones alternativas creativas en lugar de una sola respuesta correcta. Finalmente, pregunte a los estudiantes sobre sus sentimientos y emociones como resultado de adquirir conocimientos específicos, ya que la IA no tiene la capacidad de sentir o experimentar emociones o sensaciones físicas. Cuando un estudiante puede explicar cómo utilizará personalmente el conocimiento, la IA tiene un valor mínimo.

Concentrarse en el futuro

La inteligencia artificial tiene dificultades para predecir el futuro, excepto en un sentido muy general. Por ejemplo, la mayoría de los sistemas de IA modernos no pueden predecir el impacto de la introducción de un nuevo producto o servicio de la empresa. En términos de planificación estratégica o un desafío comercial, desarrolle situaciones hipotéticas que tengan poca relación con el trabajo publicado existente.

Le pregunté a Chat GPT: “Si supieras que te vas a quedar varado en una isla desierta, ¿qué tres artículos llevarías en tu viaje?” Antes de ofrecer un cuchillo, filtración de agua y fósforos, el sistema indicó: “Como modelo de lenguaje de IA, no tengo necesidades ni deseos físicos”. ¡La inteligencia artificial no puede ayudar a un cachorro o niña exploradora de 6 años!

Sobre una base más pragmática, plantee una pregunta hipotética a los que toman las decisiones, como: “¿Qué haríamos si se descubriera que una de nuestras líneas de productos es ilegal?” Este tipo de escenarios hacen que la IA sea pragmáticamente inútil, y cuando hice este tipo de consultas, Chat GPT respondió repetidamente “Lo siento, pero sin más información no puedo determinar la respuesta a la pregunta”.

De ninguna manera se debe evitar por completo el uso de la inteligencia artificial, ya que la inteligencia artificial es una forma simple y rentable de resolver problemas repetitivos que tienen soluciones estandarizadas. Recuerde que la naturaleza basada en evidencia de la IA no exime a las personas u organizaciones de responsabilidades éticas y morales (Holbin et al., 2020), incluido el cumplimiento de todas las leyes de derechos de autor y propiedad intelectual. La IA responsable implica reconocer que la integridad profesional o académica es un tema complejo con muchos factores e implicaciones. Abordar las causas fundamentales del uso poco ético de la IA puede ayudar a reducir el uso indebido y crear un entorno de aprendizaje y productividad más solidario y equitativo que incorpore las últimas tecnologías.

[ad_2]

Source link