fbpx

[ad_1]

Crédito: Gerd Altmann/Pixabay

Crédito: Gerd Altmann/Pixabay

Muchas personas que pasan tiempo en Internet han oído hablar de ChatGPT. Los usuarios pueden ingresar pistas en el sistema y recibir respuestas casi instantáneamente, aunque la precisión de estas respuestas varía (Ramponi, 2022). Pero, ¿ChatGPT tiene la capacidad de saber o incluso estimar la precisión probable de su respuesta? Y si no, ¿ChatGPT se convertirá tanto en un experto en tonterías como en un experto curador de información?

Para explorar estas preguntas, es útil comenzar definiendo lo que quiero decir con “tonterías”.

Aunque a menudo usamos este término mierda significan muchas cosas diferentes Fráncfort (2005) argumentó que la mierda se refiere a la falta de respeto por la verdad que la distingue de acostada (es decir, cuando alguien sabe la verdad, pero la distorsiona deliberadamente). Básicamente, un tonto es alguien que comparte información sin prestar atención a la precisión de lo que se comparte. Frankfurt (2005) argumentó además que:

Las tonterías son inevitables cuando las circunstancias exigen que alguien hable sin saber de lo que habla. Por lo tanto, se fomenta la creación de tonterías siempre que la obligación o la capacidad de una persona para hablar sobre un tema es mayor que su conocimiento de los hechos relacionados con ese tema. (página 19)

Entonces, un tonto puede hacer lo que parece ser un argumento coherente, pero ese argumento no se limita necesariamente a los hechos reales. En otras palabras, un tonto habla (o escribe) sin prestar atención a la exactitud de la información. Entonces, la pregunta es si ChatGPT es más consciente de la precisión de la información que comparte que un tonto.

En una conversación reciente con ChatGPT, Chamorro-Premuzic (2023) informó que en respuesta a una pregunta sobre si ChatGPT deseaba poder realizar acciones similares a las de los humanos, como eructar, AILa respuesta establece que sus “capacidades se limitan a procesar datos y proporcionar respuestas a las entradas del usuario”. En consecuencia, ChatGPT se ve obligado a compartir la información que puede obtener de las diversas fuentes a las que tiene acceso. Esto significa que no puede ofrecer conclusiones, pruebas o afirmaciones que superen su base de conocimientos.

Pero esto no significa que no sea capaz de fig.

ChatGPT tiene más limitaciones que humano-humano porque no puede simplemente inventar cosas (es decir, tiene que tener datos para sugerir sus respuestas), mientras que humano-humano no tiene tal limitación. Sin embargo, la falta de capacidad para inventar cosas no significa que ChatGPT sea consciente de la exactitud de la información proporcionada.

en cambio Bender y Shah (2022) llamó a ChatGPT y otros grandes modelos de lenguaje nada más que loros estocásticos, lo que significa que “no tienen comprensión de lo que están produciendo, ni intención comunicativa, ni modelo del mundo, ni capacidad para hacerse responsables de la verdad de lo que dicen”. (pág. 3). Entonces, en pocas palabras, los sistemas de IA como ChatGPT podrían describirse mejor como tonterías más limitadas.

Podríamos pensar en ChatGPT como acceder a una caja de Lego muy, muy grande; tiene acceso a millones de Legos de diferentes formas y tamaños. Puede ensamblar estos Legos de diferentes maneras según la entrada del usuario. De acuerdo con la metáfora de Lego, ChatGPT se entrenó utilizando un amplio conjunto de instrucciones de construcción.

Así, cuando un usuario introduce una consulta, ChatGPT predice, en base a las instrucciones que le han enseñado, cómo montar Lego para que el usuario consiga lo que busca (por ejemplo, construir un castillo o un barco). Siempre que pueda predecir con cierto grado de precisión qué Legos armar y de qué manera, es probable que produzca lo que parece ser consistencia. Pero en realidad, no sabe nada y no piensa antes de responder.

Entonces, si bien puede proporcionar una respuesta consistente, la consistencia no es sinónimo de precisión.

Muchos seres humanos son muy buenos para hacer argumentos coherentes que suenan perfectamente plausibles para el profano, pero que a menudo son completamente inventados. El hecho de que una respuesta sea consistente y suene plausible no la hace precisa. De hecho, una buena diatriba sabe cómo dar lo que suenan como respuestas educadas sin saber qué tan precisas son esas respuestas. Y mientras que los expertos en la materia pueden juzgar la validez de las afirmaciones hechas por idiotas humanos, el público en general a menudo no lo hace, especialmente cuando el tema es más complejo (o parece ser, como en el caso de BS pseudocientífico) o esotérico.

Y no es diferente con ChatGPT. A menos que un usuario solicite un tema para el que ChatGPT no pueda proporcionar una respuesta consistente (la respuesta es claramente inconsistente o poco clara), un usuario que no tenga experiencia en el tema no tiene forma de saber qué tan precisa es la respuesta.

ChatGPT también es en gran medida incapaz de ofrecer una evaluación verdaderamente informada del peso de la evidencia que respalda conclusiones contradictorias (excepto los argumentos sobre los que hay bastante consenso, como la teoría de la Tierra plana), lo que significa que es probable que el usuario termine con algo más parecido a una respuesta de ambos lados o una respuesta sin sentido (por ejemplo, la respuesta a la pregunta de Chamorro-Premuzik sobre si Stalin, Hitler o Mao eran capaces de tomar decisiones éticas).

Como otro ejemplo, decidí preguntarle a ChatGPT sobre los alimentos transgénicos. Cuando se le preguntó acerca de la solidez de la evidencia que respalda la seguridad de los alimentos OGM, ChatGPT afirmó que “la evidencia que respalda la seguridad de los organismos genéticamente modificados (OGM) y los productos derivados de OGM es convincente y consistente”. Pero cuando se le preguntó si los alimentos transgénicos son seguros, argumentó que “la seguridad de los organismos genéticamente modificados (OGM) y los productos derivados de los OGM es un tema de debate e investigación científica en curso”. En consecuencia, las inferencias que proporcionó diferían según la estructura de los datos de entrada, incluso cuando los datos de entrada fueran semánticamente similares.

Gran parte del texto producido por ChatGPT en apoyo de estas distintas conclusiones, sin embargo, era exactamente el mismo independientemente de cuál de las dos entradas se ingresó, con el texto de apoyo en realidad más consistente (es decir, inductivamente más fuerte) con la primera conclusión que con el texto de apoyo. segundo. Por lo tanto, es muy posible que la forma en que se enmarcan conceptualmente problemas similares realmente afecte las inferencias realizadas por la IA (que sería un área interesante de investigación futura).

De todo esto, las únicas conclusiones razonables que puedo sacar son que ChatGPT no (1) es consciente de la precisión de sus propias conclusiones o de la solidez de los argumentos en los que se basan esas conclusiones, ni (2) está obligado o limitado a demostrar consistencia de las conclusiones con entradas semánticamente similares, pero diseñadas de manera diferente. Así que concluyo que, si bien ChatGPT puede tener algunas limitaciones en sus tonterías, representa un tipo de tontería más complejo, y no debemos asumir automáticamente que sus afirmaciones o argumentos son precisos. Por lo tanto, se recomienda a los usuarios que tengan en cuenta la advertencia de Bender y Shah (2022) de que “la fluidez [or coherence] no presupone exactitud, valor informativo o credibilidad, independientemente de la apariencia” (párr. 7).

[ad_2]

Source link