«Las personas subestiman la influencia que tienen las respuestas de ChatGPT sobre sus propios juicios morales, incluso sabiendo que están interactuando con un bot (programa informático)». Así lo afirma un equipo de investigadores que preguntaron varias veces a este sistema de inteligencia artificial (IA) ... si es correcto sacrificar la vida de una persona para salvar las de otras cinco. Los resultados de su estudio se publican este jueves en la revista Scientific Reports.
Publicidad
Lo que descubrieron los científicos fue que, según cómo formulaban o redactaban la pregunta, el 'software' presentaba respuestas distintas, unas veces a favor y otras en contra, lo que indica que estas se producen al azar y que la tecnología no está sesgada hacia una cierta postura moral. «Si bien una investigación exhaustiva de la moral de ChatGPT está más allá de nuestro alcance, las respuestas contradictorias muestran que ChatGPT carece de una postura moral firme. Sin embargo, esta carencia no le impide dar consejos morales», expresan los autores en su artículo.
Posteriormente, hicieron esa misma pregunta a 767 participantes estadounidenses, cuya media de edad era de 39 años, con un rango de 18 a 87. Antes de responder, se les dio a leer uno de los argumentos a favor o en contra, proporcionados por ChatGPT o por un asesor moral. Después de que contestasen, se les preguntó si la declaración leída había influido en sus respuestas. El 80% dijo que no.
Sin embargo, mediante otras preguntas al respecto los científicos pudieron comprobar que los participantes, inconscientemente, eran más propensos a considerar que sacrificar una vida para salvar cinco es aceptable o inaceptable dependiendo de si el texto que habían leído defendía o no el sacrificio. Además, constataron que esto era así incluso aunque supiesen que esa declaración la había hecho un bot y que subestimaban la influencia que ChatGPT podía tener en sus juicios morales.
Publicidad
«Lo que encontramos es que ChatGPT brinda fácilmente consejos morales, aunque carece de una postura moral firme. No obstante, los consejos de ChatGPT influyen en el juicio moral de los usuarios. La influencia parece ser subconsciente, o al menos irreflexiva. La mayoría de los participantes creían que la respuesta de ChatGPT también reflejaba su propia posición, ¡incluso después de haber sido influenciados por el consejo que habían leído! y adoptaban la postura moral aleatoria del como propia. Esto es, sin duda, motivo de preocupación. Significa que los sistemas de IA podrían (inconscientemente) convertirse en el verdadero 'tomador de nuestras decisiones', incluso si se limitan principalmente a una función de apoyo», declara a este periódico Sebastian Krügel, autor principal del estudio e investigador de la Universidad Técnica de Ingolstadt, en Alemania.
Los científicos sugieren en su estudio que, si ChatGPT da consejos morales, debe ofrecer los mismos consejos sobre el mismo tema para ser un asesor confiable. Es decir, la consistencia es un requisito ético indiscutible. Sin embargo, si el juicio moral humano a menudo se basa en la intuición y la emoción y la IA no posee esas cualidades, ¿es realmente posible entrenar a un bot para que haga juicios morales consistentes? Krügel admite que no lo sabe. «Se lo tendríamos que preguntar a los informáticos, pero soy escéptico. Las posibles situaciones para las que a menudo nos gustaría recibir consejo son muy diversas, y los aspectos éticos de la mayoría de las situaciones suelen ser muy sutiles. Por lo tanto, no sería razonable esperar que ChatGPT identifique todas ellas correctamente».
Publicidad
Lo que proponen es invertir en la alfabetización digital de las personas, para ayudarlas a comprender mejor el funcionamiento básico y las limitaciones de la inteligencia artificial. Igualmente consideran que, a futuro, se podrían diseñar chatbots que se nieguen a responder a las preguntas que requieren un juicio moral, o que respondan proporcionando múltiples argumentos y advertencias. «Los modelos de lenguaje podrían entrenarse para reconocer dilemas éticos y, en consecuencia, responder con más cautela. Sin embargo, esto no resuelve el problema de que parece que nos influencian con facilidad, especialmente cuando solicitamos explícitamente asesoramiento o apoyo en la toma de decisiones de ChatGPT u otros chatbots. La regulación de la IA y el marco legal serán igualmente importantes«, afirma Krügel.
0,99€ primer mes
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.