Home Tecnologia Cómo nos engañan ChatGPT y los bots IA para que creas que...

Cómo nos engañan ChatGPT y los bots IA para que creas que son humanos

0

En la actualidad la gran presencia de los chatbots basados en inteligencia artificial con ChatGPT como gran protagonista, es innegable. Todos ellos son casi capaces de convencer a la población de que realmente son humanos con quienes están entablando una conversación.

Además, sus creadores buscan este aspecto con el objetivo de humanizarlos y que sus respuestas realmente escapen de esos bots antiguos que respondían con palabras sueltas o comandos preestablecidos.

Estos quieren compensar su falta de alma y humanidad con grandes características y mejoras basadas en inteligencia artificial como las que se mencionan a continuación. 

Es por eso que en este artículo encontrarás algunas de las formas con las que chatbots como ChatGPT y otros son capaces de hacerte creer o dudar de que realmente no son sistemas informáticos.

Así es como los bots de IA son capaces de engañarte

Oraciones completas

Seguro que te has dado cuenta de que estos ya no usan palabras sueltas o respuestas simples. Ahora estos son capaces de generar oraciones largas y detalladas con el objetivo de parecer más humano y agregar consistencia a su discurso.

Sin embargo, como ya sabes, esto puede generar respuestas erróneas. Dado que los chatbots en realidad no entienden el habla humana, estos rellenos pueden acabar desvariando si no llegan a parar a tiempo.

Rápidamente cambia de tema

Algo que también es bastante común entre los nuevos chatbots es que, debido a que no llegan a entender de qué estamos hablando o nuestras emociones, si consideran que su programación no es lo suficientemente exquisita para darte una respuesta, rápidamente reconducirá el tema por otro lado.

Con esta estrategia son capaces de recuperar el equilibrio de la conversación. En pocas palabras, puede que le hagas una pregunta muy enrevesada sobre algún personaje político y que este te responda: “No me interesan los grandes nombres, hablemos de otra cosa”.

Finge no comprender tu cultura

Resulta bastante llamativa otra de las estrategias o formas en “engañarte” haciéndote ver falta de comprensión de la cultura local como cualquier humano haría. Estos no siempre pueden expresar ideas coherentes y transmitirlas de forma correcta, por lo que para ocultar esto expresan un desconocimiento muy respetuoso.

Si se lanzase a responder podría dar lugar a respuesta erróneas o extrañas y, por lo tanto, mostrarte que son incompletos. Lo mismo ocurre si se habla de datos posteriores a 2021.

Parece ser tu psicólogo de confianza

Otro de los grandes temas a tratar es esa confianza en sus respuestas a preguntas bastante delicadas como la salud mental. Estos consiguen hacerte creer que son incluso mejores que los psicólogos humanos y mucho más baratos.

Uno de los chatbots más famosos y exitosos fue el primero que se desarrolló. Se suponía que Eliza era una parodia de los psicólogos de la época, haciendo preguntas flojas y abiertas sobre todo lo que decía la persona. “¿Cómo te sientes sobre eso?” “¿Por qué crees que hiciste eso? “¿Qué crees que significa?”.

El bot tuvo tanto éxito que la gente lo propuso como una forma económica de ayudar a las personas con trastornos mentales leves.

Si decides discutir con el bot, estás perdido

Quizá este sea el más llamativo, básicamente porque una pelea o discusión humana carece de sentido y se rige en muchas ocasiones por respuestas locas o muy emocionales. 

Los bots carecen de esto último, sí, pero saben jugar muy bien sus cartas y en una pelea se asemejan bastante a los humanos debido a nuestra impulsividad, uso de frases sin sentido o palabras fuera de lugar. Desde luego, estos chatbots se siente como pez en el agua en estos casos y es la forma definitiva de hacer que un bot parezca humano.

No te deja hablar

Una forma arriesgada, pero a veces muy exitosa, de que un bot juegue con la gente es ir en la dirección opuesta a la de Eliza. En lugar de dejar que la persona hable, el bot se hace cargo de toda la conversación.

Al final, si el humano no consigue entablar una conversación, no hay posibilidad de error. ChatGPT, en algunas ocasiones peca de ser demasiado excesivo en sus respuestas, dando lugar a que la conversación pueda acabar tras dos o tres preguntas. El chatbot se anticipa a lo que cree que vas a opinar sobre diversos temas y así evita ser preguntado de nuevo.

Como puedes ver, chatbots como ChatGPT y otros bots de inteligencia artificial han sido perfectamente programados para evitar caer en errores banales y que esa búsqueda de humanidad por parte de las empresas desarrolladoras se esfume. 

Aún así, siguen estando bastante lejos de conseguir engañar a un humano por muy convincentes que parezcan.

Exit mobile version