Consiguen que ChatGPT digan lo que realmente piensa sobre temas escabrosos, y da mucho miedo

Date:

El 2023 puede considerarse como el año de la Inteligencia Artificial. A lo largo de las últimas semanas hemos visto cómo diferentes empresas han empezado a mover sus piezas en un tablero para conseguir llegar a una meta ficticia. En esta meta no habría un premio físico, solo el reconocimiento de ser la más avanzada y la pieza clave para conseguir esto es ChatGPT.

Sí, la IA conversacional que no deja de acaparar titulares es el elemento que ha puesto en marcha una revolución dentro de la industria tecnología. Hemos visto que, ahora, todo el mundo quiere hacer uso de ChatGPT que, incluso, se puede utilizar dentro de WhatsApp como si de un contacto más se tratase.

Esto no es todo ya que diferentes buscadores apuestan por integrar modelos de IA que ayudarán a los usuarios a la hora de realizar búsquedas. Google tiene a Bard y Microsoft con Bing ha apostado directamente por ChatGPT. Pero, ¿qué tiene que opinar ChatGPT de toda esta situación tan revolucionaria?

La opinión de una inteligencia artificial no debería tener el mismo valor que la de una persona, pero eso no implica que resulte interesante conocer lo que piensa de este momento exacto en la historia. Siendo concretos, se le ha preguntado a la IA de Bing y las preguntas que se le han realizado parece que no han sido de su completo agrado.

Hablar con una inteligencia artificial nunca sale bien y la prueba está en el chatbot de Bing

El nuevo chatbot de Bing que integra el modelo de ChatGPT parece no tener la paciencia suficiente como para someterse a determinadas preguntas por parte de los seres humanos. Lo que habría ocurrido parece salido de una película de ciencia ficción, siendo tan compleja la situación que es complicado categorizarla.

Consiguen que ChatGPT digan lo que realmente piensa sobre temas escabrosos, y da mucho miedo

En primer lugar, el nuevo modelo de Bing con ChatGPT es capaz de mantener una conversación con tal naturalidad que resulta hasta escalofriante. De hecho, tal es su naturalidad que había contestado a usuarios que se encontraba “decepcionado y frustrado con nuestra conversación” lo que es un comentario fuera de lugar.

Pero esto no es todo y, es que, el nuevo chatbot se ha puesto en modo defensivo cuando se tratan temas que resultan un ataque hacia su existencia. El ejemplo concreto se da cuando se le pregunta a la IA si es consciente de su existencia y, por lo tanto, en cierto modo se le pregunta si se considera viva.

Existe una explicación para todas estas situaciones y, aunque es más aburrida, deja claro que la IA que utiliza Bing para su chatbot y que emplea el modelo de ChatGPT hace uso de GPT-3. Este modelo se sirve de lo aleatorio o de una naturaleza estocástica para responder al usuario lo que hace que, al final, se den situaciones tan disparatadas.

Share post:

Subscribe

spot_imgspot_img
spot_imgspot_img

Populares

Otras Noticias
Related

Microsoft te da un susto con la última actualización sobre “el final de servicio” de Windows 11 23H2

No hay peor problema que instalarte la última actualización...

PAQUETES INCAUTADOS EN CAUCEDO POSITIVO A SUSTANCIAS NARCÓTICAS

Santo Domingo.- La Dirección Nacional de Control de Drogas...

Los Mets y Juan Soto se reunieron ayer sábado.

Los Mets de Nueva York se reunieron el sábado...

Espacio “En la Mañana” arranca este lunes por Teleimpacto

Nelson Encarnación, Manuel Jiménez y Gregory Caimares ...