El 2023 puede considerarse como el año de la Inteligencia Artificial. A lo largo de las últimas semanas hemos visto cómo diferentes empresas han empezado a mover sus piezas en un tablero para conseguir llegar a una meta ficticia. En esta meta no habría un premio físico, solo el reconocimiento de ser la más avanzada y la pieza clave para conseguir esto es ChatGPT.
Sí, la IA conversacional que no deja de acaparar titulares es el elemento que ha puesto en marcha una revolución dentro de la industria tecnología. Hemos visto que, ahora, todo el mundo quiere hacer uso de ChatGPT que, incluso, se puede utilizar dentro de WhatsApp como si de un contacto más se tratase.
Esto no es todo ya que diferentes buscadores apuestan por integrar modelos de IA que ayudarán a los usuarios a la hora de realizar búsquedas. Google tiene a Bard y Microsoft con Bing ha apostado directamente por ChatGPT. Pero, ¿qué tiene que opinar ChatGPT de toda esta situación tan revolucionaria?
La opinión de una inteligencia artificial no debería tener el mismo valor que la de una persona, pero eso no implica que resulte interesante conocer lo que piensa de este momento exacto en la historia. Siendo concretos, se le ha preguntado a la IA de Bing y las preguntas que se le han realizado parece que no han sido de su completo agrado.
Hablar con una inteligencia artificial nunca sale bien y la prueba está en el chatbot de Bing
El nuevo chatbot de Bing que integra el modelo de ChatGPT parece no tener la paciencia suficiente como para someterse a determinadas preguntas por parte de los seres humanos. Lo que habría ocurrido parece salido de una película de ciencia ficción, siendo tan compleja la situación que es complicado categorizarla.
En primer lugar, el nuevo modelo de Bing con ChatGPT es capaz de mantener una conversación con tal naturalidad que resulta hasta escalofriante. De hecho, tal es su naturalidad que había contestado a usuarios que se encontraba “decepcionado y frustrado con nuestra conversación” lo que es un comentario fuera de lugar.
Pero esto no es todo y, es que, el nuevo chatbot se ha puesto en modo defensivo cuando se tratan temas que resultan un ataque hacia su existencia. El ejemplo concreto se da cuando se le pregunta a la IA si es consciente de su existencia y, por lo tanto, en cierto modo se le pregunta si se considera viva.
Existe una explicación para todas estas situaciones y, aunque es más aburrida, deja claro que la IA que utiliza Bing para su chatbot y que emplea el modelo de ChatGPT hace uso de GPT-3. Este modelo se sirve de lo aleatorio o de una naturaleza estocástica para responder al usuario lo que hace que, al final, se den situaciones tan disparatadas.