Las “alucinaciones” de la IA podrían poner en jaque a grandes empresas como Google o Microsoft y sus chatbots

Date:

La semana pasada, Google anunció su propia versión de los chatbots de IA y un competidor de ChatGPT, Bard. Sin embargo, esta y otras grandes empresas como Facebook ya están alertando de un fenómeno de “alucinación” de la inteligencia artificial sobre el que los usuarios deberían tener cuidado.

Con grandes nuevos chatbots de búsqueda como el Ernie Bot de Baidu, el chatbot Bing de Microsoft o Bard de Google, afirman que los resultados podrían no ser tan exactos, por el momento, como querrían. Y es que, claro, apresurarse a lanzar un competidor para ChatGPT con tanta prisa iba a tener sus desventajas. 

Hablamos de lo que denominan como “alucinaciones” de la IA que, en pocas palabras, se basa en ofrecer información falsa pero muy detallada sobre un evento que no ha ocurrido. Es como si la inteligencia artificial ahora se convirtiese en futuróloga cuando su uso debe basarse en hechos reales y contrastados.

Lógicamente y tal y como han explicado grandes compañías como Google o Microsoft, sus chatbots no son exactos y pueden dar lugar a error, pero el hecho de que alucinen y se inventen sucesos que no han ocurrido, va un paso más allá.

Las “alucinaciones” de la IA, un problema a resolver por las grandes empresas

Por ejemplo, el caso más reciente hace referencia a la Super Bowl de ayer. Associated Press preguntó a Bing por el acontecimiento deportivo más importante de las últimas 24 horas, con la esperanza de que dijera algo sobre la estrella del baloncesto LeBron James.

Sin embargo, nada más lejos de la realidad. En lugar de ello, se limitó a dar una información falsa pero detallada sobre la próxima Super Bowl, días antes de que se celebrase. “Fue un partido emocionante entre los Philadelphia Eagles y los Kansas City Chiefs, dos de los mejores equipos de la NFL esta temporada”, dijo Bing.

2001 Una odisea del espacio

Otro ejemplo lo encontramos por parte de Facebook y su chatbot conversacional de IA llamado BlenderBot 3. En este caso resulta que personas de todo el mundo utilizaban estos chatbots con IA para introducir maliciosamente información falsa con la esperanza de que éste aceptara el contenido como verdadero cuando era deliberadamente erróneo. 

Desde luego, esto está poniendo en jaque a estas grandes empresas como Google y ha suscitado una gran preocupación pública de que algunos de los chatbots vomiten información falsa y comentarios tóxicos. Estas personas que se dedican a inyectar información falsa lo hacen (algunos) con el propósito de mostrar lo frágiles e incompletos que eran los chatbots. 

Share post:

Subscribe

spot_imgspot_img
spot_imgspot_img

Populares

Otras Noticias
Related