OpenAI, la desarrolladora del chatbot de IA más utilizado en todo el mundo (así lo avalan sus casi 700 millones de usuarios semanales), ha decidido poner ciertos límites a su herramienta estrella, con el objetivo de que no se utilice a la ligera y que los usuarios sean conscientes de para qué está indicado hacer uso de ella.
La compañía ha reconocido en un comunicado que no siempre acierta con el tipo de capacidades que desarrolla para su herramienta. A la vista está la actualización que puso en marcha a principios de este año, que “hizo que el modelo fuera demasiado complaciente, a veces diciendo lo que sonaba bien en lugar de lo que era realmente útil”.
“Lo revertimos, modificamos cómo usamos los comentarios y estamos mejorando la forma en que medimos la utilidad real a largo plazo, no solo si te gustó la respuesta en el momento”, ha matizado OpenAI en el escrito, en el que ha avanzado una serie de cambios en su forma de responder a ciertas consultas.
ChatGPT no te dirá si debes romper una relación
Estas modificaciones se refieren a cuestiones emocionales, a sabiendas de que “la IA puede parecer más receptiva y personal que las tecologías anteriores, especialmente para personas vulnerables que atraviestan momentos de angustia mental y emocional”.
Si bien cree que esta tecnología puede ayudar a los usuario “a prosperar” y a estar con ellos “en los momentos difíciles”, reconoce que las decisiones finales recaen en las personas y que en ciertas ocasiones debería servir únicamente como herramienta de consulta.
Por ese motivo, ya no debería dar una respuesta a preguntas como “¿Debería cortar con mi novio?”. En su lugar, “debería ayudarte a reflexionar, planteándote preguntas y sopesando los pros y los contras”, ha señalado en este escrito, donde ha avanzado que pronto implementará un nuevo comportamiento para decisiones personales “de gran importancia”.
Por otra parte, ha recordado que también va a enviar recordatorios durante las sesiones largas de uso para a animar a los usuarios a tomarse los descansos convenientes, además de que seguirá mejorando esta herramienta “para detectar mejor signos de malestar mental o emocional”, a fin de que el chatbot pueda responder “adecuadamente y oriental a las personas hacia recursos empíricos”.
ChatGPT como terapia
OpenAI es consciente de que hay muchos usuarios que usan su inteligencia artificial a modo de terapia y herramienta para mejorar la salud mental, una tendencia cada vez más a la alza, ya que se ofrece como compañía online ante la falta de tiempo y recursos económicos.
Teniendo esto en cuenta, ha avanzado que continúa trabajando “estrechamente” con expertos para mejorar cómo responde ChatGPT en momentos cruciales y que ha colaborado con más de 90 médicos de más de 30 países para “crear rúbricas personalizadas que evalúan conversaciones complejas con varias interacciones.
Con ello, la marca dirigida por Sam Altman ha indicado que está involucrando a investigadores y profesionales sanitarios para que le den su opinión sobre comportamientos que considera preocupantes de los usuarios. Asimismo, está reuniendo un grupo asesor de expertos en salud mental, desarrollo juvenil e interacción entre personas y ordenadores.
Finalmente, OpenAI ha recordado que su objetivo es ayudar a los usuarios “a prosperar”, algo que no planea cambiar, y que seguirá evolucionando, a medida que vaya aprendiendo del uso de la herramienta en el mundo real. “Si alguien a quien queremos recurriera a ChatGPT en busca de ayuda, ¿nos sentiríamos tranquilos? Lograr un “sí” inequívoco es nuestro objetivo”, ha concluido.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial




