Según Elon Musk, Grok es la inteligencia artificial más inteligente de la Tierra. Eso ha dicho él. También es la IA más polémica prácticamente desde que vio la luz, o cuando la red empezó a llenarse de imágenes sin filtro con todo tipo de personajes famosos en situaciones vergonzantes. Pero los expertos temen que eso sea poco menos que una broma comparando con el futuro.
La cuestión es la siguiente: si xAI, la compañía de Elon Musk responsable de Grok, se ha caracterizado hasta ahora por su permisividad a la hora de tratar según qué temas polémicos, ¿quién asegura que no suceda lo mismo con asuntos más serios? Una senadora de Estados Unidos ha dado la voz de alarma advirtiendo de la falta de control que existe al respecto.
Grok, ¿una amenaza real de Elon Musk para la seguridad?
Elon Musk siempre ha presumido de que su IA, Grok, es algo así como más rebelde que el resto. Como si de alguna forma esta herramienta no tuviese las constricciones morales, por así decirlo, que sí presentan competidores como ChatGPT, Claude y demás. Por ejemplo, a la hora de tratar el erotismo o realizar imágenes de famosos como Donald Trump o Messi sin filtros.
Sin embargo, tal y como publica The Verge, esta “vena rebelde” preocupa a los expertos. Sobre todo porque el Departamento de Defensa de Estados Unidos ha adjudicado contratos millonarios con Grok, igual que también lo ha hecho con ChatGPT y muchas otras inteligencias artificiales. Pero la principal inquietud, dada su trayectoria, es la IA de Elon Musk.
Por un lado, la senadora Elizabeth Warren teme que Grok esté filtrando información del Gobierno a las empresas del fundador de Tesla quién, conviene recordar, formó parte del gobierno de Donald Trump y fue una parte fundamental en la campaña de este. Pero sus preocupaciones no terminan ahí: igualmente piensa que esta IA puede ser una alarmante fuente de desinformación.
Dado que los resultados erróneos y en ocasiones radicales han sido una constante en Grok desde sus comienzos, ¿qué puede llegar a suceder con cuestiones más peligrosas? Por ejemplo, muchas veces se ha hablado de la IA como amenaza a la hora de facilitar la creación de armas biológicas a cualquiera. Si Grok es tan permisiva en ciertas cosas, ¿lo es también en estos asuntos?
Unas dudas más que razonables
Recientemente, desde OpenAI aseguraban que la seguridad es un tema que tienen muy presente, y detallaron sus esfuerzos por aumentarla en ChatGPT. Aún así, la herramienta da algún que otro disgusto con bastante frecuencia. Por eso, los expertos se preguntan qué pasa con Grok. Elon Musk ni siquiera ha comentado nada sobre la seguridad, como si la cuestión no fuese con él.
Grok es la menos transparente de una tecnología que, ya de por sí, acostumbra a ser bastante poco transparente. Pero los especialistas consideran que sus responsables tienen más bien la política de arreglar aquello que sale mal, en lugar de tener barreras desde un principio. Es decir, que van tirando de parches. Y eso, con una cuestión tan sensible como es la IA, no parece muy tranquilizador.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Elon Musk





