¿Has visto las últimas locuras que están circulando por X —antes Twitter—? Parece que Elon Musk ha soltado un monstruo llamado Grok, y las redes sociales están que arden. Pese a la gran utilidad de la inteligencia artificial, que ya es capaz de ayudarte en todo, cuidado.
¿Qué pasa cuando estas herramientas se utilizan para manipular fotos y crear contenido falso o incluso hiriente? Con herramientas como Grok, en cuestión de horas esto se ha podido ver a gran escala y la línea entre lo real y lo falso se vuelve invisible.
En pocas palabras, se ha abierto un mundo de posibilidades increíblemente positivas, pero también ha dado vía libre el mal uso de esta tecnología. Ahora, cualquier persona con un ordenador y un poco de curiosidad puede crear imágenes muy top o, peor aún, falsas y que atentan contra el honor de todo tipo de personas.
Imagina ver en las redes sociales una foto de tu amigo con una famosa, como si estuvieran en una fiesta juntos. Al principio, puede parecer divertido, pero luego te das cuenta de que es solo una imagen generada por IA. ¿Y si esa imagen se usa para hacerle daño o para difundir rumores? Ahí es donde empieza el verdadero caos.
“Estamos viendo cómo cualquier persona es capaz de realizar un ‘promt’ para pedir que un político o una persona pública, aparezca en una situación falsa. El alto nivel de detalle de las imágenes hace que, junto al texto adecuado y en los canales correctos, puedan fabricarse fake news de forma muy precisa y difíciles de identificar. Esto es un serio problema que vamos a tener o, más bien, tenemos ya, contra las campañas de desinformación”, nos explica en una entrevista para Computer Hoy Rafa López, CTO de Miolnir.

Manipulaciones fotográficas: el nuevo juego al que Elon Musk ha dado pie con Grok
El problema no es solo que se puedan crear imágenes graciosas o absurdas; es que esta tecnología también puede ser utilizada para manipular la realidad. Los deepfakes, por ejemplo, son vídeos o imágenes alteradas que hacen parecer que alguien ha dicho o hecho algo que nunca ocurrió. Esto ya ha pasado con figuras públicas y puede tener consecuencias muy graves.
Imagina que alguien crea un vídeo falso de un político diciendo algo escandaloso. Esa imagen puede volverse viral en cuestión de minutos y afectar la reputación de esa persona.
Las manipulaciones de fotografías no son nada nuevo, pero la IA ha llevado esta práctica a otro nivel. Con herramientas como Grok, modificar una imagen o crear una desde cero es tan fácil como hacer clic en un botón. Esto significa que cualquier persona puede alterar fotos para hacerlas parecer reales, incluso si no lo son.
Este es un tema muy perseguido por muchos, conocido como democratización de la IA. Es decir, que cualquier persona de a pie pueda tener acceso a estar increíbles herramientas. Sin embargo, todo tiene un precio a pagar.

Imagen generada con IA Grok
Vale, pero, ¿quién se hace responsable? A medida que estas herramientas se vuelven más accesibles, surge la pregunta: ¿Quién es responsable cuando se lanzan imágenes hirientes? Hasta ahora, las plataformas como X han tenido problemas para controlar el contenido generado por los usuarios. Si alguien usa Grok para crear una imagen falsa con fines no muy éticos, ¿quién paga las consecuencias?
La falta de regulación clara sobre el uso de la IA preocupa. Mientras algunos países están empezando a implementar leyes para controlar el uso de deepfakes y otras manipulaciones digitales, muchos otros aún no han hecho nada al respecto. Esto significa que aún hay cierto libre albedrío pueden continuar sin consecuencias.
Con todo esto, ¿cómo afectará Grok a la responsabilidad de los usuarios por el contenido que generan en la red social? Una pregunta que nos resuelve el entrevistado: “Los usuarios deberían indicar que las imágenes están hechas con inteligencia artificial, en caso de ser usadas para difundir noticias falsas actualmente nuestro código penal no refleja penas para ello, pero sí podrían, según el tipo de contenido, ser acusados de delitos de calumnias, de odio, de estafa o, incluso, de provocar desórdenes públicos”.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Entrevistas, Leyes, Inteligencia artificial, Software