El mundo de la inteligencia artificial está en el punto de mira de los reguladores europeos y parece que Google estos meses no está teniendo demasiada suerte con ellos. Esta vez, el gigante tecnológico se encuentra bajo la atenta mirada de estos por su modelo de IA, conocido como Pathways Language Model 2 (PaLM2).
La Comisión de Protección de Datos de Irlanda (DPC), el principal organismo de control de privacidad en la UE, ha abierto una investigación para determinar si Google ha protegido como debería los datos personales de los usuarios europeos antes de utilizarlos en el desarrollo de este modelo de inteligencia artificial.
Para que te hagas una idea, PaLM2, el modelo de IA en cuestión, es clave para bastantes servicios de IA de Google, incluyendo el resumen de correos electrónicos. La investigación busca determinar si el uso de datos personales para entrenar este modelo cumple con los estrictos estándares del GDPR.
Pero cuidado porque esto se trata de un caso aislado, si no forma parte de un todo en el que participan varios reguladores europeos para evaluar este aspecto tan serio. ¿La preocupación principal? Radica en si Google ha tomado en cuenta los riesgos que el procesamiento de datos de PaLM2 podría suponer para los derechos y libertades de los ciudadanos de la UE.
Google a examen: ¿Cumple con los estrictos estándares del GDPR?
Lo curioso de esta noticia es que justo surge en un momento en que otras grandes tecnológicas también están bajo presión. Recientemente, X acordó no utilizar datos de usuarios europeos para entrenar sus sistemas de IA sin consentimiento previo, tras una acción legal del regulador irlandés. De manera similar, Meta suspendió sus planes de usar contenido de usuarios europeos para entrenar su último modelo de lenguaje.
Con todo esto, la respuesta de Google a esta investigación será un punto y aparte seguramente. Hasta el momento, la empresa no ha hecho comentarios sobre el asunto. Sin embargo, la industria tecnológica en general está observando de cerca, ya que el resultado podría sentar un precedente para cómo se desarrollan y entrenan los modelos de IA en el futuro.
El problema, por otro lado, es cómo esto podría afectar a la propia UE y sus ciudadanos. Con tantas empresas al borde del precipicio en lo que a regulación se refiere —que precisamente no es light— estas compañías podrían acabar por hartarse y seguir los pasos de Meta, lo que, desde luego, afecta sobre todo a las personas que ya no disfrutarán de esos servicios.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Leyes, Unión Europea, Inteligencia artificial, Privacidad, Datos