La Comisión Europea ha soltado una bomba: quiere ‘reducir la burocracia’ de su famosa Ley de Inteligencia Artificial, aprobada en 2024 tras años de negociaciones.
Esto no es algo que llegue por casualidad, ya que se ha podido conocer que Estados Unidos, con el polémico Donald Trump al mando y su vicepresidente JD Vance, han arremetido de forma directa contra lo que llaman ‘normas asfixiantes’ para la innovación.
“No se trata solo de la inteligencia artificial. Estamos revisando toda la normativa para ver si podemos reducir la burocracia de nuestra industria o podemos reducir las obligaciones de notificación”, ha declarado la vicepresidenta de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen.
Lo cierto es que no son los únicos críticos. Gigantes como Meta, dueña de Facebook, y Google llevan meses quejándose de que la ley europea impone requisitos “imposibles”. Joel Kaplan, jefe de asuntos globales de Meta, incluso comparó las multas de Bruselas con “un arancel encubierto contra las tecnológicas estadounidenses”.
¿Por qué tanto revuelo? De forma simple, la ley europea clasifica los sistemas de IA según su riesgo: desde chatbots totalmente inofensivos hasta herramientas que podrían amenazar derechos fundamentales.
Por ejemplo, aquí se encontrarían algunos de los más peligrosos, como el reconocimiento facial masivo, que actualmente ya están prohibidos, mientras que otros, como los usados en banca, salud o contratación, requieren auditorías y transparencia extrema de cara a la UE.
El problema es que estas reglas también afectan a modelos como ChatGPT. Según la normativa, sus creadores deben documentar cómo entrenan a la IA, evitar sesgos discriminatorios y permitir que los usuarios sepan cuándo interactúan con una máquina. Para las empresas, esto significa más costes y menos flexibilidad.
El Código de Buenas Prácticas que podría cambiar las reglas del juego
Aquí entra en escena un documento muy a tener en cuenta: el Código de Buenas Prácticas que la UE está preparando con expertos y empresas. Su objetivo era ayudar a aplicar la ley, pero un borrador filtrado deja entrever algo que ya comienza a preocupar: varias obligaciones legales aparecen ahora como ‘voluntarias’.
Esto significa que las empresas podrían decidir si cumplen o no con ciertas normas, lo que ya está dando pie a que surjan todo tipo de especulaciones y miedos entre los defensores de la regulación.
Por ejemplo, si una empresa crea un modelo de IA que podría usarse para manipulación electoral o discriminación, antes estaba obligada a tomar medidas para evitarlo. Ahora, con el cambio, podría optar por no hacerlo si así lo decide.
Los críticos argumentan que esto al final hace más débil que nunca una ley que es pionera a nivel mundial y que permitiría que las empresas eviten responsabilidades importantes.
Mientras tanto, y complicando aún más las cosas, las grandes tecnológicas estadounidenses, de las que casi todo el mundo bebe, presionan para ir más lejos. Algunas de ellas ya han tachado el borrador de ‘insuficiente’ y pide eliminar las ‘costosas evaluaciones de riesgo’.
Trump y Vance han dejado claro que ven la regulación europea como un obstáculo para sus empresas. “Necesitamos regímenes regulatorios internacionales que fomenten la creación de tecnología de IA en lugar de asfixiarla, y necesitamos que nuestros amigos europeos, en particular, miren hacia este nuevo horizonte con optimismo en lugar de temor”, comentan.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Leyes, Unión Europea, Inteligencia artificial, Estados Unidos, Software