En abril de 2021, la Comisión Europea publicó su propuesta de 108 páginas para regular la inteligencia artificial (IA), describiéndola como un intento de garantizar un “mercado interno que funcione bien para los sistemas de inteligencia artificial” que se base en “los valores y principios de la UE”. Hablamos del primer gran intento de Europa para regular una necesaria tecnología que tendrá grandes repercusiones globales.
Pues bien, hablábamos de 2021 y ya en 2023 con la inteligencia artificial más en el foco que nunca, esta ley sigue sin salir a flote.
Recientemente pudimos conocer cómo estos planes vuelven a ser echados para atrás debido a una falta de consenso por parte de algunos legisladores. En el centro de la disputa está la necesidad de equilibrar derechos fundamentales como la privacidad de los datos y que todos los usuarios tengan accesos a sus beneficios con la necesidad de evitar que miles de empresas se lancen sin reparo a innovar en IA, pudiendo dar lugar a herramientas o sistemas fallidos.
Y es que, Europa quiere adoptar un enfoque más cauteloso hacia la IA que, por ejemplo, Estados Unidos y China, donde los legisladores no quieren imponer restricciones en este aspecto. Sin embargo, la Unión Europea espera que la regulación ayude a competir y ganarse la confianza de los usuarios, lo que prevén que impulse una adopción más amplia y segura de la inteligencia artificial.
La nueva Ley de Inteligencia Artificial europea se resiste a salir a la luz
La Ley de Inteligencia Artificial propuesta surge en medio de una gran preocupación, no solo en Europa, sobre cómo la IA y otros sistemas de toma de decisiones algorítmicas se relacionan cada vez más en Internet, lo que puede comprometer los derechos de los usuarios.
Por ejemplo, miembros de la ONU alertan sobre la pobreza y derechos humanos debido al uso de herramientas de IA para limitar el acceso a aspectos vitales como la salud, en un momento en el que estos programas se posicionan como el futuro de grandes sectores. En pocas palabras, temen que su adopción generalizada impida a cierta parte de la sociedad con menos ingresos acceder a sus beneficios.
Una de los grandes puntos de debate se centran en decidir qué sistemas de inteligencia artificial se clasificarían como de “alto riesgo”, y que, por lo tanto, afectan a la seguridad de las personas o violan sus derechos fundamentales.
“La tensión obvia aquí es entre el enfoque en los derechos fundamentales, por un lado, y aquellos que dicen que estos necesariamente entran en conflicto con la innovación”, dijo el eurodiputado de los Verdes, Sergey Lagodinsky.
La UE determina cuatro tipos de IA para su legislación
En el reglamento actual se describen cuatro niveles para regular los riesgos que plantean los sistemas de IA, con diferentes reglas que se aplican a cada nivel de riesgo. Las categorías son: “riesgo mínimo”, “riesgo limitado”, “riesgo inaceptable” y “alto riesgo”.
Por ejemplo, en el primer caso encontraríamos aquellos sistemas de IA que son inocuos y fácilmente accesibles para la población, como podría ser el caso de ChatGPT. En segunda instancia, se podría incluir la IA que se dedica a dirigir publicidad dependiendo de tus gustos, sexo o raza.
Entrando en las IAs consideradas como “riesgo inaceptable” encontramos la vigilancia biométrica que podrían suponer una violación de la privacidad, dando lugar a discriminación. Aquí destacan las cámaras de reconocimiento facial y un uso indebido por parte de la policía.
Finalmente, el “alto riesgo”. En este caso, el reglamento desarrolla una amplia lista de sistemas de IA como de “alto riesgo” que requerirían una legislación más severa y controlada.
Por ejemplo, aquí se incluiría el software de contratación automatizado que se utiliza para clasificar los CV y contratar trabajadores, algoritmos que gestionan el cálculo de las prestaciones económicas o motores IA que puedan generar deepfakes.
La ley también quiere establecer quién es responsable de las acciones de un sistema de IA, como la empresa que lo usa o la que lo ha diseñado. De esta forma, las consideradas por la UE como aplicaciones IA de alto riesgo tendrían que demostrar que cumplen con las reglas antes de implementarse en la Unión Europea.
Y es que, también planean ofrecer una certificación de “IA confiable”, para promover el cumplimiento de la normativa y que resultan beneficiosos para la sociedad. Los sistemas certificados que luego se descubra que han infringido las reglas podrían enfrentar multas.
Se espera que la muy esperada Ley de Inteligencia Artificial del bloque se someta a votación en el Parlamento Europeo a fines de marzo, momento en el que los países comenzarán a negociar los términos finales de la legislación.