Beatriz Antona Rodriguez (ATOS)

Miembro de la Comisión de Inteligencia Artificial y Big Data, AMETIC

La AI Act es la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión.

¿Se puede regular algo tan tecnológicamente complejo como la Inteligencia Artificial? (como dice nuestro refranero español: ¿se pueden poner puertas al campo?). Empecemos asumiendo que sí.

¿Es pronto o tarde para disponer de una regulación que determine los límites éticos y comerciales del desarrollo tecnológico de esta IA?. Y no hay una respuesta fácil a esta pregunta:

  • ¿Es pronto para conocer esta tecnología a fondo y - por tanto- poder regularla? Esta tecnología no deja de innovar, incluso a veces de manera abrumadora. Ya decía Arthur C. Clarke que “cualquier tecnología suficientemente avanzada es indistinguible de la magia”. Y efectivamente “magia” parece cuando empezamos a conocer la IA de ChatGPT y su capacidad de mantener conversaciones incluso entretenidas. 
  • ¿Es tarde entonces, porque el mercado debería ya disponer de ciertas directrices que den garantía a la sociedad? Los algoritmos ya existen y se están aplicando de manera masiva incluso para la toma de decisiones relativamente autónomas, sin supervisión ni responsabilidad por los errores que se cometan (discriminación, desigualdad etc).

 

Image
AI act

Sea fácil o difícil hacerlo, o sea pronto o tarde para abordarlo, está claro que es necesario. La UE es consciente de esta necesidad, quiere conseguir un equilibrio entre riesgos y beneficios socioeconómicos de la IA, y generar confianza en los consumidores creando un marco jurídico fiable. Por eso tenemos ya cocinándose en el horno una propuesta de Reglamento llamada “AI Act”. Con esta regulación en forma de “Reglamento” (directamente aplicable) se pretende disponer de un marco único de IA, para que los Estados Miembros no tengan motivos para adoptar medidas unilaterales que pudieran fragmentar la estrategia del mercado único. 

Entre otros, la AI Act abordará los siguientes temas: 

  • Introducirá una definición de “sistema de IA” tecnológicamente neutra (software que se desarrolla empleando técnicas y estrategias concretas, como por ejemplo son las estrategias de aprendizaje automático),
  • Definirá las prácticas de IA prohibidas, en función del riesgo que los usos que representen (por ejemplo: sistemas de IA que aprovechen vulnerabilidades de personas con discapacidad para alterar de manera sustancial su comportamiento),
  • Establecerá requisitos de evaluación de conformidad ex ante para sistemas de IA que acarrean un alto riesgo para la salud, seguridad o derechos fundamentales (por ejemplo: sistemas destinados a ser utilizados para evaluar admisibilidad de personas físicas a prestaciones de asistencia pública),
  • Impondrá obligaciones de transparencia (por ejemplo: a sistemas que se utilicen para detectar emociones),
  • Promoverá la creación de espacios controlados de pruebas (de hecho en España el Sandbox ya está en marcha), y
  • Definirá un marco de gobernanza y supervisión.

Se tratará de un marco regulatorio que: 

  1. se aplicará a los sistemas de IA de alto riesgo (para reducir así también los costes de cumplimiento),
  2. no se aplicará a sistemas de IA desarrollados o utilizados exclusivamente con fines militares, y
  3. fomentará que todos los proveedores de sistemas de IA que no sean de alto riesgo sigan un código de conducta. 

El cumplimiento con esta norma, no dejará de representar retos para las empresas. Retos técnicos como, por ejemplo, que se exija que los sistemas de alto riesgo sean resistentes a los fallos que puedan surgir en los propios sistemas. Teniendo en cuenta la complejidad de estos sistemas, ¿es técnicamente posible dar esa garantía?, ¿Cuantas miles de horas de trabajo se requerirán para eso?. También representará retos estratégicos, como el hecho de que se conceda a las autoridades pleno acceso a los conjuntos de datos de entrenamiento, validación y prueba utilizados por proveedores. Las empresas tecnológicas no se van a mostrar cómodas con tener que adaptarse a algunos de estos requerimientos para cumplir la ley.

Pero cuando verá la luz esta AI Act?

Image
ai act

La “AI Act” ha sido ya aprobada por el Consejo de la UE, pero para ser transpuesto en leyes necesita la aprobación de ambas instituciones (Parlamento Europeo y Consejo Europeo). Laura Caroli, quien actualmente lidera las negociaciones a nivel técnico, ha confirmado que el Parlamento Europeo se está esforzando para terminar y realizar la votación en marzo 2023. Hasta ahora, la votación se ha retrasado por un tema de enorme importancia e impacto que ha generado gran debate entre los eurodiputados: las disposiciones relativas a los sistemas de identificación biométrica a distancia. En principio la AI Act los considera "de alto riesgo" y sólo podrían utilizarse en los casos en que sea estrictamente necesario a efectos de aplicación de la ley. De este modo, estaría prohibido que las fuerzas del orden utilicen tales sistemas en espacios de acceso público, salvo autorización de un órgano judicial o independiente. Hay países como Alemania, que quieren una prohibición total o una moratoria de su uso en público, tanto por parte de las fuerzas del orden como de empresas privadas, argumentando que esta tecnología permite la vigilancia masiva. Pero, por otro lado, esto supone un obstáculo, por ejemplo, para los países que quieren utilizar esta tecnología para combatir el crimen. 

Solventados los últimos debates, con un poco de suerte, será aprobada a finales de este año 2023 y - si la UE tiene éxito- la AI Act podría convertirse en la norma global de referencia para la supervisión de IA.

Pero, terminemos reflexionando con varias preguntas

  1. Está previsto que la AI Act no se aplique hasta 24 meses después de la entrada en vigor del Reglamento (2026). ¿no estará ya desactualizada cuando entre en vigor?. Dos años de avances tecnológicos van a introducir muchos cambios, que alterarán el contexto normativo que se trata de abordar. 
  2. La AL Act establece (Exposición de motivos 1.1) que “la IA debe ser un instrumento para las personas… y su fin último debe ser incrementar el bienestar humano”, lo cual es un fin muy ambicioso. La AI Act establecerá sin duda mecanismos de control, pero ¿garantiza eso que esta tecnología será diseñada y desarrollada en beneficio del hombre para proporcionarle por ejemplo más libertad o más autonomía?