Beatriz Antona Rodriguez (ATOS)

Miembro de la Comisión de Inteligencia Artificial y Big Data, AMETIC
Image
claves de la AI Act

En los últimos meses hemos visto agitación y nervios en las negociaciones europeas de la IA Act. ¿Cómo hemos llegado hasta aquí?... .

La Inteligencia Artificial tiene cuerpo de adulto, pero -a su vez- la inestabilidad de un niño que quiere empezar a andar. Y la clave de esta inestabilidad (y debate político) ha estado en gran parte fundamentada en la regulación de los conocidos como foundation models (“FM”), que de hecho no existían en la redacción del borrador original de la AI Act en Abril 2021.

El debate ha sido complejo. Los FM tienen enormes posibilidades, porque, aunque se hayan desarrollado para hacer “el bien” (ayudar a trabajar más eficientemente, etc) es técnicamente posible parametrizarlos y redefinir su propósito para que acaben haciendo “el mal” (¿dejar sin luz un hospital?).  Por eso, la tensión política era máxima, acrecentada por el debate público.

La presidencia española propuso un modelo de gobierno que supervisara el cumplimiento de las obligaciones de los proveedores de FM, incluyendo la realización de auditorías y la creación de una AI Office. Pero en las negociaciones del 10 noviembre se produjo un giro inesperado cuando Francia, Italia y Alemania se retractaron de la propuesta inicial, proponiendo un modelo de auto regulación a través de códigos de conducta. Por otro lado, se publicó una carta abierta firmada por lideres empresariales e inversores europeos que mostraban su apoyo a la regulación de FM, y numerosos expertos internacionales emitieron una “letter of concern” alertando acerca de que la autorregulación probablemente estaría muy por debajo de los estándares requeridos para la seguridad de estos FM por su versatilidad e impacto.

Pero después de tres días de negociaciones en Bruselas ¡ya tenemos un acuerdo provisional! Este acuerdo, que aun requiere aprobación formal, adopta un enfoque basado en los niveles de riesgo asociados al uso de IA, e incluye importantes salvaguardias como:

Image
identificacion facial
  • limitaciones en los sistemas de identificación biométrica por parte de las fuerzas del orden.Las exenciones a estas limitaciones están sujetas a autorización judicial y limitadas a búsquedas concretas para delitos o amenazas específicas.
  • Prohibiciones en la puntuación social y la IA manipulativa: por ejemplo, prohibiciones de sistemas de categorización biométrica de reconocimiento de emociones en lugares de trabajo e instituciones educativas, o prohibiciones de sistemas de IA que manipulan el comportamiento humano o explotan vulnerabilidades,
  • Requisitos de transparencia para los modelos y sistemas de IA de propósito general (GPAI), incluyendo documentación técnica y cumplimiento de la ley de derechos de autor de la UE,
  • Muchos requisitos adicionales para los modelos GPAI con riesgo sistémico, que también están obligados a realizar evaluaciones de modelos, evaluar y mitigar riesgos sistémicos, realizar pruebas adversarias, informar a la Comisión sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética, y
  • El derecho de los consumidores a presentar quejas, y la existencia de sanciones. 

Quedan aún diversas cuestiones por resolver. 

Por ejemplo, entender el coste de su cumplimiento: ¿Como de difícil será para las empresas -sobre todo las start-ups o Pymes- cumplir con todos los requerimientos? 

Otro ejemplo, entender su eficacia: ¿Cómo de eficaz será una norma cuando algunas disposiciones -para los sistemas de alto riesgo- tardarán muchos meses en entrar en vigor?

Para ir resolviendo estas cuestiones, la Comisión ha presentado el AI Pact, que pretende fomentar la implementación temprana de las medidas previstas por la IA Act, creando una comunidad de empresas (dentro y fuera de la UE) que intercambien buenas prácticas, y demuestren su compromiso con la futura Ley, comunicando voluntariamente los procesos y prácticas que estén implementando para garantizar que el diseño, desarrollo y uso de la IA sea confiable.

Por su parte también España se ha mostrado activa, y emitió en Noviembre el Real Decreto 817/2023.  Esta norma pone en marcha el primer entorno controlado de pruebas para comprobar la forma de implementar los requisitos aplicables a los sistemas de IA de alto riesgo, para experimentar y obtener guías que faciliten a las empresas su desarrollo y cumplimiento.

Image
auto destruccion

Pero ¿Serán las leyes las únicas que podrá salvaguardarnos y asegurar un uso responsable? Obviamente no, porque aparte de la normativa, técnicamente se puede hacer mucho más. Por eso es interesante estar atento a iniciativas como la de investigadores de Stanford con los “self-destructing model” que apuestan por el meta-aprendizaje como mecanismo útil para crear modelos que sean autodestructivos, que sean extremadamente difíciles de manipular o ajustar para usos nocivos. No es mala idea, ¿no?

Al margen de las idas y venidas que ha tenido la AI Act, fuera de Europa también se mantiene un activo debate empresarial y político, por la importancia estratégica del tema.  Por enumerar algunos importantes eventos:

  • Los líderes del G7, en el Hiroshima AI process, alcanzaron un acuerdo sobre “International Guiding Principlesy un “Voluntary Code of Conduct” para desarrolladores de IA.  destinados a lograr un desarrollo y uso responsable de los sistemas de IA (incluyendo Gen AI y foundation models). 
  • El Gobierno de UK publicaba “Emerging processes for frontier AI safety”, que son 42 best practice policies que las compañías deberían implementar. 
  • El 31 octubre, el presidente Biden emitió una Executive Order “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence”, instruyendo a las agencias federales a avanzar en garantizar la seguridad y protección de la IA, promover la innovación y la competencia responsable, así como promover la cooperación global en la gobernanza de la IA.
  • El 1 y 2 de noviembre se celebró la AI Safety Summit 2023 (en Bletchley Park, Buckinghamshire). La UE y más de 25 países (tan diversos como Kenia y China) firmaron la “Bletchley declaration” donde manifiestan la necesidad de trabajar juntos para establecer un enfoque común a la supervisión de la IA.

En definitiva, tiempos intensos e interesantes, tanto técnicamente como a nivel legislativo. Sigamos muy de cerca la aprobación formal y los primeros pasos de la AI Act que podría sin duda ser un referente para democratizar la IA y dinamizar la innovación, pero con cautela.