Reglamento de Inteligencia Artificial de la Unión Europea: Transparencia sobre aplicabilidad

Escrito por Jorge Pascual - Corporate Lawyer en Techsoulogy
Creado Sep 26, 2023 | 7 min read
Posts destacados

Entrevista con Fernando Beltrán (El nombre de las cosas)


Mejor empresa AdTech donde trabajar en España


Consejos básicos para proteger mi privacidad en Internet

El Reglamento de Inteligencia Artificial (IA) de la Unión Europea (UE), aprobado recientemente por el Parlamento Europeo y a la espera de la validación final del Consejo para su entrada en vigor, está preparado para transformar el panorama de la IA. En este análisis exhaustivo, que sigue a nuestro último artículo sobre el borrador del Reglamento de IA presentado por la Comisión Europea, profundizamos en los aspectos críticos de este texto, examinando cómo aborda los principales aspectos relacionados con la IA: fuentes de datos, gobernanza, convivencia con derechos de autor, sostenibilidad y eficiencia energética, capacidades, limitaciones, mitigación de riesgos, evaluaciones, pruebas de los modelos, contenido generado por máquinas, roles de los estados miembros de la UE y documentación de control a posteriori. Esta exploración tiene como objetivo proporcionar una comprensión del enfoque estratégico de la UE para la regulación de la IA basado en aspectos clave del desarrollo de estas tecnologías. 

Fuentes de datos y gobernanza: Promoviendo la transparencia y la responsabilidad

El texto aprobado por el Parlamento de la Unión Europea reconoce que la base de la IA radica en los datos. Para fomentar la confianza y la responsabilidad, los sistemas de IA ahora deben revelar de manera explícita sus fuentes de datos y la naturaleza de los datos que utilizan. Esta medida de transparencia garantiza que los usuarios tengan una comprensión clara de los datos que respaldan los procesos de toma de decisiones de la IA.

En la práctica, esto significa que los desarrolladores de IA en toda Europa deben ser minuciosos al documentar sus fuentes de datos. Consideremos una empresa que opera una plataforma publicitaria impulsada por IA dentro de la UE. Se le exigirá, según el reglamento recientemente aprobado por el Parlamento, revelar por completo el origen de sus datos y las categorías utilizadas para la segmentación publicitaria. En la práctica, la empresa que opera la plataforma deberá ser completamente transparente sobre cómo obtiene datos de una red de editores, en toda la Unión Europea o territorio aplicable, y que estos datos incluyen información como datos demográficos de los usuarios, el comportamiento de navegación y las métricas de interacción con los anuncios. Este requisito de transparencia no solo fortalece la confianza del usuario, sino que también refuerza la responsabilidad, un principio fundamental de la estrategia de IA de la Unión Europea.

Artículo

Todo lo que debes saber sobre el Reglamento Europeo de Inteligencia Artificial (hasta ahora)

Propiedad intelectual e Inteligencia Artificial: En busca del equilibrio

Uno de los principales desafíos en el desarrollo de la IA consiste en evitar la colisión de los derechos de propiedad intelectual y el desarrollo de algoritmos de IA. La regulación de la UE enfatiza la importancia de respetar tales derechos permitiendo al mismo tiempo el fair use. Los desarrolladores deben avanzar con precaución al incorporar contenido protegido en modelos de IA, obteniendo los permisos y licencias necesarios y garantizando una atribución adecuada. El mayor desafío subyace en la aplicación efectiva de los mecanismos de protección de derechos de propiedad intelectual. Aunque el texto da ciertas pistas, aún no se conoce detalladamente cómo la Unión Europea traducirá este mandato en una estrategia para otorgar una protección adecuada a los derechos de propiedad intelectual.

Para ilustrar mejor lo anteriormente dicho, imaginemos una empresa que utiliza imágenes con derechos de autor en su plataforma de arte generado por IA. Para cumplir con el reglamento de la UE, debe navegar por la intrincada red de leyes de derechos de propiedad intelectual mediante la obtención de licencias adecuadas y garantizando una atribución precisa. Nuevamente, la transparencia se establece como el principal estandarte en el desarrollo de IA en la Unión Europea.

Procesamiento masivo y eficiencia energética: Abordando las preocupaciones medioambientales

Las demandas computacionales y de procesamiento de la inteligencia artificial han sido motivo de preocupación medioambiental. Por ejemplo, las redes de aprendizaje profundo, fundamentales para la IA, requieren una gran potencia de cálculo. Reconociendo el impacto medioambiental del entrenamiento intensivo de modelos de IA, la recientemente aprobada ley fomenta el desarrollo de algoritmos y soluciones de hardware más eficientes desde el punto de vista energético.

Por ejemplo, la plataforma CUDA de NVIDIA optimiza el uso de Unidades de Procesamiento Gráfico (GPU, en sus siglas en inglés) para aplicaciones de IA, reduciendo significativamente el consumo de energía. Al reducir la huella de carbono asociada al entrenamiento de modelos de IA, este tipo de herramientas alinea su trabajo tanto con la innovación, como con objetivos más amplios de sostenibilidad.

Capacidades y limitaciones: Categorización del riesgo

La UE introduce una categorización basada en el riesgo de las aplicaciones de la inteligencia artificial. Las aplicaciones de alto riesgo, como la IA en el diagnóstico médico o los vehículos autónomos, enfrentan requisitos más rigurosos que las herramientas de IA generativa, por ejemplo. Los desarrolladores deben asegurarse de que estas aplicaciones cumplan con rigurosos estándares de seguridad y transparencia para prevenir daños a individuos o, incluso, a la sociedad.

La Unión Europea considera que las apps de diagnóstico médico con IA y los vehículos autónomos son de riesgo alto.

Un fabricante de automóviles que implementa la IA en vehículos autónomos, para cumplir con las normas de seguridad de la UE, someterá sus sistemas impulsados por IA a pruebas exhaustivas, asegurándose de que cumplan con los requisitos regulatorios, ya que se considera un modelo de alto riesgo. Esta categorización introduce un tratamiento proporcional que tiene como objetivo moderar los riesgos de acelerar demasiado el desarrollo de herramientas de inteligencia artificial.

Mitigación de riesgos: Un enfoque proactivo

La mitigación proactiva y preventiva de riesgos es fundamental para la UE. Ahora, se exigirá a los desarrolladores que realicen evaluaciones exhaustivas de riesgos, identifiquen posibles daños e implementen estrategias para mitigarlos. Este enfoque protege contra los posibles daños causados por las herramientas de IA, incluyendo sesgos, discriminación u otros efectos adversos asociados con dichos modelos. Se deberán introducir medidas de seguridad adecuadas en el plan de desarrollo de cada modelo de IA, garantizando un análisis fiable de los posibles resultados de la tecnología.

De hecho, existen herramientas como el kit AI Fairness 360 de IBM que detectan y mitigan el sesgo en modelos de aprendizaje automático, reduciendo el riesgo de resultados discriminatorios. Esto permitirá un mejor ajuste de los modelos de IA a lo largo de su «vida» para evitar resultados no deseados, como agravar las tendencias humanas.

Evaluaciones y testing: Modelos confiables y seguros

La regulación pone un fuerte énfasis en la realización de evaluaciones exhaustivas y pruebas (testing) de sistemas de IA, tanto antes como después de su entrada en el mercado. Rigurosas pruebas verifican que los sistemas de IA cumplan con los criterios de seguridad y rendimiento, generando confianza tanto en los usuarios como en los reguladores.

Por ejemplo, un desarrollador de IA especializado en software de diagnóstico médico, antes de introducir su sistema en el mercado, deberá someterlo a pruebas exhaustivas para garantizar el cumplimiento de las regulaciones de salud de la UE, asegurando la seguridad de los pacientes. Por otro lado, el nivel de pruebas requerido para herramientas de IA más simples, como la IA generativa, será menos exigente en comparación con la tecnología de diagnóstico médico.

Artículo

La aplicación sin límites de la IA a la comunicación de marca

Contenido generado por IA: Transparencia sobre la autoría

El contenido generado por IA se ha vuelto frecuente en diversas aplicaciones, desde artículos de noticias automatizados hasta generación de arte. La regulación proporciona pautas claras para los desarrolladores con respecto al contenido generado por máquinas. Una vez más, la transparencia es fundamental: cuando la IA genera contenido, debe indicarse claramente como tal, para evitar confusiones entre los consumidores.

Imagina una empresa de medios que utiliza IA para la redacción de noticias. Al etiquetar de manera clara e inequívoca el contenido generado por IA, la empresa cumple con los requisitos de transparencia de la UE. Este enfoque garantiza que los lectores estén al tanto de cuándo el contenido es generado por IA, manteniendo la transparencia y la confianza.

El rol de los Estados miembros: Unidad y flexibilidad

Si bien es cierto que la ley proporciona un marco unificado, a la vez también respeta los roles de los Estados miembros individualmente. Los Estados miembros conservan la flexibilidad para adaptar ciertos aspectos a las necesidades locales, todo ello asegurando un marco de la UE coherente y permitiendo una implementación matizada de la regulación. De hecho, cada Estado miembro creará autoridades de supervisión encargadas de la aplicación de la regulación.

Un ejemplo ilustrativo podría ser el caso de Techsoulogy. Al desarrollar nuestros modelos de inteligencia artificial, deberemos alinear nuestro marco ético de IA tanto con las regulaciones de la UE como con las leyes de privacidad nacionales, en este caso, españolas. Este enfoque de doble cumplimiento reconoce las especificidades de la legislación nacional y de la UE, fomenta el desarrollo responsable de la IA y permite a los Estados miembros abordar necesidades específicas en cada territorio.

Documentación posterior: Responsabilidad ex post

Se exige a los desarrolladores que mantengan una documentación completa que describa el desarrollo, despliegue y uso de los sistemas de inteligencia artificial. Esta documentación sirve como un recurso vital para investigaciones o auditorías en caso de problemas o disputas. Asegura la transparencia, responsabilidad y cumplimiento a lo largo del ciclo de vida de la herramienta de IA.

Conclusión

El Reglamento de Inteligencia Artificial de la Unión Europea representa un paso monumental en la gobernanza de la IA. Al abordar los temas señalados anteriormente, entre otros, construye un marco integral para el desarrollo sostenible de la IA en el ámbito europeo. Este marco fomenta la innovación al tiempo que enfatiza prácticas éticas y responsables de la IA, protegiendo a individuos y a la sociedad en su conjunto.

En un mundo cada vez más influenciado por la IA, el compromiso de la Unión Europea de establecer un ecosistema de IA confiable establece un ejemplo global. Este enfoque regulatorio tiene como objetivo que la IA sirva a los mejores intereses de la humanidad mientras se adhiere a estándares éticos y responsabilidades legales. Si bien las posibilidades de hacer cumplir dicho marco siguen siendo inciertas, la Unión Europea da un paso hacia un objetivo más amplio. No se trata simplemente de regular la tecnología; se trata de forjar un futuro en el que la IA enriquezca vidas a la vez que respeta derechos y dignidad.

Posts relacionados