¡Como en “Yo, robot“! Anuncian la primera ley de inteligencia artificial del mundo

Recientemente, la Unión Europea ha marcado el rumbo hacia un control más riguroso de la inteligencia artificial (IA) al aprobar la que se considera la primera ley de este tipo en el mundo. Este importante logro busca establecer normas armonizadas para la comercialización, implementación y uso de la IA, centrándose especialmente en el concepto de riesgo asociado a estas tecnologías.

La ley, acordada el pasado 9 de diciembre por el Parlamento Europeo y la Presidencia del Consejo, tiene un alcance significativo y servirá como modelo para futuros esfuerzos regulatorios en todo el mundo. La complejidad de esta regulación radica en la necesidad de abordar aspectos éticos, responsabilidad objetiva, respeto a la persona y derechos de propiedad intelectual, entre otros desafíos que plantea el vertiginoso avance de la inteligencia artificial.

Lo más destacado de esta legislación es su enfoque basado en el riesgo asociado a las diversas aplicaciones de la IA. La ley clasifica los sistemas de IA en cuatro categorías, cada una con requisitos y obligaciones específicas. La primera categoría, denominada “Riesgo Inaceptable”, prohíbe tecnologías que involucren elementos de patrones oscuros, manipulación conductual, puntuación social e identificación biométrica, excepto en casos específicos y bajo condiciones estrictas.

En el segundo grupo, denominado “IA de Riesgo Alto“, se incluyen aplicaciones que abarcan desde elementos biométricos hasta infraestructuras críticas, como el tráfico vial, suministro de agua, gas y electricidad, educación, empleo, servicios esenciales, aplicación de la ley, migración, asilo y administración de control de fronteras, así como la administración de justicia y procesos democráticos. Estos sistemas deben someterse a una verificación independiente para garantizar el cumplimiento de los requisitos establecidos para tecnologías de alto riesgo.

La tercera categoría, “Riesgo Limitado“, incluye aplicaciones como chatbots, sistemas de categorización biométrica, identificación de emociones y deep fakes. Estos sistemas deben cumplir con normas de transparencia para garantizar que los usuarios comprendan y utilicen adecuadamente el sistema.

El cuarto y último grupo, “Riesgo Mínimo“, abarca otros sistemas de IA que no se incluyen en las categorías anteriores. Aunque no están sujetos a requisitos obligatorios, se alienta a estas tecnologías a cumplir voluntariamente con ciertos estándares establecidos en códigos de conducta que serán redactados y publicados por la Comisión Europea.

La aplicabilidad de la ley se extiende a los sistemas de IA utilizados o que produzcan efectos en el territorio de la Unión Europea. Además, las penalizaciones por incumplimiento son significativas, con multas administrativas que pueden alcanzar hasta 35 millones de euros o el 7% del negocio total anual global del ejercicio fiscal anterior a la fecha de la infracción.

Este paso legislativo representa un avance significativo en la protección de los derechos de las personas frente a la rápida evolución de la tecnología, especialmente cuando muchas personas no comprenden completamente el alcance y los riesgos de la inteligencia artificial. La diferenciación entre tipos de IA y los riesgos asociados es un enfoque sensato, considerando la diversidad de aplicaciones que pueden tener los sistemas de IA.

Sin embargo, la implementación de cualquier regulación en una industria compleja y en constante evolución como la de la inteligencia artificial presenta desafíos considerables. Es crucial encontrar un equilibrio que no desincentive la creatividad y la innovación, al tiempo que garantice una protección adecuada de los derechos individuales. En este contexto, la Unión Europea se posiciona como líder mundial en la regulación de la IA, con la esperanza de que esta legislación sirva de ejemplo para futuras medidas regulatorias en todo el mundo.

Aunque aún se esperan algunos pasos en el proceso legislativo antes de su entrada en vigor en 2026, esta ley representa un paso crucial hacia la creación de un marco normativo que guiará el desarrollo responsable de la inteligencia artificial a nivel global.

Ensedeciencia