Funcionarios de la Unión Europea han propuesto un marco regulatorio para la aplicación de la inteligencia artificial. La legislación busca restringir el uso del reconocimiento facial con fines policiales en espacios públicos y prohibir algunos tipos de IA considerados de "alto riesgo".

El proyecto de ley, presentado este miércoles, establece cuatro niveles de riesgo de la inteligencia artificial. Cada uno de ellos se encuentra sujeto a diversas supervisiones y estándares de uso que buscan garantizar los derechos fundamentales de las personas y de los actores involucrados.

La legislación de la Unión Europea propone, además, establecer una vía clara destinada a evitar los excesos en el uso de la inteligencia artificial por parte de compañías privadas. En ese sentido, establece que los reguladores podrán multar con hasta el 6% de sus ingresos mundiales a las empresas que cometan infracciones graves.

“Nuestra regulación aborda los riesgos humanos y sociales asociados con usos específicos de la IA”, dice la Comisaria europea de Competencia, Margrethe Vestager. "Creemos que esto es urgente. Somos los primeros en este planeta en sugerir este marco legal", asegura.

La Unión Europea clasifica a la inteligencia artificial en diferentes niveles

La Unión Europea clasifica el uso de la inteligencia artificial en diferentes niveles
Foto por Markus Winkler en Unsplash

En lo más alto de las normas planteadas por la Unión Europea se encuentra el "riesgo inaceptable". Las prácticas contempladas aquí, como los sistemas de inteligencia artificial que usan técnicas "subliminales" para manipular el comportamiento de una persona", y el uso policial del reconocimiento facial en ámbitos públicos se encontrarán prohibidos.

No obstante, en este último punto, se establecen excepciones para, a través de "sistemas de identificación biométrica remota", encontrar a niños secuestrados, detener amenazas terroristas inminentes o localizar a sospechosos de delitos graves que van desde fraude hasta asesinatos.

En el punto medio de la legislación se encuentran las prácticas de "alto riesgo". Se trata de sistemas de inteligencia artificial utilizados en ámbitos sensibles como infraestructuras críticas, educación, empleo, seguridad, servicios esenciales y demás. Los proveedores de esos sistemas deberán explicar cómo funcionan para que los regulares se aseguran que cumplen con las normas. Además, la Unión Europea podría enviar equipos especializados a las empresas para examinar el funcionamiento de los sistemas.

Por último, todas las actividades de inteligencia artificial comprendidas consideradas de "riesgo limitado" deben contemplar sistemas que garanticen la transparencia. Los sistemas implementados en videojuegos o chatbots son considerados de "riesgo mínimo o nulo", estos, no serán contemplados por la legislación.

La presentación de la propuesta de la Unión Europea es el inicio de un largo proceso que puede durar años. Antes de que se convierta en Ley, debe ser aprobada por el Consejo Europeo, que representa a los 27 gobiernos nacionales del bloque, como por el Parlamento Europeo.