España deberá identificar y etiquetar contenidos generados con IA

El gobierno de España aprobó un anteproyecto de ley para regular el uso ético de la Inteligencia Artificial en etiquetado de textos, imágenes, vídeos y audios, alineado con el Reglamento Europeo de IA.

El gobierno de España ha refrendado el anteproyecto de ley para aplicar un uso ético, inclusivo y beneficioso de la inteligencia artificial (IA). Esta medida, que procura regular la implementación de dicha tecnología en el país, está alineada con el Reglamento Europeo de Inteligencia Artificial.


Según el Consejo de Ministros del país, la nueva normativa tiene como objetivo primordial proteger los derechos digitales a través de la identificación de prácticas prohibidas, en consonancia con las directrices establecidas por la normativa europea.


Se subrayó la importancia de categorizar como infracción grave el incumplimiento de identificar y editar textos, imágenes, vídeos o audios generados mediante IA; lo contrario derivaría en situaciones perjudiciales, como la propagación de deepfakes, prácticas que, a pesar de estar prohibidas, pueden vulnerar la integridad de los individuos.


Aunque no se informó sobre la metodología para implementar dicho etiquetado, la responsabilidad recaerá en la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que establecerá las normativas correspondientes y contrará 80 expertos de diversas disciplinas para garantizar la conformidad de las aplicaciones de IA con la normativa vigente.


Además, se definieron las competencias de otras entidades involucradas en la gestión y tratamiento de datos, como la Agencia Española de Protección de Datos (AEPD) para datos biométricos, la Junta Electoral Central para sistemas que puedan afectar a la democracia y el Consejo General de Poder Judicial para los que incidan en la aplicación de la justicia.


Un enfoque legislativo que impone sanciones severas

El incumplimiento de la normativa conllevará sanciones como multas que pueden alcanzar los 35 millones de euros y entre el 5 y 7% de la facturación mundial, conforme lo estipulado en el Reglamento Europeo de la IA. Esta normativa, reconocida como la más avanzada en el ámbito global, adopta un enfoque innovador que clasifica las distintas aplicaciones de IA según su nivel de riesgo.


Para ello establece requisitos y obligaciones diferenciados para cada categoría, desde el uso sin restricciones, como en el caso de un filtro de spam o un recomendador de contenidos, hasta la prohibición total de aplicaciones que trasciendan la conciencia de una persona o que empleen técnicas manipuladoras.


En la categoría de “alto riesgo” se incluyen los sistemas de identificación biométrica remota, los cuales suscitaron un amplio debate en el Parlamento Europeo, así como los sistemas de categorización biométrica, reconocimiento de emociones, aquellos que impactan la seguridad de infraestructuras críticas y los relacionados con educación, empleo, servicios públicos esenciales, aplicación de la ley y gestión de la migración.


El Reglamento establece la necesidad de realizar informes periódicos para actualizar la clasificación de las aplicaciones de IA, asegurando de este modo que nuevas tecnologías que emergen en el panorama digital sean incorporadas a la normativa correspondiente.


La IA generativa,fue incorporada en el reglamento pese a su aparición tardía en el proceso de negociación. Se estableció que los modelos fundacionales deberán cumplir criterios de transparencia, como especificar si un texto, canción o fotografía fue generado mediante IA, así como garantizar el respeto a los derechos de autor en los datos utilizados para entrenar los sistemas.

Compartir: