En el Parlamento Europeo dieron inicio los trabajos para redactar la primera ley integral sobre Inteligencia Artificial (IA) en el mundo.

El miércoles 14 de junio, los eurodiputados "adoptaron su posición negociadora sobre la ley de IA. Ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE".

Para cuidar el desarrollo de la IA, el Parlamento Europeo destaca la importancia de partir de una estrategia de datos sustentada en la Ley de Gobierno de Actos -The Data Governance Act (DGA)-, la cual además supone disponer de una sólida infraestructura de macrodatos y la legislación pertinente.

De acuerdo con lo asentado en la web del Parlamento Europeo, en la Unión Europea (UE) se pretende prohibir la vigilancia biométrica remota en la vía pública en tiempo real, que sistemas de IA generativa -como ChatGPT- notifiquen con estricta transparencia los contenidos que han sido generados por IA, y que los sistemas de IA utilizados para influir en los votantes en elecciones sean considerados de alto riesgo.

El Parlamento también pretende prohibir que los sistemas de categorización biométrica utilicen características sensibles (la orientación política, religiosa o sexual, la raza, etnia, estatus de ciudadanía).

Además, se pretenden prohibir los sistemas policiales predictivos basados en perfiles, localización o comportamientos delictivos anteriores, así como los sistemas de reconocimiento de emociones en los servicios policiales, gestión de fronteras, en el lugar de trabajo y en las instituciones educativas

También será prohibida la extracción no selectiva de imágenes faciales que procedan de internet o de grabaciones de videovigilancia para crear bases de datos de reconocimiento facial, por considerar que se violan derechos humanos y el derecho a la intimidad.

La propuesta elaborada por la Comisión Europea el 18 de abril de 2021, en la votación celebrada el día de ayer recibió 499 votos a favor, 28 en contra y 93 abstenciones.

En el documento relativo a la estrategia digital de la UE, se afirma:

La IA podría beneficiar a las personas con una mejor atención médica, vehículos más seguros y servicios personalizados. Además, puede mejorar los procesos de producción y aportar una ventaja competitiva a las empresas europeas, incluso en sectores en los que ya tienen posiciones sólidas: economía verde y circular, maquinaria, agricultura, turismo...

Para sacarle el máximo partido a la inteligencia artificial, los eurodiputados demandan una legislación centrada en el ser humano, destinada a establecer un marco de inteligencia artificial que ofrezca más confianza, fije estándares éticos, respalde empleos y ayude a construir una “inteligencia artificial hecha en Europa” que sirva como ejemplo a nivel mundial. La Comisión presentó su propuesta de reglamento sobre IA el 21 de abril de 2021.

En la Unión Europea se pretende que los sistemas de IA sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Además, como medida precautoria se destaca la necesidad de que los sistemas de IA sean supervisados por personas, no por la automatización.

En abril de 2021, fue propuesto el primer marco regulador de la UE en materia de IA. Se pretende que los sistemas de IA que puedan utilizarse en distintas aplicaciones sean analizados y clasificados según el riesgo que representen para los usuarios, considerando los siguientes tipos posibles de riesgo: riesgo inaceptable, alto riesgo, IA generativa, riesgo limitado.

Riesgo inaceptable

Los sistemas de IA de riesgo inaceptable representan una amenaza para las personas y serán prohibidos. Estos sistemas comprenden:

a).- Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños

b).- Puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales

c).- Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.

El Partido Popular Europeo (PPE) impulsó la idea de permitir la vigilancia masiva a la policía en los casos de desaparición de menores y de terrorismo. Sin embargo, la propuesta fue rechazada, aunque habrá algunas excepciones. Los sistemas de identificación biométrica a distancia "a posteriori" serán permitidos para perseguir delitos graves, sólo cuando se disponga de la previa aprobación judicial.

Alto riesgo

Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales de las personas serán divididos en dos categorías.

  1. Los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
  2. Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:
  • identificación biométrica y categorización de personas físicas
  • gestión y explotación de infraestructuras críticas
  • educación y formación profesional
  • empleo, gestión de trabajadores y acceso al autoempleo
  • acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
  • aplicación de la ley
  • gestión de la migración, el asilo y el control de fronteras
  • asistencia en la interpretación jurídica y aplicación de la ley.

También se establece que “todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida”.

IA generativa

La IA generativa -como ChatGPT- debe cumplir con los siguientes requisitos de transparencia:

  • revelar que el contenido ha sido generado por IA
  • diseñar el modelo para evitar que genere contenidos ilegales
  • publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento

Riesgo limitado

Los sistemas de IA de riesgo limitado "deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes)".

Sin embargo, debemos tener muy presente que no basta la comprensión de un fenómeno tan complejo como la IA, ni la disposición para regular su desarrollo. Un grave problema radica en la lentitud inherente al parlamentarismo. Las nuevas normas entrarían en vigor hasta 2026. Quizá sea demasiado tarde.


Google News

TEMAS RELACIONADOS