Momento News

Visita también:

News

La nueva regulación de la UE

En el mes de abril la Comisión Europea presentó las propuestas para la regulación de la inteligencia artificial (IA), en las cuales establece las reglas y los límites al uso de la misma, tal y como lo había hecho con anterioridad para el caso de los datos personales por medio del Reglamento General de Protección de Datos.

Las propuestas ya se consolidan como un estándar internacional que tiene como principal objetivo promover una IA centrada en el ser humano. Así, con estas reglas y límites, se pretende dar a las personas, instituciones y empresas, la confianza para adoptar soluciones basadas en IA al mismo tiempo que se anima al mercado a desarrollarlas.  Texto grande

Ahora bien, ¿qué propone esta regulación? La Comisión aborda la regulación de la IA desde un enfoque basado en el riesgo, del cual se derivan cuatro categorías: riesgo inadmisible, alto riesgo, riesgo limitado y riesgo mínimo. Aunque hay muchos detalles en los reglamentos propuestos, podemos resumir y destacar los siguientes parámetros:

  • Riesgo Inadmisible: son los sistemas de IA prohibidos, es decir, aquellos que significan una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas, como por ejemplo, los sistemas que sirven para manipular el comportamiento humano o aquellos que permiten la puntuación social por parte de los Gobiernos.

  • Alto riesgo:son los sistemas que no están prohibidos pero que para poder comercializarse deberán someterse a una serie de obligaciones previas muy estrictas. Entre algunos de los sistemas considerados de alto riesgo, se encuentran todos los de identificación biométrica remota, así como las infraestructuras críticas, las tecnologías de aplicación en leyes, en administración de justicia y procesos democráticos, entre otros.


Estas tecnologías y sistemas deberán cumplir con las siguientes obligaciones:

  • “Sistemas adecuados de evaluación y mitigación de riesgos;
  • Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
  • Registro de la actividad para garantizar la trazabilidad de los resultados;
  • Documentación detallada que aporte toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su conformidad;
  • Información clara y adecuada al usuario;
  • Medidas apropiadas de supervisión humana para minimizar el riesgo;
  • Alto nivel de solidez, seguridad y precisión”.*

     

Riesgo Limitado: son los sistemas de IA con obligaciones específicas de transparencia, es decir, aquellos en los que se debe señalar a los usuarios que están interactuando con una máquina, como por ejemplo, en el uso de los robots conversacionales. 

Riesgo mínimo o nulo: Riesgo Mínimo o nulo: son la mayoría de sistemas y de tecnología de IA, tales como videojuegos basados en esta tecnología o filtros de correo basura.