Juridico

Ley de inteligencia artificial de la UE y su riesgo para la seguridad social

Con muchos países europeos integrando la inteligencia artificial con la seguridad social y los beneficios de bienestar, surgieron muchos problemas e inquietudes en todos los casos que pueden no haberse considerado en el momento de la propuesta. Con el uso cada vez mayor de la IA en la seguridad social y la creciente conciencia comercial, más personas deben ser conscientes de su impacto.

¿Qué es un Sistema de Previsión Automatizado?

Un Sistema de Bienestar Automatizado (AWS) es una integración de cómo el gobierno calcula el beneficio de seguridad social con tecnología automatizada. Si bien un sistema de bienestar social estándar requeriría la aprobación humana para determinar cuántos pagos de asistencia social podría recibir una solicitud, este proceso se omitiría y se usaría un algoritmo automático para determinar a cuánto tiene derecho cada persona cada mes en función de los cambios en sus ingresos. . .

Un ejemplo reciente de esto es la automatización del sistema de bienestar social del Reino Unido bajo el esquema de ‘Crédito Universal’. Este esquema se implementó como una revisión importante del sistema anterior, con el objetivo de hacer más accesibles los beneficios y reducir los costos administrativos con una única suma mensual para la gestión principalmente en línea.

El problema clave descubierto por Human Rights Watch es el algoritmo de prueba de propiedad utilizado por Universal Credit. A cuánto tienen derecho las personas por mes debería depender de los cambios en sus ingresos, pero los datos utilizados para medir estos cambios muestran cuánto reciben las personas dentro del mes calendario y no cuánto reciben las personas regulares y pagadas. Esto significa que el algoritmo que se está utilizando no tiene en cuenta a quienes pueden recibir varios cheques de pago en un mes, como es común para quienes tienen trabajos irregulares o mal pagados, lo que puede ser una sobreestimación de los ingresos, lo que resulta en un pago de beneficios reducido. La automatización del sistema de bienestar social ha llevado al abandono de muchas personas vulnerables a pesar de la introducción del sistema para protegerlas.

Principales preocupaciones bajo la Ley de Inteligencia Artificial

La Ley de Inteligencia Artificial es una Ley propuesta para ayudar a regular el uso y la integración de la IA, lo que podría convertirla en una de las primeras acciones de este tipo. La Ley incluye varias categorías de alto riesgo: aplicaciones que crean un ‘riesgo inaceptable’, aplicaciones de ‘alto riesgo’ y aplicaciones que no están prohibidas o catalogadas como de ‘alto riesgo’ que no están reguladas.

Si bien existen muchas leyes vigentes para proteger los derechos de seguridad social dentro de la UE, el mayor uso de la IA para monitorear y controlar los beneficios y programas de seguridad social es motivo de gran preocupación junto con la falta de regulación concreta sobre su implementación.

Fuera del Universal Credit del Reino Unido, hasta abril de 2020, los Países Bajos dieron un paso más en la automatización de la prevención del fraude de beneficios a través del System Risico Indicatie o SyRI, que calcula la probabilidad de que alguien cometa este tipo de acciones. El sistema utilizó datos como la educación, el empleo y la deuda personal. Antes de jubilarse, fue muy criticado por atacar a personas de áreas de bajos ingresos y grupos étnicos minoritarios.

Las principales preocupaciones de AI no solo son que ignoran a los que intenta defender, sino que pueden ir un paso más allá y hacer más daño a la seguridad social que los estereotipos y hacer cumplir la discriminación ya evidente en los sistemas operados por humanos.

¿Cuáles son los riesgos clave de la IA?

Esta legislación está diseñada para limitar los riesgos, incluyendo:

  • Prohibición de ‘riesgos inaceptables’ (artículo 5). Esto incluye ciertos tipos de «puntuación social» y «vigilancia biométrica» ​​que pueden comprometer la privacidad. Se considera injustificable ‘puntuar’ la confianza de uno utilizando otras métricas como las finanzas o el empleo.
  • Sistemas de IA de “alto riesgo” (secciones 6 y 7). Cualquier riesgo para el que el despliegue requiera protección adicional, como datos de identificación biométrica o riesgos que afecten el acceso a los beneficios de la seguridad social. Esto también incluiría el esquema de ‘prevención de fraude’ SyRI adoptado recientemente en los Países Bajos.
  • Sistemas de IA de riesgo limitado (artículo 52). Esto implicaría cosas como reconocimiento emocional y sistemas profundos ficticios. Los proveedores de servicios con riesgos limitados tienen menos obligaciones que cumplir, y las claves son informar al usuario que se está utilizando esta tecnología.
  • Sistemas de IA de riesgo mínimo. Esto se aplica a todos los demás sistemas no cubiertos por los requisitos y garantías del reglamento.

¿Qué es la discriminación algorítmica?

La diferenciación algorítmica implica el uso de datos para desarrollar «sistemas de alto riesgo», como sesgos y perfiles que ya se encuentran en sistemas dirigidos por humanos. Este es un obstáculo necesario para el lugar de AI en la sociedad moderna debido a la necesidad de reducir la discriminación contra los miembros vulnerables de la sociedad. Si dichos sistemas se implementaran sin estas correcciones, esos mismos sesgos que se consideran problemas en los sistemas dirigidos por humanos podrían verse como «objetivos» debido a la naturaleza matemática de los resultados de la IA.

¿Cómo se puede mejorar la Ley de Inteligencia Artificial?

Hay varias formas en que se puede mejorar la Ley de Inteligencia Artificial, que incluyen:

  • Aumentar la especificidad de la Propuesta bajo la Ley AI. La propuesta actual contiene una serie de ejemplos de jerga amplia que pueden resultar confusos para los demás. La prohibición absoluta de estos términos en lugar de calificar y discriminar cualquier comportamiento le permitiría cumplir con los estándares de derechos humanos pertinentes.
  • Implementar un mecanismo flexible para usos adicionales prohibidos. La tecnología de IA evoluciona y evoluciona constantemente, lo que significa que la ley debería hacerlo. La inclusión en la propuesta de un mecanismo que permita la regulación de listas adicionales de sistemas permite implementar la protección contra amenazas de una forma más rápida y específica.
  • Evaluación de los derechos humanos para el ‘ciclo de vida completo’. Exigir la evaluación de los derechos humanos a lo largo de la vida del sistema de ‘alto riesgo’ permitirá que cualquier riesgo sea identificado y rectificado de inmediato para garantizar que ahora se produzcan violaciones de los derechos humanos. Human Rights Watch también ha publicado su propia lista de enmiendas a la propuesta que incluye otros asuntos como la consideración de las personas vulnerables, las minorías y el analfabetismo digital.

Maximilian Espino Puente

Profesional consolidado con experiencia y éxito en temas de índole financiero. En la práctica, ha desarrollado también noticias para diferentes portales informativos, y su trabajo, ha marcado una referencia en diferentes aspectos del mundo de las finanzas.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba