AI: Prohibir los algoritmos que amenazan nuestros derechos humanos, dice el jefe de la ONU

gettyimages-1232665893.jpg

Dado que aún no existen salvaguardas para garantizar que la tecnología se use de manera responsable, dijo el comisionado de la ONU, los gobiernos deberían controlar la inteligencia artificial con carácter de urgencia.

Imagen: alianza de imágenes / Colaborador / Getty Images

Los llamados a frenar el uso de la inteligencia artificial y, en algunos casos, a prohibir la tecnología por completo son cada vez más fuertes. Ahora, la jefa de derechos humanos de la ONU, Michelle Bachelet, ha sumado su voz al coro de expertos que instan a los gobiernos a tomar medidas más enérgicas para mantener los algoritmos bajo control, en un nuevo informe que recomienda moratorias en la venta y uso de inteligencia artificial para operaciones de alto riesgo. casos de uso.

Bachelet también abogó por la prohibición de algunas aplicaciones de IA que son contrarias al derecho internacional de los derechos humanos, como la puntuación social de las personas en función de criterios discriminatorios.

Dado que aún no existen salvaguardas para garantizar que la tecnología se use de manera responsable, dijo el comisionado de la ONU, los gobiernos deberían controlar la inteligencia artificial con carácter de urgencia. Sin eso, los algoritmos que son potencialmente perjudiciales para los derechos humanos continuarán desplegándose sin supervisión, causando más daño a los ciudadanos.

VER: Si ponemos computadoras en nuestro cerebro, cosas extrañas podrían sucederle a nuestra mente

Los algoritmos ya están presentes en todos los aspectos de la vida de la mayoría de las personas, enfatizó Bachelet, y señaló varios sistemas que actualmente participan en decisiones que cambian la vida, como quién obtiene servicios públicos, quién obtiene un trabajo o qué pueden ver y compartir los usuarios en línea.

“No podemos darnos el lujo de seguir poniéndonos al día con respecto a la IA, permitiendo su uso con límites o supervisión limitados o sin límites y lidiando con las consecuencias casi inevitables para los derechos humanos después del hecho”, dijo Bachelet.

Los comentarios de la comisionada de la ONU surgen de un informe que realizó su oficina para investigar cómo la IA podría afectar los derechos humanos como la privacidad, la salud, la educación, la libertad de movimiento o la libertad de expresión.

Si bien se descubrió que la inteligencia artificial es, en gran medida, «una fuerza para el bien» que puede ayudar a las sociedades y economías a superar enormes desafíos, el informe también destacó un impacto «innegable y en constante crecimiento» de la IA en ciertos derechos humanos.

Los algoritmos, por ejemplo, pueden entrometerse significativamente en la privacidad de los usuarios. Los sistemas de IA reciben grandes cantidades de datos, incluidos datos personales, lo que alienta a las organizaciones a recopilar, almacenar y procesar información confidencial sobre sus usuarios o clientes, a veces de manera secreta. A su vez, los sistemas se pueden usar para hacer predicciones sobre la vida personal de las personas, desde el vecindario en el que viven hasta sus patrones de sueño.

Hay varios sectores en los que el uso de esos sistemas de IA es particularmente preocupante, según el informe. Incluyen la aplicación de la ley, donde los algoritmos pueden influir en la decisión de arrestar a un criminal, así como los servicios públicos, donde los modelos de IA pueden ayudar a determinar los derechos de bienestar hasta si una familia debe ser marcada para recibir visitas de los servicios de cuidado infantil.

En el lugar de trabajo, el informe señaló el riesgo de usar algoritmos para monitorear y administrar a los trabajadores. Y en línea, los sistemas de IA se pueden usar para respaldar las decisiones de gestión de contenido, lo que es fundamental para decidir el tipo de contenido al que está expuesto cada usuario.

Para muchas de estas aplicaciones, el riesgo es doble. El sistema de IA en sí mismo no solo puede estar en desacuerdo con los derechos humanos básicos, como el derecho a la privacidad; pero en algunos casos, cuando el algoritmo está sesgado, la tecnología también puede tomar decisiones discriminatorias.

Por ejemplo, los datos utilizados para informar a los sistemas de IA podrían estar sesgados en contra de ciertos grupos, o simplemente podrían ser defectuosos, desactualizados o irrelevantes, lo que a su vez lleva a los algoritmos a tomar decisiones injustas. Así es como, por ejemplo, el algoritmo que se usó para predecir las calificaciones de los estudiantes en el Reino Unido el año pasado terminó asignando calificaciones más altas a aquellos que viven en áreas más ricas.

VER: ¿No quieres que te hackeen? Entonces evite estos tres errores de ciberseguridad ‘excepcionalmente peligrosos’

Hay suficientes ejemplos de modelos de IA que toman decisiones dañinas, y a veces simplemente equivocadas, para preocuparse. «El riesgo de discriminación relacionado con las decisiones impulsadas por la IA (decisiones que pueden cambiar, definir o dañar vidas humanas) es demasiado real. Por eso es necesario que haya una evaluación y un seguimiento sistemáticos de los efectos de los sistemas de IA para identificar y mitigar riesgos de derechos humanos», dijo Bachelet.

El informe de la ONU llamó la atención, en particular, sobre el uso de algoritmos por parte de los estados con fines de vigilancia, y especialmente tecnologías biométricas como el reconocimiento facial, que se utiliza para identificar personas en tiempo real y a distancia, con el potencial de permitir un seguimiento ilimitado. de individuos

Debería haber una moratoria sobre el uso de tecnologías biométricas en espacios públicos, dice el informe, hasta que se demuestre que no hay problemas con la precisión del algoritmo y que el sistema no tiene un impacto discriminatorio.

Depende de los gobiernos, por lo tanto, implementar las leyes adecuadas para mantener bajo control el desarrollo de herramientas de IA que permitan la vigilancia y otros abusos contra los derechos humanos, según el comisionado de la ONU.

A principios de este año, por ejemplo, la Comisión de la UE dio a conocer un proyecto de normas sobre inteligencia artificial, que catalogó las aplicaciones de IA en función de diferentes niveles de riesgo. En la cúspide de la pirámide estaban los casos de uso que conllevan un «riesgo inaceptable», que violan derechos fundamentales y deberían prohibirse.

El uso del reconocimiento facial en espacios públicos, dijo la Comisión de la UE, debería prohibirse ya que viola esos derechos. Sin embargo, el fallo vino con varias excepciones que fueron condenadas por grupos de defensa por permitir demasiadas lagunas.

Deja un comentario