Madrid
Madrid

La rápida expansión de la inteligencia artificial (IA) plantea oportunidades enormes, pero también riesgos significativos para los derechos humanos. Amnistía Internacional subraya que la regulación de estas tecnologías no puede basarse únicamente en soluciones voluntarias ni en la lógica de la innovación, sino en normas vinculantes que protejan a las personas.

La gobernanza de la IA desde una perspectiva de derechos humanos: Análisis y recomendaciones de Amnistía Internacional

Por Alberto Astarloa. Equipo Derechos Económicos, Sociales, Culturales y Ambientales (DESCA)

1. Prioridad a los derechos humanos y regulación vinculante
Amnistía insiste en que los derechos humanos deben estar por encima de la innovación tecnológica. Por ello, rechaza enfoques voluntarios y pide prohibiciones claras para prácticas de alto riesgo, como:

  • Reconocimiento facial masivo en espacios públicos.
  • Scoring social (uso de datos personales para asignar puntuación) y perfilado discriminatorio (clasificación por condición personal o social).
  • Aplicaciones biométricas y de vigilancia sin garantías.

Puedes consultar más sobre esta postura en su análisis para la regulación de la IA: “Recommendations on the draft AI Act” 📄. (Amnesty International)

2. Regulación o control estricto de tecnologías peligrosas
Algunas tecnologías tienen un riesgo de “doble uso”: se desarrollan con fines civiles o empresariales, pero pueden emplearse para vigilancia masiva o represión. Amnistía solicita leyes que:

  • Regulen la producción, uso y exportación de estas tecnologías de doble uso.
  • Establezcan controles sobre su exportación a países con historial de abusos.
  • Impidan el uso de softwar espía.

Puedes ampliar esta posición en las recomendaciones a nivel internacional sobre IA.📄 (Amnesty International)

3. Armas y sistemas autónomos: riesgo humanitario
Los sistemas letales totalmente autónomos —armas que actúan sin control humano efectivo— plantean riesgos graves para el derecho a la vida. Amnistía reclama:

  • Marcos legales internacionales que tracen líneas rojas.
  • Prohibiciones claras en muchas situaciones que atenten contra los derechos humanos.
  • Participación activa de la sociedad civil en mecanismos de control y vigilancia sobre el tema.

La posición sobre controles internacionales lo puedes ver en el informe sobre armas autónomas. 📄(Amnesty International)

4. Debida diligencia en derechos humanos durante todo el ciclo de vida de la IA
Los desarrolladores y empresas deben evaluar y publicar el impacto de sus sistemas en los derechos humanos antes de su despliegue. Esto incluye:

  • Evaluaciones de impacto y transparencia pública.
  • Mecanismos accesibles de reparación para personas afectadas.
  • Bases de datos públicas sobre despliegues de IA.

Amnistía aborda esto en su llamamiento a las empresas para actuar con responsabilidad ante la expansión de la IA generativa.📄 (Amnesty International)

5. Riesgos sectoriales específicos

  • Biotecnología: tecnologías biométricas o de vigilancia de salud pueden ser usadas de manera discriminatoria o militar sin garantías.
  • Derecho a la protesta: los programas espía no sólo afectan al derecho a la privacidad, sino que también provocan un efecto paralizante que puede disuadir a la gente de participar en movimientos sociales o pronunciarse sobre sus derechos.

Discurso de odio: los algoritmos de las redes sociales facilitan la proliferación del odio, la apología de la violencia, el ciberacoso y la censura de algunos grupos vulnerables.

Amnistía advierte que la dependencia creciente de grandes empresas tecnológicas puede menoscabar la privacidad y otros derechos fundamentales.📄 (Amnesty International)

6. Responsabilidad de las empresas tecnológicas
Amnistía critica decisiones corporativas, como la de Google de permitir IA en armas y vigilancia, porque facilitan la creación de herramientas con riesgo de represión o violencia. Las empresas deben adoptar políticas coherentes con la protección de derechos humanos.📄 (Amnesty International)

7. Recomendaciones de Amnistía Internacional

  1. Prohibir tecnologías incompatibles con derechos humanos (vigilancia masiva, reconocimiento facial en espacios públicos, scoring social (asignar puntuacion personal), armas autónomas). (European Institutions Office)
  2. Exigir diligencia debida en materia de derechos humanos y evaluaciones públicas de impacto antes de cualquier despliegue de IA.📄 (Amnesty International)
  3. Garantizar transparencia pública: bases de datos de despliegues (cruce de datos), obligación de informar y acceso a explicaciones para personas afectadas. (European Institutions Office)
  4. Controlar exportaciones: impedir la venta o transferencia de tecnologías que puedan habilitar violaciones de derechos humanos en otros países. 📄 (Amnesty International)
  5. Establecer mecanismos de reparación accesibles y gratuitos para víctimas de daños producidos por sistemas de IA.📄 (Amnesty International)

Conclusión
La IA puede transformar nuestras sociedades, pero su despliegue sin límites claros representa riesgos graves para los derechos humanos. Para Amnistía, la gobernanza de la IA debe basarse en leyes vinculantes, transparencia y responsabilidad, asegurando que la innovación sirva a las personas, y no al revés.

Más información en: «Amnistía Internacional presenta un conjunto de herramientas de Rendición de Cuentas sobre el Uso de Algoritmos para obligar a los actores poderosos a rendir cuentas por los daños facilitados por la IA» PINCHA AQUÍ

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *