
IA con rostro humano: nuestra contribución a la Relatoría Especial para la Libertad de Expresión de la CIDH
En Cambio Sostenible creemos que los derechos humanos también se juegan en el código, en los algoritmos y en las decisiones automatizadas que cada día afectan más la vida de nuestras comunidades. Por eso, atendimos el llamado de la Relatoría Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos (CIDH) y presentamos nuestras observaciones al Cuestionario de Consulta sobre el Impacto de la Inteligencia Artificial en los Derechos Humanos en las Américas.
Este cuestionario forma parte de un proceso hemisférico que culminará en un informe oficial presentado ante la Asamblea General de la OEA. Dicho informe buscará identificar los principales desafíos que la inteligencia artificial —incluyendo la IA generativa— plantea para derechos fundamentales como la libertad de expresión, la privacidad, la no discriminación y el debido proceso en nuestra región. También recogerá recomendaciones concretas para que los Estados adopten marcos regulatorios, políticas públicas y salvaguardas institucionales con enfoque de derechos humanos.
Nuestra respuesta se concentró en el contexto colombiano, a partir de los casos que hemos documentado directamente en nuestras investigaciones sobre datificación biométrica en migración, uso de inteligencia artificial en la justicia, exclusión algorítmica en asistentes virtuales del Estado y opacidad en la adopción estatal de estas tecnologías. Aportamos también una reflexión de fondo que queremos compartir íntegramente con nuestra comunidad:
«América Latina enfrenta una paradoja: mientras más se expande la inteligencia artificial en la gestión de lo público, más se contraen los espacios de participación, transparencia y control democrático sobre ella. La región no puede darse el lujo de replicar acríticamente modelos tecnológicos diseñados en contextos donde ni su demografía, ni sus desigualdades, ni sus exclusiones históricas se parecen a las nuestras.
El debate sobre IA en nuestros países no puede seguir reduciéndose a infraestructura, productividad y competitividad. Urge preguntarnos: ¿para quién, para qué y bajo qué condiciones se despliega esta tecnología? Porque no es lo mismo un sistema de reconocimiento facial entrenado mayoritariamente con rostros blancos y masculinos que uno que reconozca la diversidad étnica, de género y etaria de nuestras sociedades. No es lo mismo un chatbot diseñado con participación de comunidades rurales y migrantes que uno que las excluye por omisión. No es lo mismo supeditar derechos fundamentales a la entrega de datos biométricos cuando existe consentimiento informado y alternativas reales, que cuando se impone como única vía a poblaciones que ya enfrentan barreras estructurales.
Hoy, una persona afrodescendiente o una persona no binaria tienen más probabilidades de ser mal identificadas por un algoritmo, excluidas de un sistema de participación ciudadana o perfiladas como sospechosas sin siquiera saberlo. Eso no es falla técnica: es discriminación incorporada en el diseño, reproducida a escala y validada por la opacidad estatal.
El riesgo no es solo la vigilancia masiva o el perfilamiento. También están las formas silenciosas y cotidianas en que la IA modera lo que decimos, a quién podemos preguntar y cómo accedemos a lo público. Cuando un asistente virtual no comprende tu acento, no incluye tu tipo de documento o no te permite votar en las decisiones de tu comunidad, el mensaje es claro: este espacio no fue pensado para ti.
Necesitamos una política de IA con los pies en nuestra tierra. Que no se limite a declaraciones éticas de principio, sino que establezca obligaciones concretas de transparencia, evaluaciones de impacto vinculantes, diseños participativos con comunidades históricamente excluidas y mecanismos accesibles de reparación. Que entienda que la soberanía digital no es solo capacidad de cómputo, sino control democrático sobre las tecnologías que deciden quién accede a derechos, quién es visible y quién queda fuera.
La inteligencia artificial puede ser una herramienta poderosa para cerrar brechas en países como los nuestros. Pero si se implementa sin las personas, sobre las personas y contra las personas, no será desarrollo: será una nueva capa de desigualdad, esta vez escrita en código.»
Nuestra participación en este proceso reafirma el compromiso de Cambio Sostenible con una tecnología al servicio de la equidad social, la justicia ambiental y la profundización democrática. Seguiremos aportando evidencia, voz e incidencia para que los derechos de las poblaciones más excluidas no queden por fuera de la conversación sobre el futuro digital de nuestra región.
Post relacionados



