Los sistemas de Inteligencia Artificial están tomando decisiones discriminatorias debido a la presencia de sesgos cognitivos y de datos en su programación. Desarrolladores de software, grandes corporaciones tecnológicas (Google, OpenAI, Meta) y los usuarios que alimentan los sistemas. En el entorno digital global, afectando desde procesos de selección de personal hasta sistemas de justicia y salud. Es un fenómeno inherente al desarrollo de la IA, pero su visibilidad y regulación crítica se intensificaron entre 2024 y marzo de 2026. Los algoritmos no son «objetivos»; aprenden patrones de bases de datos históricas que ya contienen prejuicios raciales, de género o socioeconómicos.
El impacto es global, pero se siente con más fuerza en países que automatizan servicios públicos. En Argentina, el uso de IA para perfiles crediticios o selección de candidatos laborales puede excluir a personas por su código postal o nivel educativo si el algoritmo «aprendió» que esos factores son riesgosos.
Los sesgos en la IA se vinculan directamente con la soberanía de datos y la guerra digital. Si una IA entrenada en EE. UU. o Europa se aplica en Medio Oriente o América Latina sin ajustes, aplicará valores culturales ajenos, invisibilizando realidades locales o discriminando minorías regionales.
Mecánica del sesgo
Existen tres fuentes principales de error:
- Sesgo de datos: Si entrenás a una IA con fotos de «jefes» y el 90% son hombres blancos, la IA asumirá que una mujer o una persona negra no encaja en ese perfil.
- Sesgo de diseño: Las prioridades que el programador elije (por ejemplo, priorizar la velocidad sobre la equidad).
- Sesgo de retroalimentación: La IA aprende de nuestras búsquedas; si los humanos cliquean más en noticias negativas sobre un grupo, la IA les mostrará más de eso, creando un «bucle de eco». [6, 7]
Antecedentes: El caso de la IA de Amazon que discriminaba currículums de mujeres o el sistema COMPAS en EE. UU. que predecía mayor reincidencia criminal en personas afroamericanas.
Cifras: Estudios de 2025 indican que los modelos de lenguaje (LLM) presentan hasta un 40% de estereotipos de género en sus respuestas si no se aplican filtros de seguridad.
Documentación: La Ley de IA de la Unión Europea (2024) clasifica a estos sesgos como un «riesgo alto» y exige auditorías obligatorias.
De no corregirse, los sesgos podrían crear una «aristocracia algorítmica», donde las oportunidades de crédito, empleo o justicia estén predeterminadas por máquinas que repiten errores del pasado. Esto obligará a los gobiernos a crear leyes de «Ética por Diseño» y a exigir que los algoritmos sean auditables por humanos.