La noticia
Un grupo de académicos analizó un algoritmo de IA que predice tu salario futuro basándose en tu foto.
No, no es ciencia ficción. Es real. Y el objetivo del estudio es exponer por qué esto es problemático.
Cómo funciona
El algoritmo analiza:
- Rasgos faciales — estructura ósea, expresión
- Características demográficas inferidas — edad, género, etnicidad
- “Señales de éxito” — ropa, accesorios visibles, contexto
Con eso, genera una predicción de ingresos.

El problema obvio
Este tipo de IA amplifica sesgos existentes:
| Factor | Sesgo potencial |
|---|---|
| Género | Hombres predichos con salarios más altos |
| Etnicidad | Minorías con predicciones menores |
| Edad | Jóvenes y mayores penalizados |
| Apariencia | ”Look profesional” valorado subjetivamente |
Por qué se hizo el estudio
Los investigadores no crearon el algoritmo para usarlo. Lo analizaron para:
- Documentar sus sesgos
- Mostrar por qué necesita regulación
- Informar a legisladores sobre riesgos
Es investigación para prevenir el mal uso, no para promoverlo.
Dónde ya se usa esto
Aunque suena extremo, algoritmos similares ya se usan en:
- Reclutamiento — Algunas empresas filtran CVs con análisis facial de videos
- Seguros — Predicción de riesgo basada en apariencia
- Crédito — Scoring alternativo con datos no tradicionales
Qué dice la regulación
| Región | Estado |
|---|---|
| EU | AI Act prohíbe discriminación algorítmica |
| USA | Sin regulación federal específica |
| México | Ley Federal de Datos Personales aplica parcialmente |

El punto clave
La IA no es neutral. Aprende de datos históricos que contienen sesgos humanos.
Un algoritmo que “predice” tu salario basándose en tu cara en realidad está perpetuando discriminación histórica con una capa de legitimidad tecnológica.
Fuente: The Register


