En un contexto donde la tecnología avanza rápidamente, la excluyente realidad para algunos usuarios se hace evidente. Noor Al-Khaled, una residente de Maryland, enfrenta la imposibilidad de crear su cuenta en la Administración de la Seguridad Social debido a su condición craneofacial, conocida como Ablepheron Macrostomia. Su situación pone de relieve una problemática que afecta a millones de personas en el uso de sistemas de verificación facial.
Algoritmos y su falta de diversidad
La tecnología detrás de la verificación facial se basa en algoritmos que utilizan datos no representativos de la diversidad facial. Estos sistemas miden características como la distancia entre ojos, el tamaño de mandíbula y la simetría del rostro para generar "huellas faciales". Sin embargo, cuando aparece un rostro que no encaja en estos parámetros, el sistema falla en su identificación.
Noor expresa su frustración: “A nivel emocional, me hace sentir excluida de la sociedad”. La historia de Noor ejemplifica un problema más amplio que provoca la deshumanización de aquellos cuyas características no se ajustan a los estándares convencionales.
La voz de los afectados
El actor neoyorquino Corey R. Taylor, que también tiene una anomalía craneofacial, comparte su experiencia sobre cómo tuvo que contorsionar su rostro para que una aplicación financiera aceptara su identidad. “Hay pocas cosas más deshumanizadoras que el hecho de que una máquina te diga que no sos real por tu cara”, afirmó.
La organización Face Equality International (FEI), que defiende los derechos de este grupo, sostiene que el problema se extiende a múltiples áreas, desde el control de pasaportes en aeropuertos hasta el uso de filtros en redes sociales. Nikki Lilly, patrocinadora de FEI, declaró ante las Naciones Unidas: “Esta tecnología está fallando a nuestra comunidad”.
Falta de soluciones efectivas
A pesar de la urgencia de implementar alternativas, las grandes empresas tecnológicas no parecen priorizar la creación de métodos de verificación alternativos. La solución a corto plazo podría ser la habilitación de estas alternativas, pero actualmente, millones de personas quedan atrapadas en un "laberinto digital", excluidas por no encajar en los criterios de lo que una máquina considera "un rostro humano".
La situación de Noor Al-Khaled y otros similares es un claro recordatorio de que el avance tecnológico debe ir acompañado de consideraciones éticas y un enfoque inclusivo.