La seguridad digital descansaba sobre algo que uno sabía (una contraseña) o algo que uno tenía (una tarjeta, un dispositivo, un llavero electrónico). Pero ahora, en la economía de la inmediatez, se ha impuesto una tercera vía: algo que uno es. Y ese “ser” se ha reducido, en términos tecnológicos, a un puñado de datos fisiológicos: el rostro, la huella, la voz, el iris, la forma de andar. La biometría no es ya una curiosidad futurista. Es, cada vez más, el pasaporte silencioso al mundo digital.
El teléfono se desbloquea con una mirada. La cuenta bancaria se consulta con una huella. Las puertas se abren con un escaneo de retina. Y en algunos aeropuertos, el paso por el control migratorio se hace sin presentar nada, sin decir nada, solo siendo. El rostro se ha convertido en la nueva contraseña. Pero a diferencia de las viejas claves alfanuméricas, que podían ser cambiadas si eran robadas, el rostro no puede revocarse. No hay reset.
La biometría parte de una premisa muy atractiva: cada persona es única, y esa unicidad puede traducirse en bits. Pero como todo proceso de traducción, el salto de lo orgánico a lo digital conlleva pérdidas, simplificaciones y nuevas vulnerabilidades. Cuando una huella dactilar se convierte en un patrón numérico y ese patrón viaja por la red para autenticar una acción, ya no estamos hablando de una huella real, sino de una huella codificada, reproducible, almacenable. Y, por lo tanto, hackeable.
En 2019, una filtración masiva expuso más de un millón de datos biométricos de usuarios registrados en sistemas de seguridad física gestionados por la empresa surcoreana Suprema. Las bases de datos contenían huellas dactilares, fotografías faciales y registros de acceso. La gravedad no estaba solo en el número de afectados, sino en la naturaleza de los datos. Porque mientras una contraseña puede cambiarse y una tarjeta puede anularse, una cara robada no puede devolverse al anonimato. La biometría, por definición, es permanente. Y eso plantea un dilema radical: ¿cómo se revoca lo que no puede cambiar?
Además, no se trata solo de autenticación. La expansión de los sistemas de reconocimiento facial en espacios públicos introduce una dimensión nueva: la vigilancia ubicua. Si el rostro sirve para desbloquear el teléfono, también puede servir para rastrear movimientos, identificar manifestantes, asignar puntuaciones de comportamiento. China lo ha llevado al extremo con su sistema de crédito social, donde las cámaras no solo identifican, sino que evalúan. En Occidente, con menos aspaviento, se ensayan usos similares en estaciones, estadios, zonas comerciales.
Así que la clave biométrica no es una cerradura, es una antena: permite acceder y dejar rastro. Autentica, pero también perfila. Y en ese doble filo reside su riesgo mayor.
Uno de los aspectos más complejos del sistema biométrico es su pretensión de universalidad. Mientras las contraseñas o los PIN eran sistemas cerrados, locales, que dependían del proveedor o del dispositivo, la biometría aspira a funcionar de forma transversal y estandarizada. Se busca que una huella funcione en cualquier lector, que un rostro sea reconocido por distintos dispositivos, que la identidad sea portable. Pero esa interoperabilidad no es una ventaja neutral, porque introduce nuevas capas de dependencia.
Cuando distintos servicios -públicos y privados- comparten sistemas biométricos, el usuario pierde control sobre su identidad. Su rostro ya no pertenece a una única base de datos, sino que se replica, se sincroniza, se coteja entre agencias, bancos, aerolíneas, plataformas de streaming, operadores móviles. Comodidad y eficiencia: un rostro para todos los accesos. Pero, claro, si ese patrón biométrico queda comprometido, el daño se propaga en toda la red.
La técnica, además, no es infalible. Los algoritmos de reconocimiento facial presentan tasas de error variables según el color de piel, la edad o el género. Un estudio del MIT y la Universidad de Stanford (2018) reveló que los sistemas de reconocimiento facial más populares cometían más errores al identificar a mujeres de piel oscura que a varones blancos. No es un accidente, sino el reflejo de un entrenamiento parcial: los modelos han sido alimentados con bases de datos sesgadas. Y ese sesgo técnico produce discriminación algorítmica, no por voluntad, sino por omisión. A día de hoy, el problema se ha reducido, pero no se ha eliminado por completo. Sigue habiendo una tasa mayor de falsos positivos en personas asiáticas, afroamericanas y nativas americanas en comparación con personas blancas.
La Unión Europea ha reaccionado con su propuesta de Reglamento de Inteligencia Artificial (AI Act), donde clasifica los sistemas de identificación biométrica remota en tiempo real como tecnologías de “riesgo inaceptable”, salvo excepciones -por ejemplo, para la búsqueda de personas desaparecidas o la prevención de atentados-. Pero aun en esos casos, exige supervisión judicial, necesidad probada y proporcionalidad. Es un intento de contener lo irreversible, de frenar la expansión de la vigilancia bajo ropaje tecnológico.
En América Latina, el panorama es más fragmentado. Algunos países como Brasil o México han avanzado en sistemas biométricos para registros civiles, control migratorio o acceso a servicios financieros. Pero en muchos casos la legislación va por detrás del despliegue tecnológico, y los mecanismos de supervisión son débiles o inexistentes. Lo que en teoría debía servir para proteger al ciudadano se ha convertido, a menudo, en una herramienta de control sin contrapesos.
La paradoja es clara: cuanto más se universaliza la biometría, más se diluye el consentimiento. El usuario no elige ser identificado por su rostro en una estación de tren o en la entrada de un edificio inteligente. Simplemente ocurre. El sistema reconoce, registra, coteja. La identidad se vuelve automática, y con ella, la vigilancia también.
La biometría plantea una cuestión que va allá de la seguridad o la eficiencia: ¿quién posee nuestro cuerpo digital? Cuando el rostro se convierte en llave, y esa llave está registrada en servidores de empresas privadas, lo que está en juego ya no es solo la protección de los datos personales, sino la propiedad misma de la identidad. Lo biométrico no es información externa: es el cuerpo. Es la voz, el gesto, la forma de moverse. Y cuando esa corporeidad se transforma en token, el paso de lo tangible a lo abstracto permite que otros la administren.
No se trata ya de que una plataforma use tu rostro para abrir un teléfono. Se trata de que esa plataforma almacena ese patrón facial, lo compara con otros, lo utiliza para perfilar hábitos, registrar movimientos, ajustar algoritmos. La identidad no es sólo reconocida: es capitalizada. El rostro como contraseña se convierte en el alma como producto. Y en ese tránsito, lo que perdemos no es solo privacidad, sino autonomía.
En Francia, la CNIL (Commission Nationale de l’Informatique et des Libertés) ha sido pionera en establecer límites a la experimentación biométrica en escuelas y espacios públicos. En 2019 vetó el uso de sistemas de reconocimiento facial en dos institutos de Niza y Marsella, argumentando que no existía una proporcionalidad adecuada entre el fin perseguido -control de acceso- y el riesgo de tratamiento masivo e invasivo de datos personales. La CNIL recordó que la comodidad no justifica la vigilancia, y que todo sistema biométrico debe someterse a un escrutinio reforzado por su naturaleza sensible.
En el fondo, se trata de una disputa política sobre la soberanía de la identidad. Frente a la lógica del token universal -ese modelo donde la biometría sirve como pasaporte único para todos los servicios- algunos expertos plantean alternativas basadas en identidad soberana y verificación descentralizada. En lugar de almacenar los datos biométricos en servidores de terceros, el patrón podría guardarse de forma cifrada y local en el dispositivo del usuario, controlado solo por él. Otros sugieren el uso de biometría revocable, donde los patrones sean variables, de un solo uso, o combinables con factores dinámicos.
La pregunta, sin embargo, sigue en pie: ¿cómo legislar algo que forma parte de nosotros? Las huellas digitales, la forma de caminar, el iris, no fueron diseñados para ser contraseñas. Fueron heredados, moldeados por la biología, y son únicos pero no secretos. Y al convertirlos en clave, los hemos sacado del cuerpo para entregarlos al mercado.




