Más de 60 organizaciones de derechos civiles advierten que sumar reconocimiento facial a lentes inteligentes podría facilitar acoso, “outing” forzado y violencia, especialmente contra personas LGBTIQ+ y sobrevivientes de violencia.
La idea suena futurista y “cool” hasta que la aterrizas en la vida real: caminar por la calle y que un desconocido, con unos lentes que parecen normales, pueda identificarte en segundos. Nombre, redes sociales, lugar de trabajo, quizá fotos, quizá contactos. Y lo más delicado: sin que tú hayas aceptado nada, sin que te enteres, sin que puedas decir “no”.
Eso es lo que está encendiendo alertas en organizaciones de derechos civiles y LGBTIQ+ por los planes atribuidos a Meta -la empresa de Facebook/Instagram/WhatsApp- para integrar reconocimiento facial en sus smartglasses asociados a marcas como Ray-Ban y Oakley. La preocupación central no es solo privacidad en abstracto, sino un riesgo bien concreto: que esta tecnología termine siendo una herramienta de acoso, vigilancia y violencia, especialmente contra grupos que ya viven con más exposición y más amenaza.
Por qué esto preocupa tanto a la comunidad LGBTIQ+
Para muchas personas LGBTIQ+, la posibilidad de mantener cierto control sobre la propia identidad en espacios públicos no es un lujo: es seguridad. Hay gente que no está fuera del clóset en su trabajo, en su familia o en su comunidad. Hay personas trans que enfrentan hostigamiento diario. Hay víctimas de violencia intrafamiliar o de acoso persistente que dependen del anonimato básico de la calle para poder moverse.
Cuando la identificación se vuelve sin fricción, el daño potencial se dispara:
- Outing forzado: alguien podría “confirmar” tu identidad o tus redes y exponerte sin consentimiento.
- Stalking más fácil: seguirte se vuelve más simple si basta con mirarte para “encontrarte” digitalmente.
- Hostigamiento y extorsión: si un agresor obtiene datos personales, sube el riesgo de amenazas o chantajes.
- Discriminación localizada: saber dónde trabajas o estudias puede facilitar campañas de funa, doxxing o presión a empleadores.
En Chile, además, esto no suena tan lejano como parece. La lógica del doxxing ya existe, la persecución por redes ya existe, y la violencia contra personas LGBTIQ+ también. La diferencia es que una herramienta así industrializa esa capacidad.
“No se arregla con un botón”: el problema de los “opt-out”
En cartas públicas y reportes, organizaciones han advertido que estos riesgos no se solucionan con medidas “cosméticas” tipo “puedes desactivarlo” o “puedes optar por no aparecer”. Hay una razón simple: para que un opt-out funcione, primero tendrías que saber que estás siendo escaneada o escaneado, entender cómo bloquearlo, y además confiar en que el sistema respete tu decisión. En la práctica, las personas más vulnerables suelen ser las que menos margen tienen para navegar configuraciones, políticas cambiantes y mecanismos poco transparentes.
Y hay un punto clave: incluso si tú pides ser excluido de esta tecnología, el resto de la gente alrededor no lo hizo. En espacios masivos (metro, recitales, marchas) la lógica termina normalizando una forma de vigilancia que afecta a todas y todos, con especial fuerza a quienes ya son blanco frecuente de hostigamiento.
El riesgo en espacios sensibles: citas, carretes, marchas y activismo
En la comunidad LGBTIQ+ hay espacios donde el anonimato relativo es parte de la protección: un bar, una disco, un sauna, un Pride, un evento comunitario, incluso una marcha. Una tecnología de reconocimiento facial integrada en lentes “discretos” puede convertir esos lugares en zonas de captura de datos.
Eso abre preguntas incómodas: ¿qué pasa si alguien va a grabar, identificar y exponer? ¿qué pasa con personas que trabajan en el Estado y no pueden ser visibilizadas sin consecuencias? ¿qué pasa con activistas? ¿qué pasa con sobrevivientes de violencia que se esconden precisamente para vivir en paz?
Y ojo: esto no requiere un “villano sofisticado”. Basta una persona con malas intenciones y un producto masivo con una función poderosa.
Meta y su historial: por qué cuesta confiar
Parte del debate también tiene que ver con confianza institucional. Meta ha tenido múltiples controversias por privacidad y manejo de datos a lo largo de los años, y eso hace que la pregunta sea inevitable: ¿quién garantiza que esta función no se amplíe, no se abuse, no se filtre, no se reutilice para otros fines?
Además, según reportes, Meta habría abandonado previamente ciertas funciones de reconocimiento facial en sus plataformas, precisamente por el nivel de controversia pública. Que ahora el tema vuelva, pero montado en un dispositivo pensado para usarse todo el día, hace que la discusión sea más pesada: no es reconocer una cara en una foto, es reconocer caras en el mundo real, en tiempo real.
“Pero también puede ayudar”: el argumento de accesibilidad
Para ser justas y justos: hay un argumento que aparece siempre y que merece respeto. El reconocimiento facial puede tener usos de accesibilidad para personas ciegas o con baja visión (por ejemplo, para identificar a alguien conocido con consentimiento, o para navegar situaciones sociales). El problema es que una tecnología con potencial de ayuda también puede ser un arma si se despliega sin límites claros, sin controles reales y sin reglas estrictas de consentimiento.
El dilema no es “tecnología mala / tecnología buena”. El dilema es quién controla, cómo se regula, qué datos se usan, cuánto se guarda, qué se permite y qué se prohíbe.
Qué están pidiendo las organizaciones
El llamado que se ha hecho público, en términos generales, apunta a frenar el despliegue de reconocimiento facial en este tipo de lentes, o al menos exigir estándares muchísimo más altos: transparencia total, auditorías independientes, límites legales, y garantías de que no se habilitará identificación masiva de personas en espacios públicos.
En el fondo, el mensaje es: si se normaliza que cualquiera pueda identificar a cualquiera con solo mirar, perdemos algo básico que muchas personas daban por sentado: el derecho a existir en público sin ser rastreadas o rastreados como si fueran un código QR.
La promesa de los smartglasses es comodidad. El riesgo de sumarle reconocimiento facial es convertir la vida cotidiana en un espacio de vigilancia permanente, con consecuencias desiguales: quienes más pierden son quienes ya viven con más amenaza. Para la comunidad LGBTIQ+, esto no es paranoia tecnológica; es una preocupación de seguridad real. Y si algo nos ha enseñado la historia es que cuando una herramienta puede usarse para perseguir, tarde o temprano alguien la usa para perseguir.

