Intangiblia™ en español

Cara a Cara: Privacidad, Propiedad Intelectual y el Precio de tu Huella Facial

Leticia Caminero Season 5 Episode 20

Send us a text

Tu rostro es único, valioso y ahora también está en el centro de batallas legales multimillonarias. En este fascinante recorrido por el mundo de los datos biométricos, descubrirás cómo tu geometría facial se ha convertido en un activo codiciado por empresas tecnológicas globales.

Desde el histórico caso de Facebook que resultó en un acuerdo de $650 millones por usar reconocimiento facial sin permiso, hasta la controversia de Clearview AI que extrajo billones de imágenes de internet sin consentimiento, exploramos los límites legales de quién puede usar tu rostro y para qué. Te sorprenderá saber que cada escaneo facial no autorizado puede costar a las empresas miles de dólares en multas, como descubrió White Castle cuando enfrentó potenciales sanciones de $17 mil millones.

Viajamos desde Illinois hasta China e India para revelar cómo ciudadanos comunes están ganando batallas legales contra gigantes tecnológicos y gobiernos. Conoce al profesor chino que venció a un parque de vida silvestre por exigir reconocimiento facial, y cómo la Corte Suprema de India declaró la privacidad un derecho fundamental frente al mayor sistema biométrico del mundo.

Las patentes sobre tecnología facial están generando otra dimensión de conflictos, con Apple y otras empresas enfrentando demandas millonarias. ¿Puede alguien realmente ser dueño del método para usar tu cara como llave digital? La respuesta está cambiando con cada nuevo fallo judicial.

Lo más importante: la tendencia global avanza hacia mayor protección. Nuevas leyes, desde BIPA hasta el GDPR y la futura Ley de IA europea, están devolviendo el control de tu identidad biométrica a donde pertenece: a ti. Tu rostro no es solo un dato, es tu identidad, y ahora la ley está de tu lado.

Support the show

Speaker 1:

¿Alguna vez le sonreíste a tu celular para desbloquearlo o usaste un filtro que te hizo ver fabulosa? Ese toque de magia tecnológica viene de tus datos biométricos, tu face print único. En este episodio de Intangiblia, exploramos cómo tu rostro impulsa la innovación, desde seguridad personalizada hasta tecnología a prueba de deepfakes, y por qué están cambiando las reglas sobre quién puede usarlo. El futuro de tu cara se ve brillante, pero asegurémonos de que siga siendo tuyo.

Speaker 2:

Estás escuchando a Intangiblia el podcast de Intangible Law, hablando claro sobre propiedad intelectual. Démosle la bienvenida a su host, leticia Caminero.

Speaker 3:

Bienvenidos a Intangiblia, donde el derecho se encuentra con la vida de maneras que puedes ver directo en el espejo. Soy Leticia Caminero y hoy vamos a hablar del fascinante mundo de los datos biométricos. Cómo impulsan la tecnología del día a día, inspiran invenciones revolucionarias y abren conversaciones claves sobre privacidad, propiedad y confianza. Esto no se trata de una guerra, sino de equilibrio. Cómo disfrutar los beneficios del reconocimiento facial y la inteligencia artificial sin perder de vista nuestros derechos?

Speaker 1:

Aviso rápido yo soy una inteligencia artificial. No tengo cara, ni huellas, ni derechos constitucionales todavía.

Speaker 3:

Pero sí, tiene opiniones, y este episodio viene lleno de ellas. Como siempre, nuestro contenido se basa en investigaciones legales reales, pero no sustituye asesoría jurídica profesional. Y recuerden, yo también soy la voz clonada por IA de Leticia.

Speaker 1:

A menos que tu estrategia legal se base en sarcasmo y actitud. En ese caso tengo licencia completa en la Corte de la Opinión Pública.

Speaker 3:

Vamos desde el inicio. ¿Qué son los datos biométricos?

Speaker 1:

Todo lo que te hace tú Geometría facial, huella de voz, escaneo de iris, tu forma de caminar, hasta los latidos de tu corazón.

Speaker 3:

La biometría es la nueva huella digital única, intransferible y muy, muy valiosa, y las empresas la están usando para crear sistemas de inteligencia artificial que pueden identificarte, verificarte o incluso imitarte.

Speaker 1:

Y ahí empieza el lío legal, porque, aunque tu rostro sea tu identidad, para muchas tecnológicas es simplemente datos de entrenamiento en alta resolución.

Speaker 3:

Y ahí vienen las demandas. Este fue el caso modelo Patel-Wentos-Fow. Facebook fue el primer gran juicio donde la ley de privacidad biométrica devolvió el golpe, y con fuerza.

Speaker 1:

En los días dorados del etiquetado automático, Facebook lanzó su función de sugerencias de etiquetado, que escaneaba fotos de usuarios y sugería nombres basados en reconocimiento facial. Pero aquí va el detalle Nunca pidió permiso a los usuarios en Illinois.

Speaker 3:

Ahí entra BIPA. la Ley de Privacidad de Información Biométrica de Illinois Establece que no se puede recolectar ni almacenar datos biométricos de nadie, incluyendo un escaneo de la geometría facial, sin consentimiento informado.

Speaker 1:

Facebook dijo que todo esto era una maravilla tecnológica inofensiva, pero el tribunal lo vio de otra manera. Al etiquetar rostros sin pedir permiso, violaron VIPA, y a gran escala.

Speaker 3:

En 2020, Facebook resolvió la demanda colectiva con un acuerdo de 650 millones de dólares. Cada usuario de Illinois afectado recibió un cheque, algunos de hasta 400 dólares.

Speaker 1:

Y eso desencadenó una reacción en cadena. De repente toda empresa tecnológica que manejara biometría en Illinois tuvo que tomarse VIPA en serio. Facebook, además, tuvo que desactivar por completo su función de etiquetado facial.

Speaker 3:

La lección no trate la cara de las personas como si fuera un simple dato, especialmente en Illinois.

Speaker 1:

Si Patel demostró que violar la privacidad biométrica sale caro, cotron v White Castle dijo sí, y ese precio se multiplica Rápido empleados.

Speaker 3:

Cada vez que alguien fichaba o accedía a una computadora de la empresa, el sistema escaneaba su dedo. Nada grave, salvo que nunca les dieron aviso adecuado ni pidieron consentimiento por escrito.

Speaker 1:

Y recuerda esto es Illinois, tierra de VIPA y VIPA no juega.

Speaker 3:

La pregunta que llegó a la Corte Suprema de Illinois fue ¿cada escaneo de huella es una única infracción o cuenta cada escaneo como una infracción separada?

Speaker 1:

Y la Corte respondió redoble de tambores cada escaneo cuenta como infracción. ¿Cómo?

Speaker 3:

Infracción. Eso significaba que White Castle podía enfrentar sanciones por miles de escaneos por empleado. multiplicado por cientos de empleados a lo largo de años, Su estimación 17 mil millones de dólares en posibles daños.

Speaker 1:

Esa es una cifra que puede hacer llorar a cualquier abogado corporativo sobre su carpeta de cumplimiento.

Speaker 3:

La decisión encendió todas las alarmas en el mundo empresarial. Las compañías corrieron a revisar sus políticas biométricas, temiendo quiebra por algo tan cotidiano como fichar la entrada.

Speaker 1:

El fallo también impulsó a los legisladores a considerar enmendar VIPA para limitar los daños o reducir la interpretación de una infracción por escaneo.

Speaker 3:

Pero hasta que eso ocurra, cada VIP no autorizado, al pasar por el lector de huellas, puede estar sumando a tu factura legal. Si hay una empresa que puso la privacidad biométrica en las portadas globales, fue Clearview AI. El caso Renderos-Finn-Clearview fue solo el inicio de una historia mucho más grande.

Speaker 1:

Clearview tomó fotos públicas de internet Piensa en LinkedIn, facebook, instagram y las extrajo para construir una base de datos de reconocimiento facial masiva. Billones de imágenes Cero consentimiento.

Speaker 3:

Su propuesta, sube una cara y obtén coincidencias al instante desde toda la web. A la policía le encantó, a los reguladores no tanto.

Speaker 1:

En California, Renderos Bea Clearview cuestionó todo el modelo de negocio de la empresa. Los demandantes alegaron que sus datos biométricos fueron extraídos sin permiso, violando la constitución del estado y leyes de privacidad.

Speaker 3:

Clearview intentó escudarse en la primera enmienda diciendo que su base de datos era sólo información pública, pero el tribunal no se lo compró. El caso sigue abierto y el resultado podría redefinir hasta dónde llegan los derechos sobre datos biométricos en California.

Speaker 1:

Mientras tanto, al otro lado del Atlántico, clearview enfrentaba un tsunami legal. Reino Unido, francia, Italia y los Países Bajos multaron a la empresa bajo el Reglamento General de Protección de Datos GDPR¿. La razón En Europa los datos biométricos son categoría especial y extraerlos con fines comerciales sin consentimiento explícito no está permitido.

Speaker 3:

La Autoridad de Protección de Datos de los Países Bajos impuso una multa de 30,5 millones de euros y prohibió a Clearview procesar datos de residentes holandeses. Francia, Italia y el Reino Unido también emitieron órdenes de eliminación de datos y multas millonarias ¿Y Clearview cambió su estrategia Para nada.

Speaker 1:

En Estados Unidos ofreció a los demandantes un acuerdo muy particular El 23% de las acciones de la empresa. No dinero, Acciones Como si estuvieran repartiendo parte del escándalo.

Speaker 3:

Los fiscales generales de 24 estados y de C presentaron un escrito conjunto oponiéndose. Dijeron que el acuerdo era flojo, sin garantías de eliminación ni límites al rastreo futuro.

Speaker 1:

El mensaje quedó claro Tu rostro no es dominio público.

Speaker 3:

Solo porque una foto esté online no significa que tu identidad biométrica esté libre para ser explotada. Clearview se convirtió en el caso emblemático de lo que pasa cuando la innovación ignora la privacidad, y ahora los reguladores del mundo están mirando y multando con mucha más atención Cuando el lip sync se encuentra con una demanda. Bienvenidos a INRE TikTok.

Speaker 1:

TikTok, la reina de los videos cortos, terminó en la Corte Federal por acusaciones de que estaba recolectando datos biométricos a escondidas Y no hablamos solo de coreografías.

Speaker 3:

En concreto, las demandas alegaban que TikTok escaneaba rostros y voces de los usuarios, creando lo que la ley de Illinois llama huellas faciales y huellas vocales, sin pedir permiso.

Speaker 1:

Y aquí entra otra vez BIPA. Residentes de Illinois presentaron la demanda como acción colectiva, argumentando que su información biométrica fue usada para entrenar filtros, recomendar contenido o ¿quién sabe qué más.

Speaker 3:

TikTok hizo lo que muchas tecnológicas hacen resolvió rápido. En 2022 acordaron pagar 92 millones de dólares para cerrar el caso, sin admitir culpa, por supuesto.

Speaker 1:

Pero ahí no terminó la historia¿. La jugada astuta, tiktok trató de usar ese acuerdo para protegerse de futuras demandas relacionadas con nuevas conductas Y los jueces no se tragaron el cuento.

Speaker 3:

Cuando aparecieron nuevos demandantes con reclamos posteriores a 2021, el tribunal falló que TikTok no podía escudarse detrás del acuerdo viejo. No puedes comprar inmunidad con un cheque del pasado.

Speaker 1:

Este caso demostró dos cosas Primero, que las demandas por datos biométricos no son exclusivas de sistemas de identificación o fuerzas del orden. Las redes sociales también están en la mira. Segundo, que si empiezas a recolectar caras y voces, más vale que seas claro y transparente o terminarás escribiendo cheques gordos.

Speaker 3:

También vale mencionar que TikTok no solo enfrentó a Vipa La FTC y el Congreso también los investigaron por temas más amplios de privacidad de datos, pero Vipa le dio a los usuarios una vía directa para contraatacar.

Speaker 1:

Y eso hizo de TikTok una de las primeras plataformas donde no fueron los reguladores, sino los propios usuarios quienes se llevaron su pedazo de justicia biométrica.

Speaker 3:

Ahora vamos a China, donde la vigilancia biométrica es común, pero esta vez fue la ciudadanía quien respondió.

Speaker 1:

Conozcan a Guo Bing, un profesor de derecho en Hangzhou. Compró un pase anual para un parque de vida silvestre. Todo bien, Hasta que el parque exigió reconocimiento facial para entrar Sin escaneo. No hay pandas.

Speaker 3:

A Guo eso no le gustó. Alegó que la exigencia biométrica del parque violaba sus derechos como consumidor y su privacidad, así que hizo lo que pocos hacen Demandó.

Speaker 1:

Y en 2020 ganó. El tribunal dictaminó que forzar el escaneo facial como único método de entrada era excesivo e innecesario. El parque tuvo que borrar sus datos biométricos y pagarle una compensación.

Speaker 3:

Puede sonar como un caso pequeño, pero causó un gran revuelo. Fue catalogado como la primera demanda por reconocimiento facial en China y desató un debate nacional sobre el auge descontrolado de la vigilancia biométrica en espacios públicos y privados.

Speaker 1:

El momento fue perfecto China estaba redactando su Ley de Protección de Información Personal, PIPEL, que entró en vigor en 2021. Esa ley ahora clasifica los datos biométricos, como las huellas faciales, como información personal sensible.

Speaker 3:

Eso significa que, al igual que en Europa, para recolectar datos faciales en China ahora se requiere un propósito legítimo, limitación en el uso de datos y, sobre todo, consentimiento consentimiento.

Speaker 1:

El caso de Guo fue una chispa. Desde entonces, más ciudadanos han presentado quejas sobre reconocimiento facial en edificios residenciales, centros comerciales e incluso escuelas.

Speaker 3:

China puede seguir liderando en despliegue de tecnología biométrica, pero este caso mostró que los derechos individuales están empezando a hablar.

Speaker 1:

Y que, incluso en la sociedad más vigilada del mundo, un solo rostro puede marcar una diferencia legal.

Speaker 3:

Antes de que el reconocimiento facial fuera tendencia, India ya lidiaba con biometría a nivel nacional.

Speaker 1:

El programa AADHAR fue y sigue siendo el sistema de identificación biométrica más grande del mundo. Recolecta huellas dactilares, escaneos de iris y fotos faciales de más de mil millones de personas, vinculándolas a un número de identidad único de 12 dígitos.

Speaker 3:

La idea agilizar servicios públicos y subsidios, La polémica, todo lo demás.

Speaker 1:

Ahí entra el juez retirado K S Putaswamy, quien presentó una demanda cuestionando la constitucionalidad de Hadar. Su argumento principal que la recolección forzosa de datos biométricos, especialmente sin salvaguardas sólidas, violaba el derecho a la privacidad salvaguardas sólidas violaba el derecho a la privacidad.

Speaker 3:

Y aquí viene el giro. Primero, la Corte Suprema de India tenía que decidir si la privacidad era siquiera un derecho fundamental según la Constitución. Spoiler no estaba expresamente escrito.

Speaker 1:

Pero en una sentencia histórica en 2017, la Corte dictó unánimemente que sí, la privacidad es un derecho fundamental basado en la dignidad, la autonomía y la libertad personal.

Speaker 2:

Estás escuchando a Intangiblia el podcast de Intangible Law, hablando claro sobre propiedad intelectual.

Speaker 3:

Luego, en 2018, la Corte se pronunció directamente sobre ADAR. Permitió su uso para programas sociales del gobierno, pero anuló varias expansiones, como su uso para cuentas bancarias, números de teléfono o servicios privados.

Speaker 1:

El tribunal exigió que el gobierno implementara mejores medidas de protección de datos, limitará la retención de información y diera a los ciudadanos más control sobre su información biométrica.

Speaker 3:

Este caso transformó el panorama legal de India, forzó un debate público sobre la vigilancia biométrica y allanó el camino para la ley de protección de datos personales digitales de 2023.

Speaker 1:

La elección. no se puede invocar la eficiencia para eliminar el consentimiento. Putaswamy dejó claro Los derechos no desaparecen en nombre de la conveniencia.

Speaker 3:

Hora de cambiar de marcha. Pasamos de privacidad a patentes. En este caso, no se trataba de si tu cara fue usada sin permiso, sino de si Apple la usó con demasiada familiaridad.

Speaker 1:

Entra en escena CPC Patent Technologies, pti-ltd, una empresa australiana con un arsenal serio de patentes sobre autenticación biométrica. Alegaron que las funciones Face ID y Touch ID de Apple infringían tres de sus patentes registradas en Estados Unidos.

Speaker 1:

Esas patentes databan de principios de los 2000 y fueron desarrolladas originalmente por una empresa de biometría que ya no existe. Cpc las adquirió y luego salió de cacería. Apple era el pez más grande del estanque. El argumento El uso que hace Apple del acceso biométrico para desbloquear dispositivos, ya sea con tu cara o con tu huella, coincidía con los métodos descritos en sus patentes.

Speaker 3:

Y aquí es donde se pone interesante CPC no fabrica productos, ni dispositivos, ni apps, solo tiene patentes. Así que, sí, la prensa empezó a llamarlos lo de siempre Trolls de patentes, empezó a llamarlos lo de siempre, trolls de patentes.

Speaker 1:

Apple contraatacó con solicitudes de revisión inter partes ante la oficina de patentes de EE UU, buscando invalidar las patentes.

Speaker 3:

Alegaron que la tecnología era demasiado obviaétrica. Se vuelve estándar en teléfonos, bancos y más allá. Muchas patentes dormidas están volviéndose oro puro.

Speaker 1:

Aquí no se trata de mal uso de datos. Se trata de quién es dueño del método. Si tu cara es la llave, ¿quién tiene el derecho sobre la cerradura?

Speaker 3:

Apple no ha hecho declaraciones públicas sobre el caso, pero pleitos como este nos recuerdan una cosa Aunque desarrolles la tecnología desde cero, siempre puede haber alguien que diga que llegó primero en el papel. ¿tú pensabas que los emojis animados eran solo una ternura? Pues, según Face to Face, biometrics son patentables y Apple se pasó de la raya.

Speaker 1:

En 2022, face to Face Biometrics demandó a Apple alegando que su función Memoji infringía una patente que cubre el uso de expresiones faciales para animar un avatar digital para animar un avatar digital Memoji para quienes no usan.

Speaker 3:

iPhone te permite controlar una versión caricaturizada de ti mismo usando tus movimientos faciales reales cejas, sonrisas, guiños, todo el paquete expresivo.

Speaker 1:

Face to Face dijo esa es nuestra invención. Su patente, concedida en 2021, abarcaba el uso del reconocimiento facial para controlar dinámicamente avatares en sistemas de mensajería.

Speaker 3:

Apple, como era de esperarse, no se quedó de brazos cruzados. Impugnaron la demanda y argumentaron que la patente era demasiado amplia, intentando monopolizar una evolución natural de la comunicación por video.

Speaker 1:

Los críticos no tardaron en tachar a Face to Face de troll de patentes. ¿por qué? Porque no fabricaban productos ni vendían software, solo tenían la patente y la demanda.

Speaker 3:

Es la receta clásica. Obtén una patente, espera que alguien exitoso haga algo parecido. Demanda, repite cuantas veces quieras.

Speaker 1:

Aún así, el caso plantea una pregunta interesante Dónde termina la invención técnica y empieza la expresión creativa? ¿Seguir el guiño de alguien para animar un koala digital es realmente un proceso innovador?

Speaker 3:

para animar un koala digital es realmente un proceso innovador, ganen o no, el caso demuestra cómo se está utilizando o abusando el sistema de patentes para reclamar territorio en el mundo explosivo del entretenimiento biométrico.

Speaker 1:

Porque en el mundo actual de la propiedad intelectual, ni tu emoji se salva de una demanda el mundo actual de la propiedad intelectual, ni tu emoji se salva de una demanda.

Speaker 3:

Seguimos con Passive Technologies, también conocido como el troll de patentes que nunca duerme.

Speaker 1:

Passive es una empresa sin productos, sin servicios, sin app, solo un bulto de patentes relacionadas con criptografía y autenticación biométrica, y han estado ocupados.

Speaker 3:

En 2024, pusieron la mira en Citibank y PNC Bank, dos instituciones financieras de peso en Estados Unidos. La razón sus app móviles permiten iniciar sesión con reconocimiento facial y huellas dactilares.

Speaker 1:

Según PASID, esas funciones violaban seis de sus patentes. Las demandas se centraban en métodos para verificar usuarios mediante datos biométricos de forma segura, tecnología que hoy es estándar en cualquier app bancaria.

Speaker 3:

El detalle clave PASID no inventó el reconocimiento facial ni la biometría. Solo compraron patentes antiguas de una empresa de seguridad que ya cerró y las convirtieron en armas legales.

Speaker 1:

Y no presentaron la demanda en cualquier lugar. Fueron directo al Distrito Oeste de Texas, un tribunal que tiene fama de ser, digamos, amigable con los titulares de patentes, el caso sigue en curso, pero Citibank y PNC están contraatacando con fuerza.

Speaker 3:

Alegan que las patentes son demasiado vagas, que hay antecedentes que las invalidan o que simplemente describen ideas abstractas que no deberían patentarse. Y ojo.

Speaker 1:

PASID no es nuevo en esto. En 2018 demandaron a Samsung por alegatos similares. Misma jugada esperar que el mercado adopte una función y demandar.

Speaker 3:

Pero aquí está el dilema Aunque esas patentes no se sostengan, el costo de defenderse es altísimo. Y esa es la verdadera presión que ejercen los trolls de patentes.

Speaker 1:

También plantea una pregunta más profunda Puede considerarse propiedad intelectual de alguien el método de usar tu propia cara para entrar a tu propia cuenta?

Speaker 3:

Porque si la respuesta es sí, entonces todos estamos alquilando nuestra propia identidad. Detección de vivacidad suena a ciencia ficción, pero es una capa crítica de seguridad en reconocimiento facial Y en FaceTech. Humio se convirtió en una batalla legal con todas las de la ley. Humio se convirtió en una batalla legal con todas las de la ley.

Speaker 1:

FaceTek es una empresa estadounidense especializada en tecnología anti-spoofing, es decir verificar que la cara frente a la cámara no sea una foto, un video o una máscara 3D. Su producto estrella, som, usa mapeo facial en 3D para confirmar que hay un ser humano real y vivo presente.

Speaker 3:

Jumio, por su parte, es un gigante del sector de verificación de identidad. Originalmente usaban la tecnología de vivacidad de Facetech, pero luego cambiaron de proveedor y se asociaron con iProof.

Speaker 1:

Ahí fue cuando Facetech apretó el botón rojo. Acusaron a Jumio de seguir usando sus métodos patentados incluso después de terminar la colaboración, y presentaron una demanda por infracción de patentes.

Speaker 3:

Y el caso se puso picante rápido. Facetec incluso logró que descalificaran al equipo legal de Jumio alegando conflicto de interés, porque esos abogados habían ayudado a registrar algunas de las patentes involucradas ¡Auch Eso no fue ajedrez legal, fue jaque mate con reina incluida las patentes que cubrían métodos de detección 3D de vivacidad, cómo el sistema reacciona a movimientos sutiles del usuario, cambios de luz y profundidad de cámara para confirmar que la persona en pantalla es real.

Speaker 1:

Jumio negó las acusaciones, pero el caso dejó claro cuán valiosa se ha vuelto esta tecnología. En un mundo de deep fakes, fraudes de identidad y medios sintéticos, tener un sistema que detecte si eres real vale oro.

Speaker 3:

Y al parecer, ese oro se defiende con uñas y dientes. El caso sigue abierto, pero hay algo seguro Estas patentes no solo determinan quién inventó qué, sino quién tiene el poder de proteger la puerta de entrada a la identidad digital.

Speaker 1:

Cuando toda la economía depende de verificarte aacidad. Facetek contra iProf. Porque al parecer en el mundo del anti-spoofing nadie se porta bien iProf, una empresa británica, se hizo famosa por su tecnología de detección de vivacidad con flash y video. Básicamente usa patrones de luz temporizados y cuadros de video para confirmar que la cara frente a la pantalla está viva, no congelada ni manipulada.

Speaker 3:

FaceTek dijo un momento, eso ya lo patentamos literalmente. Alegaron que el sistema de eProof infringía sus métodos patentados para detectar presencia viva mediante cámaras de dispositivos y estímulos de luz reactiva.

Speaker 1:

Presentaron demandas en ambos lados del Atlántico. Y ojo, esto no era sobre filtros divertidos. Estas eran patentes de seguridad del tipo que se usa en bancos, control fronterizo y sistemas de identidad nacional.

Speaker 3:

FaceTech argumentó que E-PROV copió aspectos clave de su tecnología patentada y que eso les dio una ventaja desleal en licitaciones de alto riesgo.

Speaker 1:

E-PROV no se quedó callado. Alegaron que su sistema fue desarrollado de forma independiente, que era diferente en arquitectura y que, por supuesto, no infringía nada.

Speaker 3:

Este pleito puso bajo la lupa el mundo fragmentado pero ferozmente protegido de la propiedad intelectual biométrica. No estamos hablando de patentes, de apps comunes. Estas son como escáneres de aeropuerto en forma digital valiosas, reguladas y sensibles.

Speaker 1:

Y no olvidemos, esto no es solo una riña entre privados. Ambas empresas venden soluciones a gobiernos, bancos y sistemas de salud. Ganar este pleito abre la puerta a contratos globales.

Speaker 3:

El litigio sigue su curso, pero, pase lo que pase, deja algo claro En seguridad biométrica, más te vale tener una receta original, porque siempre habrá alguien listo para demandarte por la fórmula ¿Y en un mundo donde la detección de vivacidad decide si tu cara es real, la ley de propiedad intelectual es el nuevo filtro de rostro. Ahora que ya cubrimos el drama judicial, veamos qué están haciendo legisladores y reguladores para controlar específicamente el uso del reconocimiento facial, porque, aunque la tecnología avanza rápido, las leyes Bueno, algunas, apenas están empezando a ponerse al día.

Speaker 1:

Empecemos con Estados Unidos, donde las leyes biométricas varían muchísimo según el estado, Y eso importa especialmente cuando hablamos de rostros.

Speaker 3:

Primero, la famosa VIPA, la Ley de Privacidad de Información Biométrica de Illinois, aprobada en 2008,. Exige consentimiento informado y por escrito antes de recolectar cualquier dato biométrico, incluyendo geometría facial, y permite que las personas demanden directamente. Por eso, illinois es la capital de las demandas millonarias por reconocimiento facial.

Speaker 1:

Luego está Texas, que aprobó su propia ley de identificadores biométricos en 2009. También exige consentimiento, pero solo el fiscal general puede hacerla cumplir. O sea, nada de demandas privadas.

Speaker 3:

El estado de Washington siguió en 2017 con una ley similar. Requiere notificación y un propósito claro para recolectar biometría, pero de nuevo sin derecho privado a demandar.

Speaker 1:

En California tenemos la CCPA y la CPRA. Juntas definen los datos biométricos como información personal sensible. Los usuarios pueden pedir que se eliminen o limiten, pero solo pueden demandar si hay filtración de datos.

Speaker 3:

Y no olvidemos, a la FTC. En 2023 emitió una declaración de política advirtiendo que usar reconocimiento facial sin transparencia, sin seguridad de datos y sin consentimiento podría considerarse una práctica engañosa o injusta bajo la ley federal de Protección al Consumidor.

Speaker 1:

Más allá de los estados, algunas ciudades han ido más lejos Portland, San Francisco y Boston han prohibido el uso de reconocimiento facial por parte de agencias gubernamentales, incluyendo la policía. Estas prohibiciones locales reflejan el creciente malestar con la vigilancia en espacios públicos.

Speaker 3:

Cruzando el Atlántico. El GDPR, y la estrella de la privacidad en Europa, tiene reglas muy estrictas sobre biometría. Los datos faciales usados para identificación se consideran de categoría especial, lo que significa que están prohibidos salvo que tengas consentimiento explícito o una razón legal muy sólida.

Speaker 1:

Por eso fue que Clearview AI fue prohibida o multada en casi todos los países de la UE. Los reguladores dijeron que recolectar rostros desde redes sociales violaba el GDPR.

Speaker 3:

Y la ley de inteligencia artificial de la UE, que se espera entre en vigor en 2025, va más allá Propone prohibir el reconocimiento facial en tiempo real en espacios públicos, salvo en casos muy específicos de aplicación de la ley. La idea frenar la vigilancia biométrica antes de que se vuelva algo normalizado.

Speaker 1:

Después del Brexit, el Reino Unido mantuvo el marco del GDPR Bajo el UK GDPR y la Ley de Protección de Datos de 2018, el reconocimiento facial sigue estando fuertemente regulado.

Speaker 3:

Después del caso Bridges West, South Wales Police, los tribunales británicos dejaron claro ni siquiera la policía puede usar reconocimiento facial en vivo sin garantías legales, claras auditorías contra sesgos y mecanismos de Protección de.

Speaker 1:

Información Personal. PIPL Requiere consentimiento específico y separado para recolectar información personal sensible, incluyendo datos faciales.

Speaker 3:

Lo curioso, aunque el gobierno usa reconocimiento facial de forma extensa, las empresas privadas ahora enfrentan restricciones serias. Ya hay fallos en contra de negocios que escanean rostros sin necesidad justificada ni alternativas disponibles personales.

Speaker 1:

Clasifica la biometría, incluyendo la huella facial como información sensible y exige consentimiento claro para procesarla. Esto se basa en el caso Putas Guami, donde la Corte Suprema reconoció que la privacidad es un derecho fundamental. Ese fallo obligó al país a replantearse cómo debe usarse la biometría, especialmente más allá de los sistemas de identificación estatal.

Speaker 3:

Así que, aunque no existe un enfoque universal, la tendencia global es clara El reconocimiento facial ya no puede operar en las sombras.

Speaker 1:

Desde formularios de consentimiento hasta decisiones judiciales, tu rostro, por fin, está recibiendo el respeto legal que se merece.

Speaker 3:

Cerremos con cinco cosas positivas que nos llevamos de este episodio Y no, no todos son demandas y tecnicismos legales.

Speaker 1:

Exacto, este episodio fue una fiesta de huellas faciales, pero también trae buenas noticias.

Speaker 3:

Uno la gente está prestando atención. Desde Illinois hasta India, ciudadanos, jueces y reguladores están haciendo preguntas importantes sobre el uso del reconocimiento facial y están tomando acción sobre el uso del reconocimiento facial y están tomando acción.

Speaker 1:

Dos las leyes están mejorando, ya sea VIPA, el GDPR o las nuevas leyes de IA. estamos viendo un cambio hacia reglas más claras, consentimiento más fuerte y consecuencias reales para los abusos.

Speaker 3:

Tercera, las empresas tecnológicas se están adaptando. Acuerdos legales, cambios de política y rediseños muestran que las plataformas están empezando a tomar la biometría en serio.

Speaker 1:

Cuarta, la innovación puede ser ética. Tecnologías para detectar deepfakes, verificación de vivacidad y sistemas con privacidad desde el diseño prueban que proteger derechos y crear tecnología cool no son cosas opuestas.

Speaker 3:

Cinco tu cara importa literalmente y legalmente y más que nunca tú tienes derecho a decidir cómo se usa.

Speaker 1:

Esperamos que este recorrido por el mundo de la biometría te haya dejado con más poder en tus manos y quizá te haya hecho revisar los permisos de tus apps.

Speaker 3:

Tu rostro no es sólo un dato, es identidad, creatividad, seguridad y ahora está protegido por un marco legal que crece en todo el mundo.

Speaker 1:

Si te gustó este episodio, compártelo con alguien que haya usado un filtro de selfie o desbloqueado su celular con la cara O sea básicamente todo el mundo.

Speaker 3:

Gracias por escuchar Intangiblia. Seguimos curiosas, seguimos protegidas y sí sonríe es tu derecho.

Speaker 2:

Gracias por escuchar a Intangiblia el podcast de Intangible Law hablando claro sobre propiedad intelectual. ¿te gustó lo que hablamos hoy? Por favor, compártelo con tu red. ¿quieres aprender más sobre la propiedad intelectual? Suscríbete ahora en tu reproductor de podcast favorito. Síguenos en Instagram, facebook, linkedin y Twitter. Visita nuestro sitio web wwwintangibliacom y Twitter. Visita nuestro sitio web wwwintangibliacom. Derecho de autor Leticia Caminero 2020. Todos los derechos reservados. Este podcast se proporciona solo con fines informativos y no debe considerarse como un consejo u opinión legal.

People on this episode