Reconocimiento facial y lucha contra el crimen: por qué los sesgos pueden llevar a una justicia llena de prejuicios

Reconocimiento facial y lucha contra el crimen: por qué los sesgos pueden llevar a una justicia llena de prejuicios

My list

Autor | Arantxa HerranzCada vez más ciudades apuestan por los sistemas de reconocimiento facial como una medida para luchar contra el crimen. Moscú ha sido una de las últimas, pero antes que a la capital rusa estos sistemas llegaron a ciudades como Chicago o a países enteros como ChinaUna medida que no ha estado exenta de polémica, puesto que los defensores de las libertades civiles y la privacidad temen que su tecnología acabe convirtiéndose en un arma de vigilancia masiva y, sobre todo, discriminatoria. Europa, de hecho, sopesa prohibir el uso de estos sistemas de reconocimiento facial en espacios públicos durante cinco años hasta que se determine cómo evitar, precisamente, sus posibles abusos.El problema no es tanto que estamos todavía ante un sistema imperfecto (en China, por ejemplo, hay cierta controversia tras constatarse que las entradas a edificios con reconocimiento facial están impidiendo el paso a personas con mascarillas para evitar el coronavirus); parte de la polémica es que el reconocimiento facial tiene importantes sesgos raciales, sexuales y de edad.

Hombres blancos de mediana edad, los más reconocibles

Investigadores del Instituto Nacional de Estándares y Tecnología descubrieron que los algoritmos de identificación facial son mucho mejores con las personas descritas como de raza blanca que con las afroamericanas y asiáticas. Tanto que a los errores en la identificación de estas personas tienen de 10 a 100 veces más probabilidades de fallar que con las caras caucásicas.Entre una base de datos de fotos utilizadas por las agencias policiales en los Estados Unidos, las tasas de error más altas se produjeron en la identificación de los nativos americanos, según el estudio. Además, los algoritmos tuvieron más dificultades para identificar a las mujeres que a los hombres.Para hacer este estudio, el organismo puso a prueba casi 200 algoritmos de reconocimiento facial de casi 100 desarrolladores, utilizando cuatro colecciones de fotografías con más de 18 millones de imágenes de más de 8 millones de personas. 

Los sesgos, maximizados en la inteligencia artificial

El problema de los sesgos no es nuevo. Ni único de la inteligencia artificial. Pero el gran problema es que los algoritmos pueden, mal programados, maximizar y potenciar esos sesgos que afectan a la raza, edad, condición y orientación sexual o religión de las personas.Y no afecta únicamente al reconocimiento facial: una investigación reciente también ha demostrado que un algoritmo utilizado ampliamente en los hospitales de EE.UU. para asignar atención médica a los pacientes ha discriminado sistemáticamente a las personas negras.En muchos casos, la IA puede reducir la interpretación subjetiva de los datos de los humanos, ya que los algoritmos aprenden a considerar solo las variables que mejoran su precisión predictiva, en función de los datos de entrenamiento utilizados. Al mismo tiempo, una amplia evidencia sugiere que los modelos de IA pueden incorporar prejuicios humanos y sociales y desplegarlos a escala. Por ello, tanto humanos como máquinas deben esforzarse para evitar el sesgo y, con ellos, la discriminación. El sesgo en la IA se produce sobre todo en los datos o en el modelo algorítmico, por lo que la industria busca desarrollar sistemas de IA en los que podemos confiar. Y, para ello, se hace necesario y entrenar estos sistemas con datos imparciales, desarrollando además algoritmos que puedan explicarse fácilmente para su posible análisis cuando se detecten falsos positivos.Imágenes | Fauxels, teguhjatipras

Related content

Recommended profiles for you

PC
Peter Clemons
Quixoticity
Founder & Chief innovator
GS
Gunho Sohn
York University
GI
GHEORGHE IORDACHE
KAUST
Director of the Nanofabrication Core Lab
EB
Elyssa Barrow
School
JJ
jack jacko
bbc
RR
Roberto Rossi
Thales Italia spa
to develop domestic market and create innovation partnerships
SP
SD Prakash
SDP Group
Founder & CEO
MJ
margit jeppesen
Felicity Smart Infrastructure
KM
KAT MARTINEZ
METROPOILITANA
RR
Rahul RD
Traicon
BL
Bram Lippens
HoGent
TL
Tebogo Legong
university of pretoria
NR
Nandini R
christ university
LC
Leonardo Campanale
Associazione Nazionale Controllo di Vicinato
President
MB
Manuel Jesus Barrera Coronado
Telefonica
Consultor Sales / Customer Engineering
MP
Mijamil Picha
Universidad del Bio Bio
CM
Craig Maitland
Government department
CK
Christof Kraka
BKS GmbH
Pre sales engineer
PN
Petri Nykänen
Business Tampere
Director, Safety and Security
嘉马
嘉翊 马
辽阳市国建资本运营集团有限公司