Aunque ya desde primeros de años, Europa está detrás de prohibir el reconocimiento facial en lugares públicos no ha sido hasta ahora que,a consecuencia de la brutalidad policial en Estados Unidos, IBM y Amazon reconozcan su sesgo racista.
Un estudio del MIT Media Lab concluyó en el 2018 que, aunque la precisión media de estos productos oscila entre el 93,4% y el 87,9%, las diferencias en función del color de piel y el sexo son notables, hasta el punto de que el margen de error entre identificar a un hombre blanco y una mujer negra es del 34% mayor en el caso del software de IBM; el 93% de los errores cometidos por el producto de Microsoft afectaba a personas de piel oscura, y el 95% de los fallos de Face++, una alternativa china, se refería a mujeres.
En esta misma línea, hoy mismo acaba de salir la Anonymous Camera para iOS capaz de «anonimizar» tus fotos o vídeos utilizando técnicas de IA y si necesidad de postprocesado de forma que tus tomas estarán protegidas incluso en el caso de que tu móvil cayese en manos de la policia.
Aunque todavía la aplicación tiene fallos como no poder «emborronar» a todos los sujetos en multitudes es capaz también de distorsionar voces _(
1448