La plataforma Meta, matriz de Facebook, se comprometió a corregir sus prácticas publicitarias discriminatorias en materia de vivienda, que violan la legislación estadounidense sobre vivienda justa para evitar un juicio penal, anunciaron este martes fuentes judiciales.
Según la demanda del Departamento de Vivienda y Urbanismo estadounidense, Meta utiliza en Facebook algoritmos para elegir a los receptores de los anuncios de vivienda, basados en un sesgo por raza, color, religión, sexo, discapacidad, situación familiar y origen.
El acuerdo al que llegaron obliga a partir del 31 de diciembre proximo "por primera vez a Meta a cambiar su sistema de publicación de anuncios para abordar la discriminación algorítmica", afirmó el fiscal, del Tribunal Sur de Manhattan, Damian Williams.
La empresa de Mark Zuckerberg prometió que va a dejar de utilizar una herramienta publicitaria conocida como "Special Ad Audience" para los anuncios de vivienda, que según el denunciante, se basa en un algoritmo discriminatorio destinado a usuarios que "se parecen", basados en características protegidas por la Ley de Vivienda Justa (FHA).
Meta debera desarrollar un nuevo sistema para abordar, entre otras, las disparidades raciales en su sistema personalizado de publicidad de vivienda. Esta será la primera vez que un tribunal vigilará a Meta por su sistema de publicidad personalizada.
Si Meta incumple lo pactado, el tribunal optará por la vía penal, pero por el momento la empresa tendrá que pagar una multa de 115.054 dólares, el máximo que contempla la Ley de Vivienda Justa estadounidense.
La demanda del Gobierno pretende cambiar el algoritmo del que se sirve Facebook para encontrar usuarios que comparten similitudes con grupos de individuos seleccionados por un anunciante recurriendo a varias opciones proporcionadas por la red social, que decide qué tipo de usuarios son elegibles o inelegibles para recibir su publicidad.