La Apple Card, tarjeta de crédito que la firma tecnológica lanzaba de manera reciente en Estados Unidos bajo la colaboración con Goldman Sachs, está siendo duramente criticada en los últimos días tras la viralización de un tweet que acusa de discriminación sexista al algoritmo que asigna los valores crediticios de la misma.

Según aseguraba el pasado jueves el desarrollador David Heinemeier Hansson, dicho software le habría dado más crédito a él que a su mujer, a pesar de tratar determinados aspectos fiscales de forma conjunta:

La @AppleCard es un jodido programa sexista. Mi esposa y yo presentamos declaraciones de impuestos conjuntas, tenemos nuestra propiedad a ambos nombres y llevamos mucho tiempo casados. Sin embargo, el algoritmo de opaco de Apple cree que merezco 20 veces el límite de crédito que ella tiene.

A estas críticas se sumaban algunos usuarios, diciendo haber experimentado lo mismo a pesar de que, aparentemente, sus mujeres deberían haber obtenido el mismo o más crédito que ellos por sus condiciones laborales e historia personal. Uno de ellos resultó ser Steve Wozniak, cofundador de Apple, que expresaba lo siguiente:

Lo mismo nos pasó a nosotros. Tengo 10 veces más límite de crédito. No tenemos cuentas bancarias o de tarjetas de crédito ni activos por separado. Sin embargo, es difícil hacérselo llegar a un humano para que lo corrija. Así son las grandes tecnológicas en 2019.

El algoritmo de la Apple Card y los perfiles personales

La Apple Card es uno de los productos estrella de la firma de Cupertino en los últimos tiempo, sirviendo esta para consolidar su entrada en el panorama bancario tras la llegada de Apple Pay en 2014. Con ella, los clientes de Estados Unidos –único territorio en el que está disponible, aunque podría llegar a otros próximamente, según confirmaba recientemente Tim Cook, CEO de la compañía– pueden acceder a diferentes beneficios y comisiones por sus compras en determinadas cadenas y servicios.

Apple Card

Ahora bien, la polémica bajo la que ahora se encuentra la misma se radica en el algoritmo de Goldman Sachs, la entidad financiera que hace de pasarela entre Apple y la tarjeta de crédito y que, en última instancia, es la que valora a cada usuario de manera individual para asignarle un perfil concreto. Esta asignación dará como resultado la concesión de un crédito mayor o menor, basándose en diferentes parámetros que atañen al presente y pasado financiero de una persona.

Tim Cook asegura que el iPhone 11 está siendo un éxito y da pistas sobre la llegada de la Apple Card a Europa

Así lo refleja la entidad en un comunicado realizado tras conocerse las acusaciones de Hansson, donde manifiesta de forma tajante que "no hemos tomado ni tomaremos decisiones basadas en factores como el género":

Al igual que con cualquier otra tarjeta de crédito individual, su solicitud se evalúa de forma independiente. Analizamos los ingresos y la solvencia de un individuo, que incluye factores como los puntajes de crédito personales, la cantidad de deuda que tiene y cómo se ha administrado esa deuda. En base a estos factores, es posible que dos miembros de la familia reciban decisiones crediticias significativamente diferentes.

Así las cosas, que una persona reciba un nivel de crédito distinto al de su pareja no debería ser una situación atípica, dado que las variables que en ello influyen son muchas y muy distintas. Además, es necesario señalar que las acusaciones hacia el algoritmo de la Apple Card representar una cantidad aparentemente insignificante si se tiene en cuenta el volumen total de usuarios de la plataforma, por lo que parece poco probable que esta discriminación tenga su origen en el género de una persona y sea una constante

En cualquier caso, no es posible determinar si se trata de un error aislado, temporal o, efectivamente, existe un cierto sesgo en la forma en la que Goldman Sachs, una entidad financiera con una larga trayectoria y gran reputación, evalúa a sus clientes mediante algoritmos. Por lo pronto, el Departamento de Servicios Financieros de Nueva York ha anunciado que abrirá una investigación para dilucidar esta cuestión, ya que "Cualquier algoritmo, que intencionalmente o no dé como resultado un trato discriminatorio de las mujeres o cualquier otra clase protegida de personas viola la ley de Nueva York".