miércoles, 27 de marzo de 2019

La informática está ayudando a que la desigualdad crezca.

Últimamente no tengo buenas palabras al cómo estamos desarrollando la Informática. Hace 10 días dije que la Informática ha muerto y que resucitaría un día en el que los seres humanos abracemos los Derechos Humanos y nos unamos en esa lucha. Hoy vengo a seguir con esta idea, pero esta vez cómo la informática, o más concretamente el Big Data está fomentando el desarrollo de la desigualdad.


Para empezar, tendremos que saber qué son los algoritmos. Por ejemplo, pensemos cada uno en los pasos que damos desde que nos suena el despertador hasta que nos despertamos. Podríamos decir lo siguiente:

1. Suena el despertador.
2. Abro los ojos
3. Apago el despertador
4. Me levanto de la cama
5. Me ducho o me visto

¿Veis algún problema? Si no lo veis, deberíamos recordar que estas pautas han sido puestas por mí, no puedo obligar y menos asumir que seguir estos 5 pasos en este orden es lo mejor para despertarse ya que otra persona podría, por ejemplo, cambiar de orden el 3 y el 4.

1. Suena el despertador.
2. Abro los ojos
3. Me levanto de la cama
4. Apago el despertador
5. Me ducho o me visto

De esta otra forma, una persona podría suponer que lo mejor es levantarse primero de la cama y después apagar el despertador para así no correr riesgos de quedarse dormido o dormida.

Como intuís, estas reglas van a variar dependiendo de quién las establezca y entonces no podemos asumir que sean estas reglas científicas.

Pues estas reglas son los algoritmos, un algoritmo son reglas, pasos. Vamos con otro ejemplo.

Imaginemos que un Gobierno o Ayuntamiento pide a informáticos que detecten, mediante IA, quienes tienen más probabilidades de llevar marihuna. Para que los informáticos puedan desarrollar su trabajo, el Gobierno o Ayuntamiento le aporta información de la sanidad pública para, a lo mejor, relacionar visitas al médico o análisis de corazón con posesión de drogas, antecedentes penales, edad. situación laboral, género. Ahora os pregunto ¿Veis algún problema con esto?

Deberíais, ya que se está filtrando por los que están en la Sanidad Pública, y ahí muchas personas van porque no pueden pagar la privada, sobre todo en EEUU . Servicio Sanitario Público, Oficina de desempleo, oficina de vivienda...todo esto son datos que están relacionados, por lo que podríamos llegar a esta situación:

Antonio es una persona negra, fuma marihuana, está en paro, no tiene antecedentes y va al médico regularmente a causa de fumar. La Inteligencia Artificial le da un 9/10 posibilidades de estar en posesión de drogas.

Luis es blanco, trabaja, tiene antecedentes, está bajo la sanidad privada y también está en posesión de drogas. La IA le puntúa con 4/10 posibilidades de estar en posesión de drogas.

Si se juntan varias personas como Antonio en una misma región como puede llegar a ser una zona desfavorecida. Los informáticos estarán contentos porque su algoritmo, su programa funciona, detecta y predice personas que están en posesión de drogas. Muchos podréis ver que esto está bien porque mejor detectar gente cometiendo delitos que no detectarlos, pero hay que recordar que el programa está discriminando y no da las mismas posibilidades a 2 personas que ambas están cometiendo el mismo delito, y que se está discriminando por cuestiones socieconómicas. 



Esto vulneraría el Artículo 7 de los Derechos Humanos y el Artículo 14 de la Constitución Española.



Cathy O'Neil, matemática y activista ya expuso datos como estos en esta charla TED. Esta charla es recomendable para seguir con este artículo y entender algunas cosas que ella explica bastante mejor que yo además de aportar casos específicos que manifiestan que no podemos tener fe ciega en los datos masivos o Bi Data para tomar decisiones, y sí, esto sé que va totalmente en contra de lo que algunas personas dicen de "empresas que no toman decisiones basadas en datos están muertas". Aunque en realidad no va tan en contra, ya que yo denuncio este poder (y digo poder) que tienen las empresas y quiero quitar ese poder que hace que las empresas privadas acumulen cada vez más capital.

Las aseguradoras pueden utilizar información de los sistemas sanitarios públicos para así filtrar por quienes pueden o no recibir un seguro médico. Esto lo podréis entender, lo que ocurre es que el problema reside en que otorguen seguros médicos a personas sanas en lugar de las enfermas para así acumular aún más capital.

 

Podría ser peor. Un Banco podría no dar un préstamo a una persona que vea que, históricamente gasta más que ingresa. En el caso de la captura anterior es una foto de una de mis cuentas bancarias a día de 20 de marzo. Bueno, más que la cuenta es una de sus opciones de estadísticas que te muestran cuánto has ganado y cuánto ingresado ese mes. A esa fecha aún no recibí la nómina, pero podría darse el caso que una familia en la que sólo trabaje una persona, gaste más que ingrese pero el banco no le de un préstamo para, por ejemplo, montar un negocio.

Volviendo al caso de la medicina, una empresa podría contratar a las personas con menos probabilidad de ponerse enfermas, y claro, aquí los grupos desfavorecidos vuelven a salir perdiendo, ya que, por lo general, las personas que van a un médico privado tendrán una mejor salud que los que van a uno público. Sigue creciendo la desigualdad.

Recordemos que el Machine Learning funciona gracias a datos, por lo que otra cosa que hay que analizar además de quién controla estos sistemas, es si la información que se está aportando es buena o no.


Bulos como estos que desmienten la gente de Maldita pueden ayudar a que crezca esta desigualdad que de por sí crea la IA. Ya hemos visto el daño que hacen las Fake News en temas como el voto en EEUU, por lo que esto podría, si se utiliza mal y se escogen malas fuentes, tomar malas decisiones.

Y esto es importante sobre todo si tenemos a IAs estudiando a la sociedad en redes sociales, lo que puede provocar situaciones como la de muchos algoritmos de Machine Learning de:

"Él es a informático lo que ella a ama de casa"

Esto sale del siguiente estudio donde analizan precisamente esto haciendo pruebas como "Paris es a Francia lo que Tokyo es a X" y la máquina respondió  que Japón (Bien). También le dijo que "Hombre es a Rey lo que mujer es a X" y respondió Reina (Bien). Ahora bien, utilizando este mapeo de palabras, le preguntó: "Hombre es a informático lo que mujer es a X" y aquí la respuesta fue ya "ama de casa".
Esto ha ocurrido porque la máquina lo que hace es lo mismo que nosotros con nuestro armario, ordenarlo por abrigos, pantalones, camisetas de manga corta, de manga larga,etc. Después hacemos combinaciones. Pues bien, la máquina lo que ha hecho es algo similar a ver pantalones y relacionarlo con un hombre ¿Acaso las mujeres no llevan pantalones?

El estudio también se encontró que las máquinas que realizan mapeo de palabras (técnica utiliadas por algunas IAs para seleccionar anuncios o CVs) la siguiente relación.


No parece casualidad este sexismo del algoritmo. Decir que este sesgo se hace emparejando por ejemplo hermano-hermana, padre-madre, por lo que es normal que si hacemos una gráfica, hermano esté más cerca del lado masculino que del femenino, pero no tiene sentido que "médico" esté más en el masculino, ya que sirve tanto para el masculino como para el femenino (igual que con doctor en inglés).


Este gráfico muestra las palabras que están contaminadas en la parte de arriba, y en la parte de abajo las que son más normales su distribución. Es normal que, por ejemplo, "reina" o "hermana" se aproxime a "ella", pero no tiene tanto sentido que palabras como "casa" o "housemaker" (ama de casa pero que vale para ambos géneros) se acerquen a "ella".

Las personas que realizaron el estudio proponen que para solucionar esto es muy sencillo aplicando el método Debiasing algorithms, un método por el cual en lugar de comparar parejas, se comparan grupos de palabras. Aplicando este método los investigadores demuestran que del 19% de las 150 palabras que se consideraban sexistas, se consiguen reducir al 6% con este método.


En el caso de "Él es médico lo que ella es a X" el sistema ya no dice X=enfermera, en su lugar selecciona X=doctora.

Ahora tenemos que pararnos a analizar las implicaciones de estos sistemas y algoritmos de machine learning. Sistemas como los de mapeo de palabras se utilizan, como se ha hecho alusión, en aplicaciones para selección de CVs entre otros, por lo que ya podréis ver por donde voy.

¿Qué pasaría si a ese sistema le llegasen 2 CVs con la misma experiencia para un puesto de doctor/a pero uno fuese hombre y otra persona fuese mujer? Al hombre le saldrían ofertas de Doctor y a la mujer de enfermera. Lo mismo con un hombre y una mujer que demanden un puesto de informático/a, al hombre le saldrían las ofertas mientras que a la mujer le saldrían ofertas relativas a otros intereses que tenga, pero no de informática, lo que seguiría incrementando esta brecha.

Para la mujer descendería la oferta de empleos de informática y por tanto, a su vez, dejará de demandar puestos de trabajos por cansancio. No obstante sí que seguirá demandando puestos de trabajo, pero podría, por mantenerse, coger puestos de trabajos totalmente distintos al trabajo de informática, por lo que el sistema vería otros tipos de experiencia que, si coinciden con los esteriotipos, el sistema ofertaría a la mujer esos puestos. La brecha crecería.

Como veis, el patrón es el mismo, perjudicar a la clase trabajadora. La lucha es la misma, lo único es que han cambiado las armas, y actualmente se están dando tanques a las clases altas y burguesas y palos a la clase trabajadora.

¿Entendéis el por qué hay "tantas salidas" para la Informática? Es la herramienta perfecta para que la burguesía acumule capital (además estoy preparando otro artículo que será aún más descriptivo sobre este punto que comento).

Por comparar, podríamos relacionar el machine learning con la falacia de la tasa base, algo de lo que hablaron en el Blog de Eleven Paths, haciendo ver que lo importante no es que un antivirus detecte malware, ya que eso se puede lograr denegando todos los paquetes entrantes, lo importante es que no se equivoque.

Y este es otro punto, en caso de que un algoritmo se equivoque, puede perdujicar la vida de las personas como en los casos comentados, algo muy distinto a hacer un poco más difícil nuestro trabajo, que es lo peor que podría pasar en caso de que un programa que, por ejemplo, analice logs y se equivoque.

Así pues, y para resumir, los puntos importantes son:

  • Controlar quiénes controlan la tecnología. Hay que devolver la informática a los usuarios, que la tecnología trabaje para ellos y no que los usuarios trabajen para la tecnología o tengan que esconderse de la tecnología.
  • Controlar la información que se proporciona y verificar que la información es correcta.
Hay más puntos que comentar, pero ya me he extendido bastante. Este artículo y todos los que estoy redactando sobre Big Data los reuniré cuando termine de publicar todos los artículo que tengo pensados sobre esto.

¿Hackeamos el Mundo?

No hay comentarios:

Publicar un comentario

Related Posts Plugin for WordPress, Blogger...

Entrada destacada

El server me sabe a poco.

Soy un fanático del Rock y de Debian . (Creo que voy a inventar Rockbian, que suena bien y todo xD) Llevaba tiempo queriendo unir estos 2 c...