jueves, 7 de marzo de 2019

Transparencia con código privativo es como curar con veneno

Escucho mucho eso de que para el futuro de la tecnología, las empresas deben ser transparentes en cuanto a sus valores y su ética, y estoy de acuerdo, pero si después analizas sus acciones, encuentro importantes contradicciones muy importantes como que, en su ejercicio de transparencia, desarrollan tecnología mediante software privativo.



Cuando escucho a algún CEO hablar de transparencia en sus proyectos mientras que esos proyectos son de software privativo pienso que o piensan que somos estúpidos y se ríe de nosotros o bien el estúpido es él por no darse cuenta de tal incoherencia.

Pero todo sirve hoy en día para los amigos del capitalismo, toda mentira sirve, y el problema es que la tecnología que se está desarrollando hoy en día es estúpida. Requiere de un gran esfuerzo, eso sí, pero es estúpida. Hay problemas sencillos que no se están solucionando. 

Vería con otros ojos que desarrollen IA que detecte Fake News, eso es de valor y sí que cambia la vida de las personas. Pueden decir que es complicado de hacerlo, pero, considerando esa afirmación como válida ¿y? ¿Acaso no dicen que las tecnologías que están desarrollando son también muy complicadas de realizar?

Sólo pido a esos CEOs e informáticos que sea sinceros, que no engañen. Si quieren desarrollar software privativo, que digan "estamos desarrollando software privativo porque las libertades del usuario no nos importan porque sino no obtendríamos beneficio económico". Ya está, no pido más, que sean sinceros. Pero que no hablen de transparencia.

Que tampoco hablen de empoderar a los usuarios, porque el usuario NO ES DUEÑO DEL SOFTWARE si no es libre para VER EL CÓDIGO y/o MODIFICARLO a su gusto. Y punto.

Ojo con no dotar a los usuarios de sus 5 libertades básicas, porque podemos llegar a terrenos en los que, por seguridad, se vulneren derechos básicos de los ciudadanos. Ojo con el discurso de "que el usuario valore si el servicio ofrecido le es rentable", porque con eso se responsabiliza únicamente al usuario y no a la empresa. No nos debería extrañar tanto agreement, si le damos un documento eterno con todos los datos que vamos a recolectar y encima decimos que el usuario tiene que calcular el valor de sus datos, hacemos responsables de todo lo que pase al usuario.

Los datos del usuario no tiene valor calculable ¿Cómo calculas cuánto ha tardado un usuario en generar ese determinado dato y si le ha costado más o menos? 

Yo apuesto por lo mismo, pero que los datos del usuario se queden en sus dispositivos sin compartirlos con terceros a menos que ellos quieran y den esa orden. Parece la misma visión pero no lo es. Lo que proponen muchas empresas es responsabilizar al usuario de las decisiones de una empresa tercera mientras qu eyo responsabilizo al usuario de sus acciones concretas.

Responsabilizar al usuario de que Facebook venda datos a un tercero es romper con las responsabilidades de, en este caso Facebook y culpabilizar a la víctima.

¿Por qué se hace esto? Muy sencillo, puro capitalismo. Al no poder dar salida a todo lo producido y, por tanto, no obtener el beneficio esperado, han recurrido a una estrategia curiosa. Si desarrollan tecnologías que serán parte de la casa como esas smart-homes, tienes a la gallina de los huevos de oro. 

Tienes, por ejemplo, una televisión inteligente conectada a un router de la misma compañía telefónica que te da el servicio de televisión y que funciona con tu teléfono móvil como identificador por "mayor seguridad". Pero ¿eso es bueno desde el punto de vista de la seguridad no, Manu? No necesariamente.

Si se utiliza el teléfono como identificador, puedes asegurar entonces que esa persona es quien tiene la propiedad de esa tecnología, por lo que la empresa puede identificar sin problema quién es. No sólo eso, que la cuenta introducida en esa televisión inteligente es la que permite identificar a ese usuario, por lo que tienes a una máquina analizando constantemente las series que ese usuario ve, sobre lo que tweetea o publica en Facebook para conocer sus gustos, que si sale una determinada ropa en una serie la identifique en una tienda y te permite comprar esa ropa que la máquina sabe que le gusta a ese usuario porque ha buscado ropa de ese estilo en la misma web de la tienda días anteriores o ha buscado información o sabe que sigue a ese actor o actriz en Twitter.

¿Os dais cuenta del problema? Tienes a los usuarios siendo usados para trabajar durante 24 horas sin que ellos se den cuenta y a las empresas les está saliendo gratis esa mano de obra que tanto beneficio están dando, ya que los datos no se van a dormir, es más, los relojes inteligentes son capaces de saber si estás durmiendo o no.

Todo esto se da porque el precio de la fuerza del trabajo es igual a los gastos de producción. Es decir, a trabajo más laborioso, el burgués lo que hace es bajar los sueldos para compensar. Tendríamos que los usuarios son meros complementos de la máquina y no al revés. La máquina va a obtener los datos igualmente una vez que obtenga la identidad del usuario.

Pero claro, si habéis seguido mi pensamiento podréis decir: Pero si ese "trabajo" de los usuarios es fácil (más fácil que dormir poco hay) ¿cómo es que, según lo que dices, no reciben un sueldo alto? Porque de alguna manera, tienen que precarizar ese trabaja como haciéndolo que las máquinas estén encendidas 24 horas, hacer que el trabajo sea más complejo haciendo que tengan que tomar decisiones rápidas en menos tiempo, es decir, que por "razones de producción" , hacer más complejo el trabajo produciendo más en menos tiempo. Con esta técnica que no es nada novedosa, se hace que el trabajo sea más laborioso y por tanto pagar menos.

Con la AI se entiende muy bien. La AI toma decisiones que nosotros puede que ni lleguemos a pensar y si encima se la obliga a que en poco tiempo (en directo mientras se reproduce una serie salga al lado el pop up de añadir al carrito de El Corte Inglés) tome decisiones complejas como las comentadas; se entiende que el trabajo es laborioso, por lo que se precariza el trabajo por 2 veces, uno para los propios analistas de AI y por otro lado para el usuario, al cual no se le da practicamente nada por su trabajo.

¿Esto diciendo que se pague al usuario? Depende de lo que entendáis por pagar. Como sabéis hay 3 tipos de sueldos:

  • Sueldo directo. El que recibes a final de mes directamente.
  • Sueldo indirecto. Son, por ejemplo, la sanidad, la educación, el transporte, la alimentación, la vivienda etc.
  • Sueldo diferido. Las pensiones, ese sueldo que recibes cuando ya no estás en edad de trabajar.
El sueldo directo puede ser más o menos alto, por ejemplo, 1100€ al mes. Puede ser poco, pero si disponemos de un sueldo indirecto (que básicamente son gastos) que permita tener una sanidad y educación pública, universal y gratuita, un transporte público y gratuito, alimentos más baratos subiendo el sueldo a agricultores y una vivienda barata o pública cuyo alquiler no sea más del 20% del salario mínimo, hace que ese sueldo directo parezca más pero porque los gastos de cada persona son menores. Ni hablar de un salario diferido digno.

Hay quien puede estar en contra de esto o quien piense que lo que he dicho es mentira, pero es que precisamente por estos 3 tipos de sueldos es por lo que en los artículos de CE y Derechos Humanos se habla de un "salario digno y suficiente para satisfacer las necesidades del trabajador y sus familias.".

Constitución Española

Derechos Humanos

Así pues, pensemos en qué ayuda, por ejemplo, cambiar de cadena con la voz o que utilice tus datos para comprarte o sugerirte productos que salen en una serie o programa de televisión. EN NADA.

Por contraposición, podemos hacer que, a nivel sanitario y si el usuario da su consentimiento (y para eso es que el mismo usuario realice la acción de enviar datos), los datos cardiovasculares recogidos por un smartwatch, los pase a un csv y se lo pase a su médico y así tiempos de espera en el médico, esperas a la realización de pruebas y espera de los resultados y análisis del médico.

En el ordenador del médico, podríamos tener (ahí sí) una AI que lea los datos de los CSVs que recibe y se ha descargado y saque alertas al médico con un enlace al informe del cliente para así detectar posibles males mayores a tiempo.

La gente se ahora transporte y tiempo y se obtiene una sanidad de calidad. Una sanidad de calidad que entra dentro del segundo tipo de salarios, el salario indirecto, por lo que se estaría pagando al usuario.

Ahora lo que tenemos que plantear es si lo que se le está pagando es suficiente o no. Para eso tenemos que analizar el valor del proletario.

El valor del proletario es igual a los medios indispensables para mantenerlo con vida y perpetuar su linaje.

Por lo que si prevenimos y detectamos problemas en la salud del proletario a tiempo, parece que sí que estamos dando buen valor al proletario, pero esta visión puede ser parcial, ya que un proletario en paro o trabajando en situación precaria, no es garantizar su valor.

Por lo que, aunque lo que propongo es elaborado por mí, veo que no es suficiente. Para ser crítico con los demás, primero soy crítico conmigo. Aunque ¿podemos mejorarlo?

Yo creo que sí, y de una forma tan sencilla como indicar la hora a la que se ha medido esa pulsaciones. Si sabemos que en esas horas suele trabajar (porque el mismo usuario lo ha indicado en su aplicación o, como sus médicos, nos lo ha dicho) podemos deducir que por realizar su trabajo puede estar sufriendo estrés, y esto podría ser bueno para reportarlo a inspectores de trabajo para que realicen una inspección en el trabajo de esa persona.

Así vemos que las máquinas elaboradas y que permitían la explotación del proletario, se vuelven en contra, no del pequeño burgués, sino del propio patrón. La lucha de clases establecida en el capitalismo.

Por supuesto que la tecnología que yo desarrollo no beneficia a todas las personas, beneficia a la mayoría y a los grandes poderes y grandes fortunas las puede perjudicar, pero ojo, no porque yo quiera, sino porque no estarían cumpliendo la Constitución, Derechos Humanos y distintas leyes nacionales.

Por otro lado, si un Estado planificase la economía del país y, mediante ley, permitiese a los trabajadores acceder a los medios de producción, los mismos trabajadores se beneficiarían de su propio trabajo. Esto es el artículo 129 de la CE.


Por supuesto, desarrollar software de esta manera que planteo es mucho más complejo, ya que hay que tener en cuenta posturas éticas. No obstante, si nos limitamos a cumplir las 5 libertades del usuario que tanto propongo, nuestro trabajo se facilita un poco más, aunque deberemos estar en constante revisión e inspección para ver que se cumple lo acordado. Sí, quiero que se inspeccione debidamente por las propuestas y tecnologías desarrolladas, pero no porque me guste sufrir, sino porque es mi deber como ciudadano, porque tenemos deberes, amigos.

¿Hackeamos el Mundo?

No hay comentarios:

Publicar un comentario

Related Posts Plugin for WordPress, Blogger...

Entrada destacada

El server me sabe a poco.

Soy un fanático del Rock y de Debian . (Creo que voy a inventar Rockbian, que suena bien y todo xD) Llevaba tiempo queriendo unir estos 2 c...