viernes, 23 de septiembre de 2016

¿Qué es la Información?

Como bien sabéis, ahora estoy cursando en un Grado Superior de Administración de Sistemas Informáticos y Redes, aunque mi verdadero campo de estudio son las Matemáticas para aplicarlas a la Informática. Además, este Grado Superior, me va a servir para establecer las bases de esa "Teoría del Todo Informático" que estoy buscando. En base a ésto, me vi obligado a empezar por lo más básico, definir qué es la Informática.



Creo que nadie duda que el trabajo de la Informática es de guardar, interpretar la Información de la manera más ágil y automáticamente posible.  Un ordenador es como el patio de Aquí No Hay Quien Viva, una comunicación constante, por eso se le denomina sistema de Información. Y ésto, es preciso definirlo.




Un sistema de comunicación es un conjunto de elementos que van a emitir, recibir e interpretar información. Esa Información, será enviada de un punto A a un punto B a través de un mensaje, siendo el punto A el emisor y el punto B, el receptor, como cuando dos personas hablan, igual.

Esta información, la procesará un sistema informática, que es un conjunto de elementos con, al menos 1 CPU que estará conectada lógica y físicamente entre sí, o bien a traves del modo local o bien en modo remoto.

No me quiero parar mucho a explicar lo que es una CPU y qué es lo que hace, pues creo que todos los sabéis de sobra, aún así, resumiendo mucho, una CPU es la piedra angular del ordenador y cargará la información desde la memoria hasta el procesador-es decir leerá los datos a transferir-, posteriormente, una vez que los datos lleguen al procesador, este la analizará y aplica una serie de categorías-por ejemplo que diga que el paquete 1 hay que sumarlo con el paquete 2- y después ejecutará esas categorías, en nuestro caso, sumará. Y finalmente todo eso se volverá a cargar, pero esta vez será desde el procesador hasta la memoria.

Además, como sabéis, todo sistema Informática se puede analizar desde su punto de vista físico-estudio de, sobre todo, la estructura de Von Neumann pasando por las 6 Generaciones de los ordenadores- y desde su punto de vista funcional-estudio de sistemas aislados o distribuidos-. Pero no me quiero centrar en esto-aunque si queréis que os deje "un curso" breve y explicado por mí sobre Fundamentos del Hardware, me lo podéis decir y en cuanto tenga un hueco, os puedo dejar una serie de entradas en la que os explique un poco todo esto-.

En lo que yo me quiero centrar es en definir bien, qué es la Información, pues creo que la gente, sobre todo los Informáticos y Hackers entienden mal este concepto. La Información no es más que probabilidad. Me explico. si tú dices "Un estudiante es una persona que e..." la continuación de la oración, la respuesta más probable es "studia".

Evidentemente, un estudiante es una persona que estudia, con lo que eso no es información alguna. Y es aquí a donde quiero ir, al ser "studia" la respuesta más probable, a esto, podemos afirmar que i=0 -es decir, la información ofrecida es igual a 0-. En cambio, si la respuesta hubiese sido "ntra", es decir, que nos quedaría "Un estudiante es una persona que entra", siendo ésta, la respuesta menos probable, podemos afirmar que aquí, si hemos obtenido información. Otra cosa es que sea de calidad.

Si vosotros tuvieses que codificar por ejemplo:

-En mi cuenta bancaria hay dinero
                    o
-En mi cuenta bancaria hay 1.000.000 de euros

¿Cuál codificaríais, cuál vais a cifrar con más bits? La primera opción, apenas se puede considerar información, es decir, es la respuesta más probable, pues lógicamente en una cuenta bancaria hay dinero. Por consiguiente, la segunda afirmación, nos dice que en su cuenta bancaria hay 1.000.000 de euros, algo poco probable, ya que podría haber dicho cualquier cantidad.

Puede que yo esté loco, pero yo le dedicaría más "empeño", "esfuerzo" a cifrar la segunda afirmación-sobre todo si fuese verdad que tengo ese dinero-. Pero yo soy un loco. Con esto quiero ir a que los Informáticos, y sobre todos los Hackers que aconsejan a los Informáticos, han medido mal, han evaluado muy muy mal. Han cifrado cualquier dato, cualquier información-no es lo mismo dato que información, ojo- cuando deberían analizar la información como el procesador y aplicar unas categorías, cifrando "mejor" las respuestas menos probables. Y con esto paso al nivel de información de una fuente.

Si sabéis un poco sobre teoría de la información, sabréis que el nivel de información de una fuente se puede medir según su entropía, que sé que os suena por las leyes de la termodinámica, pero que aquí, en la Informática, dispone de algunos matices dignos de mencionar.

Si tú analizas una fuente de Información, lo primero que observarás es que,normalmente, los mensajes que se envían no son equiprobables, es más, dispondrán de cierta de cierta probabilidad de ocurrencia dependiendo del mensaje. La probabilidad de ocurrencia de un mensaje viene dado por una fórmula muy sencilla.

                                                               Po=Na/Tm

Siendo Po la probabilidad de ocurrencia igual al resultado de dividir e Número de aparición de un mensaje X{Na} entre el número total de mensajes {Tm}.

Así pues, sabiendo que Po es la Probabilidad de Ocurrencia de la información de una determinada fuente y Li es la longitud del código utilizado para representar al mensaje. En base a esto tenemos que:




H representa a la entropía de la fuente y determina el nivel de compresión que se puede obtener como máxima para cada conjunto de datos.

Ahora, debemos de definir nuestro sistema de referencia en un archivo, es decir, será nuestra fuente de información ahora. Si obtenemos la probabilidad de ocurrencia de cada carácter dentro de nuestro archivo comprimido, estaremos capacitados para calcular la longitud promedio del archivo comprimido y demostraríamos que no podemos comprimir un mensaje más allá de su entropía.

El objetivo va a ser encontrar las Li que minimicen a H. Además, los Li, se deben determinar en función de los Pi, ya que la longitud de los códigos debe depender de la probabilidad de ocurrencia, con lo que planteamos:



Siendo:


Y sustituimos Li:


Con lo que deducimos que la entropía de la fuente, depende solamente de la probabilidad de ocurrencia de cada mensaje de la fuente de información dada. Así que ya sabéis lo que debéis de tener en cuenta, que esto, es lo más básico de la Informática y casualmente, son Matemáticas, por eso, primero aprended Matemáticas, que después sabréis Informática.

¿Hackeamos el mundo?

P.D: ¿Cómo va a informar un periodista si no sabe ésto? Al fin y al cabo un periodista transmite una información.

No hay comentarios:

Publicar un comentario

Related Posts Plugin for WordPress, Blogger...

Entrada destacada

El server me sabe a poco.

Soy un fanático del Rock y de Debian . (Creo que voy a inventar Rockbian, que suena bien y todo xD) Llevaba tiempo queriendo unir estos 2 c...