La primera revolución industrial fue el comienzo en la carrera por la automatización de procesos, gracias a inventos como la máquina de vapor.

Y fue también a principios del siglo IXX cuando surgió el movimiento Ludita, donde los artesanos de la época afirmaban que las máquinas de la revolución industrial destruirían para siempre sus empleos y dejarían al ser humano sin trabajo.

De hecho, intentaron acabar con las máquinas pero sin mucho éxito, por lo que el movimiento se diluyó rápidamente.

En todo caso, y como se puede apreciar con la ventajosa perspectiva del tiempo, la asunción no era correcta, y el más afectado por la revolución industrial en puestos de trabajos perdidos fue el caballo y no el hombre.

Es innegable que las máquinas comenzaron, poco a poco, a permitirnos hacer y fabricar de una forma más eficiente y más rápida, superando nuestras propias limitaciones físicas.

Pero, por otro lado, la forma en la que registrábamos datos seguía siendo principalmente el papel, y de forma totalmente manual, a excepción de la reproducción y copia, que estaba semi-automatizada desde la invención de la imprenta.

Para realizar un cambio de medio, sería necesario llegar al siglo XX y fusionar descubrimientos, materiales y disciplinas tan diversas como la electricidad, el silicio o nuevas vertientes de la matemática para dar origen a la computación o informática. La informática ha supuesto no sólo un cambio de medio donde almacenar datos (pasando del papel a los chips de silicio), sino un cambio completo de paradigma, ya que el recurso pasa a ser casi infinito, a diferencia de los árboles.

También su velocidad de copia y transmisión es prácticamente instatánea, al contrario de los distintos procesos y materiales necesarios en otras épocas, antes de la revolución digital.

Esto es, en el fondo, la base de todo proceso de digitalización:
pasamos de algo que existe fisicamente con muchos átomos de muchas clases, normalmente muy voluminosos y lento, a algo que es casi inmaterial, operando sólo en el dominio del silicio y la electricidad, donde la velocidad se incrementa exponencialmente con el tiempo, mientras que el tamaño se reduce casi con la proporción inversa.

Con la llegada de la informática a mediados del siglo XX, comenzó la imparable carrera de la digitalización.

Primero, almacenamos datos de cálculos que realizaban estas primeras máquinas, utilizadas en ámbitos como finanzas, en muy pocas empresas y en la ciencia, siendo por ejemplo uno de los factores que nos permitió llegar a la Luna.

Era un mercado dominado por las grandes computadores que abarcaban habitaciones o incluso edificios enteros, con mucho de proceso y poco de almacenamiento.

A estas grandes computadoras les costó dejar poco a poco el papel, ya que los primeros sistemas de almacenamiento y entradas de datos eran tarjetas perforadas de cartón, donde la ausencia o no de perforación se traducía en comandos al procesador.

En Samovi, donde Yo trabajaba en 1983 (1977 – 1994), empezamos está andadura con el MIcrolor I, un programador para el proceso de Tintorerias Industriales, en el que se introducía una tarjeta perforda y plastificada por la ranura superior con perforaciones en los lugares que se establecián para crear unos procesos determinados (tiempo, temperatura, mezclas de colores etc.) que en su caida, por la gravedad, y al pasar por los lectores situados en el interior de una caja metálica (siempre en colores negor y rojo) y del tamaño de 3 cajas de zapatos (superpuestas) transmitia las señales a los sensores que procesaban las funciones a realizar. Con los años se realizaron diferentes versiones (tiempo temperatura, TT), tamaños y procesos hasta llegar al control total de cualquier tintoria textil. Convirtiendose en una referencia mundial en el sector de la mano de Atyc.

Las tarjetas perforadas dieron paso a las cintas magnéticas, con mucha mayor capacidad, pero aún muy voluminosas y ruidosas, por la mezcla de motores y mecanismos utilizados; sin embargo permitieron almacenar, además de los datos de cálculo, contenidos como textos y programas.

Lo siguiente en pasar a formato digital fueron las fotografías, gracias al desarrollo de escáneres, capaces de convertir la luz capturada en una señal digital. Eso sí, con una resulución estramadamente pequeña: la primera fotografía escaneada tenia 176 pixeles por 176 pixeles. Hay que tener en cuenta que las cámaras digitales no aparecieron hasta mitat de los años 70.

La aparición del escáner permitió que se desarrollasen tecnologías (como el reconocimiento óptico de caracteres u OCR por sus siglas en inglés), que daban la posibilidad de convertir documentos escaneados en el texto que contenían los pixeles, reduciendo el tamaño necesario para su almacenamiento y permitiendo su organización y búsqueda.

En los años 60 se desarrollaron las tecnologías que permitirían digitalizar también el audio, basadas en la modulación por códigos de pulsos o PCM por sus siglas en inglés, que fue inventado casi 20 años antes.

Suscríbete a nuestro Blog clicando aquí

Leer más:

Por Melchor Sáez de LaAnet

Les esperamos en LinkedlnFacebookTwitter, Youtube

Opina sobre nuestra Empresa en nuestra ficha de Google en este enlace