Tema 2: introduccion a la informatica



Descargar 58.22 Kb.
Fecha de conversión08.07.2017
Tamaño58.22 Kb.
TEMA 2: INTRODUCCION A LA INFORMATICA


1.  INTRODUCCION


Los ordenadores no han surgido en los últimos años, en realidad el hombre siempre ha tratado de tener dispositivos que le ayuden a efectuar cálculos precisos y rápidos, una breve reseña histórica nos permitirá comprender cómo hemos llegado hasta las potentes computadoras actuales. Por ello en el presente tema vamos a describir la evolución de estos inventos, comenzaremos desde los más básicos como el ábaco, pasando por la máquina calculadora de Pascal, hasta llegar a las diferentes generaciones de ordenadores y finalmente describiremos la situación del mercado informático en España.

Hace millones de años, el hombre primitivo necesitaba contar cosas, estas cada vez fueron haciéndose más numerosas por lo que se vio forzado a diseñar algún aparato o utensilio para ayudarse en aquella tarea. En primer lugar el hombre aprendió a contar con los dedos porque es la forma más fácil, la más asequible y la primera que se le ocurre hasta a los niños de hoy en día. Al tener diez dedos entre las dos manos, la base diez se convirtió en la base numérica más usada. Para representar números más grandes que diez se usaron diversos métodos, desde un auxiliar que contara con otros diez dedos hasta la extensión a falanges, dedos de los pies, brazos u otras partes del cuerpo.

Además de contar, este hombre necesitaba hacer operaciones, tales como qué número de pieles cambiaba por tal número de piedrecillas de oro, etc., para un hombre de aquella época todos aquellos cálculos le resultaban muy tediosos y repetitivos, por lo que fueron apareciendo utensilios para contar y realizar cálculos.

Algunos pueblos (bastantes de entre los mesopotámicos) utilizaron otros sistemas de numeración, principalmente en base seis (sexagesimal). Pero la base diez y el sistema posicional triunfaron como expresión numérica, especialmente después de la introducción de la numeración arábiga. La numeración arábiga es, sin duda, mucho más flexible para el cálculo que la numeración romana, e introduce en el cálculo el concepto de valor posicional del número, decisivo a la hora de enfrentarse con cantidades grandes.



2. ASPECTOS HISTORICOS


 

Antes del comienzo de lo que conocemos como la era de la información el hombre utilizó algunas herramientas que le han facilitado realizar cálculos repetitivos. La primera máquina de la que tenemos noticia es el ábaco tras el cual vinieron otras como las tablas de Napier o la máquina de calcular de Pascal. A continuación describiremos con más detalles cada uno de estos inventos.



 

El ábaco


La amplísima dispersión cultural del ábaco permite suponer que fue un invento simultáneo de distintas civilizaciones. Encontramos ábacos en China, Japón, Roma, Grecia, el Imperio Inca, Egipto, en distintos momentos y casi desde el comienzo de estas culturas.

Los primeros ábacos no eran más que hendiduras en la arena que se rellenaban de guijarros, hasta diez en cada hendidura. La primera correspondía a las unidades, la segunda a las decenas, la tercera a las centenas, y así sucesivamente. Para representar un orden mayor se retiraban los guijarros de la fila precedente y se ponía uno nuevo en la posterior. Posteriormente se utilizó un tablero lleno de arena, y luego, entre griegos y romanos, una plancha de cobre con hendiduras para colocar los guijarros. Los aztecas usaban varillas paralelas de madera insertadas en un vástago horizontal. El ábaco ruso es un marco de madera con varillas paralelas y cuentas insertadas en las varillas.

El ábaco chino consta de un marco de madera dividido en dos partes, además, contiene una serie de varillas verticales que corresponden cada una a un digito o cifra. En la parte inferior de cada varilla hay 5 discos denominados cuentas, que cuando están situados en reposo quedan desplazados hacia la parte de abajo. En su parte superior hay 2 discos denominados quintas, que en su situación de reposo quedan desplazados hacia arriba. Con este dispositivo se puede contar y calcular con un número de cifras que depende del numero de varillas que posea el ábaco.

 

Las tablas de multiplicar de Napier


El nuevo sistema de numeración decimal desplazó al sistema romano para efectuar cálculos complicados a principios del siglo XVI. El matemático escocés JohnNapier (1550-1617), inventó los logaritmos consiguiendo así simplificar las multiplicaciones, divisiones y potencias. En el año 1614 construyó las primeras tablas de logaritmos. Napier, ideó un dispositivo consistente en unos palillos con números impresos en ellos que a merced de un complicado e ingenioso mecanismo le permitía realizar operaciones de multiplicación y división.

Este aparato consistía en unas tablillas rectangulares conteniendo la tabla de multiplicar de un número del uno al diez, divididas en nueve zonas, en la superior aparecía el número, mientras que las ocho restantes contenían sus sucesivos múltiplos, hasta el noveno. Las zonas de los múltiplos tenían separadas las cifras por una línea oblicua. Para multiplicar no hace falta más que colocar alineadas las tablillas correspondientes a las cifras del número que queramos multiplicar y sumar adecuadamente las cifras coincidentes. El procedimiento se extiende para multiplicar números de tantas cifras como se quiera, siempre que se disponga del suficiente número de tablillas.

Basadas en los logaritmos se construyeron las primeras reglas de cálculo, las primeras máquinas analógicas de cálculo. Todas derivan de dos prototipos construidos por EdmundGunter (1581-1626), matemático y astrónomo inglés, y William Ougthred (1574-1660). La regla de cálculo no deja de ser un auxiliar de la memoria, pues necesita del concurso del operador para efectuar las operaciones, recordar los resultados intermedios y realizar todos los pasos del cálculo con las partes móviles de la regla. Pero es un utilísimo instrumento, que en distintas versiones y sobre diversos materiales ha estado vigente en los procesos de cálculo hasta fecha recentísima, prácticamente hasta la aparición de las calculadoras digitales de bajo precio.

 

Las máquinas calculadoras


Fue Pascal (1623-1662) quien construyera una máquina calculadora para ayudar a su padre en la tediosa labor de hacer largas sumas ya que era intendente de finanzas en Rouen. La máquina de Pascal era una sumadora mecánica, compuesta por varias series de ruedas dentadas accionadas por una manivela. La primera rueda correspondía a las unidades, la segunda a las decenas, etc, y cada vuelta completa de una de las ruedas hacía avanzar 1/10 de vuelta la siguiente. La máquina, de la que se hicieron varios modelos con fines comerciales, funcionaba por el principio de adición sucesiva, mediante otro procedimiento, incluso restaba. Se introduce así el concepto de saldo o resultado acumulativo, que se sigue usando hasta nuestros días, es decir, que la máquina proporciona de manera automática con el giro de la manivela el resultado, dispuesto para leerse y sin participar en el proceso de toma de decisión.

El siguiente paso lo realizó el filósofo y matemático alemán G. Leibniz, quien en 1671 construyó una máquina capaz de multiplicar y dividir automáticamente. Esta calculadora constaba de 2 parte diferenciadas: una era completamente igual a la máquina de Pascal y la otra eran dos conjuntos adicionales de ruedas que representaban al multiplicando y al multiplicador.

La posibilidad de realizar cálculos mecánicamente mediante ruedas dentadas, unida a la facilidad de automatizar un mecanismo complejo mediante tarjetas perforadas llevó al inglés Charles Babbage a concebir la idea de realizar máquinas de calcular totalmente automáticas y de gran potencia. Su primer proyecto fue la construcción de una maquina de cálculo automático de tablas de multiplicar, aunque el siguiente proyecto fue mucho más ambicioso. En éste intentaría construir lo que él denominó la máquina analítica. Esta máquina se iba a componer de tres partes: una memoria, una unidad de cálculo y una unidad de control gobernada mediante una banda de tarjetas de cartón perforado.

Si hubiera contado con la financiación y la tecnología adecuada, la idea que tuvo Babbage hubiera llegado a ser una auténtica computadora programable. Las circunstancias quisieron que ninguna de las máquinas pudieran construirse durante su vida. En 1991, un equipo del Museo de las Ciencias de Londres consiguió construir una máquina diferencial totalmente funcional, siguiendo los dibujos y especificaciones de Babbage.



 

El telar de Jacqard y las tarjetas perforadas


La industria del textil va a proporcionar el primer ejemplo de suministro de datos variables para el funcionamiento automático de una máquina. La complejidad de los dibujos de las telas, junto con la gran cantidad de husos necesarios para realizarlos, hará que se piense en un método de mecanizar el rutinario trabajo de intercambio de distintas tramas y urdimbres.

El primer sistema es debido a Basilio Bouchon, que en 1722, ideó un sistema para seleccionar de forma automática los hilos a desplazar en el paso del huso para obtener el dibujo deseado. Dispuso las agujas del telar de forma que encontraran en un extremo una cinta de papel perforada. Dependiendo de si las agujas encontraban o no un agujero en la cinta, los hilos pasaban por encima o por debajo, formando el dibujo de la tela. El cilindro resbalaba, necesitaba constantemente un operario para moverlo, era proclive a los desgarros por acción de las agujas, pero proporcionaba automáticamente el dibujo para los tejidos. Su compatriota Falcón perfeccionó el método en 1728, sustituyendo el cilindro por un eje de sección cuadrada, y la cinta continua de papel perforado por láminas de cartón unidas entre sí, lo que facilitaba el arrastre y el posicionamiento de los agujeros frente a las agujas. Posteriormente, Jacques de Vaucanson consiguió, en 1745, que el movimiento del cilindro (ya cuadrado) fuera el que moviera las agujas, eliminando la necesidad del operario para hacer avanzar el cilindro.

Pero fue Jean Marie Jacquard (1752-1834) el primero que reparó en que el sistema de cinta perforada era un sistema de introducción de datos para una máquina. En 1805 perfeccionó un telar de Vaucanson, de manera que fuese el mismo telar, mediante la lectura de la información contenida en la cinta perforada, el que decidiese qué agujas se levantaban y cuales no.

 

Hollerith y el censo de los Estados Unidos


En los EE.UU. existe la obligación constitucional de hacer un censo de población cada diez años. Pero el constante aumento de población hizo que se tardaran siete años en contabilizar los resultados del censo de 1880. El volumen de información era tal que se preveía que los resultados del de 1890 no estarían disponibles sino después de 1900 si se utilizaban los métodos manuales de recuento de información.

 

HermannHollerith (1860-1929), ingeniero de minas y estadístico de la Oficina del Censo de los EE.UU. se dio cuenta de que muchas de las preguntas del Censo tenían una respuesta del tipo sí/no. Y, lo más importante, que este tipo de respuestas podían codificarse en forma de una ausencia o presencia de un agujero en una cinta o tarjeta de papel, que podía ser leída con métodos eléctricos. Conectado a la máquina lectora se encontraría un cuadro con los diales donde se irían registrando los datos. La máquina de Hollerith se probó con el censo de Baltimore en 1887 y, vista su completa funcionalidad, se realizó con el censo de los EE.UU. de 1890, que quedó terminado en dos años y medio.



 

El salto cualitativo es importante, por primera vez se está haciendo uso de un código binario para el almacenamiento de la información. Además, el código es leído por procedimientos eléctricos, se utiliza un equipo estandarizado para el tratamiento de la información. Las máquinas tabuladoras como se llamó a las construidas por Hollerith, alcanzan su máximo rendimiento cuando la cantidad de datos es ingente y el programa de mando es simple.

 

La tabuladora de Hollerith, además de constituir un éxito comercial, supone el final de la evolución de las máquinas calculadoras mecánicas. Hasta la máquina tabuladora, las calculadoras se han servido de mecanismos puramente mecánicos para efectuar cálculos sencillos. A partir de aquí comienza la época de las calculadoras electromecánicas.



 

Las calculadoras electromecánicas


 

Los problemas fundamentales de las calculadoras mecánicas eran tres: la necesidad de un operador humano para el suministro mecánico de datos, por ejemplo, introducir las tarjetas, la falta de flexibilidad en el programa que venía impuesto por el diseño de la máquina y el proceso de cálculo, que seguía siendo mecánico ya que la máquina tabuladora de Hollerith leía datos por procedimientos eléctricos, pero sumaba mediante elementos mecánicos. Las calculadoras electromecánicas solucionaron por primera vez estos problemas.

El fundamento de todo fue la utilización del código binario, que necesitaba solamente de dos elementos de cálculo el 0 y el 1, el paso o la ausencia de corriente. A mediados del siglo XIX el matemático inglés GeorgeBoole (1815-1864) elaboró la teoría del álgebra de la lógica o álgebra booleana. El álgebra de Boole es una herramienta imprescindible para el establecimiento de decisiones lógicas, su plasmación en circuitos eléctricos la realizó ClaudeShannon en 1938.

Para implementar el código binario, definitivamente asentado en los procesos de automatización del cálculo, en un sistema eléctrico se usaron los relés. El relé no es más que un interruptor, que se puede accionar por procedimientos magnéticos o electromagnéticos. Como todo interruptor no tiene más que dos posiciones: abierto o cerrado. Un buen sistema para soportar el empleo del código binario, donde el relé abierto no permite el paso de corriente y se hace equivaler al 0 binario, y el relé cerrado permite el paso de corriente, equivaliendo al 1 binario.

Tomando como base los sistemas de relés se construyeron las primeras calculadoras electromecánicas. Leonardo Torres Quevedo dio a la luz su aritmómetro electromecánico, la primera calculadora del mundo a base de relés, que proporcionó la evidencia práctica del uso de los relés: rapidez de cálculo, posibilidad de introducir circuitos lógicos e incipiente memoria, aunque falló en la implementación del programa, que seguía dependiendo de las características físicas de la máquina. GeorgeStibitz construyó en 1923 una sumadora de relés que funcionó en los laboratorios Bell, el ComplexCalculator, con introducción de datos por medio de teclado; posteriormente fue mejorado con el Model 3, un verdadero prototipo de ordenador que solucionaba problemas de polinomios introducidos previamente mediante teclado o cinta perforada, tal y como pretendía Babbage con su máquina analítica.

Mientras en los EE.UU. se seguían desarrollando calculadoras mecánicas para compilar tablas de tiro artillero, en Alemania, KonradZuse, tras construir en 1938 una calculadora completamente mecánica (la Z1) y mejorarla añadiendo 200 relés (la Z2, en 1939) fabricó en 1941 en el Instituto Experimental Alemán de Aeronáutica la primera calculadora programable de propósito general utilizando relés: la Z3, el antepasado más directo de los ordenadores electrónicos. Los programas se introducían mediante cinta perforada y los resultados se leían en un tablero, trabajaba en binario, disponía de memoria y hacía cálculos en coma flotante. Fue el primer ordenador en el sentido que aceptaba variaciones de programa ya no era necesario limitarse a las especificaciones físicas de la máquina, sino que el procedimiento de cálculo o programa era suministrado por los operadores. Zuse ideó incluso un lenguaje de programación, el Plankalkül.

El siguiente paso en el camino del tratamiento automático de la información se debió a los trabajos de Howard H. Aiken (1900-1973), quien desarrolló, entre 1939 y 1944 y en el seno de la compañía IBM (creada en 1924 a partir de la TabulatingMachineCompany fundada por H. Hollerith), el ordenador conocido por ASCC (siglas de AutomaticSequenceControlledCalculator) o MARK 1.

Esta máquina se basaba, desde el punto de vista del sistema físico, en un dispositivo eléctrico simple, el relé, y su programación se llevaba a cabo mediante una cinta perforada. El ASCC o MARK 1, que puede considerarse como la primera computadora de la historia, se basaba, como ya hemos dicho, en el empleo del relé (es decir, un dispositivo electrónico que permite abrir y cerrar un circuito) y disponía de una capacidad de memoria de 72 números de 23 cifras decimales. Sin embargo, era extraordinariamente lento ya que necesitaba unos 10 segundos para llevar a cabo la multiplicación de dos números de 10 cifras.



3.  GENERACIONES DE ORDENADORES


 

Las limitaciones de las calculadoras electromecánicas venían dadas por la lentitud (relativa, claro está) de las operaciones con relés. Al ser un elemento mecánico su velocidad de trabajo venía condicionada por la velocidad del interruptor que realmente eran. La sustitución de los relés por las válvulas de vacío solventó el problema, y abrió el paso a los ordenadores electrónicos.


3.1  PRIMERA GENERACION (1946 a 1954)


 

La válvula de vacío o diodo, inventada en 1904 por J. A. Fleming, es en esencia un interruptor en el que el paso de corriente no se verifica por la unión de dos piezas metálicas sino por el paso o no de una corriente eléctrica. La velocidad de reacción de la válvula es aproximadamente de milésimas de segundo, considerablemente menor que la del relé, que no deja de ser un interruptor mecánico.

El primer ordenador a base de válvulas de vacío fue el ENIAC (ElectronicNumericalIntegratorandCalculator), construido entre 1936 y 1946 en la Universidad de Pensylvania, por John W. Mauchly y John P. Eckert.

Tenía un volumen aproximado de 111 metros cúbicos, ocupaba una superficie de 160 metros cuadrados y su peso era aproximadamente de 30 toneladas, poseía 17.486 válvulas de vacío, 50.000 conmutadores, 70.000 resistencias, 10.000 condensadores, 7500 interruptores, 1500 relés y un consumo entre 100.000 y 200.000 vatios. Este ultimo dato hizo que al conectarse el ENIAC por primera vez, las luces de una buena parte de la ciudad de Filadelfia sufrieran un gran descenso en la iluminación, quedándose la ciudad casi a oscuras. Además, el equipo necesitaba un equipo de aire acondicionado debido al calor que producía y su mantenimiento era muy elevado, sobre todo debido a las válvulas                             

La programación del ENIAC se llevaba a cabo mediante el establecimiento de conexiones entre cables eléctricos y el accionamiento de gran cantidad de interruptores. Tenía menos memoria que el Mark-1, pero hacía su trabajo de una semana en una hora. Era igualmente un calculador universal, pero el programa había que establecerlo cambiando circuitos y conexiones de las válvulas, lo que dadas las dimensiones suponía paseos considerables. Y si uno sólo de los 18.000 tubos de vacío se fundía, el sistema dejaba de funcionar hasta que se sustituyese. Se utilizó para compilar tablas de tiro artillero. Pero fue el primer ordenador electrónico.

El problema del ENIAC era la dificultad de programación ya que cualquier cambio en el programa debía reflejarse en las conexiones entre las válvulas de vacío. Los siguientes esfuerzos se encaminaron a facilitar la labor del programador.

JohnvonNeumann (1903-1957), interesado en el proyecto de la bomba atómica, necesitaba un calculador rápido y de fácil programación. Gracias a su prestigio, la Universidad de Princeton construyó el EDVAC (ElectronicDiscrete Variable AutomaticComputer), que fue terminado en 1949. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200 Kw de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.

Esta máquina presentaba dos importantes diferencias respecto al ENIAC:



  • En primer lugar empleaba aritmética binaria lo que simplificaba enormemente los circuitos electrónicos de cálculo.

En segundo lugar permitía trabajar con un programa almacenado en memoria. El ENIAC se programaba enchufando centenares de clavijas y activando un pequeño numero de interruptores. Cuando había que resolver un problema distinto era necesario cambiar todas las conexiones proceso que llevaba muchas horas.

3.2  SEGUNDA GENERACION (1955 a 1964)


 

Se caracteriza por el hecho de que el componente electrónico básico sobre el que descansa es el transistor que es un dispositivo electrónico que actúa como un interruptor ya que determina el paso o no de la corriente entre dos puntos en función de la tensión aplicada. Su consumo de corriente es mucho menor con lo que también es menor su producción de calor. Su tamaño es también mucho menor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza.

Además de dicho cambio, se producen otros, que se resumen a continuación:


  • El transistor va reemplazando gradualmente a las válvulas de vacío en los circuitos de conmutación.

  • Aparecen los núcleos de ferrita y se generaliza el uso de los tambores magnéticos como elementos de almacenamiento de información (memorias).

  • Los campos de aplicación en aquella época fueron, además del científico y militar, el administrativo y de gestión, es decir, las computadoras empezaron a utilizarse en empresas que se dedicaban a los negocios.

  • Se empiezan a utilizar lenguajes de programación de alto nivel tales como el ALGOL, COBOL o FORTRAN, que son independientes del computador en que residan y que facilitan enormemente la programación.

  • Se introducen procesadores especiales de entrada/salida para supervisar las operaciones de entrada y salida con lo que se libera a la Unidad Central de Proceso de una serie de funciones rutinarias.

  • Los fabricantes de computadores comienzan a suministrar software de sistemas: programas específicos de ayuda al usuario.

3.3  TERCERA GENERACION (1965 a 1980)


 

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con IBM 360 en abril de 1964. Esto supone un salto importante en cuanto a la reducción de tamaño y también del consumo ya que ambos son menores en un circuito integrado que el de su equivalente en transistores resistencias y demás componentes, además su fiabilidad es también mayor.

Esta generación viene marcada por los siguientes cambios:


  • Los circuitos integrados reemplazan a los circuitos de transistores reduciéndose substancialmente el costo y el tamaño.

  • Las memoria de semiconductores (circuitos integrados) van reemplazando gradualmente a las de ferrita en la memoria principal del computador.

  • Adquiere gran difusión una técnica denominada microprogramación, utilizada para simplificar el diseño de los procesadores e incrementar su flexibilidad.

  • Se introducen una serie de técnicas para realizar procesamiento paralelo concurrente, tales como la segmentación, la multiprogramación o el multiproceso, cuyo objetivo es aumentar la velocidad de ejecución de conjuntos de programas.

  • Se desarrollan mecanismos para gestionar automática y eficientemente los recursos del sistema basado en computador, como pueden ser sus procesadores o el espacio de memoria, de modo que dichos recursos puedan ser compartidos por varios procesos o usuarios.

  • En este sentido, la existencia de varios procesos concurrentes en un sistema basado en computador requiere la presencia de una entidad que ejerza la coordinación del conjunto, supervise la asignación de recursos, secuencie las operaciones, etc. Tal entidad recibe el nombre de programa ejecutivo o sistema operativo.

IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.


3.4 CUARTA GENERACION (1981 hasta la fecha)


 

En 1981, con la aparición del PC se produce una nueva generación de ordenadores, estos ya no solo pertenecen a grandes empresas, si no que también empieza a llegar la informática a las pequeñas empresas, lo que implica una reducción de costes y una mayor proliferación de los sistemas informáticos. A partir de 1981 hasta nuestros días la informática a tenido una evolución tal, que la potencia de cálculo que en su momento tuvieron los minicomputadores es ampliamente superada por un buen PC.

En 1981 se vendieron 80.000 computadoras personales, al siguiente subió a 400.000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas operativos que utilizan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de texto, las hojas de cálculo, paquetes para el diseño gráfico, etc.

Las características de esta generación son:


  • Se utilizan sistemas operativos gráficos.

  • El diseño de programas es mas sencillo que nunca, debido a que existen aplicaciones para programar visualmente.

  • El reconocimiento de voz es una realidad en los ordenadores de la 4ª generación. El video digital, el sonido y la interactividad forman la multimedia.

  • El PC arrasa en informática, perdiendo popularidad los sistemas Mac y similares. Actualmente no se concibe empresa sin ordenador, y se ha convertido en un electrodoméstico más, y dentro de poco será el centro de nuestros electrodomésticos.

Actualmente, la comunicación de los ordenadores está muy avanzada, todos los ordenadores del mundo se pueden interconectar entre sí gracias a  la red Internet, por medio de un simple cable telefónico, el teletrabajo empieza a cobrar vida, la teleconferencia, la telemedicina o la inteligencia artificial.

3.5  PERSPECTIVAS FUTURAS


 

A lo largo del último medio siglo, los ordenadores han ido duplicando su velocidad cada dos años, al tiempo que el tamaño de sus componentes se reducía a la mitad. Los circuitos actuales contienen transistores y líneas de conducción cuya anchura es sólo una centésima parte de la de un cabello humano. Las máquinas de nuestros días son millones de veces más potentes que sus rudimentarias antepasados a causa de un progreso exponencial.

El incremento del poder de los ordenadores se debe esencialmente a la miniaturización incesante del componente más elemental de la computadora, el transistor. Cuando los transistores se reducen de tamaño y se logran integrar en un solo microchip se incrementa el poder computacional. Sin embargo, las técnicas de integración de microcircuitos están empezando a tropezar con sus límites.

La ciencia de la computación en busca de una alternativa más allá de la tecnología del transistor, ha iniciado el estudio de la mecánica cuántica y su aporte para la creación de nuevos ordenadores. Una forma de proceso paralelo que se está investigando es el uso de ordenadores moleculares. En éstos, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en los ordenadores corrientes. La aparición de nuevas tecnologías nos hacen prever en el futuro coexistan los siguientes tipos de ordenadores:

 

Ordenador óptico.


En cuanto a los ordenadores ópticos el objetivo es evitar las dificultades que presentan los microcircuitos electrónicos, hay un camino obvio: abandonar la electrónica. La luz o más bien los fotones se desplazan mucho más rápido que los electrones, sin peligros de interferencia y sin necesidad de conductos aislantes. Así, la superioridad de la óptica es indiscutible. Por ello se han realizado ingentes esfuerzos para construir componentes que cumplieran las mismas funciones que los dispositivos que permiten el procesamiento electrónico, utilizando nuevos materiales que reaccionan de diversas maneras según la intensidad de luz que los afecte. Sin embargo, el estado actual de la tecnología nos hace prever que no dispondremos de ordenadores ópticos completos hasta el 2030.

 

Ordenador molecular.


Un grupo de investigadores de la Universidad de California (UCLA) y de los Laboratorios de Hewlett-Packard ha descubierto una forma de fabricación de una puerta lógica a partir de un tipo determinado de molécula. Agrupando unos pocos cables e interruptores, se unen un grupo de moléculas que trabajan de la misma forma que un procesador de silicio, pero en una escala molecular. De este modo, se puede conseguir el poder computacional de 100 estaciones de trabajo con el tamaño de un grano de arena.  Esta nueva tecnología sustituirá, en un futuro no muy lejano, a los actuales chips de silicio, dando lugar a ordenadores millones de veces más potentes y rápidos que los actuales.

El logro consiste en hacer que una molécula denominada rotaxano funcione como un interruptor, es decir, que pueda adoptar las configuraciones 0 y 1, originando los cambios de voltaje que representan los bits de información. La molécula de rotaxano tiene un tamaño inferior a un nanómetro, la millonésima parte de un milímetro, por lo que el coste de producción sería muy inferior al de los chips actuales. El principal problema es que aún no existen cables lo suficientemente pequeños para poder conectar unas moléculas con otras formando un circuito y permitir el flujo de información entre ellas.

Para operar, se fija el estado inicial de cada célula y se determina una regla de transición común para todas. Luego se pone en marcha un reloj que sincroniza los cambios de estado: a cada ciclo del reloj, todas las células cambian de estado conforme al estado de sus vecinas. Con estos chips se podrían fabricar desde superordenadores del tamaño de un reloj de pulsera hasta instrumentos biomédicos que se introducirían en el cuerpo humano para ayudar al diagnóstico de enfermedades.

Los investigadores ya construyeron chips con múltiples células, capaces de ser utilizados para realizar las operaciones de lógica básicas en los computadores. Falta aún llegar a construir chips más complejos, capaces de contener y procesar todo lo que requiere un ordenador moderno. Y falta también poder obtener los mismos resultados a temperatura ambiente, ya que el principal defecto actual del sistema es que requiere una temperatura próxima al cero absoluto. Los primeros prototipos podrían estar listos en unos cuantos años y modelos comerciales que combinen la tecnología actual con la nueva podrían aparecer antes del 2015, cuando los procesadores de silicio podrían estar llegando a su límite de potencia.

 

Ordenador cuántico.


Ha sido definido como un tipo de computador que utiliza la habilidad de los sistemas cuánticos, tales como conjuntos de átomos que se encuentran en el mismo estado a la vez. En teoría esta superposición permite a este tipo de computador hacer muchos y diferentes cálculos al mismo tiempo. Esta capacidad permite desarrollar complejas ecuaciones, como factorizar integrales, a velocidades que no lo pueden permitir el computador convencional.

En un ordenador cuántico la información no es almacenada en hileras de ceros y unos, como en el computador convencional, sino en series de estados mecánicos-cuánticos: tramas direccionales de electrones, por ejemplo, u orientación de polarización en fotones. En 1985, David Deutsch de la Universidad de Oxford señaló que las leyes de la física cuántica permitía a las partículas estar en más de un estado al mismo tiempo, haciendo ello posible que cada partícula de la Unidad Central de Proceso de un computador cuántico almacenara más de un bit de información.

Investigadores de la Universidad de Notre-Dame (Indiana) confirmaron en 1999 que se pueden manipular los electrones individualmente para construir circuitos elementales que gasten cantidades ínfimas de energía. Su trabajo abre el camino al mismo tiempo a la fabricación de nuevos chips capaces de funcionar a velocidades de 10 a 100 veces mayores que las actuales.

En definitiva, el ordenador personal de los próximos años bien podría ser una combinación de aparato de video, televisor, radio, video-teléfono y fax junto con la capacidad (aumentada) del microcomputador de hoy. Es evidente que lo que conocemos hoy, con la expansión de Internet y el desarrollo de las redes, confirma una intuición que surgió hace una decena de años. La transformación en las redes y los servicios telefónicos así como en los otros servicios como puede ser la televisión interactiva auguran con mayor probabilidad el desarrollo de un aparato que combinen todos los servicios implicados


4. MERCADO INFORMATICO


 

El sector informático español ha experimentado un crecimiento total de un 14,2 por ciento a lo largo del pasado año 2000, según los datos registrados por SEDISI (Asociación Española de Empresas de Tecnologías de la Información). Teniendo en cuenta estas cifras, todo indica que el Mercado Interior Neto español ha mantenido un crecimiento similar al de años anteriores.

El sector español de la informática y las telecomunicaciones superó en el año 2000 los 10,8 billones de pesetas. Esta cifra, equivalente a más del 10 por ciento del Producto Interior Bruto (PIB) de nuestro país, supone un crecimiento del 23 por ciento, en relación a los 8,7 billones de pesetas de 1999.

Analizando cada uno de los subsectores, durante el año 2000 el sector de los servicios informáticos tuvo un incremento en sus cifras de un 16,3 por ciento, asimismo, el sector del software y el hardware han experimentado desarrollos parejos, con cifras de evolución interanual de un 11,7 por ciento y un 13,2 por ciento respectivamente. El crecimiento del mantenimiento del hardware ha sido más bien discreto ya que ha alcanzado una cifra del 2,3 por ciento, respecto al obtenido en el mismo periodo de 1999.

Por su parte, es preciso destacar que el empleo sigue siendo uno de los puntos fuertes dentro del sector de las tecnologías de la información en España y fiel reflejo de su buena marcha dado, que no sólo ha mantenido constante su trayectoria de evolución en 2000, sino que la cifra ha aumentado en dos puntos con respecto al año anterior alcanzando un incremento que ronda el 13,5 por ciento.

Los datos recogidos demuestran que la tendencia del sector de Tecnologías de la Información, para los próximos años es satisfactoria y prevé una evolución sostenida para cada uno de los segmentos que conforman el sector. Según los datos provisionales, el crecimiento del sector podría mantener las cifras en torno al 13 por ciento.



Con respecto a los segmentos que experimentarán alguno de los ascensos más relevantes destacará el software y el subsector de los servicios. Los ascensos más moderados se advertirán en el mantenimiento del hardware.  Por último, es de esperar que el empleo mantenga su ritmo ascendente en el futuro tal como lo ha venido demostrando a lo largo de los últimos años.







La base de datos está protegida por derechos de autor ©bazica.org 2016
enviar mensaje

    Página principal