Docente: grace morales



Descargar 54.53 Kb.
Fecha de conversión11.01.2017
Tamaño54.53 Kb.
UNIDAD DE APRENDIZAJE No. 1

ASIGNATURA: TECNOLOGÍA DE LA INFORMACIÓNc:\users\greylin gallardo\pictures\untitled.bmp

DOCENTE: GRACE MORALES

“Aunque no escribas libros, eres el escritor de tu vida.

Aunque no seas Miguel Ángel, puedes hacer de tu vida una obra maestra.

Aunque no entiendas de cine, ni de cámaras, tu existencia puede transformarse en un film primoroso con Dios de productor”


Respetado(a) Estudiante:

Te invito a estudiar y desarrollar la Unidad de Aprendizaje No. 1, en ésta trataremos la Evolución de la Computadora Electrónica, los tipos de computadoras y lo relacionado a l representación interna de los datos. La orientación que se le va a brindar a cada uno (a) de ustedes en esta asignatura, es con el deseo de que desarrollen al máximo sus habilidades, capacidades, destrezas y conocimientos.



Introducción

El mundo de hoy, está inmerso en una nueva revolución tecnológica basada en la Informática, que encuentra su principal impulso en el acceso y en la capacidad de procesamiento de información sobre todos los temas y sectores de la actividad humana. Ha contribuido a que culturas y sociedades se transformen aceleradamente tanto económica, como social y políticamente, con el objetivo fundamental de alcanzar con plenitud sus potencialidades.

El conjunto de tecnologías que se concentran alrededor de las computadoras personales, de las tecnologías de la información y de la comunicación, es sin duda la innovación que más ha influido en el desarrollo de la vida social de fines del siglo XX y comienzo del XXI.
TEMA No. 1

TÍTULO: Evolución de la Computadora Electrónica

FECHA: Del 25 de febrero al 01 de marzo de 2013

OBJETIVO DE APRENDIZAJE: Lee y analiza acerca de la evolución de la Computadora Electrónica.

ACTIVIDAD DE INICIO Y DESARROLLO: Trabajan en grupo las diferentes edades electrónicas.

ACTIVIDAD DE CIERRE:


  1. Elaboran un cuadro comparativo con las principales características de cada generación.

  2. Presentan un PowerPoint explicando el tema estudiado.

EVALUACIÓN SUMATIVA: Cuadro Comparativo

Exposición Oral en Power Point



EVOLUCIÓN DE LA COMPUTADORA ELECTRÓNICA

Esta se divide en generaciones, cada generación hasta la cuarta está signada por la utilización de un elemento tecnológico determinado: La Lámpara de Vacío, El Transistor, el Circuito Integrado y el Microchip.



  • Primera Generación - La Generación Valvular

La primera generación se caracterizó por la utilización de válvulas (lámparas o tubos de vacío) y por eso mismo las máquinas eran monstruosas, ocupando un cuarto entero más los adicionales para refrigerar el clima interior de esos cuartos. Cada una de las máquinas fue construida mediante un diseño propio, por lo tanto no era posible realizar programas que sirvan para más de una máquina. Todavía no existían los lenguajes de programación, sino que las instrucciones se ejecutaban en forma directa, una tarjeta equivalía a una orden y hasta que esta orden no se ejecutaba no se pasaba a la siguiente tarjeta, las memorias eran de muy reducida capacidad. En 1939 el matemático y físico John Vincent Atanasoff junto a su aventajado alumno Clifford Berry planifican la creación de una computadora de propósito general a la que denominaron ABC (Atanasoff – Berry Computer) en la Universidad de Iowa (EE.UU.), esta computadora aparentemente no se llega a construir en su totalidad por falta de fondos y quizás por problemas insalvables para la época.
Quizás una de las primeras computadoras digitales electrónicas fuera el COLOSSUS una computadora que se construyó durante la II Guerra Mundial (1943) para ayudar a decodificar los mensajes secretos alemanes producidos por la GEHEIMFERNSCHREIBER una complicada máquina que hacia mensajes secretos telegrafiados, más complicados que el sistema ENIGMA (este fue más famoso), en este proyecto intervino el matemático inglés Alan Turing. Si bien fue un dispositivo programable orientado a un único propósito, no deja de ser la primer computadora electrónica.

De esta generación podemos citar a las computadoras ENIAC (Electronic Numeric Integrator And Computer) construida entre 1943 y 1946, por los Dres. John W. Mauchly y Presper B. Eckert en la universidad de Pennsylvania, fue la primer computadora electrónica de propósito general. El más grande escollo que planteaban este tipo de máquinas es la fragilidad en su construcción, ésta, por ejemplo, poseía alrededor de 18000 válvulas y cada vez que se la ponía a funcionar quemaba unas 50 de promedio, el 90% del tiempo de mantenimiento se utilizaba en buscar y cambiar estas válvulas averiadas. Los datos acerca de su dimensión eran elocuentes: 1000 metros cúbicos de tamaño (más de 300 metros cuadrados de superficie por 3 metros de alto), 30 toneladas de peso, 150 Kilowatts de energía para su funcionamiento... un verdadero monstruo.


Durante la construcción de esta primera máquina, se sentaron las bases de construcción de un proyecto más avanzado denominado EDVAC (electronic discrete variable automatic computer), construida entre 1944 y 1952, entre esos cambios se les ocurrió pensar que teniendo la suficiente capacidad de memoria se podía almacenar en ella tanto los datos que se requerían para los cálculos como los programas que los describen, el brillante matemático húngaro-americano Johann Von Neumann en su escrito conocido como “First Draft” (primer borrador) planteó los siguientes tres puntos fundamentales para la construcción de la EDVAC:


  • Una memoria para contener los datos y las instrucciones que fuera de acceso directo para poder leer y escribir los datos en cualquier orden.

  • Una unidad de cálculos capaz de realizar operaciones aritméticas y lógicas sobre los datos.

  • Una unidad de control para interpretar una instrucción extraída de la memoria y seleccionar una acción basada en los resultados de operaciones previas.

A esto se le denomina Esquema de von Neumann y sirvió de base para la construcción y diseño de todas las computadoras hasta la actualidad.


Paralelamente en la Cambridge University, en Inglaterra se construía la EDSAC (electronic delay storage automatic calculator) que comenzó a funcionar a partir de mayo de 1949, En ella A.S. Douglas escribió una versión del Ta-Te-Ti (Tic-Tac-Toe o Noughts and Crosses) como parte de su disertación doctoral, siendo este el primer videojuego conocido en la historia de la computación.
Por otra parte, la EDVAC sirvió de base para el diseño de la UNIVAC (universal automatic computer) que fue la primer computadora diseñada en forma comercial por una empresa creada por Eckert y Mauchly, aunque esta empresa terminó absorbida por la Remington Rand Company (famosa por sus máquinas de escribir y calcular) quien fabricó varias computadoras para instituciones gubernamentales principalmente. La importancia de la UNIVAC se refleja en que ella tuvo el primer diseño de compilador (programa traductor de un lenguaje simbólico a código máquina).
La UNIVAC II fue la primer computadora en tener una unidad de memoria RAM de núcleos de ferrita (las anteriores memorias fueron construidas con válvulas electrónicas, delays de mercurio, y hasta capacitores).


























  • Segunda Generación – La Edad del Transistor

Los semiconductores eran conocidos desde los años 20 (en 1926 el Físico Julius Edgar Lilienfield patentó la aplicación de una juntura NPN como amplificador) pero hasta 1945 no se había hecho ningún avance más o menos revolucionario hasta que el 23 de diciembre de 1947 en la BELL Laboratories los físicos William Shockley, Walter Brattain y John Bardeen crean el primer transistor de germanio. A partir de ahí una primera revolución en el campo de la computación se avecinó. El mismo Shockley en 1950 creó el primer transistor de base de silicio, material más dúctil y manejable que el germanio.


Esta segunda generación, en lo relativo al hardware se caracteriza porque las computadoras estaban construidas utilizando transistores, con la consecuente reducción de tamaños y costes y agregando además las características de mayor velocidad de proceso y durabilidad de los módulos componentes. Un efecto directo de estos avances fue que no solo los organismos estatales y grandes centros de investigación podían costear el armado de computadoras, sino que grandes empresas podían llegar a costear la construcción de computadoras para uso privado, de ahí que las empresas que intervinieron en el desarrollo de computadoras fueran encargadas de realizar computadoras a pedido, haciendo esto que se plantearan las computadoras como elementos modulares ensamblables a partir de circuitos básicos desarrollados en plaquetas.
La consecuencia de armar computadoras partiendo de una adaptación del un mismo diseño creó las denominadas familias de computadoras, que permitían desarrollar software utilizable con pocas variaciones entre una computadora y otra y por lo tanto fue más fácil adiestrar técnicos para que conozcan una familia entera de computadoras y así poder reinsertarlo en el grupo de trabajo de cualquiera de ellas. En esta generación se aplica y perfecciona el lenguaje COBOL, también alrededor de 1957, John Backus desarrolla un lenguaje destinado para aplicaciones matemáticas y científicas denominado FORTRAN (FORmula TRANslation). Al siguiente año se agrega el lenguaje ALGOL (Algoritmic Languaje) desarrollado por John Backus, Peter Naur y Alan Perlis.
También de esta época data el concepto de Inteligencia Artificial, basado en los trabajos del matemático Alan Turing, cuyo mayor fruto es el lenguaje LISP (de List-Processing), desarrollado por John MacCarthy destinado originalmente para el procesamiento de listas y la manipulación de fórmulas simbólicas.
Durante 1960, una empresa creada en 1958, DEC (Digital Equipment Corporation) lanza su primer computadora la PDP 1, una pequeña computadora (para la época) antecedente de las Minicomputadoras. En ella se escribió el primer video juego con gráficos llamado "SpaceWar!" programado por un grupo de estudiantes (hackers) del MIT liderados
Nace en esta generación el concepto de Súper Computadora relacionado a las aplicaciones de investigación científica como el LARC (Livermore Atomic Research Computer) diseñado por la Sperry Rand Corporation en 1960 del cual se construyeron 2 unidades, y la IBM 7030 de mayo de 1961 con seis unidades construidas en distintas instituciones.



  • Tercera Generación – La Edad Integrada

Durante 1959 Jack Kilby de Texas Instruments registró bajo la patente de USA 3.138.743 lo que denominó circuitos electrónicos miniaturizados, por otra parte Robert Noyce de Fairchild Semiconductor Corporation patentó bajo el No. 2.981.877 los circuitos integrados basados en silicón (sílice) después de varios años de batallas legales, ambas compañías decidieron intercambiar las licencias de sus tecnologías para explotar la creación de Circuitos Integrados.


En 1964 en el Dartmouth College es creado un lenguaje que dará que hablar mucho más adelante: el BASIC (Beginners All-purpose Symbolic Instruction Language) por Tom Kurtz y John Kemeny.
El 7 de abril de 1964, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie 360. La familia estaba compuesta originalmente por 6 modelos con una diferencia de 50 veces en la velocidad de funcionamiento entre la unidad más lenta (Modelo 20) y la más rápida (modelo 91). La capacidad de memoria era de 16.777.216 bytes o sea 16 Mb, en el modelo más poderoso. El sistema/360 se organizaba básicamente como una CPU (Central Processing Unit) y un conjunto de Unidades de Control de Dispositivo (CU - Device Control Unit) comunicados a través de canales externos que permitían transferir datos entre ellos. Los dispositivos de entrada normalmente eran lectores de tarjetas perforadas, los de almacenamiento un conjunto de núcleos magnéticos y los dispositivos de salida unidades de impresión de papel continuo. Trabajaban con 8 bits de datos y aunque internamente codificaban la información en EBCDIC también podían exportar esa información a un formato ASCII.
Luego en 1965 DEC (Digital Equipment Corporation) lanza su primera mini-computadora la PDP-8.
Durante 1966, IBM lanza la computadora 1130, si bien no era tan poderosa como sus hermanas mayores (sistemas 360 y posterior 370) tenía la particularidad de ser de bajo costo y compatible en cierta medida con los sistemas mayores, lo que permitió a muchas instituciones educativas de alto nivel y empresas de rango medio acceder al poder de la computación y en efecto determinó la gran cantidad de profesionales técnicos que se volcaron al uso de la computadoras sin necesidad de ser científicos. Esta computadora era utilizada en conjunción con lenguajes de alto nivel como Fortran, RPG y COBOL. Los datos se almacenaban en una memoria de núcleos magnéticos (ferrite) y se accedía a ellos en un tiempo que podía variar entre 2 y 4 microsegundos o sea a una frecuencia entre 500 y 250 khz (menos de medio Mhz). Además permitía la utilización de un disco de 512000 palabras (1MB) de capacidad.
Seymour Cray trabajando para la Control Data Corporation (CDC) diseña la CDC6000 en 1964 y posteriormente la CDC6600 en 1966, la primera computadora dentro de la categoría denominada “supercomputadoras”, fue la primera que tuvo un CRT (Tubo de Rayos Catódicos, Monitor) y funcionaba a una velocidad escalofriante para la época, tan escalofriante que necesitaban refrigerar el circuito con un sistema basado en gas Freon (como las heladeras).
Precisamente en una CDC 6000 entre 1968 y 1970, Nicklaus Wirth diseña el lenguaje de programación Pascal en el ETH (Zurich Federal Institute of Technology).
Durante 1971 IBM lanza el primer modelo perteneciente al Sistema 370, con la característica de ser el primero en utilizar Circuitos Integrados de Alta Escala de Integración (Chips LSI), algunos señalan a este acontecimiento como el inicio de la Cuarta Generación.
Con posterioridad Jack Kilby fue conocido como el inventor de las calculadoras electrónicas portátiles (1967). Robert Noyce, en tanto, fue el fundador de Integrated Electronics (Intel), la compañía que inventó el microprocesador en 1968.



  • Cuarta Generación – La Edad Microprocesada (La Edad Dorada de la Computación)

Como se mencionó previamente, en 1968, Gordon E. Moore y Robert Noyce fundaron una empresa dedicada a la fabricación de Circuitos integrados a la que bautizaron Integrated Electronics (Intel) durante 1969 Computer Terminal Corp (CTC) encargó a Intel el desarrollo de un conjunto de chips que sirvieran de base para la CPU de su nueva terminal Datapoint 2200 reduciendo costos de fabricación y montaje. El grupo de trabajo entre los cuales se encontraba el Ingeniero Marcian "Ted" Hoff llegó a la conclusión de que todos los circuitos podrían integrarse es un único chip al que llamaron en su proyecto 1201, como también tenían el encargo de una fábrica de calculadoras japonesas de desarrollar el circuito para un modelo de calculadora, les propuso crear un integrado dotado de cierta lógica tal que mediante programación pudiera adaptarse para cumplir distintas funciones, A este integrado se lo denominó 4004. Como el proyecto del integrado 1201 de CDC sufrió demoras por problemas de costos se terminó privilegiando la construcción del 4004 en 1971, siendo el primer procesador integrado o microprocesador de la historia en salir al mercado. A partir de allí las posibilidades de fabricación de computadoras se potenciaron mediante las familias de Microprocesadores.


El 1ro de abril de 1972 Intel lanzó su primer procesador de 8 bits: el 8008 que no era más que el viejo proyecto 1201 modificado, y aunque despertó mucha curiosidad en el mercado no provocó una gran cantidad de ventas. Con posterioridad en abril de 1974 se lanzó el 8080 que sirvió de base para la construcción de la primer computadora personal de 4ta generación: el Altair 8800.
En 1974 algunos ingenieros de Intel decidieron abrirse y formar su propia empresa a la que denominaron ZILOG durante 1976 lanzaron su producto estrella, el microprocesador Z-80
En 1978 Intel lanza lo que será su producto estrella y creador de una de las familias más famosas y utilizadas en las computadoras, el Intel 8086 y su hermano pequeño el 8088. A partir de la creación de estos padres de la familia i86 la explosión PC de la mano de IBM se convirtió en la familia más extendida de computadoras hasta la actualidad. Fotos de los micros históricos Intel en KasM: Knowledge-as-Media Research Group del National Institute of Informatics, Japan.
Steve Jobs (diseñador del circuito) y Ron Wayne (quien escribió el manual de Operación) diseñan y prueban la computadora que sería presentada en la feria del Homebrew Computer Club en mayo de 1976. A la que denominaron APPLE I. Esta computadora se vendió en forma de kit por 666,66 dólares la unidad a la tienda local denominada Byte Shop, que la dotó de una carcasa de madera y un teclado para hacerla más atractiva a la vista. Su procesador era un MOS Technology 6502 corriendo a 1.023 Mhz, tenía 4KB de RAM y conexión para adosarle cualquier teclado ASCII estándar.

TEMA No. 2

TÍTULO: Tipos de Computadoras

FECHA: Del 04 al 08 de marzo de 2013

OBJETIVO DE APRENDIZAJE: Desatacan la importancia de la representación interna de los datos.

ACTIVIDAD DE INICIO Y DESARROLLO:

  • Preguntas Exploratorias

  • Trabajan en grupo el tema representación interna de los datos, a través de un Mapa Conceptual

ACTIVIDAD DE CIERRE:

  • Elabora un Mapa Conceptual

EVALUACIÓN SUMATIVA: Mapa Conceptual

Indicaciones: Ingrese a la siguiente dirección para trabajar la información:

http://www.icono-computadoras-pc.com/tipos-de-computadoras.html

TEMA No. 3
TÍTULO: Representación interna de los datos

FECHA: Del 11 al 15 de marzo de 2013

OBJETIVO DE APRENDIZAJE: Desatacan la importancia de la representación interna de los datos.

ACTIVIDAD DE INICIO Y DESARROLLO:

  • Preguntas Exploratorias

  • Trabajan en grupo el tema representación interna de los datos, a través de un Mapa Conceptual

ACTIVIDAD DE CIERRE:

  • Elabora un Mapa Conceptual

EVALUACIÓN SUMATIVA: Mapa Conceptual
REPRESENTACIÓN INTERNA DE LOS DATOS
1. DATOS

1.1 Concepto: La palabra datos proviene del latín datum (plural data) que significa "lo que se da", en el sentido de "lo que acontece". El diccionario de la Real Academia de la Lengua Española dice que los datos son: "antecedentes necesarios para llegar al conocimiento exacto de una cosa o para deducir las consecuencias legítimas de un hecho".

Dato en informática, es un conjunto de símbolos necesarios para expresar un número, valor, palabra o concepto.

La información es cualquier entrada que cambia las probabilidades o destrezas.

La información es un conjunto de datos que permiten aclarar algo que es desconocido. Es susceptible de aportar un conocimiento.

El ordenador es una máquina destinada a procesar información.


1.2 Composición y Estructura: Los datos suelen ser magnitudes numéricas directamente medidas o captadas, pero también pueden ser nombres o conjuntos de símbolos o valores cualitativos. Los datos se representan mediante una secuencia de símbolos, por ejemplo en nuestra vida diaria representamos las palabras mediante letras tomadas de nuestro alfabeto.

La informática ha logrado el tratamiento automático de la información con máquinas. No es necesario que el alfabeto que usa una máquina en su interior sea el mismo que



el que utiliza el ser humano que la ha constituido y la maneja, basta con que la traducción de los símbolos internos a los externos o viceversa se efectúe de una manera cómoda y a ser posible automáticamente por la propia máquina. La codificación: Es la operación que permite pasar del alfabeto fuente al alfabeto código.
1.3 Medidas de Información: Dentro del ordenador, la información se representa mediante el sistema de numeración binario, es decir, mediante 0's y 1's. (Debido a que inicialmente existían 2 estados eléctricos básicos. Tensión y ausencia de tensión). La unidad básica de información es el bit o BInary digiT. Viene de la expresión inglesa de dígito binario. Como el bit es una unidad de medida tan pequeña, se usan medidas de unidades superiores. El byte es el conjunto de 8 bits. En la memoria del ordenador, un byte suele ser la unidad de direccionamiento, es decir, se puede referir a cada byte mediante un número que es su dirección. El byte puede almacenar 8 dígitos binarios. Las características de información hoy en día son grandes por lo que se utilizan múltiplos. 1Kbyte son 1024 bytes (210). 1 (Megabyte) Mbyte son 220 bytes, 1 (Giga) Gbyte son 230 bytes y un (Tera) Tbyte son 240 bytes.

2. REPRESENTACIÓN INTERNA DE LOS DATOS

2.1 Datos a representar: Toda la información que maneja el ordenador se representa mediante dos símbolos básicos, el ordenador es capaz de construir, almacenar y representar distintos tipos de información, mediante la codificación de la información, entre los que se distinguen 5 tipos de representaciones claramente:

  • Representación de textos. Usualmente la información se da al ordenador en la forma usual escrita que utilizan los seres humanos; es decir, con ayuda de un alfabeto o conjunto de símbolos, que denominaremos caracteres.




  • Representación de valores numéricos. Los datos numéricos se suelen introducir como cualquier otro conjunto de caracteres.



  • Representación de instrucciones. Las instrucciones de un programa en lenguaje de alto nivel o en lenguaje ensamblador se dan en forma de texto y el traductor correspondiente, ya sea un compilador o intérprete, se encarga de transformarlas en instrucciones máquina. Son las que entiende el ordenador.



  • Representación de sonidos. Los ordenadores actuales, además de procesar textos y datos numéricos, también operan con otro tipo de elementos, como sonidos, digitalizados y representados en binario en el interior del ordenador, mediante distintas codificaciones del sonido.



  • Representación de imágenes. Al igual que los sonidos, las imágenes tanto estáticas como dinámicas poseen su representación y codificación binaria digital en el interior de tos ordenadores. Siendo la codificación de las imágenes una de las técnicas que más están evolucionando en los últimos tiempos debido al auge de los sistemas multimedia.


2.2 Sistemas de Numeración: Los sistemas más comunes son:

  • Decimal. b=10. D {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. Sistema de representación numérico del ser humano.

  • Binario. b=2. D {0, 1}. Sistema de representación interna del ordenador.

  • Octal. b=8. D {O,..7}. Las conversiones octal-binario y binario-octal pueden hacerse fácilmente. Agrupando dígitos de 3 en 3.

  • Hexadecimal b=16. D {O, .., 9, A, B, C, D, E, F}. Las conversiones hexadecimal-binario y binario-hexadecimal se realizan agrupando dígitos de 4 en 4.


La base de datos está protegida por derechos de autor ©bazica.org 2016
enviar mensaje

    Página principal