sábado, 13 de septiembre de 2008

VENTAJAS DE LA PROGRAMACION ESTRUCTURADA

Con la programación estructurada, elaborar programas de computador sigue siendo una labor que demanda esfuerzo, creatividad, habilidad y cuidado. Sin embargo, con este estilo podemos obtener las siguientes ventajas:

1. Los programas son más fáciles de entender, ya que pueden ser leído de forma secuencial, sin necesidad de hacer seguimiento a saltos de línea (GOTO) dentro de los bloques de código para entender la lógica.

2. La estructura del programa es clara puesto que las instrucciones están más ligadas o relacionadas entre sí.

3. Reducción del esfuerzo en las pruebas. El seguimiento de los fallos o errores del programa ("debugging") se facilita debido a la estructura más visible, por lo que los errores se pueden detectar y corregir más fácilmente.

4. Reducción de los costos de mantenimiento de los programas.

5. Programas más sencillos y más rápidos (ya que es más fácil su optimización).

6. Los bloques de código son auto explicativos, lo que facilita a la documentación.

7. Los GOTO se reservan para construir las instrucciones básicas. Aunque no se usan de forma directa, por estar prohibida su utilización, están incluidas implícitamente en las instrucciones de selección e iteración.

8. Un programa escrito de acuerdo a estos principios no solamente tendra una estructura sino tambien una excelente presentacion.

9. La programación estructurada ofrece estos beneficios,pero no se la debe considerar como una panacea ya que el desarrollo de programas es, principalmente, una tarea de dedicación, esfuerzo y creatividad.

DEFINICIONES: ISA,EISA, PCI, VESA, VME bus, MULTIBUS Y NUBUS, STD bus

ISA

Salvo para usos industriales especializados, ya no se emplea ISA. Incluso cuando está presente, los fabricantes de sistemas protegen a los usuarios del término "bus ISA", refiriéndose en su lugar al "bus heredado". El bus PC/104, empleado en la industria, es un derivado del bus ISA, que utiliza las mismas líneas de señales pero con diferente conector. El bus LPC ha reemplazado a ISA en la conexión de dispositivos de Entrada/Salida en las modernas placas base. Aunque son físicamente bastante diferentes, LPC se presenta ante el software como ISA, por lo que las peculiaridades de ISA como el límite de 16 Mb para DMA seguirán todavía presentes por un tiempo.

EISA

EISA amplía la arquitectura de bus ISA a 32 bits y permite que más de una CPU comparta el bus. El soporte de bus mastering también se mejora para permitir acceso hasta a 4 GB de memoria. A diferencia de MCA, EISA es compatible de forma descendente con ISA, por lo que puede aceptar tarjetas antiguas XT e ISA, siendo conexiones y las ranuras una ampliación de las del bus ISA.

A pesar de ser en cierto modo inferior a MCA, el estándar EISA fue muy favorecido por los fabricantes debido a la naturaleza propietaria de MCA, e incluso IBM fabricó algunas máquinas que lo soportaban. Pero en el momento en el que hubo una fuerte demanda de un bus de estas velocidades y prestaciones, el bus local VESA y posteriormente el PCI llenaron este nicho y el EISA desapareció en la oscuridad.

EISA introduce las siguientes mejoras sobre ISA:

  • Direcciones de memoria de 32 bits para CPU, DMA, y dispositivos de bus master.
  • Protocolo de transmisión síncrona para transferencias de alta velocidad.
  • Traducción automática de ciclos de bus entre maestros y esclavos EISA e ISA.
  • Soporte de controladores de periféricos maestros inteligentes.
  • 33 MB/s de velocidad de transferencia para buses maestros y dispositivos DMA
  • Interrupciones compartidas
  • Configuración automática del sistema y las tarjetas de expansión
PCI

Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PCs, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.

A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.

VESA

El bus VESA (Video Electronics Standards Association, la compañía que lo diseñó) es un tipo de bus de datos para ordenadores personales, utilizado sobre todo en equipos diseñados para el procesador Intel 80486. Permite conectar directamente la tarjeta gráfica al procesador.


Este bus es compatible con el bus ISA pero mejora la respuesta gráfica, solucionando el problema de la insuficiencia de flujo de datos de su predecesor. Para ello su estructura consistía en un extensión del ISA de 16 bits. Las tarjetas de expansión de este tipo eran enormes lo que, junto a la aparición del bus PCI, mucho más rápido en velocidad de reloj, y con menor longitud y mayor versatilidad, hizo desaparecer al VESA, aunque sigue existiendo en algunos equipos antiguos.



SOPORTES DE MEMORIA

La memoria secundaria es un conjunto de dispositivos periféricos para el almacenamiento masivo de datos de un ordenador, con mayor capacidad que la memoria principal, pero más lenta que ésta.

El disquete, el disco duro o disco fijo, las unidades ópticas, las unidades de memoria flash y los discos Zip, pertenecen a esta categoría.

Estos dispositivos periféricos quedan vinculados a la memoria principal, o memoria interna, conformando el sub-sistema de memoria del ordenador.

Soportes de memoria secundaria:


PROTOCOLOS TCP/IP


La familia de protocolos de Internet es un conjunto de protocolos de red en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.

El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.

La familia de protocolos de Internet puede describirse por analogía con el modelo OSI, que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.

El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.

MODELO VON NEUMANN



Dispositivo electrónico compuesto básicamente de un procesador, memoria y dispositivos de entrada/salida (E/S). La característica principal de la computadora, respecto a otros dispositivos similares, como una calculadora no programable, es que con él se pueden realizar tareas muy diversas, cargando distintos programas en la memoria para que los ejecute el procesador. Siempre se busca optimizar los procesos, ganar tiempo, hacerlo más fácil de usar y simplificar las tareas rutinarias.

Los dispositivos de entrada/salida (también llamados periféricos) sirven para intercambiar información con el exterior. Una computadora normalmente utiliza un programa informático especial denominado sistema operativo diseñado, construido y probado para gestionar los recursos de la computadora: memoria, dispositivos de E/S, dispositivos de almacenamiento (discos duros, unidades de DVD y CD).

Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un procedimiento bien definido. Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo pueden realizar una función o un número determinado de funciones.

5a. GENERACION

PROGRAMAS DE LA 5a. GENERACION

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

MACROCOMPUTADORAS Y WORKSTATION


MACROCOMPUTADORAS

Son computadoras que se caracterizan por su utilización en el manejo de grandes bases de datos en redes corporativas de gran tamaño. Poseen grandes dispositivos de almacenamiento como discos duros de hasta 500 GigaBytes (GB) y cintas de seguridad (Tape Backup)

Las macrocomputadoras de hoy generalmente cuestan desde $120,000 hasta varios millones de dólares. Anteriormente era usual que ocuparan cuartos completos o incluso pisos enteros de edificios. Generalmente eran colocadas dentro de oficinas con vidrios sellados y aire acondicionado especial para mantenerlas a una temperatura baja, y sobre pisos falsos para ocultar todos los cables necesarios para las conexiones de la máquina. Este tipo de instalación ya no es muy utilizada. Hoy en día, es común verlas como una hilera sencilla de grandes archivadores, aunque puede seguir requiriendo de un ambiente controlado.

Nadie sabe realmente dónde se originó el término mainframe. Algunos viejos documentos de IBM definen explícitamente el término "frame" como una parte integral de una computadora: "el bastidor... estructuras de soporte de hardware... y todas las partes y componentes que contiene". Sólo podemos especular que cuando empezaron a aparecer computadoras de todos los tamaños y formas en los ambientes de cómputo, se referían a la computadora grande como el "main frame" (el bastidor principal), como en el término "the main computer" (la computadora principal). Eventualmente el término se acortó a una palabra "mainframe".


WORKSTATION

Un workstation es un sintetizador que dispone de un secuenciador multipista interno y todas sus herramientas de edición.

Uno de los primeros workstation fue el Korg M-1, presentado en 1988. Implementaba un secuenciador de 8 pistas y contaba con la posibilidad de transferir los datos del mismo vía MIDI a través del sistema exclusivo.

El término también es utilizado para designar a estaciones de trabajo orientadas a labores específicas, como diseño CAD/CAM, edición de sonído (mastering o masterización de registros de estudio de sonído), manejo de servidores en configuración de clusters, y otros equipos especiales con sistemas y/ o programas software profesionales. Algunas características fundamentales en equipos profesionales PC o Workstation, es la versatilidad de conexionado múltiple a dispositivos compatibles, escalabilidad de potencia informática, robustez y desempeño sobresaliente comparado con equipos convencionales, y otros.

SUPERCOMPUTADORA, MINICOMPUTADORA Y MICROCOMPUTADORA!!!!


SUPERCOMPUTADORA

  • Velocidad de Proceso: Miles de millones de instrucciones de punto flotante por segundo.
  • Usuarios a la vez: Hasta miles, en entorno de redes amplias.
  • Tamaño: Requieren instalaciones especiales y aire acondicionado industrial.
  • Dificultad de uso: Solo para especialistas.
  • Clientes usuales: Grandes centros de investigación.
  • Penetración social: Prácticamente nula.
  • Impacto social: Muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Phi, desarrollar cálculos de problemas físicos dejando un bajo margen de error, etc.
  • Parques instalados: Menos de un millar en todo el mundo.
  • Costo: Hasta decenas de millones de euros cada una.

MINICOMPUTADORA

Actualmente más conocidos como servidores, la conjunción con terminales tontos sin capacidad de cálculo propia

El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los minicomputadoras y los falsos terminales fueron remplazados por computadoras personalesservidor. interconectados entre sí y con un

El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.

Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.


MICROCOMPUTADORA

Una microcomputadora es una computadora que tiene un microprocesador de procesamiento). (unidad central

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.

Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.

Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:

  • Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
  • Usuario a la vez: Uno (Por eso se llaman Personales).
  • Tamaño: Pequeña, o portátiles.
  • Facilidad de uso: Supuestamente fáciles de usar.
  • Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
  • Penetración social: Mediana.
  • Impacto social: Alto, en los países industrializados.
  • Parque instalado: Cientos de millones en el mundo.
  • Costo: Pocos cientos de dólares estadounidenses.

LSI & VLSI

LSI

Abreviatura que denota alta escala de integración. Generalmente se acepta para dispositivos que integran entre 100 y 1.000 puertas lógicas equivalentes.








VLSI

Siglas que denotan muy alta escala de integración, generalmente asignado a circuitos que contienen más de 1.000 puertas lógicas equivalentes.



IBM 360 Y DEC PDP1


IBM 360


DEC PDP-1

COMPONENTES ELECTRONICOS Y SEMICONDUCTORES

COMPONENTES ELECTRONICOS

SEMICONDUCTORES




IBM 360, DEC PDP-8 Y 1er. MINIORDENADOR



IBM 360












DEC PDP-8

1er. MINIORDENADOR

Miniordenador o Minicomputadora, un ordenador o computadora de nivel medio diseñada para realizar cálculos complejos y gestionar eficientemente una gran cantidad de entradas y salidas de usuarios conectados a través de un terminal. Normalmente, los miniordenadores se conectan mediante una red con otras minicomputadoras, y distribuyen los procesos entre todos los equipos conectados. Las minicomputadoras se utilizan con frecuencia en aplicaciones transaccionales y como interfaces entre sistemas de mainframe y redes de área extensa.

El primer miniordenador fue lanzado al mercado por Digital Equipment Corp. en 1959; era el PDP-1. A continuación, otras empresas como Hewlett-Packard, Data General, Wang, Tandem y Datapoint, entre otras, lanzaron sistemas similares.

Actualmente, el término miniordenador se sustituye con frecuencia por el de servidor, como elemento central de una red de medianas dimensiones a la que se conectan ordenadores personales —hasta varios centenares de usuarios.

Las máquinas de capacidad inferior a los miniordenadores, pero mayor que los ordenadores personales (microordenadores), que se utilizan de forma asilada o conectados a una red, se denominan Workstations (estaciones de trabajo) y se emplean, habitualmente, para aplicaciones científicas y CAD. Con el aumento de la capacidad de proceso de los ordenadores personales, el término Workstation ha perdido parte de su significado distintivo.

FORTRAN Y COBOL


FORTRAN

Lo que fue la primera tentativa de proyección de un lenguaje de programación de alto nivel, tiene una sintaxis considerada arcaica por muchos programadores que aprenden lenguajes más modernos. Es difícil escribir un bucle "for", y errores en la escritura de sólo un carácter pueden llevar a errores durante el tiempo de ejecución en vez de errores de compilación, en el caso de que no se usen las construcciones más frecuentes. Algunas de las versiones anteriores no poseían facilidades que son consideradas como útiles en las máquinas modernas, como la asignación dinámica de memoria. Se debe tener en cuenta que la sintaxis de Fortran fue afinada para el uso en trabajos numéricos y científicos y que muchas de sus deficiencias han sido abordadas en revisiones más recientes del lenguaje. Por ejemplo, Fortran 95 posee comandos mucho más breves para efectuar operaciones matemáticas con matrices y dispone de tipos. Esto no sólo mejora mucho la lectura del programa sino que además aporta información útil al compilador. Por estas razones Fortran no es muy usado fuera de los campos de la informática y el análisis numérico, pero permanece como el lenguaje a escoger para desempeñar tareas de computación numérica de alto rendimiento

Experimentalmente, se han efectuado medidas de tiempo comparando Fortran con lenguajes de alto nivel. En el caso de Visual Basic 6, a la hora de ejecutar un código que produce el mismo resultado, las medidas de tiempo obtenidas son las siguientes:

Visual Basic 80 Horas

Fortran 10 segundos

Por tanto, la decisión sobre qué lenguaje de programación usar depende del tipo de aplicación a desarrollar, tiempo disponible y necesidad de cálculos intensivos.

COBOL

COBOL fue dotado de unas excelentes capacidades de autodocumentación, una
buena gestión de archivos y una excelente gestión de los tipos de datos para la
época, a través de la conocida sentencia PICTURE para la definición de campos estructurados. Para evitar errores de redondeo en los cálculos que se producen al convertir los números a binario y que son inaceptables en temas comerciales, COBOL puede emplear y emplea por defecto números en base diez. Para facilitar la creación de programas en COBOL, la sintaxis del mismo fue creada de forma que fuese parecida al idioma inglés, evitando el uso de símbolos que se impusieron en lenguajes de programación posteriores.

Pese a esto, a comienzos de los ochenta se fue quedando anticuado respecto a los nuevos paradigmas de programación y a los lenguajes que los implementaban. En la revisión de 1985 se solucionó, incorporando a COBOL variables locales, recursividad, reserva de memoria dinámica y programación estructurada.

En la revisión de 2002 se le añadió orientación a objetos, aunque desde la revisión de 1974 se podía crear un entorno de trabajo similar a la orientación a objetos, y un método de generación de pantallas gráficas estandarizado.

Antes de la inclusión de las nuevas características en el estándar oficial, muchos fabricantes de compiladores las añadían de forma no estándar. En la actualidad este proceso se está viendo con la integración de COBOL con Internet. Existen varios compiladores que permiten emplear COBOL como lenguaje de scripting y de servicio web. También existen compiladores que permiten generar código COBOL para la plataforma .NET y EJB.

PROCEDIMIENTO DE LAS TARJETAS PERFORADAS


La tarjeta perforada es una cartulina con unas determinaciones que pueden o no estar perforadas, lo que supone un código binario. Fueron los primeros medios que servian para ingresar información e instrucciones a un computador en los años 1960 y 1970. Fueron inventadas por Joseph Marie Jacquard en 1804.

Las tarjetas perforadas fueron utilizadas no solo en la informática, sino también en los telares inspiradas por Joseph Marie Jacquard. De hecho, la informática adquirió las tarjetas perforadas de los telares. Con la misma lógica de perforación o ausencia de perforación, se utilizaron las cintas perforadas.

Actualmente las tarjetas perforadas han caído en el reemplazo por medios magnéticos y ópticos de ingreso de información. Sin embargo, muchos de los dispositivos de almacenamiento actuales, como por ejemplo el CD-ROM también se basan en un método similar al usado por las tarjetas perforadas, aunque por supuesto los tamaños, velocidades de acceso y capacidad de los medios actuales no admiten comparación con las viejas tarjetas.

PRIMERA GENERACION DE LAS COMPUTADORAS


En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.

Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

  • Estas máquinas estaban construidas por medio de tubos de vacío.
  • Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).

Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

TR@B@JO$ Y T@RE@$


INSTITUTO POLITECNICO NACIONAL

Unidad Profesional Interdisiplinaria de Ingenieria , Ciencias Sociales y Administrativas

Trabajos y Tareas

Alumna: Barrera Medina Martha Aurora

Grupo:1cv3

Turno: Vespertino

Profesora: Rosa Maria Oros Acosta