miércoles, 22 de octubre de 2008

BIOS

El sistema Básico de entrada/salida Basic Input-Output System (BIOS) es un código de interfaz que localiza y carga el sistema operativo en la R.A.M.; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer término BIOS apareció en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP/M BIOS.

En los primeros años de la vidasistemas operativos para PC (como el DOS), el BIOS todavía permanecía activo tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la disquetera y el disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos SO más modernos realizan estas tareas por sí mismos, sin necesidad de llamadas a las rutinas del BIOS.

Al encender la computadora, la BIOS se carga automáticamente en la memoria principal y se ejecuta desde ahí por el procesador (aunque en algunos casos el procesador ejecuta la BIOS leyéndola directamente desde la ROM que la contiene), cuando realiza una rutina de verificación e inicialización de los componentes presentes en la computadora, a través de un proceso denominado POST (Power On Self Test). Al finalizar esta fase busca el código de inicio del sistema operativo (bootstrap) en algunos de los dispositivos de memoria secundaria presentes, lo carga en memoria y transfiere el control de la computadora a éste.

Se puede resumir diciendo que el BIOS es el firmware presente en computadorasIBM PC y compatibles, que contiene las instrucciones más elementales para el funcionamiento de las mismas por incluir rutinas básicas de control de los dispositivos de entrada y salida. Está almacenado en un chip de memoria ROM o Flash, situado en la placa base de la computadora. Este chip suele denominarse en femenino "la BIOS", pues se refiere a una memoria (femenino) concreta; aunque para referirnos al contenido, lo correcto es hacerlo en masculino "el BIOS", ya que nos estamos refiriendo a un sistema (masculino) de entrada/salida.

El principal defecto de este componente es que mantiene prácticamente fiel a su estructura que lucía a principios de los 80. Incluso los microprocesadores más modernos de 64 bits de doble núcleo funcionan en modo real de 16 bits cuando encendemos el PC, emulando al procesador Intel 8086 de 1978. En estas circunstancias, la memoria principal que va más allá del primer MB no puede utilizarse durante el arranque de la máquina. Además, las tarjetas de video, de expansión y, en general, los dispositivos que deben permanecer accesibles en este proceso, tienen que incorporar una memoria de lectura de 128 kbytes.

Otra importante desventaja es que siguen programándose en lenguaje ensamblador, más óptimo en ejecución pero más complejo de desarrollar y mantener. Aun así, se ha añadido nuevas funciones a la BIOS que han contribuido de forma decisiva a incrementar su complejidad. Los BIOS anteriores a 1995 no reconocen los discos duros de más de 4 TB de capacidad.

SISTEMAS OPERATIVOS


Características Generales.

  • Fue desarrollado por los Laboratorios Bell en 1969.

  • El sistema operativo UNIX era, en 1981, un sistema de comando por línea, con varias opciones de sintaxis.

  • El sistema operativo, ahora soporta ratón e interfaz de ventanas como X-Windows System de MIT, News de Sun Microsystem y Open Look de AT&T.

  • UNIX se ha implementado en:
  • Supercomputadoras.
  • Macros.

  • Minis.

  • Estaciones de trabajo.

  • PCs.

  • Componentes de UNIX:
      • Shell, intérprete de comandos.

      • Núcleo, se encarga de la administración de Procesos, Memoria, Entrada/Salida y Ciclos de Reloj.

      • El Sistema de archivos es jerárquico, con origen en un nodo raíz.

    • Contiene 4 aportaciones importantes que han aumentado la viabilidad de los sistemas UNIX como base para los sistemas distribuidos.

    • Conectores Berkely.

    • Los Streams de AT&T.

    • El sistema de archivos de red NFS.

    • El sistema de archivos remoto RFS de AT&T.


Ventajas de unix

    • Multiusuario.

    • Multitarea.

    • Soporta acceso remoto.

    • Soporte nativo de TCP/IP (Fácil conexión a Internet y otras redes)

    • Contiene xFree86, que es una interfaz gráfica de usuario basada en los estándares de X-Windows, y también es gratuita.

    • Al instalar el sistema operativo, también se tiene la posibilidad de instalar varios programas, tales como: hojas de cálculo, bases de datos, procesadores de texto, varios lenguajes de programación, paquetes de telecomunicaciones y juegos.

    • Cumple los estándares POSIX y de Sistemas Abiertos, esto es que tiene la capacidad de comunicarse con sistemas distintos a él.

    • Existe mucha documentación sobre éste.

Desventajas de unix

    • Carencia de soporte técnico.

    • No ofrece mucha seguridad.

    • Problemas de hardware, no soporta todas las plataformas, y no es compatible con algunas marcas específicas.

    • No existe un control de calidad al momento de elaborar software para Linux, pues muchas veces las aplicaciones se hacen y se liberan sin control alguno.

    • Es poco probable que aplicaciones para DOS y OS/2, se ejecuten correctamente bajo Linux.

    • No hay forma segura de instalarlo sin reparticionar el disco duro.

    • El reparticionar el disco duro, implica borrar toda la información del mismo y después restablecerla.

    • Se requiere experiencia y conocimiento del sistema para administrarlo, pues como es un sistema por línea de comandos, estos poseen muchas opciones y en ocasiones es difícil realizar algunas tareas, que en otros sistemas operativos de red son triviales.

El Shell.

El shell es el mecanismo de los sistemas UNIX para lograr la comunicación entre los usuarios y el sistema. Es un intérprete de comandos que lee líneas tecleadas por el usuario y hace que se ejecuten las funciones del sistema solicitadas. Es un programa de aplicación como cualquier otro; no es parte del núcleo. Es frecuente que los sistemas UNIX manejen varios shells diferentes. El shell no reside permanentemente en la memoria principal como e l núcleo; puede intercambiarse cuando se necesite.


FECHA DE CREACION

Unix (registrado oficialmente como UNIX es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.

Hasta 2008, el propietario de la marca UNIX es The Open Group, un consorcio de normalización industrial. Sólo los sistemas que cumplen a cabalidad y se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix").

Durante fines de la década de 1970 y principios de la década de 1980, la influencia de Unix en círculos académicos indujo a su adopción en masa (principalmente la variante BSD, que había surgido en la Universidad de California, Berkeley) en varias compañías que se iniciaban por aquel entonces[cita requerida], siendo la más destacada Sun Microsystems. Hoy en día, junto a los sistemas Unix certificados, también se pueden encontrar sistemas similares a Unix, como LinuxBSD. y los derivados de

CRM


  • La administración basada en la relación con los clientes. CRM, es un modelo de gestión de toda la organización, basada en la orientación al cliente (u orientación al mercado según otros autores), el concepto más cercano es Marketing relacional (según se usa en España), teniendo mucha relación con otros conceptos como: Clienting, Marketing 1x1, Marketing directo de base de datos, etc.
  • Software para la administración de la relación con los clientes'. Sistemas informáticos de apoyo a la gestión de las relaciones con los clientes, a la venta y al marketing. Con este significado CRM se refiere al Data warehouseAlmacén de Datos) con la información de la gestión de ventas, y de los clientes de la empresa.

Definición

La administración de la relación con los clientes, CRM, es parte de una estrategia de negocio centrada en el cliente. Una parte fundamental de su idea es, precisamente, la de recopilar la mayor cantidad de información posible sobre los clientes, para poder dar valor a la oferta. La empresa debe trabajar para conocer las necesidades de los mismos y así poder adelantar una oferta y mejorar la calidad en la atención.

Cuando hablamos de mejorar la oferta nos referimos a poder brindarles soluciones a los clientes que se adecuen perfectamente a sus necesidades, y no como rezan muchos opositores a esta disciplinas generarles nuevas necesidades.

Por lo tanto, el nombre CRM hace referencia a una estrategia de negocio basada principalmente en la satisfacción de los clientes, pero también a los sistemas informáticos que dan soporte a esta estrategia.

Tecnología y desarrollo

La parte fundamental de toda estrategia CRM es la base de datos.

Para comenzar con el desarrollo de una buena base de datos se aconseja el desarrollo de un club de la empresa, aunque pueden generarse muchos datos con estrategias de comunicación convencionales como pueden ser la Gráfica, Radial, Televisiva, E-mailing, Advertisement, etc. En este caso, el foco de la estrategia debería ser cómo administrar los contactos que surjan de la implementación de la comunicación antes mencionada.

Herramientas CASE

Las herramientas CASE (Computer Aided Software Engineering, Ingeniería de SoftwareOrdenador) son diversas aplicaciones informáticas destinadas a aumentar la productividad en el desarrollo de software reduciendo el coste de las mismas en términos de tiempo y de dinero. Estas herramientas nos pueden ayudar en todos los aspectos del ciclo de vida de desarrollo del software en tareas como el proceso de realizar un diseño del proyecto, calculo de costes, implementación de parte del código automáticamente con el diseño dado, compilación automática, documentación o detección de errores entre otras.

Objetivos
  1. Mejorar la productividad en el desarrollo y mantenimiento del software.
  2. Aumentar la calidad del software.
  3. Mejorar el tiempo y coste de desarrollo y mantenimiento de los sistemas informáticos.
  4. Mejorar la planificación de un proyecto
  5. Aumentar la biblioteca de conocimiento informático de una empresa ayudando a la búsqueda de soluciones para los requisitos.
  6. Automatizar, desarrollo del software, documentación, generación de código, pruebas de errores y gestión del proyecto.
  7. Ayuda a la reutilización del software, portabilidad y estandarización de la documentación
  8. Gestión global en todas las fases de desarrollo de software con una misma herramienta.
  9. Facilitar el uso de las distintas metodologías propias de la ingeniería del software.

ERP



ERP está a favor de planificación de recursos empresariales. ERP es una forma de integrar los datos y los procesos de una organización en un único sistema. Por lo general, los sistemas ERP se han incluido muchos de los componentes de hardware y software, con el fin de lograr la integración, la mayoría de los sistemas ERP utilizar una base de datos unificada para almacenar datos de diversas funciones en toda la organización.


El término ERP originalmente se refiere a cómo una gran organización tiene previsto utilizar los recursos de ancho de organización. En el pasado, los sistemas ERP se utilizaron en las grandes tipos más industrial de las empresas. Sin embargo, el uso de la ERP ha cambiado y es muy amplia, hoy en día el término se puede referir a cualquier tipo de empresa, no importa lo que la industria cae pulg De hecho, los sistemas ERP son usados en casi cualquier tipo de organización - grandes o pequeños.


Con el fin de un sistema de software debe considerarse ERP, que debe proporcionar una organización con la funcionalidad de dos o más sistemas. Mientras que algunos paquetes de ERP que existen sólo se refieren a dos funciones de una organización (QuickBooks: Nómina y Contabilidad), la mayoría de los sistemas ERP abarcar varias funciones.

domingo, 12 de octubre de 2008

EDI

El intercambio electrónico de datos ( Electronic Data Interchange o EDI), es un software Middleware que permite la conexión a distintos sistemas empresariales como ERP o CRM. El Intercambio Electrónico de Datos puede realizarse en distintos formatos: EDIFACT (Electronic Data Interchange for Administration, Commerce and Transport), XML, ANSI ASC X12, TXT, etc.

EDIFACT es un estándar de la ONU para el intercambio de documentos comerciales en el ámbito mundial. Existiendo subestándares para cada entorno de negocio (distribución, automoción, transporte, aduanero, etc) o para cada país. Así, por ejemplo, AECOC regula el estándar EDI del sector de distribución. Para el intercambio de este tipo de información se suelen utilizar las Redes de Valor Añadido (Valued Added Network o VAN). Además del intercambio de la información, estas redes permiten su registro.

Ejemplos de aplicaciones compatibles con EDI

  • BizLayer es una plataforma de facturación electrónica, con amplia utilización en el sector turístico en España. Esta plataforma permite a aquellas empresas que gestionan sus facturas en formatos de EDI (EDIFACT), y a través de esta red, volcarlas en la plataforma de facturación BizLayer para su gestión posterior, de una forma sencilla y segura.
  • MIC2000 ERP+ es un software de gestión empresarial, basado en tecnología de Base de Datos Oracle, que entre sus múltiples funcionalidades permite a las empresas la generación / recepción de ficheros EDI (ORDERS, INVOICE, DESADV, RECADV,...) integrándolos en el sistema ERP, evitando la duplicación en la gestión de la información y facilitando la gestión de los procesos EDI de la empresa.
  • SERESNET es un software propietario de comunicaciones EDI multiformato (EDIFACT, XML, ODETTE, etc.) y multiprotocolo (SMTP, VAN, AS2, etc.). Permite la integración con la mayoría de ERP's del mercado y sitios Web. Desarrollado por la empresa SERES, está perfectamente integrado para el uso de la factura telemática con firma electrónica por AECOC.
  • openXpertya es un ERP open source en español, especialmente adaptado para la legislación y el mercado español e hispanoamericano. Incluye solución de CRM y comercio electrónico a tres niveles con soporte EDI multiformato y multiprotocolo. openXpertya es software libre.
  • GENERIX Group, INFLUE, desde 1990, gracias a su fuerte experiencia en el Supply Chain Management, GENERIX Group - INFLUE ha desarrollado una gama de productos de Intercambios Electrónicos, de Herramientas Logísticas (Aprovisionamiento), de Sincronización de datos para Catálogos electrónicos, de Internet Seguro y por extensión de los portales web y market places. GENERIX Group - INFLUE se desarrolla dentro de un contexto internacional con una presencia en Europa, América del Sur y Asia, contando también con software disponibles en varios idiomas.
  • EDIWIN es un software de comunicaciones EDI multiformato (EDIFACT, XML, ODETTE, etc.) y multiprotocolo (SMTP, VAN, AS2, etc.). Permite la integración con la mayoría de ERP's del mercado y sitios Web. Desarrollado por la empresa EDICOM, está homologado para factura telemática con firma electrónica por AECOC.
  • CEN, Centro electrónico de negocios, es un producto de comercio electrónico desarrollado por IBC Solutions, una empresa de Carvajal, Colombia, que utiliza EDI y EDIFACT como estándares para el intercambio de mensajes entre sus módulos empresariales.

E-COMERCE

El e-commerce (de Electronic Commerce) consiste en comprar y vender productos o servicios a través de sistemas electrónicos como Internet y otras redes computacionales. Una gran variedad de comercio es conducido de esta manera, estimulando y aprovechando:

  • las innovaciones en transferencias financieras.
  • gestión de cadenas de suministros.
  • transacciones en línea.
  • intercambio electrónico de datos (EDI).
  • sistemas de gestión de inventarios.

El comercio electrónico moderno usualmente se vale de la WWW (World Wide Web) en algún punto del ciclo de la transacción, aunque puede incluir otras tecnologías como el correo electrónico.

El e-Commerce es generalmente considerado como el aspecto de ventas de los e-Business o negocios electrónicos.

Ejemplos de aplicaciones para comercio electrónico

  • OpenXpertya es un ERP open source en español, especialmente adaptado para la legislación y el mercado español e hispanoamericano. Incluye solución de CRM y comercio electrónico a tres niveles, con soporte EDI, B2B y B2C. openXpertya es Software Libre.
  • EDIWIN es un software de comunicaciones EDI multiformato (EDIFACT, XML, ODETTE, etc.) y multiprotocolo (SMTP, VAN, AS2, etc.). Permite la integración con la mayoría de ERP's del mercado y sitios Web. Desarrollado por la empresa EDICOM, está homologado para factura telemática con firma electrónica por la organización privada AECOC. Ediwin es Software privado
  • Interges Online Es un sencillo programa muy eficaz para implementar comercios electrónicos de forma sencilla y rápida.
  • NIC E-commerce es un software de comercio electrónico, enlatado, muy simple, completo y económico, se puede integrar con cualquier software de gestión interno de las empresas automatizando todo el proceso del comercio electrónico, desarrollado por Grupo Netcom.
  • brandlive eCommerce Altonet es un sofware de comercio electrónico completo en español, con herramientas de marketing viral, de fácil puesta en marcha y administración por parte de usuarios sin conocimientos de programación desarrollado por Altonet S.A.

viernes, 3 de octubre de 2008

WMS


El servicio Web Map Service (WMS) definido por el OGC (Open Geospatial Consortium) produce mapas de datos espaciales referidos de forma dinámica a partir de información geográfica. Este estándar internacional define un "mapa" como una representación de la información geográfica en forma de un archivo de imagen digital conveniente para la exhibición en una pantalla de ordenador. Un mapa no consiste en los propios datos. Los mapas producidos por WMS se generan normalmente en un formato de imagen como PNG, GIF o JPEG, y ocasionalmente como gráficos vectoriales en formato SVG (Scalable Vector Graphics) o WebCGM (Web Computer Graphics Metafile).

El estándar define tres operaciones:

Devolver metadatos del nivel de servicio.
Devolver un mapa cuyos parámetros geográficos y dimensionales han sido bien definidos.
Devolver información de características particulares mostradas en el mapa (opcionales).

Las operaciones WMS pueden ser invocadas usando un navegador estándar realizando peticiones en la forma de URLs (Uniform Resource Locators). El contenido de tales URLs depende de la operación solicitada. Concretamente, al solicitar un mapa, la URL indica qué información debe ser mostrada en el mapa, qué porción de la tierra debe dibujar, el sistema de coordenadas de referencia, y la anchura y la altura de la imagen de salida. Cuando dos o más mapas se producen con los mismos parámetros geográficos y tamaño de salida, los resultados se pueden solapar para producir un mapa compuesto. El uso de formatos de imagen que soportan fondos transparentes (e.g., GIF o PNG) permite que los mapas subyacentes sean visibles. Además, se puede solicitar mapas individuales de diversos servidores.
El servicio WMS permite así la creación de una red de servidores distribuidos de mapas, a partir de los cuales los clientes pueden construir mapas a medida. Las operaciones WMS también pueden ser invocadas usando clientes avanzados SIG, realizando igualmente peticiones en la forma de
URLs. Existe software libre, como las aplicaciones GRASS, uDIG, gvSIG, Kosmo y otros, que permite este acceso avanzado a la información remota, añadiendo la ventaja de poder cruzarla con información local y disponer de una gran variedad de herramientas SIG.

OLTP


OLTP es la sigla en inglés de Procesamiento de Transacciones En Línea (OnLine Transaction Processing) es un tipo de sistemas que facilitan y administran aplicaciones transaccionales, usualmente para entrada de datos y recuperación y procesamiento de transacciones (gestor transaccional). Los paquetes de software para OLTP se basan en la arquitectura cliente-servidor ya que suelen ser utilizados por empresas con una red informática distribuida.
El término puede parecer ambiguo, ya que puede entenderse "transacción" en el contexto de las "transacciones computacionales" o de las "
transacciones en bases de datos". También podría entenderse en términos de transacciones de negocios o comerciales. OLTP también se ha utilizado para referirse a la transformación en la que el sistema responde de inmediato a las peticiones del usuario. Un Cajero automático de un banco es un ejemplo de una aplicación de procesamiento de transacciones comerciales.
La tecnología OLTP se utiliza en innumerables aplicaciones, como en
banca electrónica, procesamiento de pedidos, comercio electrónico, supermercados o industria.

sábado, 13 de septiembre de 2008

VENTAJAS DE LA PROGRAMACION ESTRUCTURADA

Con la programación estructurada, elaborar programas de computador sigue siendo una labor que demanda esfuerzo, creatividad, habilidad y cuidado. Sin embargo, con este estilo podemos obtener las siguientes ventajas:

1. Los programas son más fáciles de entender, ya que pueden ser leído de forma secuencial, sin necesidad de hacer seguimiento a saltos de línea (GOTO) dentro de los bloques de código para entender la lógica.

2. La estructura del programa es clara puesto que las instrucciones están más ligadas o relacionadas entre sí.

3. Reducción del esfuerzo en las pruebas. El seguimiento de los fallos o errores del programa ("debugging") se facilita debido a la estructura más visible, por lo que los errores se pueden detectar y corregir más fácilmente.

4. Reducción de los costos de mantenimiento de los programas.

5. Programas más sencillos y más rápidos (ya que es más fácil su optimización).

6. Los bloques de código son auto explicativos, lo que facilita a la documentación.

7. Los GOTO se reservan para construir las instrucciones básicas. Aunque no se usan de forma directa, por estar prohibida su utilización, están incluidas implícitamente en las instrucciones de selección e iteración.

8. Un programa escrito de acuerdo a estos principios no solamente tendra una estructura sino tambien una excelente presentacion.

9. La programación estructurada ofrece estos beneficios,pero no se la debe considerar como una panacea ya que el desarrollo de programas es, principalmente, una tarea de dedicación, esfuerzo y creatividad.

DEFINICIONES: ISA,EISA, PCI, VESA, VME bus, MULTIBUS Y NUBUS, STD bus

ISA

Salvo para usos industriales especializados, ya no se emplea ISA. Incluso cuando está presente, los fabricantes de sistemas protegen a los usuarios del término "bus ISA", refiriéndose en su lugar al "bus heredado". El bus PC/104, empleado en la industria, es un derivado del bus ISA, que utiliza las mismas líneas de señales pero con diferente conector. El bus LPC ha reemplazado a ISA en la conexión de dispositivos de Entrada/Salida en las modernas placas base. Aunque son físicamente bastante diferentes, LPC se presenta ante el software como ISA, por lo que las peculiaridades de ISA como el límite de 16 Mb para DMA seguirán todavía presentes por un tiempo.

EISA

EISA amplía la arquitectura de bus ISA a 32 bits y permite que más de una CPU comparta el bus. El soporte de bus mastering también se mejora para permitir acceso hasta a 4 GB de memoria. A diferencia de MCA, EISA es compatible de forma descendente con ISA, por lo que puede aceptar tarjetas antiguas XT e ISA, siendo conexiones y las ranuras una ampliación de las del bus ISA.

A pesar de ser en cierto modo inferior a MCA, el estándar EISA fue muy favorecido por los fabricantes debido a la naturaleza propietaria de MCA, e incluso IBM fabricó algunas máquinas que lo soportaban. Pero en el momento en el que hubo una fuerte demanda de un bus de estas velocidades y prestaciones, el bus local VESA y posteriormente el PCI llenaron este nicho y el EISA desapareció en la oscuridad.

EISA introduce las siguientes mejoras sobre ISA:

  • Direcciones de memoria de 32 bits para CPU, DMA, y dispositivos de bus master.
  • Protocolo de transmisión síncrona para transferencias de alta velocidad.
  • Traducción automática de ciclos de bus entre maestros y esclavos EISA e ISA.
  • Soporte de controladores de periféricos maestros inteligentes.
  • 33 MB/s de velocidad de transferencia para buses maestros y dispositivos DMA
  • Interrupciones compartidas
  • Configuración automática del sistema y las tarjetas de expansión
PCI

Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PCs, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.

A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.

VESA

El bus VESA (Video Electronics Standards Association, la compañía que lo diseñó) es un tipo de bus de datos para ordenadores personales, utilizado sobre todo en equipos diseñados para el procesador Intel 80486. Permite conectar directamente la tarjeta gráfica al procesador.


Este bus es compatible con el bus ISA pero mejora la respuesta gráfica, solucionando el problema de la insuficiencia de flujo de datos de su predecesor. Para ello su estructura consistía en un extensión del ISA de 16 bits. Las tarjetas de expansión de este tipo eran enormes lo que, junto a la aparición del bus PCI, mucho más rápido en velocidad de reloj, y con menor longitud y mayor versatilidad, hizo desaparecer al VESA, aunque sigue existiendo en algunos equipos antiguos.



SOPORTES DE MEMORIA

La memoria secundaria es un conjunto de dispositivos periféricos para el almacenamiento masivo de datos de un ordenador, con mayor capacidad que la memoria principal, pero más lenta que ésta.

El disquete, el disco duro o disco fijo, las unidades ópticas, las unidades de memoria flash y los discos Zip, pertenecen a esta categoría.

Estos dispositivos periféricos quedan vinculados a la memoria principal, o memoria interna, conformando el sub-sistema de memoria del ordenador.

Soportes de memoria secundaria:


PROTOCOLOS TCP/IP


La familia de protocolos de Internet es un conjunto de protocolos de red en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.

El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.

La familia de protocolos de Internet puede describirse por analogía con el modelo OSI, que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.

El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.

MODELO VON NEUMANN



Dispositivo electrónico compuesto básicamente de un procesador, memoria y dispositivos de entrada/salida (E/S). La característica principal de la computadora, respecto a otros dispositivos similares, como una calculadora no programable, es que con él se pueden realizar tareas muy diversas, cargando distintos programas en la memoria para que los ejecute el procesador. Siempre se busca optimizar los procesos, ganar tiempo, hacerlo más fácil de usar y simplificar las tareas rutinarias.

Los dispositivos de entrada/salida (también llamados periféricos) sirven para intercambiar información con el exterior. Una computadora normalmente utiliza un programa informático especial denominado sistema operativo diseñado, construido y probado para gestionar los recursos de la computadora: memoria, dispositivos de E/S, dispositivos de almacenamiento (discos duros, unidades de DVD y CD).

Una computadora es cualquier dispositivo usado para procesar información de acuerdo con un procedimiento bien definido. Sin embargo, la definición anterior incluye muchos dispositivos de usos específicos que sólo pueden realizar una función o un número determinado de funciones.

5a. GENERACION

PROGRAMAS DE LA 5a. GENERACION

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

MACROCOMPUTADORAS Y WORKSTATION


MACROCOMPUTADORAS

Son computadoras que se caracterizan por su utilización en el manejo de grandes bases de datos en redes corporativas de gran tamaño. Poseen grandes dispositivos de almacenamiento como discos duros de hasta 500 GigaBytes (GB) y cintas de seguridad (Tape Backup)

Las macrocomputadoras de hoy generalmente cuestan desde $120,000 hasta varios millones de dólares. Anteriormente era usual que ocuparan cuartos completos o incluso pisos enteros de edificios. Generalmente eran colocadas dentro de oficinas con vidrios sellados y aire acondicionado especial para mantenerlas a una temperatura baja, y sobre pisos falsos para ocultar todos los cables necesarios para las conexiones de la máquina. Este tipo de instalación ya no es muy utilizada. Hoy en día, es común verlas como una hilera sencilla de grandes archivadores, aunque puede seguir requiriendo de un ambiente controlado.

Nadie sabe realmente dónde se originó el término mainframe. Algunos viejos documentos de IBM definen explícitamente el término "frame" como una parte integral de una computadora: "el bastidor... estructuras de soporte de hardware... y todas las partes y componentes que contiene". Sólo podemos especular que cuando empezaron a aparecer computadoras de todos los tamaños y formas en los ambientes de cómputo, se referían a la computadora grande como el "main frame" (el bastidor principal), como en el término "the main computer" (la computadora principal). Eventualmente el término se acortó a una palabra "mainframe".


WORKSTATION

Un workstation es un sintetizador que dispone de un secuenciador multipista interno y todas sus herramientas de edición.

Uno de los primeros workstation fue el Korg M-1, presentado en 1988. Implementaba un secuenciador de 8 pistas y contaba con la posibilidad de transferir los datos del mismo vía MIDI a través del sistema exclusivo.

El término también es utilizado para designar a estaciones de trabajo orientadas a labores específicas, como diseño CAD/CAM, edición de sonído (mastering o masterización de registros de estudio de sonído), manejo de servidores en configuración de clusters, y otros equipos especiales con sistemas y/ o programas software profesionales. Algunas características fundamentales en equipos profesionales PC o Workstation, es la versatilidad de conexionado múltiple a dispositivos compatibles, escalabilidad de potencia informática, robustez y desempeño sobresaliente comparado con equipos convencionales, y otros.

SUPERCOMPUTADORA, MINICOMPUTADORA Y MICROCOMPUTADORA!!!!


SUPERCOMPUTADORA

  • Velocidad de Proceso: Miles de millones de instrucciones de punto flotante por segundo.
  • Usuarios a la vez: Hasta miles, en entorno de redes amplias.
  • Tamaño: Requieren instalaciones especiales y aire acondicionado industrial.
  • Dificultad de uso: Solo para especialistas.
  • Clientes usuales: Grandes centros de investigación.
  • Penetración social: Prácticamente nula.
  • Impacto social: Muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Phi, desarrollar cálculos de problemas físicos dejando un bajo margen de error, etc.
  • Parques instalados: Menos de un millar en todo el mundo.
  • Costo: Hasta decenas de millones de euros cada una.

MINICOMPUTADORA

Actualmente más conocidos como servidores, la conjunción con terminales tontos sin capacidad de cálculo propia

El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los minicomputadoras y los falsos terminales fueron remplazados por computadoras personalesservidor. interconectados entre sí y con un

El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.

Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.


MICROCOMPUTADORA

Una microcomputadora es una computadora que tiene un microprocesador de procesamiento). (unidad central

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.

Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.

Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:

  • Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
  • Usuario a la vez: Uno (Por eso se llaman Personales).
  • Tamaño: Pequeña, o portátiles.
  • Facilidad de uso: Supuestamente fáciles de usar.
  • Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
  • Penetración social: Mediana.
  • Impacto social: Alto, en los países industrializados.
  • Parque instalado: Cientos de millones en el mundo.
  • Costo: Pocos cientos de dólares estadounidenses.

LSI & VLSI

LSI

Abreviatura que denota alta escala de integración. Generalmente se acepta para dispositivos que integran entre 100 y 1.000 puertas lógicas equivalentes.








VLSI

Siglas que denotan muy alta escala de integración, generalmente asignado a circuitos que contienen más de 1.000 puertas lógicas equivalentes.



IBM 360 Y DEC PDP1


IBM 360


DEC PDP-1

COMPONENTES ELECTRONICOS Y SEMICONDUCTORES

COMPONENTES ELECTRONICOS

SEMICONDUCTORES




IBM 360, DEC PDP-8 Y 1er. MINIORDENADOR



IBM 360












DEC PDP-8

1er. MINIORDENADOR

Miniordenador o Minicomputadora, un ordenador o computadora de nivel medio diseñada para realizar cálculos complejos y gestionar eficientemente una gran cantidad de entradas y salidas de usuarios conectados a través de un terminal. Normalmente, los miniordenadores se conectan mediante una red con otras minicomputadoras, y distribuyen los procesos entre todos los equipos conectados. Las minicomputadoras se utilizan con frecuencia en aplicaciones transaccionales y como interfaces entre sistemas de mainframe y redes de área extensa.

El primer miniordenador fue lanzado al mercado por Digital Equipment Corp. en 1959; era el PDP-1. A continuación, otras empresas como Hewlett-Packard, Data General, Wang, Tandem y Datapoint, entre otras, lanzaron sistemas similares.

Actualmente, el término miniordenador se sustituye con frecuencia por el de servidor, como elemento central de una red de medianas dimensiones a la que se conectan ordenadores personales —hasta varios centenares de usuarios.

Las máquinas de capacidad inferior a los miniordenadores, pero mayor que los ordenadores personales (microordenadores), que se utilizan de forma asilada o conectados a una red, se denominan Workstations (estaciones de trabajo) y se emplean, habitualmente, para aplicaciones científicas y CAD. Con el aumento de la capacidad de proceso de los ordenadores personales, el término Workstation ha perdido parte de su significado distintivo.