miércoles, 21 de agosto de 2013

Conexiones de computadoras

Red de computadoras

Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de computadoras y/o dispositivos conectados por enlaces de un medio físico (medios guiados) ó inalámbricos (medios no guiados) y que comparten información (archivos), recursos (CD-ROM, impresoras, etc.) y servicios, etc.
                   

 

Breve reseña sobre la evolución de las redes

Los primeros enlaces entre ordenadores se caracterizaron por realizarse entre equipos que utilizaban idénticos sistemas operativos soportados por similar hardware y empleaban líneas de transmisión exclusivas para enlazar sólo dos elementos de la red.
En 1964 el Departamento de Defensa de los EE.UU. pide a la agencia DARPA (Defense Advanced Research Proyects Agency) la realización de investigaciones con el objetivo de lograr una red de ordenadores capaz de resistir un ataque nuclear. Para el desarrollo de esta investigación se partió de la idea de enlazar equipos ubicados en lugares geográficos distantes, utilizando como medio de transmisión la red telefónica existente en el país y una tecnología que había surgido recientemente en Europa con el nombre de Conmutación de Paquetes. Ya en 1969 surge la primera red experimental ARPANET, en 1971 esta red la integraban 15 universidades, el MIT; y la NASA; y al otro año existían 40 sitios diferentes conectados que intercambiaban mensajes entre usuarios individuales, permitían el control de un ordenador de forma remota y el envío de largos ficheros de textos o de datos. Durante 1973 ARPANET desborda las fronteras de los EE.UU. al establecer conexiones internacionales con la "University College of London" de Inglaterra y el "Royal Radar Establishment" de Noruega.
En esta etapa inicial de las redes, la velocidad de transmisión de información entre los ordenadores era lenta y sufrían frecuentes interrupciones. Ya avanzada la década del 70, DARPA, le encarga a la Universidad de Stanford la elaboración de protocolos que permitieran la transferencia de datos a mayor velocidad y entre diferentes tipos de redes de ordenadores. En este contexto es que Vinton G. Cerf, Robert E. Kahn, y un grupo de sus estudiantes desarrollan los protocolos TCP/IP.
En 1982 estos protocolos fueron adoptados como estándar para todos los ordenadores conectados a ARPANET, lo que hizo posible el surgimiento de la red universal que existe en la actualidad bajo el nombre de Internet.
En la década de 1980 esta red de redes conocida como la Internet fue creciendo y desarrollándose debido a que con el paso del tiempo cientos y miles de usuarios, fueron conectando sus ordenadores.

Redes según la direccionalidad de los datos (tipos de transmisión)

  • simplex unidireccionales, un ETD transmite y otro recibe
  • half-duplex bidireccionales, pero sólo uno transmite por vez
  • full-duplex' ambos pueden transmitir y recibir a la vez una misma información

Categorías

  • Por localización:
    • Red de área personal (PAN)
    • Red de área local (LAN)
    • Red de área metropolitana (MAN)
    • Red de área amplia (WAN)
  • Por relación funcional:
    • cliente-servidor
    • igual-a-igual (p2p)
  • Por estructura:
    • Red OSI o Modelo OSI
    • Red TCP/IP
  • Por Topología de red:
    • red de bus
    • red de estrella
    • red de anillo
    • red alambrada
    • red de bus-estrella
    • red Mesh

 

Componentes básicos de las redes de ordenadores

  • ‘’’Computadoras ‘’’
Muchos de los componentes de una red media son las computadoras individuales, que son generalmente sitios de trabajo (ordenadores personales incluyendo) o servidores.
  • ’’’Tipos de sitios de trabajo’’’
Hay muchos tipos de sitios de trabajo que se puedan incorporar en una red particular, algo de la cual tiene exhibiciones high-end, las CPU múltiples, las cantidades grandes de ESPOLÓN, las cantidades grandes de espacio de almacenamiento de la impulsión dura, u otros realces requeridos para las tareas de proceso de datos especiales, los gráficos, u otros usos intensivos del recurso. (Véase también la computadora de red).
  • ’’’Tipos de servidores’’’
Las listas siguientes hay algunos tipos comunes de servidores y de su propósito.
  • ’’’Servidor de archivo’’’
Almacena varios tipos de archivos y los distribuye a otros clientes en la red.
  • ’’’Servidor de impresiones’’’
Controla y maneja una o más impresoras y acepta trabajos de impresión de otros clientes de la red, encanillando los trabajos de impresión, y realizando la mayoría o todas las otras funciones que un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fue conectada directamente con el puerto de impresora del sitio de trabajo.

  • ’’’Mail servidor’’’
Los almacenes, envían, reciben, las rutas, y realizan otras operaciones relacionadas con email para otros clientes en la red.
  • ’’’Servidor del fax’’’
Los almacenes, envían, reciben, las rutas, y realizan otras funciones necesarias para la transmisión, la recepción, y la distribución apropiadas de faxes.
  • ’’’Servidor de la telefonía’’’
Realiza funciones relacionadas telefónicamente tales como llamadas que contestan automáticamente, realizando las funciones de un sistema interactivo de la respuesta de la voz, almacenando y el correo de voz que sirve, encaminando llama entre la red de teléfono cambiada pública (PSTN) y la red o el Internet (e.g., entrada excesiva del IP de la voz (VoIP)), etc.
  • ’’’Proxy server’’’
Realiza un cierto tipo de función a nombre de otros clientes en la red para aumentar el funcionamiento de ciertas operaciones (e.g., prefetching y depositar documentos u otros datos que se soliciten muy frecuentemente) o como precaución de la seguridad para aislar a clientes de la red de amenazas exteriores.
  • ’’’Servidor del acceso alejado (RAS)’’’
Las líneas del módem de los monitores u otros canales de comunicación de la red para que las peticiones conecten con la red de una posición remota, respuestas la llamada telefónica entrante o reconocen la petición de la red, y realizan los cheques necesarios de la seguridad y otros procedimientos necesarios para registrar a un usuario sobre la red.
  • ’’’Servidor del uso’’’
Realiza la porción de la lógica de la informática o del negocio de un uso del cliente, aceptando las instrucciones para que las operaciones se realicen de un sitio de trabajo y sirviendo los resultados de nuevo al sitio de trabajo, mientras que el sitio de trabajo realiza el interfaz utilizador o la porción del GUI del proceso (es decir, la lógica de la presentación) que se requiere para trabajar correctamente.
  • ’’’Web server’’’
Los documentos del HTML de los almacenes, las imágenes, los archivos de texto, las escrituras, y el otro Web relacionaron los datos (conocidos colectivamente como contenido), y distribuye este contenido a otros clientes en la red a petición.
  • ’’’Servidor de reserva’’’
Hace el software de reserva de la red instalar y tiene cantidades grandes de almacenamiento de la impulsión dura u otras formas del almacenamiento (cinta, etc.) disponibles para que se utilice con el fin de asegurarse de que la pérdida de los datos no ocurre en la red.
  • ’’’Impresoras’’’
Muchas impresoras son capaces de actuar como parte de una red de ordenadores sin ningún otro dispositivo, tal como un print server, a actuar como intermediario entre la impresora y el dispositivo que está solicitando un trabajo de impresión de ser terminado.

  • ’’’Clientes finos’’’
Muchas redes utilizan a clientes finos en vez de sitios de trabajo o para la entrada de datos y exhiben propósitos o en algunos casos donde el uso funciona enteramente en el servidor.

 

Topologías de Red


Cuando se menciona la topología de redes, se hace referencia a la forma geométrica en que están distribuidas las estaciones de trabajo y los cables que las conectan. Su objetivo es buscar la forma más económica y eficaz de conexión para, al mismo tiempo, aumentar la fiabilidad del sistema, evitar los tiempos de espera en la transmisión, permitir un mejor control de la red y lograr de forma eficiente el aumento del número de las estaciones de trabajo.



Fundamentos de los bits


ESTRUCTURA DE DATOS
Un curso de ciencias de la computación incluye el estudio de cómo se organiza la información en una computadora, como se manipula y como se emplea.
Si las ciencias de la computación son fundamentales para el estudio de la información, entonces ¿Qué es la información? Esta pregunta no puede contestarse con precisión ya que es un termino indefinido acerca de los cuales puede establecerse enunciados pero no se pueden explicar en términos más elementales.
En computación es posible medir las cantidades de la información. La unidad básica de información es el bit, cuyos valores establecen uno de dos posibilidades mutuamente excluyentes.
Los dígitos binarios 0 y 1 se usan para representar los dos estados posibles de un bit particular. Dados n bits, se usa una cadena de unos y ceros para representar sus especificaciones.
El método mas difundido para interpretar especificaciones de bits como enteros no negativos es el sistema numérico binario. En este sistema la posición del bit en el extremo derecho representa 20, lo cual es 1, la siguiente 21, lo cual es 2 y así sucesivamente. Si aparece un 1 en esa posición de bit particular, se incluye en la suma de potencia de 2 representada por la posición de tal posición de bit. Pero si aparece un 0 no se incluye en la suma.
Hay dos métodos que se usan con frecuencia para representar números binarios negativos. En el primero denominado notación de complemento a uno, se representa un numero negativo cambiando cada bit en su valor absoluto a las especificaciones de bit opuesta.
Ejemplo:
00100110 representa 38
11011001 representa -38
Una cadena de bits que empieza con un 0 representa un numero positivo, en tanto una cadena de bits que inicia con 1 representa un numero negativo.
El segundo método se denomina notación de complemento a dos. Aquí se agrega un 1 a la representación del complemento a uno de un numero negativo.
Ejemplo:
Considere el 0 utilizando 8 bits: 00000000. En complemento a uno es: 11111111, lo cual es un 0 negativo en tal notación. Agregamos un 1 para realizar el complemento a dos 100000000, lo cual tiene 9 bits de longitud. Como solo se permitan 8 bits, se descarta el bit de la extrema izquierda, dejando 00000000 como menos 0.

1 bit
1 Byte = 8 bits
1 KiloByte (KB) = 1,024 Bytes
1 MegaByte (MB) = 1,024 KB
1 GigaByte (GB) = 1,024 MB
1 TeraByte (TB) = 1,024 GB
1 PetaByte (PB) = 1,024 TB
1 ExaByte (EB) = 1,024 PB
1 ZettaByte (ZB) = 1,024 EB
1 YottaByte (YB) = 1,024 ZB
CADENAS DE CARACTERES
La información no siempre se interpreta en forma numérica. Elementos tales como nombres, títulos de trabajos y direcciones también deben representarse en alguna forma dentro de una computadora. Para permitir la representación de tales objetos no numéricos, es necesario un método adicional para interpretar cadenas de caracteres.
Si se usan 8 bits para representar un carácter, es posible simbolizar hasta 256 caracteres diferentes. Algunas computadoras usan 8 bits y otras hasta 10( o sea hasta 1024 caracteres). La cantidad de bits necesaria para representar un carácter en una computadora particular se denomina el tamaño de byte y un grupo de bits de dicho numero se llama un byte.
HARDWARE Y SOFTWARE
La memoria de una computadora es sencillamente un grupo de bits. En cualquier momento de la operación de la computadora, un bit particular de la memoria esta en la posición 0 o 1. La especificación de un bit se denomina su valor o contenido.
Los bits en una memoria de una computadora se agrupan en unidades más grandes denominadas bytes. En algunas computadoras se integran los bytes en unidades llamadas palabras. A cada una de estas unidades, se le asignan una dirección, que es un nombre que identifica una unidad particular de entre todas las unidades de memoria. Por lo general esta dirección es numérica. Una dirección se denomina localidad y el contenido de una localidad son los valores de los bits que forman la unidad que esta en la localidad.
La computadora sabe interpretar los patrones de bits en ciertas configuraciones como enteros binarios porque el hardware que ejecuta tal instrucción particular esta diseñado para hacerlo
¿QUÉ ES UNA ESTRUCTURA DE DATOS?
Cuando hablamos de tipos de datos básicos nos referimos a un conjunto de valores más sus operaciones asociadas, por ejemplo, dentro del computador un número entero se representa con un par de bytes (16 bits), con ello, sólo puede almacenar valores en un rango de [-2 16/2, +216/2] y disponer de los operadores aritméticos: +, -, *, / y mod. Extendiendo el concepto, si agrupamos un conjunto de valores de igual o distinto tipo de dato básico y enseguida definimos la manera de cómo operar sobre ellos, es decir, sus métodos de acceso, estaríamos en presencia de una ESTRUCTURA DE DATOS.
La definición de una Estructura de Datos posee un primer nivel de abstracción en donde simplemente se identifica la colección de elementos a agrupar y sus operaciones de acceso. En un segundo nivel, el de implementación, ya pensamos en un lenguaje de programación específico y es ahí donde surgen preguntas como ¿cuál es la estructura óptima? o ¿qué funciones y/o procedimientos definir?
Ejemplo: Suponga que se necesita implementar un juego entretenido para 2 jugadores.

Aplicaciones o programas informaticos




Programa informático

ComputerprogrammD
Un programa informático es una serie de comandos ejecutados por el equipo. Sin embargo, el equipo sólo es capaz de procesar elementos binarios, es decir, una serie de 0s y 1s. Por lo tanto, necesitamos un lenguaje de programación para escribir de manera legible, es decir, con comandos que el ser humano pueda comprender (por ser similares a su propio lenguaje) los comandos que el equipo deberá ejecutar.
Estos programas se traducen después a un lenguaje máquina (en binario) a través de un compilador.
El método de escritura de un programa está muy ligado al lenguaje de programación elegido, ya que existen muchos tipos distintos. Además, el compilador debe coincidir con el lenguaje elegido: cada lenguaje de programación tiene su propio compilador (excepto los lenguajes interpretados).
En términos generales, el programa es un simple archivo de texto (escrito usando un procesador o editor de texto), llamado archivo fuente).
El archivo fuente contiene líneas de programa llamadas código fuente. Este archivo fuente, debe compilarse una vez completado. La compilación se realiza en dos pasos:
  • El compilador transforma el código fuente en código objeto y lo guarda en un archivo objeto, es decir que traduce el archivo fuente a lenguaje máquina (algunos compiladores también crean un archivo en ensamblador, un lenguaje similar al lenguaje máquina ya que posee las funciones básicas, pero puede ser leído por los seres humanos.
  • Luego, el compilador llama a un editor de vínculos (o ensamblador) que permite insertar los elementos adicionales (funciones y bibliotecas) a los que hace referencia el programa dentro del archivo final, pero que no se almacenan en el archivo fuente. 
    A continuación, se crea un archivo ejecutable que contiene todos los elementos requeridos por el programa para funcionar de manera independiente (en Microsoft Windows o MS-DOS este archivo tendrá la extensión .exe).




El software de aplicación es el que se utiliza en una computadora para realizar las tareas que son útiles para los usuarios.
A diferencia del software del sistema que sirve para relacionar al usuario con la computadora, el software de aplicación hace que la computadora realice las tareas propias del usuario.
El software de aplicación es desarrollado para ser independiente del hardware y no requiere de conocimientos especializados del hardware en el cual se ejecuta.

10 Ejemplos de Software de Aplicación:

  1. Los Procesadores de texto como Word, Bloc de Notas.
  2. Editores de imágenes como Adobe Fireworks, o Adobe Photoshop.
  3. Sistemas Administradores de Bases de Datos (Oracle, SQL Server, Informix).
  4. Editores de Páginas Web, Adobe Dreamweaver.
  5. Editores de Lenguaje de programación Visual Studio PHP Edit.
  6. Programas de Contabilidad como Contavisión.
  7. Programas de Administración de Empresas como ASPEL o SAP.
  8. Programas de Gestión de relaciones con clientes como los CRM’s.
  9. Programas de Gestión de proyectos como MS Project.
  10. Programas de Diseño asistido por computadora como Auto CAD.

Oh Viviendo en una computadora

¿EN SERIO VIVIMOS DENTRO DE UNA COMPUTADORA?
ESTE CIENTÍFICO DE LA NASA CREE QUE ESTO PUEDE SER CIERTO.

                       
es.dreamstime.com                                      janicle.wordpress.com

                                                             
Por Ben Makuch.

Hace dos años, Rich Terrile apareció en Through the Wormhole [A través de los agujeros de gusano], un programa en el en el Science Channel en Estados Unidos sobre los misterios de la vida y el universo. Lo invitaron al programa para discutir la teoría de que la experiencia humana se puede reducir a una versión metafísica e increíblemente avanzada de The Sims.

Es una idea que todo universitario con un bong y el DVD de The Matrix ha tenido, pero Rich es un científico reconocido, director del Centro de Computación Evolutiva y Diseño Automatizado en el Laboratorio de Propulsión a Chorro de la NASA, y actualmente está escribiendo un libro sobre el tema, así que planeamos tomarnos lo que él diga en serio.

En esencia, la teoría de Rich dice que un “programador” del futuro diseñó nuestra realidad para simular lo que –según el programador– fue la historia; y esto lo hizo por alguna razón aún desconocida, quizá porque estaba aburrido.

Según la Ley de Moore, la cual dice que el poder de cómputo se duplica aproximadamente cada dos años, todo esto será teoréticamente posible en el futuro. Tarde o temprano, llegaremos a un punto en el que simular a miles de millones de personas (y hacerlas creer que son seres conscientes con la habilidad para controlar su destino) será tan fácil como enviar una foto de tus genitales a un completo extraño desde tu celular.

Esta hipótesis (cuyas múltiples variantes han existido durante siglos) se está convirtiendo en el tema de moda para los filósofos, y gente como Nick Bostrom, director del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, se toman la premisa muy en serio.

Hasta hace poco, el argumento de la simulación no había llamado la atención de los investigadores tradicionales. No digo que haya sido el primer científico en predecir nuestra habilidad para ejecutar simulaciones realistas (entre otros, Ray Kurzweil lo hizo en su libro La era de las máquinas espirituales, en 1998), pero sí es uno de los primeros en proponer que quizá ya estemos viviendo dentro de una. Rich incluso fue más allá e intentó probar sus teorías a través de la física, con cosas como la pixelación que se puede observar en la materia más pequeña y las extrañas similitudes entre la mecánica cuántica, las reglas matemáticas que gobiernan nuestro universo, y la creación de los escenarios en los videojuegos.

Sólo piénsalo: cada que la cagas en algo, podría ser que hay una versión intergaláctica de un adolescente coreano y obeso controlando tu personaje y gritando grita “¡Mierda!” en la diadema de su Xbox. Eso pone todo en perspectiva, ¿no?

VICE: ¿Cuándo fue la primera vez que se te ocurrió que podríamos ser una simulación por computadora?
Rich Terrile: A menos que creas que la conciencia tiene algo mágico (y yo no, yo creo que es el producto de una arquitectura muy sofisticada dentro del cerebro humano), entonces tienes que asumir que en cierto punto podrá ser simulada por una computadora, o en otras palabras, replicada. Habrá dos formas de crear un cerebro artificial en el futuro. Una de ellas sería tratar de recrear su funcionamiento de afuera hacia adentro, pero creo que sería mucho más fácil desarrollar algún tipo de circuito que pudiera cobrar conciencia. Quizá en los siguientes diez o treinta años podremos incorporar una conciencia artificial a nuestras máquinas.

¿Llegaremos a ese punto tan rápido?
En este momento las supercomputadoras más rápidas de la NASA trabajan al doble de la velocidad del cerebro humano. Si haces un cálculo simple usando la Ley de Moore, verás que estas supercomputadoras, en la siguiente década, podrán simular una vida completa de 80 años (incluyendo todos los pensamientos que alguien pueda tener en ese tiempo) en un mes.

Que depresión.
Eso no es todo: calculamos que en 30 años un PlayStation (sacan un nuevo PlayStation cada seis u ocho años, así que este sería el PlayStation 7) podrá reproducir diez mil vidas humanas al mismo tiempo y en tiempo real, o una vida humana en una hora.

¿Cuántos PlayStations hay en el mundo? Definitivamente más de cien millones. Piénsalo, cien millones de consolas, cada una con diez mil vidas humanas dentro. Eso quiere decir que para ese entonces, conceptualmente hablando, podrías tener más humanos viviendo dentro de PlayStations que humanos viviendo en la tierra.

¿Entonces existe la posibilidad de que en este momento estemos viviendo dentro de un videojuego superavanzado en la consola de nerd?
Exacto. La cosa es cómo saber que no estamos en ese futuro y que no somos una de estas simulaciones. Permíteme retroceder un poco. Como científicos, ponemos los procesos físicos en un marco matemático, o en una ecuación. El universo se comporta de una forma muy particular porque obedece a las matemáticas. Einstein dijo: “Lo más incomprensible del universo es que es comprensible”. El universo no tiene que funcionar de esa manera. Puedo escribir algunas hojas de ecuaciones y eso es suficiente información para simularlo.

La otra cosa interesante es que el mundo natural se comporta exactamente como el mundo dentro de Grand Theft Auto IV. En el juego, puedes explorar Liberty City sin problema y ver el mundo con gran detalle. Hice los cálculos para determinar qué tan grande es esa ciudad, y resulta que es un millón de veces más grande que mi PlayStation 3. Ves exactamente lo que necesitas ver de Liberty City cuando necesitas verlo, y tiene todo el universo del juego en una consola. El universo se comporta de la misma manera. En la mecánica cuántica, las partículas no tienen un estado definido a menos de que alguien las esté observando. Muchos teóricos han pasado mucho tiempo intentando explicar por qué pasa esto. Una explicación es que vivimos en una simulación, y vemos lo que necesitamos ver, cuando necesitamos verlo.

Eso explicaría por qué hay reportes de científicos que observan pixeles en las imágenes microscópicas más pequeñas.
Exacto. El universo también está pixeleado en el tiempo, el volumen, la energía y el espacio. Hay una unidad fundamental que no puedes descomponer en nada más pequeño, lo que quiere decir que el universo está hecho de un número finito de estas unidades. Esto también quiere decir que sólo hay un número finito de cosas que el universo puede ser; no es infinito, es computable. Y si sólo se comporta de una manera finita cuando está siendo observado, entonces la pregunta es: ¿está siendo computado? También está el paralelo matemático. Si dos cosas son matemáticamente equivalentes, son lo mismo. Así que el universo es matemáticamente equivalente a la simulación del universo.

¿Juegas videojuegos?
Sí, y he jugado The Sims, pero esta teoría fue el resultado de combinar varias cosas. Soy un científico planetario, así que pienso mucho en el futuro de la tecnología y a dónde nos podría llevar. También hago mucha computación evolutiva e inteligencia artificial, y trabajo con la naturaleza de la conciencia. Además, empecé a pensar en la religión, o en lo que crees sobre el universo si eres ateo, lo cual implica que tienes que creer que hay una historia alterna sobre los origenes del universo, independiente de un creador todopoderoso. Y tenemos una muy buena: el Big Bang. Pero también tienes que pensar en la ingeniería, y si un creador podría existir en nuestro universo actual. ¿Cuáles serían los requerimientos de dicho creador? Después de pensarlo, me di cuenta que el creador de un universo es capaz de cambiar las leyes de la física y crear el universo que quiera, lo cual yo puedo hacer en una computadora. De hecho, quizá lo pueda hacer pronto con seres conscientes.

¿Seres con los que podrías interactuar?
Quizá, o quizá simplemente los deje ser. Vivirían sus vidas en un tiempo increíblemente corto. Quizá podría cambiar las leyes de la física. Podría hacer que vivan en lugares normales y en lugares inhóspitos. Podría decidir que estuvieran completamente solos; quizá esa sea una de las condiciónes que nos hayan impuesto a nosotros, y eso explicaría por qué no hay aliens.

Te ves muy tranquilo con esta idea. La primera vez que escuché tu teoría quedé sorprendido, pero también intrigado.
Me parece una fuente de inspiración, y te diré por qué: dice que estamos a punto de poder crear un universo (una simulación), y que nosotros podríamos estar viviendo dentro de una simulación, que a su vez podría ser otra simulación. Y nuestras simulaciones podrían a su vez crear otras simulaciones. Lo que me parece interesante es que, si hay un creador, y en el futuro el creador seremos nosotros, significa que somos Dios y sirvientes de Dios, y que nosotros lo hicimos todo.  Lo que me parece inspirador es que, aunque estemos en una simulación o en un nivel más profundo de una simulación, en algún momento algo se escapó de esa materia fundamental y se convirtió en nosotros y en simulaciones que nos hicieron a nosotros. Y eso es genial.


Viviendo con Computadoras

Explicaciones

No es preciso ser un informático para trabajar con una computadora. Pero sus posibles encuentros con la tecnología tendrán más sentido si comprendes algunos conceptos básicos.
Las computadoras están evolucionando a pasos agigantados, y mucho del hardware y del software cambia de año en año. Y no nos olvidemos del internet, que está cambiando aun más de prisa, hay quien piensa que un año normal equivale a varios años de Internet  una frase acuñada por el cofundador de Intel, Andy Grove. pero una gran parte de los conceptos subyacentes permanecen constantes aunque las computadoras y las redes cambien. Si comprende lo básico, comprobará que es más sencillo entender estos cambios.


Decidimos comúnmente que estamos en la era de las computadoras, porque éstas han sido perfeccionadas y se han proliferado especialmente durante esta última década con la amplia utilización de la electrónica. Y lo cierto es que en la actualidad se han llegado a convertir en herramientas obligadas en todas las ramas de la ciencia, el comercio y la industria... y, ¿por qué no?, también se han hecho necesarias en el hogar para manejar la contabilidad, archivar ordenadamente múltiples datos, llevar a cabo tareas que consumen mucho tiempo, contestar correspondencia y hasta como medios de distracción, en la forma de juegos de video.

UN MUNDO SIN TECNOLOGIA

¿ALGUNA VEZ SE HA IMAGINADO USTED HABITANDO EN UN MUNDO SIN COMPUTADORAS?

Esta pregunta resulta difícil de responder cuando actualmente este elemento es indispensable en cada una de nuestras actividades diarias. La computadora es una maquina que realiza cálculos a gran velocidad, procesa datos y problemas complejos para determinar una decisión, realiza tareas mecánicas siendo tan efectiva que a pesar de estar programadas para ello resulta sorprendente el desempeño que día a día se observa durante cada avance tecnológico, donde la realización de su programación y contenidos resulta ser compleja, pero definitivamente es un elemento extraordinario que ha permitido al hombre deshacerse de actividades rutinarias y exhaustivas porque ya cuenta con una herramienta, el computador.
Las computadoras día a día son tan complejas por su continua renovación, y desde su aparición han cumplido la misión de procesar la información y ordenarla para suplir las necesidades del usuario, estas computadoras se han clasificado en distintas generaciones con actualizaciones en cada modelo y clasificadas de acuerdo a los componentes electrónicos que las complementan.
Desde la primera generación donde el acceso de las computadoras era solo para grandes empresas por su volumen y costo, pasando por la segunda generación donde se reduce el volumen de los equipos y se incursiona en lenguajes de programación que dieron valor agregado y se abarca un gran número de nuevos usuarios por la transformación del lenguaje, el acceso se hace más cercano en la tercera generación donde hacen aparición los microprocesadores permitiendo una diminución amplia en volúmenes y costos con un funcionamiento más preciso y veloz de lenguaje de programación avanzado y dinámico.
Este acelerado avance tecnológico permitió que en la cuarta generación con un lenguaje de programación macro más robusto se permite el acceso a la información entre computadores acercando más a nuestros días con la quinta generación donde se hace apertura a programas de inteligencia artificial con acceso de información veloz, procesamiento efectivo y grafico, convirtiéndose en la herramienta para cada una de las tareas diarias, ya sea en le hogar o en el trabajo, ayudando al aprendizaje y formación de las personas desde corta edad, con lenguajes amables a la vista y de funcionalidad más clara y precisa y lo mejor en equipos de peso liviano y tamaños impensables para todo el potencial que tienen para explotar.
Es por lo anterior que resulta difícil pensar que podríamos hacer todo lo que hacemos ahora sin contar con una herramienta como una computadora que ahora se ha convertido en una herramienta de bolsillo, donde se tiene acceso en todo lugar a toda hora y con complementos informáticos que permiten que hablemos con alguien a muchos kilómetros de distancia en solo milésimas de segundo y tengamos acceso a lo que sucede al otro lado del mundo.
Imaginar un mundo sin computadoras hace que valoremos más los avances de la tecnología y explotemos el potencial que tenemos en esta herramienta al alcance de la mano, en cada computadora siempre encontraras algo nuevo por conocer y explorar.





martes, 20 de agosto de 2013

EL MICROPROCESADOR

INTRODUCCION
El microprocesador es uno de los logros más sobresalientes del siglo XX. Esas son palabras atrevidas, y hace un cuarto de siglo tal afirmación habría parecido absurda. Pero cada año, el microprocesador se acerca más al centro de nuestras vidas, forjándose un sitio en el núcleo de una máquina tras otra. Su presencia ha comenzado a cambiar la forma en que percibimos el mundo e incluso a nosotros mismos. Cada vez se hace más difícil pasar por alto el microprocesador como otro simple producto en una larga línea de innovaciones tecnológicas.
Ninguna otra invención en la historia se ha diseminado tan aprisa por todo el mundo o ha tocado tan profundamente tantos aspectos de la existencia humana. Hoy existen casi 15,000 millones de microchips de alguna clase en uso (el equivalente de dos computadoras poderosas para cada hombremujer y niño del planeta). De cara a esa realidad, ¿quién puede dudar que el microprocesador no sólo está transformando los productos que usamos, sino también nuestra forma de vivir y, por último, la forma en que percibimos la realidad?
No obstante que reconocemos la penetración del microprocesador en nuestras vidas, ya estamos creciendo indiferentes a la presencia de esos miles de máquinas diminutas que nos encontramos sin saberlo todos los días. Así que, antes de que se integre de manera demasiado imperceptible en nuestra diaria existencia, es el momento de celebrar al microprocesador y la revolución que ha originado, para apreciar el milagro que es en realidad cada uno de esos chips de silicio diminutos y meditar acerca de su significado para nuestras vidas y las de nuestros descendientes.
2. ¿Que es un microprocesador?
El microprocesador es la parte de la computadora diseñada para llevar acabo o ejecutar los programas. Este viene siendo el cerebro de la computadora, el motor, el corazón de esta máquina. Este ejecuta instrucciones que se le dan a la computadora a muy bajo nivel haciendo operaciones lógicas simples, como sumar, restar, multiplicar y dividir. El microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip.


  • 1971: MICROPROCESADOR 4004

El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.

  • 1972: MICROPROCESADOR i8008


Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
  • 1974: MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.
  • 1978: MICROPROCESADOR 8086-8088

Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno deLos triunfos comerciales de los sesenta.
  • 1982: MICROPROCESADOR 286

El 286, también conocido como el 80286, era el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de su introducción, había un estimado de 15 millones de 286 basados en computadoras personales instalados alrededor del mundo.
  • 1985: EL MICROPROCESADOR INTEL 386



El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que empplearan memoria virtual.
  • 1989: EL DX CPU MICROPROCESADOR INTEL 486

La generación 486 realmente significó que el usuario contaba con una computadora con muchas opciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj.
  • 1991: AMD AMx86

Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586
  • 1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). 
  • 1995: PROCESADOR PENTIUM PROFESIONAL

Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.
  • 1996: AMD K5

Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. MD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. 
  • 1997: PROCESADOR PENTIUM II


El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. 
  • 1996: AMD K6 Y AMD K6-2

Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar.