domingo, 29 de abril de 2012

Computación Cuántica: Definición, Origen y Cronología

Definición:


La informática cuántica descansa en la física cuántica sacando partido de algunas propiedades físicas de los átomos o de los núcleos que permiten trabajar conjuntamente con bits cuánticos (en el procesador y en la memoria del ordenador. Interactuando unos con otros estando aislados de un ambiente externo los bits cuánticos pueden ejecutar cálculos exponenciales mucho más rápidamente que los ordenadores convencionales

Origen: 

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).
Cronología

Años 80

Empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.

1981 - Paul Benioff
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.

1981-1982 Richard Feynman
El Dr. Richard Feynman, físico, dio una charla en la cual proponía el uso de fenómenos cuánticos para realizar cálculos computacionales.

1985 - David Deutsch
Este físico israelí describió el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico.


Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de realizar cálculos cuánticos.



1993 - Dan Simon
Surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional.

1993 - Charles Benett
Descubrió el teletransporte cuántico, que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.

1994-1995 Peter Shor
Este científico estadounidense definió el algoritmo que lleva su nombre y que permite calcular los factores primos de números a una velocidad mucho mayor que en cualquier computador tradicional.

1996 - Lov Grover
Inventó el algoritmo de búsqueda de datos que lleva su nombre

1997 - Primeros experimentos
Se iniciaron los primeros experimentos prácticos, como el primer experimento de comunicación segura usando criptografía cuántica se realiza con éxito a una distancia de 23 Km.

1998 - 1999 Primeros Qbit
Investigadores consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit.


Año 2000 Hasta Haora 


2000 - Continúan los progresos
IBM creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones.

2001 - El algoritmo de Shor ejecutado
IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. 

 2005 - El primer Qbyte
Se creó el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 - Mejoras en el control del cuanto
Científicos diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.

2007 - D-Wave
La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit. Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y un algoritmo que soluciona Sudokus. Todo ello a través de una interfaz gráfica similar a la utilizada en los computadores actuales.

2007 - Bus cuántico
Se consigue unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica.

2008 - Almacenamiento
Un equipo de científicos consiguió almacenar por primera vez un Qubit en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos.

2009 - Procesador cuántico de estado sólido
El equipo de investigadores que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos.



jueves, 26 de abril de 2012

Evolución Futura De Los Ordenadores

Evolucion Futura 


Una tendencia constante en el desarrollo de los ordenadores es la microminiacturizacion, iniciativa que tiende a comprimir mas elementos de circuitos en un espacio de chip cada vez mas pequeño.
Ademas, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas mas bajas.


Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas, ademas la creación del ordenador de proceso paralelo y que puedan realizar varias tareas a la vez.  


martes, 24 de abril de 2012

Elementos Fisicos Y Logicos De Un Computador

Elementos Físicos:


Hardware: Todos aquellos componentes físicos de una computadora, todo lo visible y tangible. Algunos componentes Físicos del Hardware son: 


Teclado: Dispositivo de entrada mas comúnmente utilizado que encontramos y que sirve para digitar en el computador.


Mouse: Es arrastrado a lo largo de una superficie para maniobrar un apuntador en la pantalla del monitor y es el segundo dispositivo de entrada mas utilizado.


CPU: Es el responsable de controlar el flujo de datos y de la ejecución de las instrucciones de los programas sobre los datos y es el cerebro de la computadora.


Memoria Rom: de solo lectura en la cual se almacena ciertos programas e información que necesita la computadora, las cuales están grabadas permanentemente y no pueden ser modificadas por el programador.


Memoria Ram: Memoria de acceso aleatorio, la utiliza el usuario mediante sus programas, y es volátil. La memoria del equipo permite almacenar datos de entrada, instrucciones de los programas que están ejecutando en ese momento, los datos, resultados del procesamiento y los datos que se preparan para la salida. Los datos proporcionados a la computadora permanecen en el almacenamiento primario hasta que se utilizan en el pensamiento. Durante el procesamiento, el almacenamiento primario almacena los datos intermedios y finales de todas las operaciones aritméticas y lógicas.


Impresora: Dispositivo que imprime textos o gráficos de el computador.


Monitores: Es el dispositivo de salida mas común. Hay algunos que forman parte del cuerpo de la computadora y otros están separados, permite ver las acciones o los procedimientos que estas haciendo en la computadora.


Software: Es el soporte lógico e inmaterial que permite que la computadora pueda desempeñar tareas inteligentes, dirigiendo a los componentes físicos o hardware con instrucciones y datos a través de diferentes tipos de programas algunos de sus componentes son:


Sistema Operativo: Es el encargado de ejercer el control y coordinar el uso del hardware entre      
diferentes programas de aplicación y los diferentes usuarios.


Ms  Word: Programa que permite hacer todo tipo de textos escritos.


Antivirus: Programas cuyo objetivo es detectar y o eliminar virus informáticos  




Generaciones del Computador (1-2-3-4-5-6-7-8)

Generación 1


La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era base de bulbos, o tubos de vació, y la comunicación era en términos de nivel mas bajo que puede existir, que se conoce como lenguaje de maquina.


Características 


* Estaban construidos con electrónica de válvulas.
* Se programaban en lenguaje de maquina.  




Generación 2


La segunda generación de los transistores reemplazo a las válvulas de vacío por los circuitos de los computadores.


Los computadores de la segunda generación ya no son de válvulas de vacío, si no con transistores, son mas pequeñas y consumen menos electricidad que los anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes mas avanzados que el lenguaje de la maquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.





Generación 3


A mediados de los años sesenta se produjo la invencion del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Despues llevo a Ted Hoff a la invencion del 
Microprocesador, en Intel. A  finales de 1960, investigadores como George Gamow noto que las secuencias de nucleotidos en el ADN forman un codigo, otra forma de codificar o programar.


A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o en capsulado, que contenía en su interior un circuito complemento: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips ( circuitos integrados ) era mucho mas facil montar aparatos complicados: receptores de radio o televisión y computadoras. 


En 1965 y, IBM anuncio el primer grupo de maquinas construidas con circuitos integrados, que recibio el nombre de serie edgar.


Estas computadoras de tercera generacion sustituyeron totalmente a los de la segunda, introduciendo una forma de programar que aun se mantiene en las grandes computadoras actuales.


Esto es lo que ocurrio en (1964 - 1971) que comprende la tercera generacion de las computadoras.


* Menor consumo de energía 
* Apreciable reducción del espacio 
* Aumento de fiabilidad
* Teleproceso 
* Multiprogramacion 
* Renovacion de perifericos 
* Minicomputadoras, no tan costosas y gran capacidad de procesamiento. Algunas de las               mas populares fueron la PDP-8 y la PDP-11
* Se Calculo (numero pi) con 500.000 decimales.





Generación 4 


La denominada cuarta generacion (1971 entre otros) es el producto de la microminiaturizacion de los circuitos electronicos. El tamaño reducido del microprocesador de chips hizo posibles la creación de los computadores personales (PC).
Hoy en día las tecnologías LSI (Integración a gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la 1 generación que ocupaba un cuarto completo. Hicieron su gran debut las micro-computadoras.


 

Generación 5 


También conocida por siglas en ingles, FGCS ( The Fith Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras, que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano de hardware, como el software. Usando el lenguaje Prolog (234) al nivel del lenguaje de maquina y serian capaces de resolver problemas complejos, como la traducción automática de una lengua a otra.


  

Generacion 6


Las computadoras de esta generación cuentan con arquitecturas combinadas paralelo vectorial, con cientos de microprocesadores vectoriales trabajando a tiempo.


Las redes de área mundial seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.






Generacion 7


Comienza el año 1999 donde popularizan las pantallas LCD 2 y hacen a un lado a los rayos catodicos, en donde se han dejado los DVD y los formatos de disco duro optico.


la generacion de almacenamiento de datos de alta densidad con una capacidad de almacenamiento que llega a los 50 GB, aunque se ha confirmado que esta lista puede recibir 16 capas de 400 GB.


La septima generacion en las computadoras ha llegado a reemplazar la tv y los equipos de sonido, ya que ha logrado un alcance digital por medio de la capacidad de los discos duros que esta avanzando tan rapidamente. en donde se convierte en un centro de entretenimiento.




Generacion 8


Los dispositivos físicos y mecánicos van a desaparecer osea el disco duro y las tarjetas madre etc.
ya todo sera a base de nanotecnologia. Un disco duro esta limitado en velocidad al tener que estar escribiendo en placas. Pero las nuevas Seran orgánicas a base de impulsos electromagnéticos.






















lunes, 23 de abril de 2012

Origen, historia y evolución de los computadores


Origen


La computadora nació como herramienta para simplificar y acelerar el engorroso proceso de los cálculos,en especial de aquellos complejos,como la multiplicación y división de cifras elevadas, la extracción de raíces, el calculo de trayectorias, y operaciones semejantes. Por lo tanto entre los antecedentes a citar se encuentran números adminiculos y personas que precedieron a la que se considera estrictamente el primer computador. Por lo tanto, son de particular interés el ábaco, la invención de los logaritmos por parte de John Napier y sus "huesos de Napier", Blass Pascal con su Pascalina, Joseph Marie Jac Quard, Charles Babbage y su maquina analitica, Lovelace, Primera Programadora, Herman Hollevithu y John Atanasoff, entre otros, Konrad Zuce, quien invento las Primeras Computadoras Programables en 1941; sin embargo, su escasa repercusión afuera de Alemania minimizo su gran inventiva. 


Historia 


la computadora es un invento joven de no mas de un siglo. Sin embargo es el resultado de múltiples creaciones e ideas de diversas personas a lo largo de varios años: por un lado el Abaco, que fue uno de los primeros dispositivos mecánicos para contar, por otro lado la Pascalina inventada por Blaise Pascal y después perfeccionada por Gottfried Wilhelm Von Levis, permitía realizar cálculos de manera mecánica por medio de engranajes, y también, la Targeta Perforada asumió un papel importante en la computación.
en 1882 charles babbage inventa una "maquina diferencial", que realiza cálculos de tablas simples. Diez años mas tarde diseña "la maquina analítica" , que no fue construida hasta 1989. Esta maquina poseía elementos que influyeron en las subsiguientes computadores: Flujo de entrada, memoria, procesador e impresora de datos. . Por esto Babbage es considerado "Padre de las computadoras Modernas"
En 1944 se construye la Mark 1, diseñada por un equipo encabezado por Howard H. Aiken. la maquina basa su funcionamiento en dispositivos electromagnéticos llamados Reveladores.


Van Neumann es otro personaje importante ya que proyecta el Prototipo de los modernos procesadores electrónicos. El prototipo se basa en el concepto de Programa Memorizado.


A partir de la mitad del siglo xx el desarrollo de la computadora es mayor y mas rápido. Este desarrollo se suele dividir en Generación.


Evolución De Los Computadores


1939: Se crea la primera computadora 
Características: 


Estaba construida con electrónica de válvulas.  


Se Programaba en lenguaje de maquina 
   
1942: Pascal invento un Calculador Mecánico


Definicion: es un objeto o sistema de computo y calculacion que basa su funcionamiento en un principio mecánico para devolver los resultados de una operación aritmética


1947: Se crea la Eniac 


Definición: Es un acronimo de Electronic Numerical Integrator And Computer ( computador e integrador numérico electrónico), utilizada por el Laboratorio De Investigación Balística  del Ejercito De Los Estados Unidos.


1948: se crea el Transistor 


Definición: Es un Dispositivo Electrónico Semiconductor que cumple funciones de Amplificador, oscilador , conmutador o rectificador. El termino "transistor" es la contracción en  ingles de Transfer Resistor (resistencia de transferencias) actualmente se encuentran prácticamente en todos los aparatos: electrónicos de uso diario: Radios, televisores, reproductores de audio y vídeo, relojes de cuarzo, computadoras etc. 


1951: Se crea la Univac 1 


Definición: La univac1 ( Universal Automatic Computer 1 computadora automática universal 1
fue la primera computadora comercial fabricada en estados unidos. Fue diseñada principalmente por J. Presper Ecker y John Wiliam Mauchly, también autores de la segunda computadora electrónica estadounidense, la Eniac. Durante los años previos a la aparicion de sus sucesores, la maquina fue simplemente conocida como "UNIVAC". Se dono a la universidad de Hardvarck y Pensilvania. Fue la primera computadora fabricada para un proposito no militar, desde el año 1951 


1958: Los computadores son Transistores


* la segunda generación de transistores remplazo a las válvulas de vacío por los circuitos de las computadoras.


* las computadoras de la segunda generación ya no son de válvulas de vacío, si no con transistores, son mas pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguaje de maquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación. 


1960 - 1970: Uso de Circuitos Integrados: 


Definicion: Los circuitos integrados son unos pequeños circuitos electrónicos fabricados son una función especifica como pueden ser: Operaciones aritméticas, Funciones Lógicas, Amplificación, Codificación, Decodificacion, Controladores Etc. 


Estos circuitos integrados por lo general se combinan para formar sistemas mucho mas complejos que pueden ser desde una calculadora, un reloj digital, un vídeo juego, hasta una computadora, etc 


1971: Revolucion del Microprocesador 


Definicion: Es el circuito integrado central y mas complejo de un sistema informático; a modo de ilustración, suele ser asociado por analogía como el "cerebro de un computador". es un circuito integrado constituido por millones de componentes electrónicos. Construyen la unidad central del pensamiento de la (cpu) de un pc catalogado como micro computador. 


1980: Hoy (Nuevas Tecnologias)


Cuatro Nuevas Tecnologias


* i pad 
* tablets 
* Mc Books 
* papel electronico etc 
Nuevas Tecnologías De Computación.


Primer Computador.


Definición de Ordenador o Computador 


Es una maquina electrónica que recibe y procesa datos para convertirlos en información útil.


Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones practicas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador.     


Evolución,Avance e Impacto De La Tecnologia!

Evolución,Avance e Impacto De La Tecnología 


Concepto De Informática


conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores.


Informática


la informática se entiende como el resultado de los términos informáticos y automatización.
Trata de la concepción, realización y utilización de los sistemas para el pensamiento de la información.


"Informática es la ciencia que estudia el tratamiento automático y racional de la información".
Se dice que el tratamiento es automático por ser maquinas las que realizan los trabajos de captura, proceso y presentación de la información y se habla de racional por estar todo el proceso definido a través de programas que siguen en racionamiento humano.


Conceptualmente la informática, se puede entender como aquella disciplina encargada de los métodos, técnicas, procesos,desarrollos, su utilización en ordenadores, con el fin de almacenar, procesar y transmitir información y datos en formato digital.


Podemos entender el concepto de informática como aquella ciencia encargada de estudiar los ordenadores y su capacidad para procesar y almacenar información y datos.


Tecnologías de la información


es el conjunto de tecnologías que permiten el tratamiento automatizado de la información.
En la informática interactuan los fundamentos de la ciencia de la computación, la programación y metodologías para el desarrollo de software 


software: Programa del computador, la arquitectura, las redes de los computadores, la inteligencia artificial y siertas cuestiones relacionadas con electrónica.
Una de las aplicaciones mas importantes de la informática es proveer información en forma oportuna y veraz,lo cual facilita la toma de decisiones a nivel gerencial y empresarial.


Funciones principales de la informática


A: Creación de nuevas especificaciones de trabajo 


B: Desarrollo e implementacion de sistemas informáticos


C: Sistematizacion  de procesos de optimizacion de los métodos y sistemas informáticos existentes  

D: Sistemas de tratamiento de la información


E: Los sistemas camputacionales generalmente implementados como dispositivos electrónicos permiten el procesamiento automático de la información. Con forme a ella los siguientes tres Tareas Básicas


1: Entrada: Mouse
teclado
scaner 


2: Procesos: CPU 


3: Salida: Impresora, Pantalla, Parlantes.