Computacion Cuantica

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 27

0

“AÑO DE LA CORRUPCION E IMPUNIDAD”

UNIVERSIDAD NACIONAL DEL CALLAO

FACULTAD INGENIERIA INDUSTRIAL Y DE

SISTEMAS

ESCUELA INGENIERIA DE SISTEMAS

TEMA:COMPUTACION CUANTICA
ALUMNA:

HUAMANI VEGA SUGEY

DOCENTE:

VILCHEZ INGA CESAR

2019
1

INDICE
1.

-INTRODUCCION.....................................................................................................................................2

2.-LA EVOLUCIÓN DE LA COMPUTACIÓN CUÁNTICA....................................................................5

3.-COMPUTACIÓN CUANTICA...........................................................................................................15

4.-CONCEPTO..........................................................................................................................................15

5.-CARACTERISTICAS...........................................................................................................................15

6.-ORIGEN Y EVOLUCIÓN....................................................................................................................16

7.-FUNCIONAMIENTO DE LA DE LA COMPUTACION CUANTICA……………………………...16

8.-PROBLEMA DE LA COMPUTACION CUANTICA……………………………………………..…17

9.-HARDWARE PARA COMPUTADORA CUANTICA……………………………………................18

10,-PROGRAMAS DE COMPUTACION……………………………………………………………….20

11.-APLICACIÓN DE L COMPUTADORA CUANTICA…………………………………………...…21

Machine Learning......................................................................................................................22

Optimización..............................................................................................................................22

Simulaciones biomédicas...........................................................................................................23

Servicios financieros...................................................................................................................23

Industria Química......................................................................................................................23

Ciencia de los Materiales...........................................................................................................23


2

INTRODUCCION

Hacia el inicio de la década de los 60, Rolf Landauer comenzó a preguntarse si las leyes
físicas imponían algunas limitaciones al proceso de cómputo. En concreto se interesó sobre el
origen del calor disipado por los ordenadores y se preguntó si este calor era algo inherente a las
leyes de la física o se debía a la falta de eficiencia de la tecnología disponible.

Rolf W. Landauer (4 de febrero de 1927 - 28 de


abril de 1999). "En toda operación lógicamente
irreversible que manipula información, como la
reinicialización de memoria, hay aumento de
entropía, y una cantidad asociada de energía es
disipada como calor". Este principio es relevante
en informática reversible y en informática
cuántica.

El tema parece realmente interesante si recordamos que uno de los problemas de los
actuales ordenadores de alta velocidad es la eliminación del calor producido durante su
3

funcionamiento. Por otra parte, a medida que evoluciona la tecnología aumenta la escala de
integración y caben más transistores en el mismo espacio.

Cada vez se fabrican microchips más pequeños ya que, cuanto más pequeño es el
dispositivo, mayor velocidad de proceso se alcanza. Sin embargo no podemos hacer los chips
infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se
llega a la escala de nanómetros los electrones se escapan de los canales por donde deben
circular por el llamado "efecto túnel", un fenómeno típicamente cuántico. Así, y dicho de forma
un tanto grosera, si una partícula clásica se encuentra con un obstáculo, lo normal es que no
pueda atravesarlo y rebote. Pero los electrones son partículas cuánticas y presentan
comportamiento ondulatorio; por ello, existe la posibilidad de que una parte de tales electrones
pueda atravesar las paredes entre las que están confinados. De esta manera la señal puede pasar
por canales donde no debería circular y el chip deja de funcionar correctamente.
4

Efecto túnel. La parte superior de la figura representa la situación descrita por la


física clásica. La parte inferior de la figura representa la situación que describe la
física cuántica.

En este contexto la computación digital tradicional no debe estar muy lejos de su límite,
puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Estas reflexiones
iban a ser el germen de las actuales ideas acerca de la computación cuántica y acerca de los
ordenadores cuánticos.

La Evolución de la Computación Cuántica

Las ideas esenciales de la computación cuántica surgieron en los primeros años de la década de
1980 de la mente de Paul ordenadores tradicionales (máquinas de Turing) a los que hacía operar
con algunos de los principios fundamentales de la mecánica cuántica. Entre 1981 y 1982 Richard
Feynman proponía el uso de fenómenos cuánticos para realizar cálculos computacionales y
exponía que, dada su naturaleza, algunos cálculos de gran complejidad se realizarían más
rápidamente en un ordenador cuántico. En 1985 David Deutsch describió el primer computador
cuántico universal, capaz de simular cualquier otro computador cuántico (principio de Church-
Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar
diferentes algoritmos cuánticos.

e 1918 en Nueva York, y murió el 15 de


febrero de 1985. Feynman fue un influyente
popularizador de la física a través de sus libros y
conferencias, y un ejemplo más de ello fue la
charla que dio en 1959 sobre nanotecnología,
titulada Hay mucho lugar al fondo. Feynman
ofreció 1.000 dólares en premios por dos de sus
retos en nanotecnología. También fue uno de los
primeros científicos en señalar las posibilidades de
los ordenadores cuánticos. Muchas de sus clases luego
se convirtieron en libros, como El carácter de la
ley física y Electrodinámica cuántica: La extraña
teoría de la luz y la materia. Entre sus trabajos
más importantes, destaca la elaboración de los
diagramas de Feynman, una forma intuitiva de
visualizar las interacciones de partículas atómicas
en electrodinámica cuántica mediante
aproximaciones gráficas en el tiempo. Feynman
es considerado también una de las figuras
pioneras de la nanotecnología, y una de las primeras
5

A lo largo de los años 90 la teoría empezó a plasmarse en la práctica, y aparecen los


primeros algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas
capaces de realizar cálculos cuánticos. En 1993 Dan Simon demostraba la ventaja que tendría
un computador cuántico frente a uno tradicional al comparar el modelo de probabilidad clásica
con el modelo cuántico. Sus ideas sirvieron como base para el desarrollo de algunos algoritmos
de
6

auténtico interés práctico, como el de Shor. También en 1993, Charles Benett descubre el
tele-transporte cuántico, que abre una nueva vía de investigación hacia el desarrollo de
comunicaciones cuánticas.

Entre 1994 y 1995 Peter Shor definió el algoritmo que lleva su nombre y que permite
calcular los factores primos de números a una velocidad mucho mayor que en cualquier
computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de
criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la
comunidad científica, que observaba incrédula las posibilidades de la computación cuántica, que
se trataba de un campo de investigación con un gran potencial. Además, un año más tarde,
propuso un sistema de corrección de errores en el cálculo cuántico.

Peter Shor Williston (nacido el


14 de agosto, 1959) es un
profesor estadounidense de
matemáticas aplicadas en el
MIT, famoso por su trabajo en
computación cuántica, en
particular por elaborar el
algoritmo de Shor, un algoritmo
cuántico de factorización
exponencialmente más rápido
que el mejor algoritmo conocido
actualmente que se ejecuta en un
ordenador clásico.
7

En 1996 Lov Grover propone el algoritmo de búsqueda de datos que lleva su nombre.
Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en
simulaciones físicas, su rango de aplicaciones es mucho

mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo


probabilístico con un alto índice de acierto.

En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para
empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos
teóricamente hasta entonces. El primer experimento de comunicación segura usando
criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer
tele-transporte cuántico de un fotón. A partir de entonces la computación cuántica es una
realidad imparable, y entre 1998 y 1999, investigadores de Los Álamos y del MIT consiguen
propagar el primer "qubit" (del inglés 'bit cuántico') a través de una disolución de aminoácidos.
Este experimento supuso el primer paso para analizar la información que transporta un qubit.

Una de las propiedades más importantes de


la criptografía cuántica es que si un tercero
intenta hacer eavesdropping durante la creación
de la clave secreta, el proceso se altera
advirtiéndose al intruso antes de que se trasmita
información privada. Esto es una consecuencia
del principio de incertidumbre de Heisenberg,
que nos dice que el proceso de medir en un
sistema cuántico perturba dicho sistema.

En 1998 nació la primera máquina de 2-qubits, que fue presentada en la Universidad de


Berkeley, California. Un año más tarde, en 1999, en los laboratorios de IBM se diseñó la
primera máquina de 3-qubits, que además fue capaz de ejecutar por primera vez el algoritmo de
búsqueda de Grover.
8

En el año 2000, de nuevo en IBM, se diseña un computador cuántico de 5- qubits capaz


de ejecutar un algoritmo de búsqueda de orden que forma parte del algoritmo de Shor. Este
algoritmo se ejecutaba en un simple paso cuando en un

computador tradicional requería numerosas iteraciones. Ese mismo año, científicos de Los
Álamos anunciaron el desarrollo de un computador cuántico de 7-qubits.

Representación esquemática de un eventual ordenador cuántico.

En 2001, IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el


algoritmo de Shor en el primer computador cuántico de 7-qubits desarrollado en Los Álamos.
En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5
utilizando para ello 1018 moléculas, cada una de ellas con 7 átomos.
9

En 2005 el Instituto de “Quantum Optics and Quantum Information” en la Universidad


de Innsbruck (Austria) anunció que sus científicos habían conseguido implementar el primer
qubyte, una serie de 8 qubits, utilizando trampas de iones.
10

Y en 2006 científicos en Waterloo y MIT consiguen desarrollar un sistema de 12- qubits.

En septiembre de 2007, dos equipos de investigación estadounidenses, el National


Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven, consiguieron
unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus
cuántico, que además puede ser utilizado como memoria cuántica reteniendo la información
cuántica durante un corto espacio de tiempo antes de ser transferida a otro dispositivo.

Según la Fundación Nacional de Ciencias (NSF) de los EEUU, en 2008 un equipo de


científicos consiguió almacenar por primera vez un qubit en el interior del núcleo de un átomo
de fósforo, y pudieron hacer que la información permaneciera intacta durante 1,75 segundos.
Este lapso de tiempo puede ser ampliable mediante métodos de corrección de errores, por lo que
es un gran avance en el almacenamiento de información.

En 2009 el equipo de investigadores estadounidense dirigido por Robert Schoelkopf, de


la Universidad de Yale, crea el primer procesador cuántico de estado sólido, mecanismo que se
asemeja y funciona de forma similar a un microprocesador convencional, aunque con la
capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o
búsquedas de datos. La comunicación en el dispositivo se realiza mediante fotones que se
desplazan sobre el bus cuántico.
11

Recreación de un posible procesador cuántico.

Finalmente, en 2011, la primera computadora cuántica comercial es vendida por la


empresa D-Wave System a Lockheed Martin, por 10 millones de dólares, e IBM anuncia que ha
creado un chip lo suficientemente estable como para permitir que la informática cuántica llegue
en breve plazo a hogares y empresas. Se estima que en unos 10 ó 12 años se puedan estar
comercializando los primeros sistemas cuánticos "asequibles".

Cuestiones Preliminares

La computación cuántica es un paradigma de computación distinto al de la


computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas
lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente
complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran
expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un
12

computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una
máquina de Turing cuántica.
13

En relación con el primer punto, no se ha resuelto completamente todavía el problema


de cuál sería el soporte físico ideal para la computación cuántica que, no obstante, debe cumplir
los siguientes requisitos:

El sistema ha de poder

En la computación digital un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la


computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula, el qubit,
puede estar en superposición coherente: puede ser 0, puede ser 1 y puede ser 0 y 1 a la vez (dos
estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias
operaciones simultáneamente, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con
los bits convencionales si teníamos un registro de tres bits había ocho valores posibles, y el
registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la
partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así,
un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el
número de operaciones es exponencial con respecto al número de qubits.
Para hacerse una idea del gran avance que esto supone, un computador cuántico de 30
qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de
operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el
orden de gigaflops (miles de millones de operaciones en coma flotante por segundo).

Desde una perspectiva práctica, y asumiendo un planteamiento "Informático" de la


cuestión, los asuntos que nos interesan de la computación cuántica pueden resumirse en los
siguientes puntos: Soporte Físico, Transmisión de Datos, Algoritmos Cuánticos y Arquitecturas
y Modelos.

1. inicializarse, esto es, llevarse a un estado de partida conocido y controlado.


14

2. Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un


conjunto de operaciones que forme un conjunto universal de puertas lógicas
(para poder reproducir cualquier otra puerta lógica posible).
3. El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
4. Ha de poder leerse el estado final del sistema tras el cálculo.

5. El sistema ha de ser escalable y tiene que haber una forma definida de aumentar
el número de qubits para poder tratar con problemas de mayor coste
computacional.
En cuanto a la transmisión de datos, científicos de los laboratorios Max Planck y Niels
Bohr obtuvieron, no hace mucho, resultados sobre la transmisión de información cuántica
usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las
transmisiones del 70%, lo que representa un nivel de calidad que permite utilizar protocolos de
transmisión con autocorrección. Actualmente se trabaja en el diseño de repetidores, que
permitirían transmitir información a distancias mayores a las ya alcanzadas.
Por otra parte, los algoritmos cuánticos diseñados se basan en un margen de error
conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles
exponencialmente pequeños, comparables al nivel de error de las máquinas actuales. Algunos
ejemplos importantes son el algoritmo de Shor, el algoritmo de Grover, o el algoritmo de
Deutsch-Jozsa.

Indudablemente la computación cuántica es un campo de interés y gran futuro. Al


respecto, se ha sugerido el uso de la computación cuántica como alternativa superior a la
computación clásica para varios problemas, entre ellos la factorización de números enteros,
problemas de logaritmo discreto, o la simulación de sistemas cuánticos. El siempre genial
Richard Feynman conjeturó en 1982 que los ordenadores cuánticos serían eficaces como
simuladores universales de sistemas cuánticos, y en 1996 se demostró que la conjetura era
correcta. Sin embargo, como en toda disciplina emergente, todavía quedan muchos problemas
pendientes de solución.
Uno de los obstáculos principales de la computación cuántica es el problema de la
decoherencia, que causa la pérdida del carácter unitario (y, más específicamente, la
reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los
sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada
en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está
típicamente entre nanosegundos y segundos, a temperaturas bajas.
15

Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación
frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un
tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja,
es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles
tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente
largos. Se cita con frecuencia una tasa de error límite de 10 -4 por debajo de la cual se supone que
sería posible la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta


el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección
de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de
manejar un número suficiente
16

COMPUTACIÓN CUANTICA

CONCEPTO

La computación aporta un pequeño cambio en el paradigma de la computación que permite

aplicar un paralelismo masivo a la hora de realizar cálculos para obtener importantes ganancias

en tiempo de cálculo, sacrificado en determinismo de los algoritmos clásicos.

Para esto un ordenador cuántico necesita que las partículas que vayan a conformar los qubits

que lo componen puedan encontrarse en dos estados al mismo tiempo, requiriendo un

aislamiento casi total y un entorno que controle y evite cualquier posible interacción de los qubits

con otras partículas o radiaciones, lo que hace complicado construir actualmente computadores

cuánticos reales que pueden llegar hacer estables y es este el motivo por lo que aún no se ha

llegado a implementar un ordenador cuántico con suficiente capacidad, llegando solo a realizar

prototipos que poco a poco van avanzando

CARACTERISTICAS

Mientras que en la computación que usamos hoy en día, cada bit puede presentarse en estados

alternativos y directos a la vez, en la computación cuantica cada bit llega a estar en múltiples

estados en un mismo instante. Gracias a esto podemos llegar a reducir exponencialmente el

tiempo empleado por los algoritmos actuales. Existe una arquitectura muy parecida a las que

tenemos actualmente, que ha tenido mucho éxito en el ámbito teórico y cuya realización depende

de la futura implementación de una computadora cuantica.

Los científicos cuánticos han logrado enormes avances teóricos al conseguir demostrar que es

factible la reducción drástica de los recursos computacionales que se requieren en la ejecución de

algoritmos, algunos de los cuales requieren muchísimo poder de cómputo en las computadoras

más avanzadas que existen hoy en día. Algunos de los ejemplos desarrollados teóricamente con
17

mucho éxito son la anteriormente mencionada búsqueda de factores de números primos, o la

búsqueda en bases de datos no ordenados. La base teórica de la computación cuantica se basa en

las interacciones del mundo atómico, así como en futuras implementaciones de computadoras

cuanticas. Además, es uno de los métodos con mayor futuro debido a que ofrece una gama de

presentaciones enormes, pudiendo llegar a duplicar los dispositivos de almacenamiento más

avanzados.

ORIGEN Y EVOLUCIÓN

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para

aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de

voltajes eléctricos, se trabaja a nivel de cuánto. En la computación digital, un bit solo puede

tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la

mecánica cuántica, y la partícula puede estar en superposición coherente: ser 0,1 y puede ser 0 y

1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan

realizar varias operaciones a la vez, según el número de qubits.


18

FUNCIONAMIENTO COMPUTADORA CUANTICA

Las computadoras clásicas codifican información en bits. Cada bit puede tomar el valor de 1 o
0. Estos 1s y 0s actúan como interruptores de encendido / apagado que en última instancia
conducen las funciones de la computadora.
Las computadoras cuánticas, por otro lado, se basan en los qubits, que operan de acuerdo con
dos principios clave de la física cuántica: la superposición y el enredo. La superposición significa
que cada qubit puede representar tanto un 1 como un 0 al mismo tiempo.

El enredo significa que los qubits en una superposición pueden correlacionarse entre sí; es decir,
el estado de uno (ya sea un 1 o un 0) puede depender del estado de otro.
Usando estos dos principios, los qubits pueden actuar como conmutadores más sofisticados,
permitiendo que las computadoras cuánticas funcionen de manera que les permita resolver
problemas difíciles que no pueden resolverse usando las computadoras de hoy en día.

Superposición y enredo

Está bien sentirse un poco desconcertado por estos conceptos, ya que no los experimentamos
en nuestra vida cotidiana. Solo cuando observas las partículas cuánticas más diminutas (átomos,
electrones, fotones, etc.) ves cosas intrigantes como la superposición y el enredo.

La superposición es esencialmente la capacidad de un sistema cuántico para estar en múltiples


estados al mismo tiempo, es decir, algo puede estar "aquí" y "allí", o "arriba" y "abajo" al mismo
tiempo.
El enredo es una correlación extremadamente fuerte que existe entre partículas cuánticas, tan
fuerte, de hecho, que dos o más partículas cuánticas pueden estar inextricablemente unidas en
perfecta armonía, incluso si están separadas por grandes distancias. Las partículas permanecen
perfectamente correlacionadas, incluso si están separadas por grandes distancias.
Las partículas están tan intrínsecamente conectadas que se puede decir que "bailan" en
unísono instantáneo y perfecto, incluso cuando se colocan en los extremos opuestos del universo.
Esta conexión aparentemente imposible inspiró a Einstein a describir el enredo como "una acción
espeluznante a distancia".
19

PROBLEMAS DE LA COMPUTACIÓN CUANTICA

Uno de los obstáculos principales para la computación cuántica es el problema de

la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la

reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los

sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en

la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está

típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son

típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia,

de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el

tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente

la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que

el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa

de error límite de 10, por debajo de la cual se supone que sería posible la aplicación eficaz de la

corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el

considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de

errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de

manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente

interesantes hoy en día.


20

HARDWARE PARA COMPUTACION CUANTICA

Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación

cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di

Vincenzo, y hay varios candidatos actualmente.

Ingenieros de Google trabajan (2018) en un procesador cuántico llamado "Bristlecone".

Condiciones a cumplir

 El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y


controlado.
Ha de ser posible hacer manipulaciones a los cúbits de forma controlada, con un conjunto de

operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir cualquier

otra puerta lógica posible).

El sistema ha de mantener su coherencia cuántica a lo largo del experimento.

 Ha de poder leerse el estado final del sistema, tras el cálculo.


 El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número
de cúbits, para tratar con problemas de mayor coste computacional.

Candidatos

Espines nucleares de moléculas en disolución, en un aparato de RMN.

Flujo eléctrico en SQUID.

Iones suspendidos en vacío.

Puntos cuánticos en superficies sólidas.

Imanes moleculares en micro-SQUID.

Computadora cuántica de Kane.

Computación adiabática, basada en el teorema adiabático.


21

Procesadores

En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron

resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que

almacenan información cuántica, por lo que son llamados cúbits por analogía con los bits. Su

objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que

constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar

que un chip de tecnología VLSI contiene actualmente más de 100 000 puertas, de manera que su

uso práctico todavía se presenta en un horizonte lejano.

Transmision de datos

Científicos de los laboratorios Max Planck y Niels Bohr publicaron en la

revista Nature en noviembre de 2004, resultados sobre la transmisión de información cuántica a

distancias de 100 km usando la luz como vehículo.2 obteniendo niveles de éxito del 70 %, lo que

representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.

Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a

distancias mayores a las ya alcanzadas.


22

PROGRAMAS DE COMPUTACIÓN

ALGORITMO CUANTICO

Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base

y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al

nivel de error de las máquinas actuales.

 Algoritmo de Shor
 Algoritmo de Grover
 Algoritmo de Deutsch-Jozsa

MODELOS

 Computadora cuántica de Benioff


 Computadora cuántica de Feynman
 Computadora cuántica de Deutsch

COMPLEJIDAD

La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de

error.

PROBLEMAS PROPUESTO

Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación

clásica para varios problemas, entre ellos:

 Factorización de números enteros
 Logaritmo discreto
 Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los
ordenadores cuánticos serían eficaces como simuladores universales de sistemas cuánticos, y
en 1996 se demostró que la conjetura era correcta.3
23

APLICACIONES DE LA COMPUTACION CUANTICA

En las áreas dónde las computadoras actuales requerirían miles de millones de años en

resolver algunos de los problemas más complejos del mundo, las computadoras cuánticas

podrían encontrar la solución en solo minutos, horas o días.

Aquí algunas aplicaciones sorprendentes, que podrán desarrollarse exponencialmente

gracias a las computadoras cuánticas:

Machine Learning.
La Inteligencia Artificial debe poder analizar grandes conjuntos de datos de imágenes, vídeos

y textos. En este momento no escasea la cantidad de datos, podríamos decir que se encuentra en

una fase de sobreabundancia. Las computadoras cuánticas permitirían analizar y gestionar más

datos en mucho menos tiempo, gracias a su potencia para procesar los petabytes de datos que aún

no han sido analizados.

También, las computadoras cuánticas podrían potenciar el aprendizaje automático

multisectorial al permitir que los programas de IA busquen en estos conjuntos de datos

gigantescos elementos relacionados con la investigación médica, el comportamiento de los

consumidores y los mercados financieros, y les den sentido.

Optimización.
Cada proceso puede tener un sin número de variables, con las computadoras cuánticas una

máquina puede ser capaz de manejar casi innumerables permutaciones y combinaciones, lo que

podría hacer avanzar el diseño y el análisis de sistemas de manera masiva.

Para el sector de la logística la optimización es el denominador común de todas las

transacciones y procesos. La computación clásica se utiliza para organización de embarques,

flotillas, manejo de datos en tiempo real, etc., que a la larga se pueden convertir en procesos

demasiado complicados para una solución clásica, por lo que un enfoque cuántico se convertirá
24

en una gran alternativa. Hay que pensar de que el Physical Internet, del que ya he hablado en otro

artículo, y que promete ser el motor definitivo de la optimización de la logística mundial

necesitará de una gran cantidad de proceso en tiempo real para ser operativo. La computación

cuántica puede ser la solución definitiva para su implementación.

Simulaciones biomédicas.
Las computadoras cuánticas serán capaces de crear, simular y modelar estructuras

moleculares. Ya en la Universidad de Harvard en el 2012, se utilizó una computadora cuántica,

D-Wave One, para resolver la forma en la que se pliegan algunas proteínas.

Servicios financieros.
La primera computadora cuántica comercial la D-Wave 2000Q, ha sido implementada por D-

Wave, una compañía respaldada por Goldman Sachs y Bezos Expeditions. Se trata de un sistema

cuántico con 2.000 qubits y controles avanzados de funciones.

Los sistemas podrían ser utilizados para la elaboración de modelos financieros complejos y la

gestión de riesgos dentro de la industria financiera. Podría ayudar a encontrar nuevas formas de

modelar datos financieros y en aislar factores de riesgo globales clave.

Industria Química.
La industria química, por ejemplo, puede trabajar para identificar un nuevo catalizador para

fertilizantes que ayude a reducir emisiones de efecto invernadero y mejorar la producción

mundial de alimentos. Esto requiere de modelaje de interacciones moleculares muy complejas

para las computadoras clásicas, pero adecuadas para las computadoras cuánticas. Son muchas las

posibilidades con impacto significativo, que esta tecnología abre dentro del área de la química.

Ciencia de los Materiales.


La computación cuántica ayudará en el avance de la ciencia de los materiales, creando nuevas

alternativas y tecnologías más verdes. Una aplicación potencial es el desarrollo de los

superconductores de alta temperatura, que permitirían la transmisión de energía sin pérdidas. Los
25

nuevos descubrimientos facilitados por las computadoras cuánticas ayudarán a identificar

materiales con las propiedades adecuadas para la superconductividad, un proceso muy complejo

fuera del alcance de las computadoras comunes.

Podrá tomar varios años para que las computadoras cuánticas alcancen su máximo potencial.

Pero si estas máquinas cumplen sus promesas, podrían transformar industrias enteras e impulsar

la innovación global. Algunas compañías, como IBM y Google, afirman que podríamos estar

cerca, ya que continúan agrupando más qubits y construyendo dispositivos más precisos.

Aunque suene a largo plazo y existan puntos de vista contradictorios, en si es posible su

desarrollo; no hay que olvidar que hace unos años se nos hacía imposible que hubiera coches sin

conductor, que las pantallas móviles pudieran doblarse o que la inteligencia artificial saliera de

nuestras pantallas de cine a invadir el mundo real. El desarrollo de la innovación va a marchas

forzadas, existen aún barreras que cruzar, pero el tiempo dirá.

También podría gustarte