📈 #22 Parte I - La revolución de la IO: la promesa de la computación cuántica
El futuro de la optimización empieza ahora.
Feliz año nuevo! 🎉
Espero de verdad que hayas pasado un tiempo agradable con la familia y amigos en estos días.
Es importante desconectar y por eso yo no te he escrito en un tiempo. He pasado unos días entre Alicante y Elche y, sinceramente, me ha venido genial.
Así que aquí estoy de nuevo para darte una píldora de contenido sobre Investigación Operativa.
Y una cosa que he visto últimamente es que se están reavivando las ganas de aplicar técnicas de Investigación Operativa en multitud de negocios. Por dos motivos principalmente: la Computación Cuántica y la IA.
He querido explicar el por qué lo veo así con el mayor nivel de detalle posible, y me ha quedado un troncho bastante largo de leer. No quería que te tuvieses que bloquear media hora, así que lo he dividido en 3 partes diferentes. En esta primera parte te contaré en Factibles todo lo que tiene que ver con la Computación Cuántica desde el punto de vista de la IO:
La necesidad de tener ordenadores cuánticos
La existencia de algoritmos cuánticos más eficientes que los clásicos
Cómo la comunidad científica y la empresa privada tienen un mismo objetivo
La segunda parte de esta trilogía irá sobre la conexión entre la Inteligencia Artificial y la Investigación Operativa, mientras que en la tercera y última te contaré mis visiones y conclusiones respecto a las dos primeras partes.
Vamos a por ello!
En 1965, Gordon E. Moore -cofundador de Intel, una de las empresas de microprocesadores más importantes del mundo, si no la más importante- estableció una ley por la cual el número de transistores de los microprocesadores se duplicaría cada 2 años. Es algo que observó él mismo y es una ley más bien empírica, pero que se ha venido demostrando en la práctica desde entonces.
Dado que el tamaño de los microprocesadores se ha mantenido constante o incluso ha sido cada vez más pequeño, para que se cumpla esta ley tiene que ocurrir que los transistores sean cada vez más pequeños.
Pequeña pausa: recordemos que un transistor es el bloque básico de la electrónica moderna para poder hacer cálculos. Normalmente vemos que el bicho tiene esta forma de cabeza con tres patas:
Seguimos.
Cuando te digo que tienen que ser cada vez más pequeños me refiero a tamaños de nanómetros. Coges un metro y lo divides en 1000 millones de partes y eso es un nanómetro. Actualmente, los microprocesadores con transistores más pequeños logran tamaños de unos 2-3 nanómetros.
No me voy a parar en tecnicismos aquí, pero como hay mucho márketing de por medio, a día de hoy es difícil saber la longitud de las puertas lógicas o la distancia entre transistores. ¿Porque es un reto tecnológico en sí mismo? No, porque la nomenclatura se basa más en criterios estratégicos que en características físicas concretas.
El caso es que hablando de escalas tan sumamente pequeñas, en las que el tamaño de las puertas lógicas es parecido al tamaño de los átomos, los efectos cuánticos toman notoriedad y el transistor se va a comportar de forma más evidente siguiendo las leyes de la física cuántica, quedando enmascarados los efectos clásicos (justo lo opuesto que ocurre a escalas más grandes).
Esto complica, y mucho, las cosas.
🎲 “Dios no juega a los dados”
A pesar de que Einstein dijo que Dios no jugaba a los dados, hoy sabemos de sobra que sí es así, que el mundo cuántico es un mundo de probabilidades, donde nunca podrás afirmar al 100% el comportamiento de un electrón.
El efecto túnel es un fenómeno cuántico por el que una partícula viola los principios de la mecánica clásica (la que le gustaba a Einstein) y puede hacer que la partícula atraviese una barrera de potencial. La partícula, que desde un punto de vista clásico no tiene la suficiente energía para pasar de estar en un lado a estar en otro, cuando estamos a escalas atómicas tiene cierta probabilidad de estar en cualquiera de los lados. Esto es así porque la localización espacial de la partícula a escalas tan pequeñas es una función de probabilidad de estar en un lugar. La famosa superposición de estados cuánticos.
Digamos que es como si tirases una pelota de tenis a una pared y rebotara (mecánica clásica) o la atravesase en algunas ocasiones (mecánica cuántica). Lo primero a una escala normal ocurre siempre, pero cuando vamos a escalas taaaan pequeñas puede ocurrir lo segundo. Ojo, que también podrías atravesar la pared en el mundo clásico si le imprimes muchísima fuerza a la pelota; pero es que en el mundo cuántico no necesitaría tanta energía.
Ese es el quid de la cuestión. Y de ahí nace la computación cuántica.
De querer sacarle provecho a este comportamiento -y otra serie de propiedades más que interesantes- para poder seguir haciendo cálculos incluso aunque las leyes de la física traten de impedírnoslo. Incluso aunque ocurra que no podamos controlar fielmente el comportamiento de los electrones en un transistor.
Vamos, que la computación (o los ordenadores) tal y como la conocemos a día de hoy, pueden tener un límite, y estamos muy cerca de llegar a él. Pero podemos cruzarlo gracias a la cuántica.
Si la computación clásica tiene como unidad mínima de computación al bit (con estados 0 o 1), la computación cuántica tiene como unidad mínima al bit… cuántico. O qubit (del inglés quantum bit, you know ma friend). Cúbit en castellano.
Y una de las propiedades más interesantes que tiene el qubit frente al bit clásico es la de la…
⚛️ Superposición de estados cuánticos
Se dice que dos estados están en superposición cuando una partícula tiene cierta probabilidad de estar en cada uno de ellos.
¿Te acuerdas del gato de Schrödinger? Ese que estaba metido en una caja y podía estar vivo y muerto a la vez, pero hasta que no abriésemos la caja no íbamos a saber en qué estado estaba.
O como el típico amigo que siempre llega tarde y cuando le preguntas siempre te contesta que ya está de camino, pero que tú sabes que en realidad tiene cierta probabilidad de no haber salido aún de su casa o de que sí y ¡esta vez te esté diciendo la verdad! Sólo lo sabrías si pudieras medirlo de alguna manera: una cámara, una localización GPS exacta…
Pues eso, pero aplicado a los bits. Es decir, un bit cuántico, cúbit, qubit… Puede estar en varios estados a la vez. Tiene cierta probabilidad de ser un 0 y otra cierta probabilidad de ser un 1.
Esto añade una paralelización de cualquier procesamiento nunca antes vista en un computador clásico. Es como si pudiésemos probar un montón de posibilidades diferentes con muchas menos operaciones.
Como imaginarás, la computación cuántica es un campo completamente nuevo y muy diferente del actual. Necesita de hardware especializado (los computadores cuánticos) y de software también especializado.
Estos nuevos ordenadores necesitan de nuevas técnicas y algoritmos para hacerlos funcionar eficientemente.
Supone un cambio de paradigma. Una nueva era en la computación.
Y ya se ha probado de manera teórica que hay algoritmos para computadores cuánticos que son mucho más potentes que los actuales clásicos, como el algoritmo de Grover -para una búsqueda mucho más eficiente en una base de datos- o el de Shor -para una factorización en números primos eficiente, característica en la que se basa la ciberseguridad actual-.
El algoritmo de Grover presenta una ventaja cuadrática frente a su homónimo clásico, mientras que el de Shor presenta una ventaja exponencial. En definitiva, el avance de la computación cuántica está logrando que los algoritmos resuelvan problemas cada vez más complejos en menos tiempo.
Pero ahí ya entramos en temas de teoría de la complejidad algorítmica. Volvamos al lío.
Ves por dónde van los tiros, ¿no? Algoritmos mucho más eficientes, paralelización de procesamiento… Si estamos hablando de que podremos resolver problemas con más combinatoria en menos tiempo, quiere decir que estos avances pueden impactar de forma directa en el mundo de la optimización.
De momento no está probado que vaya a ser así, pero hay muchísimos esfuerzos en encontrar algoritmos más eficientes que resuelvan problemas de optimización que a día de hoy sean muy difíciles o imposibles de resolver.
¿Se conseguirá? Ni idea, pero existe cierta probabilidad de que ocurra.
🧑🏻🔬 La comunidad científica apuesta por ello
El caso es que hay una buena parte de la comunidad científica que se dedica en cuerpo y alma a encontrar esos algoritmos para optimización.
Una de las investigadoras y divulgadoras más activas es Amira Abbas, que hace poco compartía un artículo de 70 páginas firmado por ella misma y otros 44 investigadores más que habla precisamente del potencial, los retos y el camino a seguir para desarrollar algoritmos cuánticos y compararlos apropiadamente con los clásicos.
Las primeras palabras del artículo dicen (no cambio una sola coma):
Los recientes avances en computadoras cuánticas están demostrando la capacidad para resolver problemas a una escala más allá de la simulación clásica mediante fuerza bruta. Como resultado, ha surgido un interés generalizado en algoritmos cuánticos en muchas áreas, siendo la optimización uno de los dominios más destacados.
Lo dicen reputados investigadores y al carro se ha sumado la industria, claro. Grandes consultoras como McKinsey ya hablaban en 2020 del impacto de la computación cuántica en diferentes sectores, diferentes casos de uso en 2021 o una introducción a los optimizadores cuánticos hace poco, y a modo de resumen puedes ver su página sobre el auge de la cuántica.
También BCG hablaba en 2020 de los casos de uso en finanzas (optimización pura y dura, ya te lo adelanto yo) o cómo ya se está empezando a postular la computación cuántica como una tecnología factible para resolver problemas actuales, muchos de ellos relacionados con la optimización. Te invito a pasarte por la página que tienen a modo de resumen.
Todo esto para contarte que sí: la computación cuántica tiene mucho que decir en el mundo de la optimización.
Hay mucha gente trabajando en ello y mucho dinero puesto encima de la mesa.
Y toda esa gente de otras áreas viene de nuevas al mundo de la optimización, aportando un nuevo y sugerente punto de vista.
Lo mejor es que toda esa gente expande los límites del conocimiento sobre optimización.
Lo mejor es que ahora otra mucha gente es consciente de la Investigación Operativa.
Lo mejor es que se habla cada vez más de la IO.
Y lo mejor es que lo mejor está por llegar.
Nos vemos la semana que viene con la segunda parte de esta trilogía.
Hasta entonces,
Borja.