السبت، 5 نوفمبر 2016

ON SE RAPPROCHE ENCORE DE L'ORDINATEUR QUANTIQUE !




La technologie des ordinateurs quantiques a fait des progrès fulgurants ces dernières années... Et aujourd'hui, deux équipes de chercheurs présentent une nouvelle solution qui, déjà, semble aboutie.

Parler d'ordinateur quantique n'est pas de tout repos.
 Non seulement on touche à des concepts difficiles de calculalgorithmique mais de plus ceux-ci se mélangent avec les lois de la physique quantique, étranges et pour tout dire insaisissables. Il n'empêche : deux articles publiés simultanément dans la revue Science (A et B, et un commentaire ) méritent le détour.

Des chercheurs américains et japonais y présentent en effet deux machines quantiques, basées sur la technologie du "modèle d'Ising", qui seraient à ce jour les plus efficaces jamais conçues, presque prêtes à être commercialisées. Si une telle affirmation est problématique dans ce domaine si controversé, l'avancée semble néanmoins réelle.

Des machines hybrides quantique-classique

Il s'agit en réalité de machines "hybrides", une partie du calcul utilisant les lois de la physique quantique, l'autre s'appuyant sur la technologie des microprocesseurs classiques. De fait, ces derniers servent à gérer à très haute vitesse l'appareillage quantique, lieu où se réalise véritablement le calcul. Concrètement, cet appareillage consiste en un Oscillateur paramétrique optique (OPO) qui module des impulsions lasers tournant dans une boucle en fibre optique.
A l'intérieur de cette boucle optique (entrecoupée par l'OPO) plusieurs flux lasers tournent en parallèle tels des chevaux dans une course hippique. Ces flux de photons sont liés entre eux, comme si les brides des chevaux avaient été attachées - mais des brides de nature quantique. Et à chaque passage du train de flux par l'OPO, celui-ci peut modifier ces liens, c'est-à-dire les renforcer ou les atténuer.

Les problèmes qu'elles savent résoudre

Pour en venir au calcul disons que chaque flux laser représente un paramètre du problème à calculer et les liens entre flux les relations entre paramètre qu'il faut satisfaire pour résoudre le problème. Vous l'aurez compris, cet aspect quantique du calcul est très intéressant mais oblige à plonger dans un abîme technico-théorique. Parlons plutôt des problèmes que ces deux machines seraient capables de résoudre mieux que les ordinateurs classiques.
De fait ces machines sont plutôt des calculateurs spécialisés car elles ont été pensées pour un seul type de problèmes : les problèmes d'optimisation. Il s'agit de trouver la meilleure solution parmi un grand nombre de possibilités.

Postiers et protéines

Par exemple, on sait qu'un postier qui fait sa tournée peut opter parmi des centaines d'itinéraires pour boucler son travail, dont un seul (ou quelques-uns) sera le plus court des tous. On sait aussi qu'une protéine peut se replier de milliards de manières différentes dont une seule est la forme la plus compacte, celle de plus basse énergie.
Ces problèmes d'optimisation sont en prise avec notre santé - un repliement non optimal de protéines peut engendrer de graves pathologies - et avec notre Planète car les réseaux de transport mondiaux (de personnes, de biens, d'énergie, d'informations, etc.), loin d'être optimaux, grèvent notre économie, nos écosystèmes et notre climat.
Las ! Un ordinateur classique doit calculer toutes les combinaisons possibles (de repliements, de tournées) avant de les comparer et déduire la solution optimale ce qui, si le nombre de paramètres est grand, peut prendre des dizaines d'années même aux meilleurs supercalculateurs.

Une solution « miracle »

Ce n'est pas qu'une limite technologique, c'est aussi une limite inhérente au calcul : pour toute nouvelle adresse ajoutée aux N adresses du facteur, le nombre de tournées possibles double (ou environ), si bien que ce problème connaît une "explosion exponentielle" quand on fait croitre le nombre de paramètres (adresses, sites actifs sur la protéine).
Or ce que parviennent à faire les machines quantiques des chercheurs, du moins en théorie, c'est court-circuiter cette phase de calcul : une fois que les données du problème ont été encodées par l'OPO dans les flux lasers et leurs liens quantiques réciproques, on laisse le système trouver tout seul son état d'énergie minimal, celui qui réalise l'optimum du problème, puis on recueille le résultat en mesurant l'état du système. Et hop !

Des doutes...

Autant dire que cela ferait faire un saut vertigineux au calcul des problèmes d'optimisation. Concrètement, l'équipe américaine dit avoir réussi un calcul d'optimisation avec 100 flux lasers en parallèle (soit 100 adresses postales ou sites actifs de protéines) et l'équipe japonaise revendique un calcul d'optimisation sur 2000 flux - mais avec seulement un résultat approximé de la solution.
Avec 2000 paramètres, on frôle déjà (à un facteur 10 près) des problèmes biens réels en gestion de ressources et en biologie. Mais déjà des voix parmi les spécialistes, comme Scott Aaronson, mettent en doute la possibilité que ces calculateurs spécialisés puissent effectivement surpasser de manière importante les techniques usuelles de calcul des problèmes d'optimisation. Le débat sur les réelles compétences de tels calculateurs est ouvert...

ليست هناك تعليقات:

إرسال تعليق