« FLOPS » : différence entre les versions

Contenu supprimé Contenu ajouté
Cjp24 (discuter | contributions)
m Vitesse : wikif
Cjp24 (discuter | contributions)
m Vitesse : wikilien
Ligne 55 :
En {{date||juin|2011|en informatique}}, le plus puissant superordinateur atteint les {{Unité|8.162 pétaFLOPS}}. Il s'agit du [[K computer]]<ref>{{en}} ''[http://www.top500.org/list/2011/06/100 Top500 list - June 2011]'', sur ''top500.org''.</ref>. Ce superordinateur japonais totalise {{unité|68544|processeurs}} de {{unité|8|cœurs}} et dispose d'une puissance de calcul supérieure à celle de ses {{unité|5|suivants}} réunis. Ce même supercalculateur a battu son propre record en [[octobre 2011]] en atteignant la barre des {{Unité|10 pétaFLOPS}} (ou {{Unité|e16 FLOPS}}). Il disposait à ce moment de {{unité|88128 processeurs}} de {{unité|8 cœurs}}<ref>''[http://www.zdnet.fr/actualites/supercalculateurs-le-fujitsu-k-atteint-les-10-petaflops-39765313.htm Supercalculateurs : le Fujitsu « K » atteint les 10 pétaflops]'', sur ''zdnet.fr'', 3 novembre 2011 (consulté le 13 février 2015).</ref>.
 
En {{date||novembre|2012|en informatique}}, la firme [[Cray (entreprise)|Cray Inc.]] reprend la tête du TOP500 devant [[International Business Machines|IBM]] avec [[Titan (supercalculateur)|Titan]], un superordinateur de {{unité|17.59 pétaFLOPS}}, capable d'atteindre {{unité|27 pétaFLOPS}} en performance de pointe<ref>{{Lien web|langue=en|url=http://www.top500.org/system/177975|titre=Titan - Cray XK7, Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, Nvidia K20x|site=top500.org|consulté le=13 février 2015}}.</ref>. Ce superordinateur est installé au [[Laboratoire national d'Oak Ridge]]. Sa puissance énergétique est de {{unité/2|8.2|MW}} ; il dispose d'une architecture hybride à base de processeurs [[AMD Opteron|Opteron]] (AMD) et d'accélérateurs GPU [[Tesla (Nvidia)|Tesla]] ([[Nvidia]]).
 
En [[2013 en informatique|2013]], le plus puissant supercalculateur au monde est la machine chinoise [[Tianhe-2]], qui affiche {{unité|33.86 pétaflops}} de puissance de calcul<ref>{{en}} ''[http://www.top500.org/system/177999 Tianhe-2 (MilkyWay-2)]'', sur ''top500.org''.</ref>.
 
En 2013, un [[ordinateur personnel]] peut développer une puissance d'environ {{unité|200 gigaFLOPS}} avec un [[microprocesseur]] comme l'[[Intel Core i7]]-3770, de puissance comparable aux superordinateurs de [[1995 en informatique|1995]], et {{unité|5621 gigaFLOPS}} avec un [[processeur graphique]] comme le [[Nvidia]] {{nobr|GTX 690}}, soit une puissance comparable aux superordinateurs de [[2001 en informatique|2001]]<ref>{{en}} ''[http://www.top500.org/list/2001/11/ Top500 List - November 2001]'', sur ''top500.org''.</ref>.
 
Le {{date|28|janvier|2014|en informatique}}, la plateforme de [[calcul distribué]] [[Berkeley Open Infrastructure for Network Computing|BOINC]] totalise {{Unité|8.251 pétaFLOPS}}<ref>{{en}} [http://boincstats.com/en/stats/-1/project/detail BOINC stats], sur boincstats.com.</ref>.
Ligne 67 :
En [[2016 en informatique|2016]], le gouvernement français lance un projet à travers la société [[Bull (entreprise)|Bull]] pour « développer une puissance exaflopique »<ref>{{Lien web|titre=À quoi va servir le supercalculateur français ultra puissant promis pour 2020?|url=https://www.huffingtonpost.fr/2016/04/14/supercalculateur-bull-2020-puissant-a-quoi-ca-sert_n_9690206.html|site=Le Huffington Post|consulté le=2016-09-22}}</ref>, la France reste loin de ses concurrents japonais, chinois et surtout américains.
 
Toujours en 2016, la plateforme DGX-1 avec {{lang|en|texte=Nvidia Pascal 8x GPUs server(P100)}}<ref>''[https://bull.com/fr/nvidia-dgx-1/ DGX-1 NVIDIA]'', sur ''nvidia.fr''.</ref> avec le Deep Learning de [[Nvidia]] intégré a une puissance d'environ {{Unité|170 téraFLOPS}} (FP16), il est d'une puissance comparable aux superordinateurs de [[2005 en informatique|2005]]<ref>{{en}} ''[https://www.top500.org/lists/2005/06/ Top500 List - Juin 2005]'', sur ''top500.org''.</ref>. La version Tesla V100<ref>''[https://www.nvidia.fr/data-center/dgx-1/#specs DGX-1 Tesla V100 NVIDIA]'', sur ''nvidia.fr''.</ref> intégrée a une puissance d'environ {{Unité|960 téraFLOPS}} (FP16), elle est d'une puissance comparable aux superordinateurs de [[2007 en informatique|2007]]<ref>{{en}} ''[https://www.top500.org/lists/2007/11/ Top500 List - November 2007]'', sur ''top500.org''.</ref>.
 
Le {{date|17|juin|2016}}, le [[Cryptomonnaie#Génération de blocs et création monétaire par minage|réseau de minage]] permettant la génération de la [[cryptomonnaie]] [[Bitcoin]] totalise une puissance d'environ {{Unité|64 exaFLOPS}}<ref>{{Lien web|langue=en|titre=Global Bitcoin computing power now 256 times faster than top 500 supercomputers combined|url=https://www.forbes.com/sites/reuvencohen/2013/11/28/global-bitcoin-computing-power-now-256-times-faster-than-top-500-supercomputers-combined/|site=forbes.com|date=|consulté le=21 mars 2017}}</ref>{{,}}<ref>{{Lien web|titre=Bitcoin Watch|url=http://bitcoinwatch.com/|site=bitcoinwatch.com}}</ref>{{,}}<ref>{{Lien web|titre=Bitcoin Charts|url=https://bitcoincharts.com/bitcoin/|site=bitcoincharts.com}}</ref>. Il s'agit du réseau le plus puissant au monde, avec une performance excédant {{unité|500|fois}} celle du supercalculateur [[Tianhe-2]], ce dernier se trouvant en seconde place. Il est à noter que la majorité de cette puissance de calcul est réalisée sur des [[Application-specific integrated circuit|ASICs]] ne permettant la plupart du temps pas un emploi en tant que supercalculateur, ces puces étant très spécialisées. L'usage du nombre de FLOPS est également controversé, puisque ces puces ne réalisent pas de calculs à virgule flottante à proprement parler. Il s'agit plutôt d'une mesure de performance équivalente.
Ce document provient de « https://fr.wikipedia.org/wiki/FLOPS ».