La loi de MOORE :
Découverte en 1965 par M. Gordon MOORE, cofondateur de la société Intel. Elle nous dit que la Puissance d’un ordinateur moyen va doubler tous les 18 mois.
La création de la loi MOORE ne se résume pas à une simple prédiction de la densité des transistors. C’est également une représentation schématique de la progression technologique.
Ainsi, de nos jours, la plupart des consommateurs de technologie n’achètent pas spécifiquement des transistors, mais plutôt la « Vitesse de calcul et la densité de stockage des données« . Cela souligne la transition aux différentes architectures de circuits intégrés, depuis les processeurs graphiques (GPU) jusqu’aux circuits intégrés d’application spécifique (ASIC) en passant par les NVIDIA Hopper
C’est une avancée technologique majeure en matière de calcul accéléré. Hopper permet de faire évoluer en toute sécurité, une grande variété de charges de travail sur chaque Date Center, des applications d’entreprise au HPC Exascale en passant par les modèles d’IA incluant des billions de paramètres, ce qui permet à de brillants innovateurs d’accomplir leur Projets les plus importants à une vitesse sans précédent.
La loi de MOORE, comme vous pouvez le constater sur le graphique ci-dessous, devrait se poursuivre avec la même régularité qu’elle a montée au cours des 128 dernières années.
Chaque secteur de la Planète va devenir une affaire d’information.
La loi de MOORE, prise comme croissance régulière du nombre de transistors sur un circuit intégré, a eu des effets sur le développement de toutes les technologies et industries utilisant de l’électronique (Appareils électroniques grand public, téléphones, montres connectées, industrie du jeu vidéo, pharmaceutique, l’aérospatiale, robotique, météorologie, blockchain, transport…).
Cette loi, s’applique-t-elle toujours ?
Depuis 2015, la croissance du nombre de transistors présents sur une puce décline. Les transistors auront d’ici peu atteint une taille minimale limite, de l’ordre de quelques nanomètres à peine. On signale, que la fréquence des processeurs stagne en raison des difficultés à dissiper la chaleur émise par un nombre de plus en plus grand de transistors.
En 1997, il y a eu les échecs avec l’ordinateur « Deep Blue », qui a battu KASPAROV au championnat du monde des échecs.
En 2015, c’est « AlphaGo » (programme du jeu « Go ») devient le premier programme à battre un joueur professionnel, Fan Hui sur un Gobas de taille normale (19×19).
En 2016, il bat Lee Sedol, un des meilleurs joueurs mondiaux.
En 2017, il bat le champion du monde Ke Jie.
L’algorithme « d’AlphaGo » combine des techniques d’apprentissage automatique et de parcours de graphe, associées à de nombreux entrainement avec des humains, d’autres ordinateurs, et surtout lui-même.
Aussi bien en 1997 qu’en 2016, ils pensaient que c’était impossible et que ça arriverait bien plus tard et pourtant, ça été le cas. Maintenant c’est devenu banal qu’une application standard d’un smartphone puisse battre n’importe quel humain aux échecs par exemple…
L’année suivante, l’équipe qui a travaillé sur « AlphaGo », invente un nouvel algorithme qui bat « AlphaGo » très, très rapidement.
Les jeux, sont de très bonnes ressources pour entraîner des Intelligences Artificielles, car le gros avantage d’un jeu, c’est que nous sommes dans un Univers qui est confiné, qui est bien défini, avec des règles bien précises, dans lequel nous pouvons entraîner une Intelligence Artificielle.
Par définition, si nous arrivons à entraîner une Intelligence Artificielle sur un jeu, alors nous pourrons l’entraîner en suivant les mêmes principes sur des problématiques du monde réel.
Google, le font déjà, ils ont l’équipe « DeepMind », et c’est celle qui a développé « AlphaGo » et ils se sont intéressés à un problème vraiment business qui était le refroidissement des baies de serveurs.
L’objectif, c’est de réduire la facture d’énergie.
Sur le graphique ci-dessous, vous pouvez remarquer qu’avec l’utilisation de l’Intelligence Artificielle, représenté par l’indication « ML Control On » (ML : Machine Learning qui permet à une machine d’apprendre de façon autonome à partir de données passées) et vous remarquez que la facture d’énergie à très largement réduit.
Suite à l’arrêt de l’utilisation de l’Intelligence Artificielle, représentée par l’indication « ML Control Off », la consommation d’énergie est repartie à la hausse.
En utilisant l’Intelligence Artificielle, il sont réussi à réduire leur facture qui est considérable chez Google de 40%.