La prochaine ère de l’IT ? Une pause !

N’en déplaise aux chantres de la “transformation digitale” (punaise, y en a vraiment marre d’utiliser cette expression !), la prochaine ère de l’IT ne sera PAS orchestrée par les développements fabuleux de l’IA ni par les possibilités formidables de la Blockchain (vous avez remarqué ? On en parle moins en ce moment et c’est pas dommage !).

Non, la prochaine ère de l’IT, c’est de faire une pause, tout simplement.

Oui, notez bien la date et retenez que c’est moi qui vous l’annonce car, pour une fois, la prochaine mode, c’est de calmer tout cela et de se concentrer sur des projets concrets, pratiques, les deux pieds bien ancrés au sol.

Mais qu’est-ce qui me permet de faire une prédiction aussi audacieuse ?

Eh bien, deux éléments. 1- Le machine learning affiche ses limites et 2-la loi de Moore est en train de s’effacer…

Fin de partie pour l’IA, winter is coming

Tout d’abord, le hype autour de l’IA dopée au machine learning est enfin en train de se calmer. C’est The Economist qui vient de siffler la fin de partie avec un dossier spécial consacré : après des années de battage médiatique, beaucoup de gens pensent que l’IA n’a pas réussi à délivrer des résultats à la hauteur des promesses (voir à https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in).

Source https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in

Je ne suis pas surpris puisque ça fait des années que je l’annonce (voir à http://www.alain-lefebvre.com/avenir-de-lia-lhypothese-85/). Ce qui a été surprenant, c’était de voir que, pendant longtemps, nous étions peu à le dire. Maintenant que The Economist vient de publier ce dossier, le hype en matière d’IA va forcément s’atténuer fortement, enfin !

Vous n’êtes pas obligé de me croire mais, en revanche, vous pouvez lire le dossier de The Economist fort bien fait…

Fin de partie pour la loi de Moore

Le NYT en parlait dès 2016 : la loi de Moore qui s’est vérifiée pendant des décennies est en train de s’effacer (lire à https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html).

Gordon Moore, a founder of Intel, in 1965 observed that the number of components that could be etched on the surface of a silicon wafer was doubling at regular intervals and would do so for the foreseeable future – an idea known as Moore’s Law.Credit…
Source https://www.nytimes.com/2016/05/05/technology/moores-law-running-out-of-room-tech-looks-for-a-successor.html

En fait, c’est plus important qu’il n’y paraît car, qu’on le veuille ou non, qu’on y croit ou pas mais les vrais progrès de l’industrie informatique repose surtout sur la croissance continue (jusqu’à maintenant) de la capacité de traitement et de stockage. 

Pour prendre une analogie, on peut comparer ce domaine (l’informatique) à un grand plan d’eau qui s’étendrait toujours plus en superficie mais resterait peu profond, même en son centre. La surface toujours en expansion représenterait la progression des capacités de traitement (et de stockage) qui ne cesse de progresser (et c’est cette progression qui donne l’impression d’une évolution sans frein) et la profondeur serait à l’image des fonctionnalités qui elles restent très limitées.

Si la loi de Moore est en train de finalement heurter un mur, c’est tout simplement le principal moteur du progrès technique qui est stoppé. Or, pour reparler du machine learning, on s’est vite aperçu que l’entraînement de ces systèmes demandait beaucoup de ressources (vraiment beaucoup) et de plus en plus. 

Voyons cet extrait de The Economist (source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem) pour situer les choses :

===

Openai, une firme de recherche basée en Californie, a déclaré que la demande de puissance de traitement avait décollé en 2012, alors que l’excitation autour de l’apprentissage automatique commençait à monter. Elle s’est fortement accélérée. En 2018, la puissance informatique utilisée pour former les grands modèles avait été multipliée par 300000 et doublait tous les trois mois et demi (voir graphique). Il devrait savoir – pour entraîner son propre système «Openai Five», conçu pour battre les humains à «Defense of the Ancients 2», un jeu vidéo populaire, il a mis à l’échelle l’apprentissage automatique «à des niveaux sans précédent», exécutant des milliers de processus sans arrêt pendant plus de dix mois.

Source https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem

Des chiffres exacts sur le niveau de ces coûts sont rares. Mais un article publié en 2019 par des chercheurs de l’Université du Massachusetts à Amherst a estimé que la formation d’une version de «Transformer», un autre grand modèle de langage, pourrait coûter jusqu’à 3 millions de dollars. Jérôme Pesenti, responsable de l’IA sur Facebook, explique qu’une session de formation pour les plus grands modèles peut coûter «des millions de dollars» en consommation d’électricité.

===

La progression de cette exigence dépasse de beaucoup ce que la loi de Moore était capable de compenser en temps normal… Et, désormais, elle ralentit. Vous voyez la collision des situations qui est en train de se dessiner ?

Bref, tout cela nous indique fortement qu’une pause est en train de s’installer. Il faut dire que la crise du Covid19 avait déjà ridiculisé (provisoirement ?) tous les tenants du transhumanisme et de l’immortalité. Cette fois, c’est la pause à venir qui va disqualifier les consultants en mal d’audience qui poussent encore et toujours la “transformation digitale” faute d’avoir quelque chose à dire… Tant mieux, qu’ils se recyclent sur autre chose.

Publié dans Ce blog | Commentaires fermés sur La prochaine ère de l’IT ? Une pause !

Des romans sur le devops, oui !

Je vous recommande la lecture de deux romans, du même auteur, qui traitent de la réalité du développement et de l’exploitation informatique dans une entreprise fictive. C’est très bien écrit et on peut dire que c’est du vécu à chaque ligne !

The Phoenix Project, un roman sur le devops, oui !
The Unicorn Project, un autre roman informatique du même auteur…
Publié dans Ce blog | Commentaires fermés sur Des romans sur le devops, oui !

Si vous vous intéressez à l’informatique quantique…

Voici enfin une bonne vidéo qui explique bien ce qu’est un processeur quantique, son potentiel et ses limites… à voir !

Une très bonne vidéo (toute la chaine YouTube de ce gars est bonne), en français en plus !
Publié dans documentaire, Références | Laisser un commentaire

Documentaire sur General Magic, bien, pas bien ?

Voilà un documentaire intéressant car il porte sur une période relativement récente de l’Histoire de l’informatique : le début météorique et la fin tout aussi rapide de General Magic.

Alors, si ce nom ne vous dit rien, il s’agit d’une société qui s’est formée avec des anciens de l’équipe du Macintosh et qui était soutenue par Sculley d’Apple jusqu’à ce que ce dernier lance le Newton. Le mieux est de regarder le trailer pour situer le contexte :

Un bon résumé du documentaire.

Pour regarder le documentaire en streaming (je viens de le regarder sur Vimeo), voyez sur cette page => https://www.generalmagicthemovie.com/screenings

Alors, ça vaut le coup de le regarder en fin de compte ou pas ?

La réponse ne peut être que mitigée : il y a de très bonnes choses, en particulier le fait qu’ils se soient souvent filmés pendant cette période. Cela nous permet d’avoir des images, presque comme s’ils savaient qu’il y aurait un jour un documentaire !

Cela permet de retracer assez facilement quelle était l’ambiance du moment et cela permet aussi d’expliquer bien des choses (ce qui s’est passé par la suite). Le moins bon c’est que l’angle « émotionnel » est trop accentué et que les protagonistes sont traités en héros ce qui est, à mon avis, un exagéré. Certes, ils avaient une vision intéressante et très en avance mais c’est loin de suffire. La petite équipe de Palm a fait bien mieux avec beaucoup moins de moyens parce que, justement, elle n’a pas été aveuglée par la certitude que sa vision était la bonne et la seule digne d’intérêt.

Si la fine équipe de General Magic s’était préoccupée plus tôt et plus sérieusement de finaliser son produit pour le lancer dans des délais raisonnables, l’histoire aurait pu être différente. Mais non, ils se sont amusés à jouer les créatifs, forcément, hein !

Bref, je considère que le destin avortée de General Magic était largement mérité.

Publié dans documentaire | Laisser un commentaire

La fin du mainframe, enfin ?

C’est un sujet récurrent… Cette fois, est-ce la bonne, enfin ?

C’est le sujet de ma dernière chronique pour Redsen que je vous laisse découvrir ici.

Les mainframes d’IBM étaient en bleu, ceux d’Amdahl en rouge…
Publié dans Références | Laisser un commentaire

Parlons de la 5G

Comme d’habitude, j’ai rédigé une chronique pour Redsen. Cette fois, j’ai traité d’un sujet d’actualité : la 5G. Je vous laisse découvrir la chronique mais j’ai ajouté un bonus ici : une courte vidéo de synthèse qui résume mon propos…

Les questions sur la 5G en quelques minutes…
Publié dans Références | Laisser un commentaire

Les développeurs en dessin, un blog à découvrir !

C’est bien vu, à déguster en connaisseurs !

https://uneviededev.com/

Publié dans Références | Laisser un commentaire

L’anniversaire du Web bat son plein !

Pour les 30 ans du Web, on peut dire que les articles sont nombreux. Voici une très belle infographie qui résume l’Histoire du Web des tout premiers débuts jusqu’à aujourd’hui…

Publié dans Références | Laisser un commentaire

Le Web a trente ans !!

Déjà…

Voir à https://siecledigital.fr/2019/02/21/surfez-comme-en-1990-cern/

Une simulation du tout premier navigateur Web sur NexT
Publié dans Anecdotes, Références | Laisser un commentaire

Quelques prédictions pour 2019

Le début d’année est une période favorable pour les « prévisions/prédictions », quel que soit le domaine. Dans le notre, j’adore les prédictions annuelles de Cringely (voir à https://www.cringely.com/category/predictions/) et, cette année, je vais ajouter les miennes…

En effet, je crois qu’il y a un certain nombre d’événements qu’il est relativement facile de prévoir (mais on peut se planter grossièrement aussi !) et je vais donc tenter l’exercice !

Tout ce que j’annonce dans ce post est déjà résumé dans la vidéo ci-dessous :

Le webinaire où j’expose certaines de mes prévisions…

Commençons par Intel donc… Le géant des composants va voir sa position s’amenuiser jusqu’au point son déclin sera bien amorcé… Plus à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/le-declin-dintel-est-amorce-par-tsmc

IBM va payer ses erreurs répétées lors de cette année 2019… Forcément, à un moment, Wall Street va siffler la fin de la partie !
Plus à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/la-prochaine-disparition-dibm

Apple et Facebook vont rentrer dans le rang : Facebook a cause des scandales à répétition et Apple à cause de la baisse de la vente des iPhones qui est inévitable (ça a déjà commencé d’ailleurs…). Plus à https://www.redsen-consulting.com/fr/inspired/tendances-decryptees/retour-sur-les-gafam-au-cas-par-cas

Après tout cela, j’hésite un peu à vous dire « bonne année »…

Publié dans Ce blog, Références | Laisser un commentaire