Un codage foireux... Pas forcément foireux, juste pas optimisé car ceux qui codent à haut niveau n'ont aucune idée de ce que ça coûte une ligne de code, alors les cycles CPU, la consommation de RAM, les requêtes TCP, ça leur passe au dessus de la tête...
C'est dans l'ère du temps, on sait aujourd'hui créer un serveur Web avec un Arduino en deux lignes, sans en comprendre le fonctionnement, ça consomme un max de ressources par rapport à ce qu'il ce faisait il y a 10ans, mais c'est tellement facile.
Il n'y a qu'à voir le framework Electron (utilisé par Chrome, Skype, VSCode, WhatsApp, Discord etc...), qui "virtualise" toutes les ressources dont il a besoin, un serveur web, une base de donnée etc... Ca marche bien, c'est facile à programmer, à utiliser, ça permet de faire des fonctions super puissantes, mais bon, consommer 1Go de RAM juste pour une fenêtre de chat c'est abusé...
Il n'y a pas très longtemps, j'ai rallumé un vieux PC portable sous Windows XP trouvé dans le grenier, tellement vieux que l'écran est en 4/3, il n'a pas de trackpad, uniquement un trackpoint. Et ben il boot toujours plus vite que mon i7 à 12 cœurs avec NVMe. C'est sûr, il n'en fera pas autant après, mais ça fait mal au c*l.
Après c'est sûr que ça apporte beaucoup derrière, j'ai en tête par exemple les oscilloscopes numérique. J'en ai un avec un écran à tube cathodique, qui s'allume en 3 sec (le temps que le CRT "chauffe"). Sur les oscillos d'aujourd'hui, il faut booter un windows, ça prends facilement une minute ou deux, mais derrière les fonctions sont bien plus évoluée, et de nouvelles peuvent apparaître par mise à jour, ce n'est plus "que du soft".
C'est une tendance qu'on a également vu apparaître sur les télé, qui mettent de plus en plus de temps à démarrer. Aujourd'hui on a la parade, elles se mettent seulement en veille.
C'était le coup de gueule d'un dev soft.