Catégorie : Bonnes Pratiques

Dossier écoconception logicielle : genèse


Depuis 2014, les experts du sujet n’utilisent plus le terme “écoconception logicielle” mais celui d'”écoconception de service numérique” ou de “conception responsable de service numérique” selon la complétude de la démarche. Le terme “service numérique” remplace le terme “logiciel” car on ne peut pas éco-concevoir un logiciel qui est l’état à un instant t d’un matériel. Pour comprendre l’importance de cette évolution sémantique lisez cet article et découvrez les acteurs sur le site du Collectif Conception Numérique Responsable.


 

Dans cette première partie de notre dossier consacré à l’éco-conception des logiciels, nous revenons en détail sur les raisons qui poussent les entreprises et les éditeurs à s’intéresser à cette pratique. Un article à lire absolument pour comprendre la suite du dossier.

Le coût du gras numérique
Le nombre de calculs par joule double tous les 2 ans. C’est ce que démontre la loi de Koomey. Autrement dit, l’efficience énergétique des microprocesseurs suit la loi de Moore ! En parallèle, les fabricants font de réels progrès en terme d’écoconception depuis quelques années. Un desktop haut de gamme destiné aux professionnels fonctionne sans problème pendant 10 ans.

Malheureusement, une étude que nous avons menée avec Frédéric Lohier en 2010, et qui a lancé le mouvement de l’écoconception logicielle en France, montre que l’empreinte ressources d’un logiciel, c’est-à-dire la quantité de cycles CPU, de mémoire vive, de bande passante, etc. nécessaire à son fonctionnement, double en moyenne tous les 2 à 3 ans. Il faut ainsi 114 fois plus de mémoire vive entre les couples Windows 98 – Office 97 et Windows 8 – Office 2013 pour écrire le même texte, effectuer le même calcul ou envoyer le même e-mail.

Ce phénomène d’obésiciel (contraction des termes « obèse » et « logiciel ») n’est pas propre à Microsoft : il touche tous les éditeurs et tous les développements sur mesure. La loi de With le décrit depuis 1991 : « le logiciel ralentit plus vite que le matériel n’accélère ».

De la performance à l’efficience
Jusqu’à présent, on absorbait les effets de ce « gras numérique » en rajoutant toujours plus de serveurs, bande passante, de mémoire vive, etc. Mais cette inflation de ressources finit par coûter cher, par poser des problèmes techniques, et par avoir des impacts environnementaux conséquents. Un gros data center consomme par exemple autant d’énergie qu’une ville de 200 000 habitants. Et le coût de la dette technique (notamment coût de maintenance évolutive et corrective) des logiciels devrait doubler entre 2010 et 2015, passant de 500 à 1000 milliards de dollars, selon le cabinet Gartner.

Depuis quelques années, de nombreux éditeurs, entreprises et administrations, cherchent à réduire l’empreinte ressources de leurs logiciels. Les mêmes acteurs mènent en parallèle des démarches pour rendre leurs logiciels et sites web plus accessibles, notamment aux personnes en situation de handicap visuel (mais pas que). C’est la dimension sociale. Nous arrivons à un moment de l’histoire informatique où ces deux démarches – économique et environnementale pour la première, et sociale pour la seconde – convergent pour n’en former plus qu’une : l’écoconception logicielle.

Source : GreenIT.fr

Frédéric Bordage

Expert en green IT, sobriété numérique, numérique responsable, écoconception et slow.tech, j'ai créé le collectif Green IT en 2004. Je conseille des organisations privées et publiques, et anime GreenIT.fr, le Collectif Conception Numérique Responsable (@CNumR) et le Club Green IT.

Site web - Twitter - Facebook - Linked In