Les leçons d’une crise : le télétravail a un avenir, si….

En fin d’année, « nouvelle normalité » fera peut-être partie des candidates au titre d’ « Expression de l’Année ». Après avoir vu notre “vie normale” sévèrement perturbée pendant des mois, les populations, états et acteurs économiques se remettent peu à peu sur pied en se demandant ce que l’avenir réserve – et maintenant, quoi ? Les activités sociales et professionnelles reprennent avec prudence, nos dirigeants tentent de deviner comment gérer nos vies dans le nouveau contexte (et comment payer la facture) ; ici et là, les entreprises petites et grandes réfléchissent à des nouveaux modèles d’organisation du travail (et à comment payer la facture). Ce que nous avons appris au cours de ces derniers mois, est que nous avons une capacité collective inconnue jusque-là à procéder à des changements d’habitudes globaux et rapides. Ça tombe bien : c’est exactement ce dont nous avons besoin pour modérer les effets de la crise climatique. Ce que nous faisons de cette découverte ne dépend que de nous.

Dans le domaine professionnel, le monde a eu la chance de tester le télétravail à une échelle inconnue jusque-là. Et la bonne nouvelle c’est que ça marche, du moins quand la solution est applicable. En fait, cela fonctionne tellement bien qu’un nouveau regard est désormais porté sur les bénéfices qui l’accompagnent. En deux mots : des économies immobilières et opérationnelles pour les employeurs (ainsi qu’un réservoir de ressources humaines étendu) ; des économies et un taux de satisfaction accru pour les employés ; et enfin, plus collectivement, une réduction des émissions de gaz à effet de serre (GES).

Il n’est pas simple d’obtenir des données sur l’impact des déplacements professionnels sur le réchauffement climatique. En croisant différentes sources qui donnent la part du transport dans l’émission de GES et la proportion de déplacements maison/boulot, j’arrive à une estimation grossière de 5 à 6% de GES résultant du travail présentiel. Bien assez à mon sens pour prendre le télétravail au sérieux.

Ce qui est encourageant, c’est que contrairement à d’autres changements comportementaux, ce nouveau paradigme peut se mettre en place rapidement et à grande échelle. Le recyclage, la réduction de consommation de viande, le passage au véhicules électriques… toutes ces modifications d’habitudes sont sujettes à des conflits d’intérêts. Leur adoption est donc lente et repose beaucoup (trop ?) sur des choix individuels et parfois activistes.

Pas le télétravail. Non, Monsieur. Non, Madame. Les avantages du télétravail génèrent une situation gagnant (employeur) – gagnant (employé) – gagnant (planète) qui devrait catalyser son adoption, même si  les inconvénients doivent être gérés correctement : perte de contact social, difficulté de supervision du travail, conditions de travail à la maison mal adaptées, etc…

En fait, certains grands groupes ont déjà commencé à agir. Mark Zuckerberg, a récemment déclaré qu’il s’attend à voir travailler à distance la moitié des employés de Facebook d’ici 2030. Le constructeur automobile PSA Groupe est sur la même ligne, en accélérant un déploiement du télétravail initié en 2019. Bon nombre d’entreprises rentrent dans la logique de prioriser le travail à distance, comme en témoigne par exemple cette liste collaborative.

Selon Kate Lister (Global Workplace Analytics), ce seront 25 à 30% des travailleurs qui resteront chez eux plusieurs jours par semaine d’ici la fin 2021 aux Etats-Unis. Mon sentiment est que le mouvement pourrait être bien plus étendu.

La tournure que prendront ces initiatives est une question de choix individuels et collectifs. Et la technologie jouera un rôle clef dans la diffusion et le succès de ces changements : l’efficacité, le confort et la satisfaction sont tous impactés par la qualité des conditions de travail.

La boîte à outils du télétravailleur

Si on y réfléchit un peu, le travail à distance existe depuis un moment. Et ce qui pose les limites de ce que l’on peut faire ou ne pas faire, c’est l’absence de technologie adaptée. Les moyens de communication, par exemple, sont essentiels. Quelqu’un se souvient-il d’un monde sans courriel ou Internet (la plupart d’entre vous probablement pas) ? Même en ces temps de pénurie technologique, il y avait des travailleurs à distance qui utilisaient ce dont ils disposaient : les téléphones (fixes bien sûr) et la poste. Cela semble inefficace, lent et inconfortable mais le travail à distance n’est pas quelque chose de nouveau. Ce qui est réalisable ou pas est une question de technologie, c’est tout.

Où en sommes-nous aujourd’hui ? Les réunions en écran-à-écran remplacent les tête-à-tête avec de plus en plus de succès : les logiciels de vidéoconférence font des progrès et encore plus en temps de confinement. Les connexions audio et vidéo fonctionnement correctement (la plupart du temps, pour la plupart d’entre nous). Des documents simples contenant du texte, des images, voire des vidéos peuvent être partagés. Il est même possible de collaborer dessus en temps réel, c-à-d travailler ensemble de manière synchrone. Tant que l’information qui doit être transmise d’un endroit à une autre est de taille limitée, le télétravail en équipe est pris en charge efficacement par les logiciels d’aujourd’hui. Et le meilleur reste à venir avec les vidéoconférences en réalité virtuelle.

L’affaire se complique lorsqu’on doit travailler sur des données plus volumineuses, telles que celles que je retrouve dans mon secteur d’activité, l’ingénierie assistée par ordinateur (IAO). Les ingénieurs effectuent des simulations afin de prédire des choses comme le comportement de composants mécanique ou l’écoulement d’air autour de bâtiments, voire comment un bout de métal devient une pièce forgée, etc… En fait, tout ce qui peut présenter une utilité et qui se met en équations finit un jour par être simulé sur ordinateur. Ces simulations produisent d’importantes quantités de résultats : quelques dizaines voire centaines de giga-octets ne sont pas inhabituels. On s’éloigne quelque peu du rapport PDF ou de la présentation Powerpoint à partager…

IAO à distance : nous étions sur des LAN (réseaux locaux) avant d’être sur des WAN (réseaux étendus)

Quand j’ai commencé ma carrière il y a 25 ans à Transvalor, nous avions un peu d’avance en ce qui concerne le travail à distance. Nous avions développé un solver parallèle innovant que nous faisions tourner sur des machines haut de gamme et très grosses, comme les IBM SP1 et SP2

L’analyse des résultats de ces simulations – le post-processing – était assez immédiat : les machines de calcul faisaient partie du réseau local (LAN), de sorte que nous montions des disques partagés sur nos postes de travail locaux. Ensuite, nous travaillions sur ces fichiers distants comme sur des fichiers locaux, en utilisant les mêmes logiciels de post-process. Il n’y avait pas de difficulté majeure autre que d s’assurer que notre entreprise investissait suffisamment dans l’Ethernet Gigabit qui voyait le jour à peu près au même moment. Charger les petits modèles de l’époque depuis la salle des serveurs voisine était suffisamment confortable, bien qu’un peu moins que de les charger localement.

Il est pour le moins surprenant de constater que de nos jours, au temps de modèles beaucoup plus imposants et de réseaux étendus comme Internet, la solution des disque partagés est encore en vigueur pour beaucoup d’ingénieurs IAO. L’autre option est d’ouvrir une session à distance par RDP (remote desktop) qui enverra un flux d’images du poste de travail distant vers votre écran local qui permet de travailler « comme au bureau ». Les deux solutions sont par essence très différentes et illustrent les deux façons de gérer la visualisation de résultats IAO stockés sur un serveur distant.

Sur un disque partagé, les données circulent du server vers le poste de travail local (client), qui prend en charge tout le travail de visualisation : traitement des données, génération du modèle de visualisation et le rendu visuel par la carte graphique. Les ressources matérielles de la machine cliente sont utilisées au maximum. Le prix à payer est le temps nécessaire pour que les données soient transférées du serveur au client. Même en considérant une bande passante WAN idéale d’1Gb/s (soit 125 Mb/s), le temps nécessaire pour charger un modèle standard à visualiser se compte en secondes. Par exemple, 8.5 secondes pour un modèle comprenant 1 million de nœuds, 5 millions de tétraèdres sur lequel on souhaite voir un champ de contraintes P1 discontinu (une valeur pour chaque nœud, par élément)

Lorsqu’on travaille dans un bureau à distance (RDP), les ressources de la machine locale sont peu mises à contribution : plus de génération de modèle de visualisation ni de rendu, tout ce qui reste est l’écran qui reçoit en continu des images streamées issues du traitement de données réalisé sur le serveur. Si on travaille sur un écran large confortable (3840×2160 pixels) en TrueColor, une image pèse environ 33Mb. En supposant une fréquence de rafraîchissement de 60Hz – soit 60 images par secondes – la bande passante requise serait de 2Gb/s. Oubliez. En pratique, il y a de la compression d’image, des caches et autres techniques d’optimisation qui permettent de réduire l’inconfort de l’utilisateur. Pour les bureaux distance, les inconvénients sont là : perte de qualité visuelle (dommage pour votre super carte graphique), du lag (décalage) – cette petite fraction de seconde entre le moment où vous bougez votre souris et celui où le modèle réagit et de l’instabilité (les 60 images par seconde doivent être fournies comme un métronome ce qui est rarement le cas).

Quelle que soit la solution choisie – disque partagé ou bureau à distance – la qualité visuelle et le confort ne sont pas les seuls inconvénients. Voyons la sécurité par exemple : exposer un dossier entier de son entreprise dans un lieu privé et non contrôlé n’est pas une très bonne idée. C’est même pire probablement en RDP : une session active est ouverte dans les mêmes conditions – malgré une connexion VPN, rien n’empêche le petit Théo, 3 ans, de faire des dégâts (un moment d’inattention est vite arrivé). Enfin, il faut installer et mettre à jour des logiciels sur les ordinateurs client (et parfois personnels) des employés, qu’il s’agisse des outils de post-process ou des logiciels pour faire du RDP.

Il y a clairement de quoi améliorer le quotidien de l’ingénieur IAO en télétravail… un mélange de progrès en qualité visuelle, confort d’interaction, facilité de déploiement et bien entendu, de coût matériel et logiciel.

La « normalité » en IAO aujourd’hui

Dans un monde habitué à accéder à l’information professionnelle et personnelle stockée dans « le Cloud » – c.à.d. quelque part et n’importe où – il est curieux de constater qu’un secteur aussi technique que l’IAO n’a pas encore complètement assumé ce changement. La plupart d’entre nous utilisons nos smartphones et laptops régulièrement pour exemple, partager des photos et vidéos personnelles, ou encore réaliser des opérations bancaires à titre professionnel. L’accès distant aux données et la possibilité de les manipuler est devenu si naturel qu’il devient difficile de se souvenir du monde « d’avant ».

En ingénierie assistée par ordinateur, la résistance au changement est bien présente. Nous nous raccrochons à l’ancienne normalité. Mais le changement est bien plus facile que nous ne l’imaginions – maintenant, nous savons. Même avant le coup de pouce des confinements, la part du déploiement dans le Cloud des outils d’ingénierie était en croissance.

 

De plus en plus d’offres estampillées « Cloud » voient le jour, que ce soit de la part des éditeurs de logiciel traditionnels nés pendant l’ère du tout-desktop à ceux, plus jeune, qui se sont construits sur le tout-Cloud.

L’entreprise munichoise Simscale est un précurseur dans ce domaine, proposant depuis 2012 une gamme complète de simulation en dynamique des fluides et calcul de structure sous forme d’abonnements sur un site web. Elle est considérée par beaucoup comme le leader du marché des solutions tout-Cloud en simulation IAO.

D’autres suivent ce chemin, partout dans le monde : Simright propose du calcul de structure statique et un gamme d’autres outils depuis Shanghai ; en Argentine, Caeplex est « une plateforme web très ergonomique pour réaliser des analyses thermomécaniques depuis un browser » ; à Stockholm, IngridCloud donne accès à des simulations de vent intelligentes pour diverses applications ; plus au Sud, à Milan, Conself a un offre fluide et structure « sur le Cloud » ;  ce groupe très dynamique d’entreprises de la nouvelle normalité inclut également Simulaton, WeStatix, Airshaper, Sim4Design, Simularge… et bien d’autres.

Parmi les éditeurs historiques, il semble que chacun dispose d’une offre Cloud ou est prêt à en sortir une. Dassault Systèmes a sa plateforme “3D experience on the Cloud”, Ansys a développé “Ansys Cloud” avec MS Azure, Autodesk offre “Fusion 360”, HBM Prenscia nCode a récemment lancé “Aqira”, une plateforme web pour l’analyse et la simulation,  Altair propose du HPC et une nouvelle plateforme nommée “Altair One” doit voir le jour très prochainement,…

Tous ces fournisseurs, incluant aussi Transvalor, Siemens et Hexagon MSC, ont des offres HPC (High Performance Computing) accessibles soit directement soit à travers des plateformes de calcul scientifique comme Penguin Computing,  The Uber Cloud ou Rescale. Ces dernières proposent aux utilisateurs finaux un environnement totalement flexible pour répondre aux besoins en simulation IAO : une large gamme de solvers, de fournisseurs Cloud et de hardware sont disponibles afin de construire la solution la mieux adaptée. Jetez un œil sur les logiciels disponibles sur Rescale et vous comprendrez que les jours du logiciel installé sur site sont comptés. Ces plateformes redessinent le marché avec leur offre « tout inclus » et flexible aux industriels.

La nouvelle normalité de l’IAO à distance : visualisation WebGL dans un browser ou crève…

 

Quel que soit le type de calcul sur machine distante, vous constaterez que la visualisation des résultats IAO se base sur une des deux approches abordées ci-dessus :

  • Rendu côté serveur et streaming de pixels vers un écran client « à la Bureau à distance (Remote Desktop, RDP)
  • Ou téléchargement de toutes les données sur le client, qui assure alors la génération du modèle de visualisation et son rendu graphique (« à la Dossier Partagés »)

Bien que le RDP n’ait pas connu de révolution, il convient de noter toutes les optimisations et efforts d’amélioration comme ceux présents dans NICE DCV (Desktop Cloud Visualization) désormais disponible sur AWS. La gestion du « décalage temporel » (lag) s’est bonifiée, mais reste un défaut d’actualité même sur nos WAN à haute bande passante.

Cela dit, l’argument incontestable qui doit pousser à éviter le RDP est tout simplement son coût. En effet, le server a besoin d’un GPU pour produire les visualisations et ceci rend le matériel beaucoup plus cher. NV6 est l’instance avec GPU “premier prix” pour la visualisation distante sur Azure : elle est pointée à $1.092/heure, tandis que le serveur sans GPU le moins cher – comme D2as v4 – revient à 0.096$/ heure et est parfaitement adapté au rendu graphique « côté client » … Maintenant, vous êtes informés.

Malgré tout, le rendu “côté serveur » peut s’avérer être le seul choix dans certains cas : les modèles XXXL, les connections à faible bande passante, etc…

De son côté, le rendu graphique par la machine client est en plein essor depuis que WebGL est devenu un standard embarqué dans tous les browsers Web vers 2015. Cette technologie a ouvert la porte à approche plus subtile du rendu « côté client » que celle des dossiers partagés, où la totalité des données nécessaires à la génération de la visualisation doivent être téléchargées. Nous l’avons vu précédemment : la quantité d’information est massive et l’expérience utilisateur vite cauchemardesque.

WebGL est devenu le facteur clef du changement en donnant à tous les browsers la capacité de représenter graphiquement des objets 3D, tout comme OpenGL le fait depuis longtemps pour les applications desktop traditionnelles. Ceci veut dire que le serveur peut se charger de l’ouverture des fichiers de résultats, l’extraction des données et de la génération de la visualisation. Dès lors, l’information à transmettre au client qui fera le rendu graphique se limite à un ensemble de triangles texturés (information qui sera compressée et optimisée en plus). Si le transfert de ce modèle de visualisation implique du streaming, on parlera de technique de « streaming d’objets 3D ». Vous trouverez plus de détails dans cette page écrite par mon ami et directeur technique de Ceetron, Fredrik Viken.

Et puis, après tout.. faites vous une idée vous-même de WebGL (oui, le modèle est interactif)…

 

Cette approche innovante a littéralement réduit à néant le défaut du rendu graphique côte client, ne laissant que les avantages : confort d’utilisation, qualité visuelle, risque minimum au niveau sécurité et coût hardware réduit d’un facteur 10. Evidemment, de tels arguments ont convaincu éditeurs de logiciel et développeurs internes, et de plus en plus de applications Web pour le post-process de résultats IAO font leur apparition.

Bien qu’il soit parfois difficile de dire qui utilise quoi, je pense ne pas me tromper en disant les applications suivantes utilisent WebGL pour leur visualisation IAO : Ansys Cloud, nCode Aqira, des composants de Autodesk Fusion 360, and bien sûre, les éditeurs natifs Cloud Simscale, Caeplex, Simright, WeStatix, Conself, Airshaper, Sim4Design.

Je me répète, cette liste peut comporter des erreurs et je n’ai aucune envie de blesser quiconque. Contactez-moi si je vous ai oublié, ou si j’ai mal interprété votre technologie – je me ferai un plaisir d’amender mon blog.

Migration de la visualisation IAO vers sa « nouvelle normalité »

 

Migrer d’un environnement « LAN » et sur site vers un environnement distant bâti sur un WAN est un choix stratégique. Suivant la capacité de développement et les prédictions d’impact, le choix se résumera en définitive à laisser le serveur produire et afficher la visualisation, ou alors à exploiter le matériel graphique du client en lui confiant l’affichage. De nouveau, les mêmes cas de rendu graphique « côté serveur » et « côté client ».

S’orienter vers l’une ou l’autre option résulte d’une comparaison du rapport coût de développement / gains attendus de chaque approche.

Déplacer une application desktop traditionnelle dans le Cloud par une technologie « côte serveur » ne requiert pratiquement aucun développement spécifique. Si on s’oriente vers du bureau à distance (RDP), le coût de développement est en fait nul, puisque l’application desktop s’exécutera sur un desktop distant. Pour les plus hardis, il est aussi possible de développer une application web faisant office d’interface utilisateur de type « browser ». Même dans ce cas, le coût de développement est réduit : rien ne change dans le moteur graphique de l’application – les pixels autrefois streamés vers un écran local sont simplement envoyés vers un écran distant avec des technologies connues et maîtrisées. Ce faible coût et l’absence de WebGL avant 2015 peut expliquer pourquoi beaucoup d’offres actuelles sont construites sur ce modèle.

Le rendu graphique “côté client » est une autre paire de manches. Du nouveau code doit être écrit afin d’optimiser l’objet 3D à streamer, et l’application web qui assure l’interface doit avoir son moteur de visualisation propre pour générer l’affichage (en plus de proposer une interface bien sûr). Fredrik Viken, directeur technique de Ceetron, estime que “le développement d’une plateforme de visualisation IAO pour le rendu graphique côté client et de l’interface utilisateur nécessaire est un projet de 10 à 15 années-ingénieur ». Ce n’est pas un petit investissement et les retours doivent être bien identifiés.

Heureusement (pour les utilisateurs finaux), les ressources peuvent être mutualisées pour développer la plateforme, et il semblerait que c’est ainsi que le marché se dessine. Même si le développement en interne a beaucoup de supporters (conserver la propriété intellectuelle et assure le contrôle), sous-traiter un tel projet limite le risque et réduit le temps de mise sur le marché du produit final. C’est ici que les kits de développement (SDK) de visualisation IAO dans le Cloud interviennent, en prenant en charge tous les détails et les complexités de la compression des données, de leur transmission et de leur affichage dans un browser. Les éditeurs de logiciel de simulation peuvent concentrer leurs efforts sur la construction de l’interface graphique que voit le client.

Une revue rapide (mais probablement assez complète) des offres SDK révèle un nombre limité d’offres spécifiques à l’IAO et la simulation par éléments finis :

  • La plateforme open source platform VTK propose vtkWeb et vtk.js , présentés comme “des outils pour construire des applications de visualisation” et suggère du conseil et des services de développement pour construire votre application. Quelques exemples sont fournis ici et ici (Paraview Glance).
  • Chez Ceetron, nous offrons Ceetron Cloud Components et quelques applications généralistes que nous avons construites nous-même sur ce SDK (voir Ceetron Cloud par exemple, ou l’installation de démo de Ceetron Analyzer Cloud).

Après 5 ans sur ce marché de niche, nos solutions sont reconnues et embarqués dans des solution commerciales comme Ansys Cloud, Simscale ou nCode Aqira. Je trouve cette vidéo d’Ansys particulièrement intéressante : elle décrit une approche hybride où l’application desktop traditionnelle se charge des mises en données et les uploade dans le Cloud. Ensuite, c’est une application web cliente qui permet de monitorer les calculs et les analyser. Notre technologie est également clef dans la mise en place de process de simulation automatisés et visuels dans un environnement multi-solver chez des partenaires comme SAP, BASF ou DNVGL.

La technologie sera déterminante dans la généralisation du télétravail dans la communauté de l’IAO. Les grandes quantités de données en jeu requièrent un traitement spécifique lorsqu’il est question de les visualiser à distance. WebGL a ouvert la voie à une approche réellement « Cloud » qui combine sécurité, qualité visuelle confort et une réduction substantielle des coûts matériels.

L’implémentation de la visualisation WebGL n’est pas immédiate et demande un investissement conséquent, ce qui a entraîné un retard dans son adoption : la communauté s’appuie encore en général sur des technologies anciennes comme les bureaux à distance ou les dossiers partagés. La tendance est cependant à une rénovation de l’approche, le plus souvent en s’appuyant sur des kits de développement spécialisés comme Ceetron Cloud Components.

Prenez soin de vous et profitez du code source !

 

 

Andres