Cyber sécurité - 5 minutes
-

Cybersécurité Pourquoi et comment sécuriser un projet SI ?

Notre Blog
Schéma technologique des ramification d'un système d'information sur un panneau digital

Pourquoi parler de cybersécurité ?

La cybersécurité n’est pas un enjeu nouveau. Mais avec la multiplication des produit digitaux et plateformes web, elle devient un sujet central pour les entreprises qui ont engagé une démarche de transformation digitale. Soit la quasi-unanimité des entreprises. Et plus qu’un slogan, security by design devient un leitmotiv pour chaque acteur devant le risque grandissant d’attaque.

 

S’il est difficile de mesurer a priori les conséquences d’une attaque cyber (on peut en revanche y préparer ses équipes), les risques sont eux bien identifiés. Ils peuvent notamment porter sur le fonctionnement de l’entreprise, ses finances, ses relations commerciales et son image.

Cybersécurité : les risques encourus en cas d’attaque

Le risque fonctionnel

Le premier risque en cas d’attaque cyber engage le fonctionnement même de l’entreprise. Une attaque prenant le contrôle du système d’information d’une entreprise peut totalement paralyser cette dernière. Récemment, la ville d’Angers a été victime d’un ransomeware qui a éteint tout son parc informatique, reléguant la ville au papier crayon pendant de nombreux jours.

 

Le risque financier

Le deuxième risque est financier. Et il n’est pas uniquement lié à l’attaque en elle-même. Car, outre la rançon qui peut être demandée par le hacker, une entreprise victime d’une attaque peut également être ciblée par la CNIL au titre d’un manquement au RGPD et ainsi encourir une amende pouvant aller jusqu’à 5% de son chiffre d’affaires annuel mondial.

 

Le risque commercial

En lien avec le risque financier, le risque commercial est aussi critique. Quelles entreprises voudront continuer à travailler avec une société qui n’a pas réussi à sécuriser ses données et celle de ses clients ? Quels consommateurs souhaiteront toujours acheter des produits ou services de la part d’une société qui a perdu leurs données personnelles ? Si l’on comprend aujourd’hui que tout le monde peut être victime d’une attaque, le niveau de préparation et de réaction d’une entreprise déterminera certainement la poursuite de ses principaux contrats commerciaux.

 

Le risque d’image

Enfin, le dernier risque est lié à l’image et au fait de se retrouver au cœur de l’actualité pour de mauvaises raisons. Les effets sont alors destructeurs, au même titre que les précédents risques. En 2015, le site de rencontre extra-conjugal Ashley Madison a été victime d’une attaque, et, ne souhaitant pas céder au chantage de la rançon, a vu toutes les données de ses utilisateurs publiées. L’un des arguments phare de la plateforme était la discrétion autour de ses membres, il a ainsi volé en éclats. La base de données du site se retrouvant même publiée avec un moteur de recherche permettant d’identifier chacun des utilisateurs.

Blackout sur un écran d'ordinateur
Cadenas fermant une grille

Les réflexes pour une protection cybersécurité

Avec le Règlement Général sur la Protection des Données, les mentalités sur la défense des données ont grandement évolué. Les notions de privacy by default ou de privacy by design sont apparues et la cybersécurité est devenue une composante centrale des projets dès la réflexion amont. Dès la création d’un nouveau canal de circulation – ou sur un existant, si le travail n’a pas été encore mené – la contrainte de la sécurisation de la donnée doit être présente. En d’autres mots, tous les risques doivent être calculés et anticipés dès la construction du produit ou service. Ce mode de pensée se généralise aujourd’hui, mais cela reste jeune et donc fragile.

Cette évolution des mentalités doit maintenant se traduire dans les budgets alloués à la cybersécurité et à leur ventilation. La réflexion ne doit plus par exemple se faire par produit – on avait coutume de dire qu’il fallait 10% du budget logiciel qui devait être consacré à sa sécurisation – mais pour le SI global. Le responsable sécurité n’est d’ailleurs plus aujourd’hui considéré comme un adjoint du DSI, mais comme une personne décisionnaire à part entière. Ces changements sont déjà effectifs pour beaucoup, mais reste minoritaires lorsqu’on regarde la globalité des entreprises françaises.

Enfin, il faut regarder les partenariats noués. Héberger ses données via un logiciel cloud américain va par exemple à l’encontre du RGPD. Le Cloud Act états-unien stipule en effet que le gouvernement a un droit de regard sur toutes les données manipulées par chaque entreprise de nationalité américaine. Ce qui est évidemment contraire à la réglementation européenne. En février dernier, la CNIL a par exemple mis en demeure un grand éditeur de sites français pour son utilisation de Google Analytics, ne garantissant pas l’anonymisation de la donnée des utilisateurs. Une manière de rappeler qu’utiliser les plateformes hors Europe doit se faire de manière encadrée.

Développeur en train de coder dans une pièce sombre

Cybersécurité : sécuriser un projet SI en amont

De manière plus spécifique, si l’on s’intéresse aux projets SI, la sécurisation commence dès la réflexion amont, soit la cartographie, les user stories, la méthodologie de travail, etc.

On se réfère alors au modèle OSI (Open Systems Interconnection – une norme de communication informatique qui régit le fonctionnement des SI) et à ses sept couches, qu’il convient de sécuriser maximum. Il faut partir du principe que soit l’application (ce que l’on développe), soit le système (la machine physique que la fait tourner) peuvent être attaqués – voire les deux. Sur l’échelle des 7 layers, beaucoup de questions vont donc devoir être posées. Par exemple et de manière non exhaustive :

  • • Doit-on émettre les communications sur du http ou du https ?
  • • Les données doivent-elles être chiffrées sur le disque de stockage ?
  • • Ce disque doit-il être ouvert à la lecture, à l’écriture ? À quelles personnes ?
  • • La connexion doit-elle être exigée par SSH ? Telnet n’est-il pas plus indiqué ?
  • • Etc.

Toutes ces questions introduisent la notion de security by design, entrouverte par le RGPD. La bonne pratique consiste à limiter au maximum les couches ouvertes, afin de réduire la surface d’attaque. Il y aura donc moins de end points à sécuriser et on sera d’autant plus efficace sur les potentiels points faibles, car ils seront identifiés et anticipés, et on pourra se concentrer sur le système de log par exemple ou des alertes pour savoir à tout moment ce qu’il s’y passe, et si quelque chose d’inhabituel est en train de se produire. Concrètement, si une attaque en brute force arrive, cela va immédiatement ressortir sur les communications, les données traitées, ou la consommation en CPU de la machine.

Problème d'accès à des ressources internes

De l’importance de monitorer en cybersécurité

Comme il y aura ainsi énormément de facteurs qui vont permettre de déterminer si l’on subit une attaque – encore un argument pour limiter les couches ouvertes–, il est nécessaire de suivre précisément ce que les équipes sont en train de produire et ce qui a été mis en place en amont pour déterminer si oui ou non, on est dans une situation critique d’attaque. L’aspect monitoring est donc une suite logique et chronologique au security by design.

Aujourd’hui, on estime qu’une entreprise victime met 6 mois à se rendre compte d’une attaque de son système. La pratique des hackers veut en effet qu’entre la découverte de la faille et l’attaque à proprement parlé, il y ait une période dormante permettant de ne pas éveiller les soupçons. Et lorsque l’entreprise se rend compte de l’intrusion, c’est trop souvent lors de la demande de rançon et il alors trop tard. On peut également ajouter d’autres attaques, invisibles, comme l’espionnage industriel. L’intrus ici n’a quasiment pas d’activité suspecte et va être difficilement repérable. En résumé, il faut être capable de voir qui s’est introduit dans le système, où et comment il a fait, sous peine de n’être ni capable de l’identifier, ni l’empêcher de recommencer.

 

Les utilisateurs : la faille numéro un en cybersécurité ?

Dans un projet informatique, et même si on a fait l’effort de le tester à chaque étape de sa construction, il est fréquent que les utilisateurs n’en aient pas l’utilisation prévue initialement. Cela crée donc naturellement des failles non-anticipées. Il est alors indissociable non seulement de préparer son interface ou son SI à des attaques, mais surtout de former ses équipes afin de limiter la faille la plus compliquée à prévenir : l’erreur humaine.

Cyber sécurité - 3 minutes
-

Améliorer la résilience numérique entraînement à la gestion de crise cyber ?

Notre Blog
Pochoir sur un mur d'une caméra indiscrète

Le contexte d'un entraînement à la gestion de crise cyber //

Retour d’expérience sur l’exercice organisé au profit de la direction générale d’Apside.

Il y a quelques semaines les principaux managers d’APSIDE ont été invités à rejoindre une «War Room » pour une journée d’exercice particulièrement intense où il a fallu prendre en compte, alerter, analyser, prioriser, coordonner, et décider. Parce qu’une attaque sur le cyber espace provoque des impacts multiformes et généralement sévères, il faut résolument être prêts à y faire face !

Au-delà de l’impact que cet exercice a pu avoir pour Apside en interne, cet article pose les enjeux d’une attaque cyber et les réponses à y apporter, à tous les niveaux d’une structure.

Qu’est-ce qu’une crise cyber et quel est l’objectif de ce type d’exercice ? //

On parle de « crise cyber » lorsqu’une ou plusieurs action(s) malveillante(s) sur le système d’information (SI) de l’organisation ciblée provoque(nt) une déstabilisation majeure de celle-ci. Les préjudices de ce type d’attaque peuvent parfois s’avérer irréversibles.

Il s’agit donc de s’entrainer à faire face à une situation de crise d’origine « cyber » et à savoir alerter les personnes requises pour analyser, puis décider rapidement et judicieusement. « Dans ce genre de situation il faut savoir faire preuve de discernement et restreindre le plus possible l’improvisation. L’expérience montre malheureusement que le manque d’anticipation est souvent dévastateur. » précise le directeur de l’exercice (DIREX). Il s’agit donc d’un exercice de niveau décisionnel. Celui-ci ne vise pas à surprendre ou à piéger les participants, mais, bien au contraire, à les accompagner dans un entraînement cadré qui repose sur des objectifs clairement définis, communiqués et partagés en amont.

Face à une menace de plus en plus présente, l’organisation d’exercices est indispensable. En s’entraînant très régulièrement, les équipes impliquées dans la gestion de crise acquièrent, exercice après exercice, des réflexes et des méthodes leur permettant de travailler ensemble plus efficacement. Savoir réagir à ce type d’attaque ne remplace pas la prévention, en menant une politique de cyber sécurité pro-active, mais elle doit lui être concomitante.

Bouton d'appel d'urgence
Salle de travail du groupe de gestion de crise Apside

Sur quelle base l’exercice de gestion de crise cyber est-il conçu ? //

Préparé dans le plus grand secret par une équipe dédiée, l’exercice est précédé d’une phase dite de « warm’up » consacrée à la présentation du contexte totalement fictif mais proche d’une situation réelle (agence, client, projet). Bien qu’Il s’agisse de ne pas créer de confusion avec l’activité réelle de l’entreprise, le contexte choisi se veut vraisemblable et formateur, pour les joueurs, les observateurs mais également pour les organisateurs. Ainsi, le scénario retenu se compose d’un enchaînement d’événements fictifs proposant une mise en situation de crise réaliste, bien que construite de toute pièce. Il se déroule sur une durée limitée.

 

Comment organiser un exercice de ce type ?

Il s’agit de ne pas partir de zéro. À ce titre, l’ANSSI propose un guide baptisé « organiser un exercice de gestion de crise cyber ». Celui-ci présente les actions à entreprendre pour chacune des étapes de conception et de cadrage, de préparation du scénario, de déroulement de l’exercice et enfin d’enseignements à en tirer.

Hacker à son bureau derrière son ordinateur sous une lumière tamisée

A quoi faut-il se préparer et quels sont les caractéristiques d’une crise cyber ? //

La fulgurance de ce type d’évènement, conjuguée au fait que l’entreprise peut être touchée simultanément de manière protéiforme, génère une situation d’incertitude plus ou moins durable. À ce stade, il ne s’agit plus de se préparer au mieux à une future crise mais bien d’agir en suivant la trame d’un plan imaginé à l’avance et éprouvé.

À l’image de n’importe quel événement générateur de crise au sein de l’entreprise, les conséquences d’une cyberattaque sont diverses. En effet, les impacts peuvent être juridiques, réglementaires, légaux, métiers, organisationnels, RH, financiers, réputationnels et techniques. Ils peuvent également engendrer une forte pression médiatique. Par conséquent, la cellule de crise doit être en mesure de coordonner des équipes aux compétences variées dans le but d’endiguer les effets de la crise et de permettre la meilleure résilience possible.

Salle de travail du groupe de gestion de crise Apside

Quelle est la mission de la cellule de gestion de crise ? //

Il s’agit de coordonner les actions des acteurs de la cellule de crise et des équipes extérieures pour apporter au décideur l’ensemble des éléments d’information nécessaires pour :

  • • Supprimer rapidement l’impact de l’attaque via un cyber confinement par exemple ;
  • • Assurer la continuité de l’activité ;
  • • Communiquer en interne et en externe ;
  • • Prévenir les autorités et déposer plainte…

Et enfin amorcer les opérations de correction et de reconstruction qui sont à prévoir pour une reprise d’activité dans les meilleurs délais. À noter que la sortie de crise doit s’envisager sur le temps terme, souvent plusieurs mois.

 

En conclusion, ce type d’exercice s’inscrit dans une réflexion globale visant à renforcer la résilience de l’organisation via une démarche d’apprentissage progressif aux objectifs et paliers à atteindre au fil du temps bien définis. En invitant les bons profils et en les confortant dans leur rôle réel, l’exercice permet également de préparer les personnes. Un double bénéfice collectif et individuel donc.

Le mainframe est-il mort ? - 5 minutes
-

Le Mainframe Est-il mort ?

Notre Blog
Mainframe ou ordinateur central derrière une grille de protection

Pourquoi se se poser cette question sur le Mainframe ?

Le Mainframe constitue la colonne vertébrale informatique de nombreuses entreprises. Le système de gestion de la plupart des banques et assurances repose notamment dessus. Mais de nouvelles pratiques récentes s’en affranchissent. Google par exemple n’y fait pas appel pour gérer son moteur de recherche, pourtant gestionnaire de plusieurs milliards de données.

Doit-on ainsi s’émanciper de ces macro-ordinateurs ? Et doit-on se libérer par la même occasion du Cobol, cet antique langage de programmation qui y est associé ?

Qu’est-ce que le mainframe ?

Le Mainframe est souvent assimilé à un gros ordinateur. Derrière ce rapprochement un peu grossier, le Mainframe se définit surtout comme un système informatique centralisé. Concrètement, il se compose d’une machine, avec un et plus souvent plusieurs OS installés dessus. Un système d’exploitation principal guide la machine et les OS secondaires sont souvent Linux ou Windows.

En prenant par exemple les z15 IBM, les machines les plus populaires, on peut mettre jusqu’à 5 systèmes en natif :

  • • Le z/OS qui est l’OS standard.
  • • Le VSE, soit de tout petits mainframes, adapté aux très petites configurations. On les retrouve dans les entreprises de moins de 10 salariés, ce qui représente tout de même 8% du marché.
  • • Le VM, pour Virtual Machine, qui est orienté émulation, avec une capacité d’un millier d’instances de machines virtuelles et une virtualisation à 5 niveaux (création d’une machine virtuelle, qui va créer en son sein une deuxième machine virtuelle, qui elle-même va en créer une troisième, etc.). Il existe également une logique de conteneurs sur ce type de système. Pour donner une idée de la puissance, on peut aller jusqu’à 2,4 millions de conteneurs Linux sur une même machine. Mais si la puissance est comparable à des data centers, on se retrouve face à des machines beaucoup plus compactes et beaucoup moins chères à l’utilisation, notamment en termes de ressources consommées.
  • • Le TPF, soit le système pour faire du transactionnel de masse, et ainsi privilégié dans le transport aérien notamment. Avec cet OS, la capacité monte à un billion de transaction par jour (1000 milliards), avec des dizaines de milliers de connexions simultanées. Mais cette puissance de calcul suppose évidemment des machines adaptées au niveau des serveurs et des processeurs.
  • • La dernière option est de n’installer que Linux sur son Mainframe.

 

On entend souvent Mainframe égal Cobol. Si c’est effectivement le langage le plus utilisé, on comprend bien à l’énumération de ces configurations que le Mainframe peut également servir pour d’autres langages comme du Java ou du Note.JS. Et ce, sur la même machine grâce à l’intégration de plusieurs OS différents. Ici réside l’atout principal du Mainframe : tout centraliser sur une même machine – sans avoir à s’équiper de serveurs séparés – avec des outils et des langages différents. Ainsi, le Mainframe permet de résoudre les problèmes de liaisons et de décalages dus à des réseaux distincts.

Exemple de pièce abritant un mainframe
Gros plan sur un mainframe

Mainframe : pourquoi Cobol et Pacbase ?

De la même façon que Java est optimisé pour les applications web ou le C pour les systèmes, Cobol est le langage par excellence pour faire de la gestion. Il comporte deux atouts majeurs et exclusifs :

  • • Les calculs en virgule fixe de manière native, ce qui permet précision en rapidité pour les décimales (à l’inverse des autres langages en virgule flottante), toujours très appréciable dans les métiers financiers
  • • Les redéfinitions de données, qui permettent nativement – contrairement à la plupart des autres langages – d’isoler des variables sans extraction

 

Cobol a souvent l’image d’un langage vieillissant et complexe. Il est d’ailleurs de moins en moins enseigné, mais reste très utilisé, ce qui donne beaucoup d’importance aux personnes capables de l’instruire. Mais la mutation des entreprises, vers des méthodes agiles notamment, déteint sur les projets Cobol qui adoptent le système Scrum par exemple, abandonnant les cycles en V. Il faut toutefois s’attendre à des sprints plus longs, d’environ 3 semaines, pour avoir le temps de développer. Au contraire du Java, le Cobol ne permet de mettre en œuvre une évolution et de la présenter en temps réel (continuous development). Il faut alors se concentrer sur chaque fonctionnalité, pour à la fin des épics, présenter l’application dans sa quasi-globalité. Malgré cette particularité de travail, le langage Cobol fonctionne parfaitement en Scrum, et beaucoup de grandes banques et assurances ont franchi le pas ces dernières années.

 

Et si les pratiques DevOps ne sont pas encore envisagées, la particularité des Mainframes, avec leur abondance de systèmes d’exploitation embarqués, permettent néanmoins des passerelles entre les différents environnements que peuvent être les développements, les tests, les homologations, etc. Cette simultanéité contrebalance ainsi la relative longueur des sprints.

Interface de travail TSO sur z/OS

Le Cobol : vieux langage ?

Historiquement, le Cobol se veut être un langage interopérable, parce qu’il n’est pas le langage originel et que les personnes l’ayant construit ont souhaité pouvoir appeler d’autres langages.

Mais il a cette image de vieux langage, car il est toujours rétro-compatible alors qu’on ajoute des nouveautés. Le langage Cobol continue ainsi d’évoluer (version 6.4 sortie en mai 2022) et est capable de communiquer avec des nombreuses technologies comme du xml, du MQSeries, ou encore du JSON, grâce aux nouveaux ordres du langage. Le plus grand frein reste finalement le silotage de certaines entreprises qui compartimentent leurs équipes par technologie. C’est en fait la nature même du besoin qui va décider si des échanges entre les langages sont nécessaires.

Et comme pour d’autres langages, le Cobol s’appuie sur plusieurs gestionnaires de sources, comme zGit ou SVN. Cela dépend ici aussi des choix de l’entreprise. On observe ainsi sur beaucoup de points une volonté du langage de se moderniser. Le dernier exemple en date est le passage presque systématique à l’outil Eclipse au détriment de l’outil TSO, resté célèbre pour son surnom de Minitel, tant son interface y ressemble.

Parsing Json en Cobol avec l’interface Visual Code Studio

La part du business dans le mainframe

Le Cobol reste un langage très utilisé dans de nombreux secteurs d’activité comme la banque, l’assurance, mais aussi la grande distribution, l’industrie spatiale et automobile ou la Défense. Populaire en son temps, le Cobol est toujours au cœur des systèmes d’informations de ces secteurs et outre le coût, le temps et les risques liés à une migration, il a l’avantage d’être un des langages les plus sécurisés ce qui perpétue son usage. Et en termes de coût d’utilisation, le Cobol reste inférieur aux autres langages, surtout à long terme, car la durée de vie de son code est plus longue et il n’est pas nécessaire de le réécrire dès que le langage évolue, comme avec du Java par exemple.

Malheureusement, son image vieillissante fait que de moins en moins de développeurs maîtrisent ce langage. Le marché se retrouve donc avec une pénurie de compétences en Mainframe alors que les besoins restent a minima stables. Pourtant, la mauvaise presse du Cobol semble exagérée. Le Cobol reste un langage relativement simple qui permet d’accéder à des projets à dimension fonctionnelle stratégiques que ne permettent pas d’autres langages plus modernes comme le .net ou le Java. Le sens du marché s’apparente ainsi à une double maîtrise Cobol et langage plus orienté objet (JS ou Java par exemple), afin, pour les entreprises, de disposer de compétences transversales, et pour les développeurs, de participer à des missions beaucoup plus valorisantes et complètes.

 

Non, le Mainframe n’est donc pas mort. Au contraire, il est plus vivant que jamais, parce que les besoins ne diminuent pas au sein des entreprises, et, alors qu’il est de moins en moins enseigné, il devient de plus en plus rare et donc recherché.

Green IT et impact du numérique : Entre constats et bonnes pratiques

Notre Blog
Mur blanc orné de flèches végétales vertes

Green IT et impact du numérique : un contexte préoccupant //

3,8% des gaz à effet de serre émis dans le monde sont dus au numérique [1]. C’est l’équivalent de la flotte mondiale de camion, et plus que aviation civile (<3%) pourtant souvent pointée du doigt. En 2019, on comptait environ 34 milliards d’équipements, pour 4 milliards d’utilisateurs, ce qui fait de la matérialité la principale source de pollution environnementale du numérique.

Le numérique pose aussi des questions indirectes, voire sociétales. Il y a encore nombre de composants que l’Humain n’arrivera pas à recycler, une extraction des ressources qu’il ne sait maîtriser, ou encore une fracture numérique qui touche 17% de la population [2].

Green IT et impact du numérique : constats chiffrés //

La plus grande part de l’impact du numérique sur l’environnement est incontestablement due à la fabrication parmi toute la durée du cycle de vie des équipements. L’utilisation ne doit toutefois pas être minimisée, notamment en raison de sa consommation d’énergie et en particulier d’électricité. (Voir capture d’écran du rapport de greenit.fr ci-contre[1])

On peut identifier trois types d’acteurs dans le numérique : les utilisateurs, le réseau et les serveurs. Et ce sont les utilisateurs (et leur très nombreux équipesments) qui ont le plus d’impact, loin devant les serveurs et le réseau. Si leurs effets ne sont pas nuls, les très décriés data centers ont un impact plus limité que nous utilisateurs (une récente étude publiée par l’Ademe et l’Arcep [3] les place cependant en 2ème position, mais toujours loin derrière les utilisateurs. (Voir capture d’écran du rapport de greenit.fr ci-contre[1])

En croisant les deux variables cycle de vie et acteurs, on observe que l’impact du numérique incombe principalement aux utilisateurs et à leurs besoins matériels, avec 37% de l’énergie utilisée, 76% des gaz à effet de serre, 86% de l’eau consommée et 79% des ressources matières exploitées. (Voir capture d’écran du rapport de greenit.fr ci-contre[1])

Tableaux représentant les impacts du numérique en France en 2020
Tableau d’ordre de grandeur des émissions de gaz à effet de serre du numérique

Green IT et impact du numérique : quelques ordres de grandeur //

Très médiatisé, l’impact des emails est largement inférieur à d’autres pratiques en termes d’émission de gaz à effet de serre. Par exemple une utilisation classique de 10 emails par jour (sans pièce jointe) pendant 250 jours reviendrait à 10kg d’équivalent C02. Parallèlement, détenir un iPhone équivaudrait à 86kg d’équivalent C02, une Apple Watch 36kg et un Google Home 82kg. Certes, supprimer ses emails, limiter ses pièces jointes restent des bonnes pratiques qu’il faut encourager. Mais elles auront toujours moins d’impact que le fait de garder ses équipements le plus longtemps possible. Et dans notre quotidien, ce qui a le plus d’impact sont les ordinateurs, qu’ils soient portables (380 kg dont près de 300kg pour la fabrication pour un Dell XPS 15’’) ou de bureau (575 kg pour un Dell OptiFlex 5070), mais surtout les écrans. Un écran de bureau 8k 32 pouces représente un équivalent CO2 d’environ une tonne ! Alors que pour rappel, l’objectif pour une neutralité carbone en 2050 est de se limiter à 2 tonnes par personne par an.

En face, et pour donner des ordres de grandeur, un jean en coton « coûte » 23kg, un gigot d’agneau 49kg et un aller-retour Paris Rome en avion 300kg. Ces comparaisons ne sont là pour exonérer les impacts plus médiatiques de la mode, de l’élevage ou de l’aviation, mais bien pour démystifier les croyances qui élèvent le numérique en solution miracle car tout pourrait se faire à distance.

(Voir tableau d’ordre de grandeur des émissions de gaz à effet de serre du numérique – estimations à titre indicatif [4, 5, 6, 7, 8] – en bleu la fabrication, en orange l’utilisation)

Green IT : la naissance d’une prise de conscience //

Pour contrer ces effets prédateurs du numérique sur notre environnement, est née la pratique du Green IT. C’est une branche du numérique responsable qui vise à réduire l’empreinte environnementale du numérique. Le numérique responsable, outre le green IT, comprend également la conception responsable des services numériques et l’IT for Green qui promeut des services liés au développement durable. Laissons ce dernier de côté car il représente des projets en particulier, et non une démarche applicable à tous.

Né dans les années 90, le Green IT se démocratise au début de notre millénaire, notamment à travers des premières lois qui imposent une prise de conscience aux entreprises. Mais comme souvent, ce sont des associations (CIGREF, Greenpeace) ou des initiatives (Climate Savers Computing Initiative, greenit.fr, INR) qui ont proposé les actions les plus avancées. Florilège des plus efficaces d’entre elles, d’une part du point de vue utilisateur et d’autre part à travers la conception.

Capture du rapport de theshiftproject.org représentant la recyclabilité des métaux

Green IT : des bonnes pratiques du côté utilisateur //

En tant qu’utilisateur, il faut se demander ce que l’on peut faire pour réduire son empreinte. Le premier levier est d’agir sur la fabrication des terminaux, car elle a le plus gros impact. Dans cette optique, allonger au maximum la durée de vie des terminaux est l’objectif prioritaire, compte tenu du fait que nous sommes tous déjà sur-équipés. Cela permettra ainsi de relâcher la pression sur la fabrication. A-t-on réellement besoin de renouveler son parc informatique au bout d’un an d’utilisation ? En cas de perte de performance, n’est-il pas plus judicieux d’augmenter la mémoire vive, ou de changer un disque dur ? Mieux encore, ne peut-on pas rendre plus efficaces nos traitements envers nos équipements pour les garder plus longtemps ?

Ce qui amène naturellement vers la deuxième préoccupation : comment réduire notre équipement. Le besoin d’avoir le dernier gadget pour smartphone ou cet écran supplémentaire n’est pas forcément essentiel. Et si le recours à l’achat devient indispensable, il faut invariablement se poser la question comment bien acheter. Cela passe par vérifier lors de l’achat que l’appareil ainsi acquis est réparable (la batterie de ce nouveau smartphone peut-elle être changée ?) et que les pièces seront disponibles pour une durée suffisamment longue [9]. Plus difficile pour une entreprise mais envisageable pour les particuliers : le reconditionnement.

Enfin, pour participer à réduire le nombre de terminaux fabriqués et ainsi son empreinte numérique, la revente est un levier. Il faut ainsi privilégier les solutions qui assurent un réemploi, soit en l’état, soit là aussi grâce aux reconditionneurs. On préférera effectivement le réemploi au recyclage, car on recycle encore très mal nombre de métaux, souvent parce qu’ils sont en quantité infime et qu’il n’existe pas de rentabilité à les extraire pour les traiter séparément. Mais ces quantités infimes dans un terminal, finissent en impact écologique immense multiplié par le nombre de terminaux.

 

(Voir capture du rapport de theshiftproject.org [10])

Le Green IT et l’éco-conception pour le web //

En tant que concepteur, nous avons également un rôle fort à jouer. Côté front, l’enjeu premier est de concevoir des applications légères et efficaces. Cela permet notamment de ne pas pousser à l’obsolescence des appareils anciens. Une application disponible sur de vieux équipements qui consomme peu de bande passante ou peu de puissance processeur n’encouragera pas les utilisateurs à changer leurs appareils pour des plus récents.

Côté Web, les bonnes pratiques sont similaires. Alléger le poids des pages, le nombre de requêtes serveurs ou encore la complexité du DOM, rend un site plus sobre et plus utilisable sur d’anciens terminaux. Outil parmi d’autres, GrennIT Analysis (anciennement ecoindex.fr) permet de mesurer l’efficacité des pages. L’INR (Institut Numérique Responsable) met également une boîte à outils [11] qui regroupe des solutions d’éco-conception et d’accessibilité, voire même plus récemment guide de conception repsonsable [12]

Des applications légères sont également bénéfiques côté utilisation, serveur et réseau, notamment en éliminant les fonctionnalités non essentielles. Plusieurs études (Cast Softwre et Standish Group, notamment) démontrent que 45% ne sont jamais utilisées et que 70% des fonctionnalités demandées par les utilisateurs ne sont en réalité pas utiles non plus [11]. En réduisant le nombre de fonctionnalités, on réduit donc les requêtes serveurs et la bande passant utilisée notamment, et donc l’impact écologique. On peut également amoindrir le recours à des outils de tracking comme Tag Manager ou Analytics, eux aussi gros consommateurs de ressources.

Enfin, nous pouvons agir côté serveur. Au cœur de la tourmente médiatique, la donnée est souvent pointée du doigt. Compte tenu de sa part de responsabilité sur l’impact du numérique, à tort peut-être, mais cela ne doit pas empêcher d’agir dessus. Combien de données sont collectées, combien de temps est-elle stockée, à quel moment va-t-elle être supprimée ? Ces questions doivent entrer dans les réflexions. Et si possible by design, soit dès la conception l’application ou du site. Framapad, outil de texte collaboratif, demande dès la création du fichier à l’utilisateur quelle sera la durée souhaitée d’existence de son fichier partagé. Une sorte d’expiration by design.

Au-delà d’une bonne pratique, cela permet de faire prendre conscience à l’utilisateur qu’il n’aura pas toujours besoin de ce fichier, et que stipuler une durée de vie à certains fichiers créés est une pratique novatrice et intéressante. En développement, cela se traduit par des pratiques d’éco-conception qui encourage à agir dès le design, le plus en amont possible donc et avant les optimisations.

 

Il existe une foultitude d’autres bonnes pratiques en Green IT. Et chaque pièce participe à l’immensité du puzzle. Si dans chaque projet, programme ou produit, on se pose la question de l’impact, en mettant en tête de la réflexion la consommation de terminaux, alors chaque geste, chaque ligne du cahier des charges, nous conduira dans la bonne direction.

 

[1] https://www.greenit.fr/wp-content/uploads/2021/02/2021-01-iNum-etude-impacts-numerique-France-rapport-0.8.pdf

[2] https://www.vie-publique.fr/en-bref/271657-fracture-numerique-lillectronisme-touche-17-de-la-population

[3] https://www.arcep.fr/uploads/tx_gspublication/etude-numerique-environnement-ademe-arcep-volet02-synthese_janv2022.pdf

[4] https://bilans-ges.ademe.fr/

[5] https://www.apple.com/fr/environment/

[6] https://www.fairphone.com/fr/

[7] https://sustainability.google/reports/

[8] https://www.dell.com/en-uk/dt/corporate/social-impact/advancing-sustainability.htm

[9] L’article L. 111-4 du Code de la consommation introduit une obligation d’information sur la période ou la date de disponibilité des pièces détachées.

[10] https://theshiftproject.org/wp-content/uploads/2018/10/2018-10-04_Rapport_Pour-une-sobriété-numérique_Rapport_The-Shift-Project.pdf

[11] https://institutnr.org/liste-doutils-numerique-responsable

[12] https://gr491.isit-europe.org/

Intégration d’un collaborateur en situation de handicap - 3 minutes
-

Intégration d’un collaborateur en situation de handicap Le témoignage de Yoann

Notre Blog

Intégration d’un collaborateur en situation de handicap : convictions //

Vous avez recruté dans votre équipe Flavien, qui est un travailleur en situation de handicap. Avez-vous ressenti des craintes/appréhensions vis-à-vis de son recrutement ?

« Le recrutement d’une personne en situation de handicap ne génère aucune peur ni inquiétude, je souhaitais cependant connaître son handicap, dans le but de m’assurer que l’environnement de travail serait compatible avec les besoins de Flavien.

Il y a plusieurs niveaux de handicap : des handicaps légers et des handicaps lourds. Je souhaitais éviter que le handicap de Flavien porte atteinte à sa personne, son intégrité, son épanouissement et sa sécurité. Le bien-être de mes préparateurs est quelque chose qui est très important. À mes yeux, il est nécessaire que les nouveaux arrivants s’intègrent dans de bonnes conditions au sein des équipes et qu’ils s’épanouissent. »

 

Intégration d’un collaborateur en situation de handicap : une évidence //

 

Quelles sont les raisons qui vous ont encouragé à tenter l’expérience ?

« Pour être totalement transparent, la notion de handicap n’est pas un élément qui contribue à ma prise de décision, ce sont les compétences qui priment à mes yeux !

Je recrute des personnes qui sont persévérantes, qui ont l’envie d’apprendre, et qui ont le bon mind set. La compétence métier viendra avec les formations que dispense Apside – formations qui ont une réelle plus-value. Je cherche un état d’esprit, un comportement, une assiduité et la compétence. c’est pour ça que je travaille avec David, et que je l’ai soutenu lorsqu’il a créé une école et des formations avec Yvan.

La formation au métier de préparateur est particulière, elle n’est pas disponible sur toutes les plateformes de formation connues. Le métier est très compliqué à appréhender et à transmettre. Je voulais m’assurer qu’Apside était capable de capitaliser sur le savoir et de transmettre ses compétences. Durant les entretiens, je regarde donc le mind set, la persévérance, et l’envie d’apprendre du candidat. Ça se voit tout de suite s’il a l’envie d’apprendre. »

Intégration d’un collaborateur en situation de handicap : réussir une intégration //

Etes-vous satisfait de la prestation réalisée par Flavien ?

« Depuis que Flavien est dans mon équipe, soit environ 5 mois, j’ai vu Flavien prendre de l’assurance, comprendre le métier complexe qu’est la préparation et s’épanouir. A l’instant T, je suis très satisfait par ses prestations. Bien sûr qu’il a du chemin à parcourir, pour ma part ça fait 20 ans que je suis dans la préparation et j’en apprends tous les jours. Mais au niveau de Flavien, et par rapport à ce qui a été réalisé jusqu’à aujourd’hui, Flavien est totalement aux attendus. »

 

Un conseil ou un message aux candidats potentiels ?

« Le conseil que je pourrais donner aux potentiels candidats, c’est d’être persévérants, curieux, organisés. Le métier se transforme au grès des projets Airbus Helicopters. Nous sommes sans cesse en train d’évoluer, il faut donc des personnes capables de s’adapter afin de rester agile.

La préparation méthode donne la possibilité de travailler sur une multitude de sujets allant du développement des nouvelles installations en passant par de la réaffectation, le parachèvement, le support prod, etc. L’éventail est large ce qui permet d’avoir une connaissance globale de l’appareil. La préparation méthode permet de toucher à tout, et de comprendre divers métiers tels que le métier approvisionnement, le métier qualité, et le métier agent d’études techniques (AET). Le préparateur méthode est au milieu de tout ça, il tire les ficelles pour essayer de faire avancer l’Indus ou l’installation sur l’appareil, c’est donc un métier vivant et compliqué. De ce fait, il faut avoir certaines qualités, être persévérant et ne pas laisser le train partir, s’accrocher et avancer. »

Intégration d’un collaborateur en situation de handicap : un message à faire passer //

 

Auriez-vous un message à faire passer aux donneurs d’ordres Airbus Helicopters sur les prestations avec Apsid’EA  ?

« Le message que je pourrais faire passer est qu’il ne faut pas partir avec des a priori lorsqu’on parle de handicap. Lorsque la mission est compatible, le handicap ne doit pas être un élément pouvant impacter la décision.

Je n’ai aucun doute sur le fait qu’il n’y ait pas de frein chez Airbus Helicopters lorsque c’est fait en totale transparence.

En effet, il reste primordial d’être au fait concernant le handicap du futur collaborateur afin de s’assurer de la compatibilité de l’environnement de travail avec les besoins du collaborateur. Il faut instaurer dès le départ un climat de confiance et de transparence.

En l’occurrence, il était nécessaire de prendre en compte le souffle au cœur de Flavien avant de définir son périmètre afin qu’il puisse s’épanouir pleinement : je tiens à ce que mes collaborateurs soient heureux. »

 

Cette interview a été réalisée à la suite du témoignage de Flavien concernant son intégration chez Apside’EA, sa formation et sa montée en compétences orchestrée par Follow Your Collab, et sa prise de poste en tant que préparateur méthode // chez Airbus Helicopters. Retrouvez le portrait de Flavien ici.

Cyber sécurité - 3 minutes
-

Vie privée sur Internet : Comment retrouver liberté et contrôle sur ses données personnelles ?

Notre Blog
Mur de briques où sont alignées des caméras de surveillance toutes tournées dans le même sens

À la recherche d'une vie privée sur Internet //

Les e-mails chez Google, les photos sur Facebook ou Instagram, ses bulletins de salaire sur OneDrive… C’est simple, ça fonctionne parfaitement et c’est gratuit. Pourquoi aller voir ailleurs ?

Ou, autrement dit, la liberté sur Internet a-t-elle un prix ? Donner moins d’informations au GAFAM est un enjeu très actuel lorsque l’on est soucieux de sa vie privée et de l’usage que font les géants de l’Internet de nos données personnelles. Mais est-ce réellement possible ? Quelles sont les alternatives ?

Les autres options aux solutions des GAFAM //

Existe-t-il autre chose que Gmail, Google Search ou encore Messenger ? Il suffit de quelques recherches pour se rendre compte que non seulement les alternatives sont nombreuses, mais aussi qu’elles proposent un niveau de service équivalent voir meilleur. Par exemple, Protonmail est service de messagerie électronique basée en Suisse. Il est aussi simple d’utilisation que Gmail entend protéger la vie privée en plus. Côté moteur de recherche, tout le monde connaît le français Qwant ou l’américain DuckDuckGo. Sur ce point, à chacun de trouver la solution qui lui convient.

 

Mais la vraie liberté pourrait être dans l’auto-hébergement. Le mot peut paraître repoussant de prime abord, mais il est aujourd’hui assez facile d’héberger soi-même une grande partie des services numériques que l’on utilise au quotidien.

Poteau dans une ville recouvert de sticker dont sur lequel est écrit big data is watching you
Panneau dans la rue sur lequel est écrit privacy please en dessous d'un logo

Vie privée sur Internet : la solution auto-hébergement //

L’auto-hébergement est une pratique consistant à héberger ses services Internet personnels sur ses propres machines, chez soi. Il s’oppose à l’utilisation de services d’hébergements chez un prestataire. Concrètement, l’idée est de mettre en place des services équivalents au GAFAM pour un usage personnel comme le stockage des documents ou les e-mails sans avoir besoin d’un prestataire. Pour un cela, il suffit d’un simple serveur derrière sa box internet qui s’occupera de tout. Étonnement, cela est très accessible et reste peu onéreux.

Serveur d'auto-hébergement Raspberry Pi posé sur une table en bois

Quelques étapes pour retrouver une vie privée sur Internet //

La première étape consiste à s’équiper de matériel permettant de mettre en place et de distribuer les services internet : un serveur. Par exemple, un Raspberry Pi sera largement suffisant pour un usage personnel. C’est lui qui aura pour rôle de stocker toutes les données. Il devra donc être allumé tout le temps, au même titre que les serveurs de Google ou sa box internet. Le Raspberry Pi dispose de plusieurs avantages non négligeables : il mesure la taille d’une carte de crédit, il ne coûte qu’une cinquantaine d’euros et il est très peu consommateur d’énergie. Loin devant les grands datacenters d’Amazon, de Facebook ou de Google qui stockent nos données en hébergement classique.

 

Après s’être procuré un serveur, encore faut-il y installer un système d’exploitation. La solution la plus simple et rapide pour obtenir un résultat fonctionnel est d’y installer le projet Yunohost. Basé sur la distribution GNU/Linux Debian, Yunohost permet d’installer facilement et sans connaissances particulières des dizaines d’applications et services numériques comme un cloud pour ses documents, un wiki, un site internet personnel, un serveur vocal type Mumble ou encore un gestionnaire de dépôt de code comme GitLab. Ce projet a pour avantage d’être extrêmement simple d’utilisation, entièrement gratuit et développé par des Français. Il s’agit d’un logiciel libre distribué sous licence AGPL-3.0.

 

Une fois le tout paramétré, on place le serveur en zone démilitarisée (DMZ) afin d’exposer les services à l’extérieur du réseau local et ainsi pouvoir y accéder à n’importe quel moment, de n’importe quel endroit, pourvu que l’on ait une connexion. Pour aller encore plus loin, il est possible de remplacer Yunohost par un combo Debian + Docker et containeriser ainsi tous ses services de manière flexible. Quelques connaissances supplémentaires seront alors nécessaires ici.

 

 

Sans se vouloir exhaustif sur les possibilités existantes pour s’affranchir des GAFAM et retrouver une vie privée sur Internet, ces quelques outils open source et ce guide vers l’auto-hébergement doit pouvoir permettre à chacun de reprendre le contrôle de ses données. Ce sera alors un premier pas vers plus de souveraineté personnelle, moins de bulle internet et une liberté retrouvée !

Interview de Mathieu Toft directeur fondateur de Nomad Robotics et ex-Apsidien

Notre Blog
Robotique industrielle pilotée grâce à une expertise IT

La génèse et le métier de Nomad Robotics

Nomad Robotics importe et distribue auprès des industriels français et européens des technologies robotiques de pointe. Nous avons rencontré son fondateur Mathieu, avec qui nous avons échangé sur les problématiques auxquelles répond l’automatisation et notamment concernant la difficile opération de dévracage (bin-picking en anglais).

Bonjour Mathieu, nous sommes ravis de t’accueillir sur le blog Apside. Peux-tu te présenter à nos lecteurs ?

Bonjour et merci à vous de me recevoir. Je m’appelle Mathieu Toft, je suis franco-danois et co-fondateur et directeur associé de Nomad Robotics. Je suis issu d’un parcours académique en alternance, avec un master en école de commerce parcours grande école, puis après plusieurs années en entreprise, dont une partie chez Apside, j’ai décidé de créer ma propre entreprise, dans ce qui me passionne, l’innovation et les technologies du futur.

Peux-tu nous parler de Nomad Robotics et de ton métier ?

Nomad Robotics est spécialisé dans l’univers de la robotique. Nous sommes distributeurs officiels de solutions robotiques scandinaves de pointe à destination de l’industrie. Notre mission est d’améliorer la compétitivité et la rentabilité de nos clients français et européens grâce à l’innovation robotique. Au-delà de ce qu’on attend de la robotique et de l’innovation en usine 4.0, nous apportons à nos clients un service de qualité et un suivi qui garantissent le succès des projets. C’est une de nos spécificités : nous faisons beaucoup de conseil à titre gracieux pour accompagner nos clients vers la réussite et l’autonomie, même si nous ne sommes pas intégrateur, mais bien distributeur.

Nomad Robotics & Scape : la robotique de haute technologie

Pourquoi des solutions scandinaves ?

Parce qu’ils sont en avance technologiquement et qu’elles n’existaient pas sur le marché français. Grâce à Nomad Robotics, de nombreuses industries françaises de pointe peuvent se robotiser, s’automatiser avec ce qui se fait de mieux, notamment grâce aux solutions Scape, avec lesquelles nous avons de très beaux projets en cours sur le dévracage 3D notamment. Ces innovations que nous distribuons, font que, malgré notre jeunesse, nous avons acquis une position sur certains secteurs industriels importante, ce qui est une grande fierté pour nous.

Justement, parlons de Scape, peux-tu nous en dire plus sur votre fournisseur ?

Fondée en 2004, Scape Technologies est une entreprise danoise de robotique qui a développé une technologie unique et brevetée pour reconnaître, prélever et déplacer des pièces. Cette technologie, connue sous le nom de système Scape Bin-Picker, est selon moi l’avenir du dévracage en Europe, grâce à sa précision, sa fiabilité et aux économies d’échelle qu’elle offre aux industries.

Leurs systèmes sont entre autres utilisés dans l’un des domaines les plus difficiles : l’industrie automobile (par exemple chez BMW, et pas que).

Si une usine dispose déjà de robots et/ou cobots, alors Scape et Nomad Robotics peuvent intégrer directement en son sein leur solution clé en main, qui comprend l’intégralité du système de vision, l’ensemble des grips réalisés par Scape, la table de repositionnement si besoin, et bien sûr le software Scape, qui gère l’ensemble de la solution et de tous ses éléments dans la même interface. Scape est en effet capable de se connecter directement aux principales marques de robots à six axes utilisés dans l’industrie, telles que ABB, Fanuc, Kawasaki, KUKA, UR, etc.

Scape et Nomad Robotics, robotoque dévracage
Nomad Robotics et Scape, robotoque dévracage

Nomad Robotics, des solutions de dévracage de pointe

On parle donc ici de technologie de pointe. Peux-tu approfondir sur ce qu’est le dévracage ?

Le concept de dévracage, auquel répond le système Scape Bin-Picking, permet à un large éventail d’industries de mettre en œuvre une solution standardisée de collecte de bacs pour une grande variété de pièces. Les solutions standardisées réduisent considérablement le temps de mise en œuvre de systèmes de ramassage fiables et efficaces pour automatiser les processus et réduire les coûts.

Dans la pratique, une solution de dévracage travaille en trois temps :

  • • La reconnaissance de la pièce à déplacer, et la nécessité d’avoir un bon capteur et une bonne analyse de la vision de ce capteur
  • • La préhension de la pièce, et la prise en compte de ses spécificités, dont les exigences en matière d’orientation (et donc peut-être la nécessité d’instaurer des poses supplémentaires)
  • • Le placement de la pièce, et la précision que cette étape nécessite

En intégrant Scape, nous sommes capables de nous engager auprès de nos clients sur le résultat, y compris sur les cadences, grâce à des précisions inférieures au millimètre à l’arrivée, quel que soit le nombre de livraisons exigées.

La portée de cette technologie laisse supposer que vous vous adressez aux grandes industries. Est-il envisageable pour une PME de vous appeler ?

Oui bien sûr. Récemment, Scape Technologies a lancé le Scape Easy-Picker et le Scape Mini-Picker, faciles à installer pour les petites et moyennes entreprises, ainsi que le SCAPE Package Picker pour la distribution et les applications logistiques. Au final, toute entreprise à dimension manutentionnaire souhaitant automatiser un processus physique peut faire appel à Nomad Robotics.

En termes de résultats, que peuvent espérer les clients de Nomad Robotics ?

Une étude de leur projet par notre directeur technique assure d’atteindre le meilleur temps de cycle possible. Et bien sûr, les solutions Scape et Nomad Robotics permettent la suppression des tâches compliquées ou à faible valeur, une amélioration nette des cadences, de la fiabilité et de la précision, et enfin une prise en compte de la pénibilité et de la santé humaine, en supprimant certains accidents et en réduisant drastiquement les risques de TMS* liés au travail.

Robot mobile autonome tout terrain

Apside & Nomad Robotics : un partenariat récent et une offre à venir ?

À quel niveau intervient ton partenariat avec Apside ?

En tant qu’ancien Apsidien, il était évident que je souhaitais m’appuyer sur le groupe, tant pour nous aider à nous développer, que pour la capacité d’Apside à faciliter certains projets. Sur le premier point, j’ai une profonde reconnaissance pour Apside et ses agences présentes sur tout le territoire, qui m’assure ainsi un pied à terre lors de mes déplacements. En plus de nos bureaux Nomad Robotics permanent à La Rochelle, Rennes et Paris, c’est un luxe de pouvoir compter sur cet appui. Mais plus que logistique, j’apprécie surtout le soutien que m’apportent Apside et ses équipes en termes de compétences. Je crois qu’on a toujours besoin d’apprendre, d’autant plus lorsque l’on crée son entreprise, et l’aide d’Apside à ce niveau est très appréciée.

Sur le deuxième point, l’expertise d’Apside concourra également à de nombreux cas clients. Si les projets en cours de dévracage ne nécessitent pour l’instant pas l’expertise IT du Groupe, sur les autres métiers de Nomad Robotics, Apside nous apportera toute sa connaissance du produit digital et industriel. Je pense ici notamment à l’intégration SI, à la maintenance logiciel et matérielle, à la cybersécurité, ou même au développement et à la programmatique purs. Nous réfléchissons d’ailleurs à la formalisation d’une offre commune pour certains cas d’usage.

Tu parles des autres métiers de Nomad Robotics. Peux-tu nous les présenter rapidement en clôture de cette interview ?

Même si c’est une grosse partie de notre activité, Nomad Robotics ne fait pas que du dévracage. Nous sommes également distributeur officiel des préhenseurs OnRobot, qui offre une solution complémentaire en préhenseurs de tout type et d’outillage robotique et cobotique. Nous sommes aussi positionnés sur le marché de l’entretien robotisé et de la maintenance des sols. Enfin, Nomad Robotics détient une expertise assez unique en soudage industriel robotisé pour le très gros œuvre, ce qui fait de nous un leader mondial sur cette niche actuelle dans la construction navale, mais également d’avenir dans les énergies renouvelables.

Pour terminer, j’aimerais vous parler de notre toute nouvelle innovation : les robots mobiles autonomes 4×4, premier AGV/AMR outdoor et indoor, qui ont fait leur première preuve dans l’intralogistique et aussi dans la surveillance mobile robotisée terrestre et aérienne, à la fois à destination des marchés militaire et privé. C’est une technologie sur laquelle nous investissons beaucoup et que nous serions ravis de venir présenter ici ultérieurement.

Rendez-vous est pris, Mathieu ! Merci beaucoup à toi pour cette présentation, je suis sûr que beaucoup auront appris en lisant cette interview.

Merci à Apside pour cette opportunité, et à très bientôt.

*TMS : Troubles Musculo-Squelettiques

Le bilan carbone Apside - 6 minutes
-

Le bilan carbone Apside Méthodologie & résultats

Nore Blog
Faire_plus_bilan_carbone

Bilan carbone Apside : contexte //

En 2021, le groupe Apside a mis l’accent sur l’axe environnemental de sa politique RSE. Parmi tous les chantiers abordés autour de cet axe, nous comptons notamment la réalisation du bilan carbone en vue de réduire les émissions et l’empreinte écologique du groupe. Cet article a pour objectif d’expliquer la genèse de cette analyse, ses objectifs, la méthodologie et les résultats.

Cette analyse porte sur l’année 2020 et nous avons souhaité avoir une idée aussi précise que possible de notre empreinte : ainsi, l’ensemble des sites géographiques Apside, français et internationaux, ont été pris en compte. En outre, l’année 2020 étant particulière également sur le plan écologique suite à la crise sanitaire, certaines émissions CO2e ont été mesurées également en 2019.

Ce bilan carbone a été réalisé par l’équipe RSE, accompagnée par un cabinet spécialisé pour le cadrage du projet.

Bilan carbone Apside : pourquoi réaliser ce bilan //

Le bilan carbone, ou bilan des émissions de gaz à effet de serre (GES), est une mesure des émissions de GES pour une organisation, telle qu’une entreprise, sur une période et un périmètre définis.

Les gaz à effet de serre rejetés dans l’atmosphère par l’activité humaine sont à l’origine du réchauffement climatique, et leurs conséquences mises en évidence par les travaux du GIEC sont dramatiques à l’échelle mondiale (cf ce très bon article qui explique les résultats du dernier rapport du GIEC). Il est donc primordial que toutes les organisations limitent drastiquement leurs émissions carbone, afin de maintenir le réchauffement climatique en dessous des +2°C par rapport à l’ère pré industrielle, comme défini dans les Accords de Paris de 2015.

méthodo_bilan_carbone(1)
facteurs_émission

Bilan carbone Apside : méthodologie, postes d’émissions, conversion en CO2 //

Le bilan carbone est réglementé depuis 2012 dans la loi Grenelle II, qui impose de réaliser cet exercice aux entreprises de plus de 500 salariés tous les 4 ans.

L’ADEME (l’Agence nationale de la transition écologique) propose une méthodologie qui catégorise les postes d’émission des organisations (émissions de CO2e liées à un type d’activité) en 3 « scopes » :

  • Scope 1 : Les émissions directes, qui proviennent de sources d’énergie détenues et gérées par l’organisation.
  • Scope 2 : Les émissions à énergie indirectes, associées à la production d’énergie importée pour réaliser les activités.
  • Scope 3 : Autres émissions indirectes, produites par les activités de l’organisation qui ne sont pas comptabilisées au 2 mais qui sont liées à la chaîne de valeur complète.

Dans le cadre de la réglementation, les scopes 1 et 2 sont obligatoires et le 3e est optionnel bien que recommandé (cf documentation de l’ADEME sur la méthodologie pour aller plus loin). Cependant, pour une ESN comme Apside, c’est dans ce poste que réside la plus grande partie des émissions.

Pour que notre analyse soit la plus pertinente possible, nous nous sommes basés sur le Guide pour le bilan des émissions de gaz à effet de serre des organisations du secteur numérique disponible sur le site de l’ADEME.

Pour calculer les émissions liées à un poste, il faut donc traduire des données de l’entreprise (type montant en euros, km parcours etc) en émissions de gaz à effet de serre, qui rassemblent les émissions de tous les GES sur la base du potentiel réchauffement global (PRG) du CO2. Les émissions sont comptabilisées en tonnes de CO2 équivalents rejetées dans l’atmosphère, et présentées avec cette unité (tCO2e) dans les résultats ci-après. Cette conversion se fait au moyen de facteurs d’émission (3e colonne du tableau), fournis par l’ADEME sur le centre de ressources sur les bilans de gaz à effet de serre.

Bilan carbone Apside : résultats & analyses //

Au cours de l’année 2020, Apside aura émis près de 5210 tonnes de CO2e, soit 1,92 tonne par Apsidien. Le graphe ci-contre représente les résultats par poste d’émission, par ordre décroissant.

Achats (postes 9 et 10) : Les deux postes d’émissions directement liés aux achats représentent plus de 62% des émissions du groupe, dont 56,2% pour le poste « Achats bien et services ». 

Afin de minimiser l’impact de ses achats, Apside va renforcer en 2022 sa politique d’Achats Responsables, avec deux objectifs ; celui de favoriser des prestataires transparents qui s’investissent dans une démarche écologique et sociale, et celui de consommer mieux, c’est-à-dire consommer moins et de manière plus durable.

Dans cette optique, le groupe a déjà initié sa transformation avec son nouveau fournisseur de goodies depuis fin 2021, Panopli qui propose des goodies éco conçus et responsables. L’ensemble du catalogue de goodies élaboré avec Apside est composé de goodies utiles qui permettent de remplacer des déchets du quotidien (tels que des gourdes, couverts, bento …). En effet, l’enjeu est d’adopter à l’échelle du groupe une démarche de sobriété et de durabilité par rapport aux achats de consommables.

 

Déplacements domicile-travail (poste 23) : Cette catégorie concerne uniquement les trajets quotidiens des collaborateurs pour se rendre sur leur lieu de travail. Ces trajets sont la deuxième source de CO2e du bilan (28,6%), ce qui s’explique par l’importance des déplacements en voiture dans les trajets quotidiens : 66% des kilomètres effectués en 2020 ont été faits en voiture, mode de transport le plus polluant parmi ceux utilisés par nos salariés.

La mise en place de l’accord télétravail signé fin 2020 a permis une réduction des émissions liées aux trajets domicile-travail, puisque l’ensemble des salariés est éligible au télétravail 2 journées hebdomadaires hors crise sanitaire (les émissions des déplacements quotidiens sont estimés à 2330 tCO2e pour 2019 contre 1490 pour 2020 dû au télétravail imposé par les confinements).

De plus, une réflexion est en cours pour la mise en place d’un Plan de Mobilité Durable afin d’encourager les Apsidiens à prendre des transports dits « doux ».

 

bilan_actions_empreinte_carbone

Déchets (poste 11) : Les déchets représentent 5,2% du bilan carbone d’Apside. La catégorie de déchets « carton et papier » dominent ce poste d’émission avec 87% des émissions. Néanmoins, l’importance de ce poste d’émission est à nuancer. En effet, faute de ne pas avoir pu mesurer les déchets produits par chaque site d’Apside, nous avons procédé à une estimation sur la base d’une statistique communiquée par l’ADEME (SOURCE : 130kg/an sont produits en moyenne par un salarié du tertiaire dont 75% de papier/carton).

Le tri sélectif des déchets de bureaux est instauré sur tous les sites Apside français à partir du T4 2021, en partenariat avec Elise, entreprise adaptée spécialisée dans les services de recyclage pour les entreprises. Ce partenariat nous permettra pour les années futures de collecter des informations sur les déchets générés et donc d’avoir une vue plus fine de nos émissions liées à ce poste. Apside travaille également à la réduction des déchets en instaurant une démarche « zéro papier ». Les premiers chantiers sont la digitalisation des fiches de paie et des factures fournisseurs pour 2022.

Electricité (poste 6) : Ce poste d’émission prend en compte la consommation d’électricité des sites Apside et des salariés Apside en télétravail. Cette dernière a été calculée sur la base d’une statistique fournie par l’ADEME (SOURCE : 20,7kg CO2e/jour hebdomadaire travaillé par an). Nous avons décidé de mesurer l’impact du télétravail dans la consommation d’électricité étant donné son importance en 2020 avec la crise sanitaire (et pour les années à venir). Le poste consommation d’électricité représente 2,1% du bilan carbone avec la répartition suivante : 73% dû au télétravail et 27% dû à la consommation dans les locaux.

Apside a signé un partenariat national depuis janvier 2021 avec Plüm Energie pour alimenter l’ensemble de ses locaux français avec de l’énergie 100% renouvelable et produite en France.

 

Trajets professionnels (postes 2 et 13) : Cette catégorie rassemble deux types de déplacements ; les déplacements avec les véhicules Apside (généralement entre les sites Apside et les sites clients) et les déplacements professionnels (déplacements en train, avion, voiture de location etc). Ces deux postes d’émissions comptabilisent ensemble seulement 1,7% des émissions totales en 2020. Cependant, ce chiffre est à nuancer puisque suite à la crise sanitaire, les déplacements ont été considérablement réduits en 2020. En effet, les émissions liées à ce poste d’émission pour 2019 ont été estimées à 120 tCO2e, soit une réduction de presque 70% en 2020.

La politique pour les déplacements nationaux est de prendre le train, mode de transport pour les longs trajets le moins émissif. La flotte de véhicules Apside (voitures de fonction et voitures de pool), à ce jour composée principalement de véhicules à moteur thermique, est progressivement renouvelée pour des véhicules hybrides.

Bilan carbone Apside : perspectives & objectifs //

Apside continue sa démarche pour réduire son empreinte suite à ce bilan carbone. Des ateliers de réflexion avec un panel d’Apsidiens engagés ont été menés en octobre 2021 pour définir les mesures de réduction de l’empreinte du groupe identifiées dans les paragraphes précédents. Ces actions, à engager en 2022, sont classées en 4 axes majeurs :

  1. Politique d’achats responsables : acheter mieux et moins auprès de fournisseurs responsables
  2. Plan de mobilité douce : encourager les Apsidiens aux modes de transport peu émissifs
  3. Gestion des déchets : sensibiliser au tri des déchets, adopter une démarche « zéro déchet »
  4. Démarche Green IT : réduction de l’impact du numérique sur l’ensemble du cycle de vie

 

Au travers de ces chantiers entrepris, Apside se fixe comme objectif de réduire son empreinte carbone de 1,92 à 1,7 tonne par salarié d’ici 2025, soit une réduction d’au moins 11%. Bien sûr, cet objectif officiel n’est que la partie émergée de l’iceberg : pour Apside, les objectifs officieux et les enjeux à réduire son empreinte carbone sont bien plus grands et c’est l’ensemble du groupe qui s’engage au travers d’actions supplémentaires quotidiennes, pour lutter contre le réchauffement climatique.

« En tant qu’Entreprise Engagée, Apside investit pour des mesures plus écologiques et inscrit sa responsabilité d’entreprise comme un axe fort de son développement. Mais n’oublions pas que l’environnement est l’affaire de tous, et que chacun doit contribuer à réduire son impact ! 🌱 »

La documentation, le parent pauvre des projets - 3 minutes
-

La documentation Le parent pauvre des projets

Notre Blog
Bibliothèque avec des dossiers colorant rangeant des documents

La documentation projet, un livrable a minima //

Le coût d’une mauvaise documentation est rarement mesuré, si ce n’est même identifié. Le plus souvent, la documentation initiale est un minimum, rédigée lors de la conception d’une application ou d’un SI. S’ajoute çà et là, celles de quelques projets d’évolutions majeures, mais celles-ci meurent le plus souvent, soigneusement rangées, dans une Gestion Electronique des Documents (GED). La documentation redeviendra un sujet d’attention lorsque l’on doit consolider les livrables à remettre au client en fin de projet.

 

Pourtant, les règles de l’art sont connues de tous. Le chef de projet est supposé fournir des documents (ou livrables) à chaque étape du projet :

  • • Une Expression de Besoins ou un Cahier des charges au démarrage.
  • • Une Spécification Fonctionnelle Générale (SFG), des Spécifications Fonctionnelles Détaillées (SFD) avec des cas d’utilisation pour les spécifications de la Maîtrise d’Ouvrage (MOA).
  • • Une Spécification Technique Générale (STG), et éventuellement Détaillées (STD) par module développé avec des cahiers de tests qui conviennent.
  • • Un cahier de recette est souvent renseigné lors de la phase de recette.
  • • Parfois, une documentation d’exploitation est fournie un peu avant la Mise En Production.

La documentation, le carnet de santé du projet //

Les révisions apportées suite à des bugs corrigés lors de la recette et les évolutions techniques ou fonctionnelles ne font cependant pas toujours l’objet d’avenants contraignant. Cela poussent les équipes projet à traiter les besoins, se disant qu’ils enrichiront leurs documentations après la Mise en Production (MEP), pressées par les échéances contraignantes de la livraison du projet.

Or, le client et l’équipe projet conviennent le plus souvent lors du cadrage que ces documentations seront à fournir, mais on oublie souvent l’utilité réelle de ces informations et quels en sont les destinataires premiers :

  • • Le service assurant la maintenance (TMA) d’une part, pour assurer le support, doit comprendre précisément le fonctionnement de l’application pour diagnostiquer plus efficacement le moindre dysfonctionnement.
  • • L’équipe en charge de projets d’évolution d’autre part, doivent tenir compte du fonctionnement actualisé de l’application, impliquant toutes les évolutions et correctifs apportées au fil du temps.
Planification et management de projet via tableau et post-its
Équipe projet travaillant sur une ordinateur portable

La documentation comme étape nécessaire au transfert de compétences //

Or, un projet d’évolution important est toujours isolé, et enrichit rarement une documentation applicative. Dans celle-ci, on y trouve (au mieux) un fonctionnement actuel du logiciel, et surtout l’évolution que l’on souhaite apporter.

Cependant, le maître d’œuvre accompagné souvent une équipe externe, remet sa documentation au client, mais la TMA étant assurée par une autre équipe externalisée, cette documentation projet ne vient se substituer que trop rarement à la documentation applicative. Celle-ci vient se ranger proprement dans un fichier zip, constituant l’un des livrables contractuels à remettre au client. Le transfert de connaissance vers ces équipes est d’ailleurs souvent négligé.

 

C’est précisément à ce moment-là que cette documentation perd tout son intérêt : ces informations devraient naturellement se substituer, de manière morcelée dans une documentation applicative préexistante au projet d’évolution.
Les modifications des structures de tables devraient enrichir les modèles de données, les nouveaux batchs ou nouvelles modifications devraient être centralisés au même endroit, de même pour les web-services ou tout autres programmes modularisés… Le fonctionnement global de l’application s’en retrouve rarement remis en cause, et la dérive induite nous amène vers ce que l’on appelle communément une dette technique.

Code informatique d'un projet digital

La documentation, un ROI à long terme

Je dresse certainement un tableau noir de cette gestion documentaire, auquel on pourra m’opposer de bonnes pratiques, des normes contraignantes, des processus de mises à jour, ou encore des exemples de GED actualisées, suivi et facilement accessibles. Mais alors je m’étonne de les trouver trop rarement sur les différents comptes sur lesquels je suis intervenu jusqu’ici. Où sont les parcours d’intégration ? Où sont les documentations explicatives ? Où sont les organisations de ces documentations ? On me répond le plus souvent « Dans le SharePoint » et me voilà perdu dans des centaines de répertoires dont les titres si peu évocateurs devaient paraitre évident à leurs rédacteurs, en leur temps.

 

Mon message ici, cherche surtout à sensibiliser le lecteur quant à la réelle utilité d’une documentation, destinée à garantir la pérennité du logiciel, à économiser la maintenance et à réduire les coûts d’évolution. Il est compliqué de motiver le budget d’une partie du projet pour l’avenir, cela nécessite d’avoir une vision à long terme, presque altruiste pour nos successeurs.

Un non-sens lorsque l’on pilote à vue et que l’on doit boucler un budget contraint. La qualité à un coût, et peu de gens sont prêts à y mettre le prix.

 

La fresque du climat Sensibilisons-nous aux impacts du réchauffement climatique

Notre Blog
responsabilité_fresque_climat(1)

La fresque du climat : comment Apside a découvert le concept //

Depuis plusieurs années, la démarche RSE chez Apside est devenue un véritable axe stratégique qui a fait émerger plusieurs chantiers. Dans ce cadre, une campagne d’animation de la Fresque du climat a été lancée dans nos agences à Strasbourg, Paris, Lyon et bien d’autres à venir (Nantes, Brest, Lille…).

Elodie, collaboratrice Nantaise qui anime la Fresque, accepte de revenir avec nous sur le concept de la Fresque du Climat, sur le déroulé, mais aussi sur son parcours en tant que Fresqueuse !

La fresque du climat : le concept //

La Fresque du Climat est un serious game, c’est-à-dire, un « jeu sérieux » qui se veut aussi bien ludique que source d’enseignement.

Créée en 2018 par Cédric Rigenbach, ingénieur et enseignant en école supérieure sur les questions énergie-climat, elle a pour but de sensibiliser un maximum de monde sur l’urgence climatique, afin de passer à l’action individuellement, et collectivement.

Mieux comprendre pour mieux agir, pourrait être le credo de la Fresque du Climat.

Le but de l’association est d’embarquer tous les individus et les organisations vers une transition écologique, en diffusant rapidement et clairement le défi que représente le changement climatique. Bien sûr, cette transition est globale puisqu’elle implique forcément des mutations sur le plan économique et sur nos modes de consommation.

En ce qui concerne les organisations, l’objectif est notamment d’anticiper le monde de demain pour s’y adapter. L’enjeu est d’autant plus fort que l’écologie est devenue un point d’attention central, notamment chez la nouvelle génération : une entreprise qui n’aura pas su s’adapter et prendre en compte ces problématiques dans sa stratégie (par exemple à travers son empreinte carbone) sera non seulement peu attractive, mais en décalage total et amenée à péricliter.

L’efficacité de l’outil et sa licence d’utilisation ont contribué à sa diffusion exponentielle. Tous les 5 mois, le nombre de participants double !

La fresque du climat : pourquoi l'organiser en entreprise //

« Je crois que le pouvoir des entreprises dans notre monde actuel et celui de demain est énorme. Non seulement elles sont un vecteur pertinent pour toucher un publique large et varié, mais de par leur nature entrepreneuriale, elles sont aussi une source de réflexions collectives efficaces pour créer des solutions. »

En outre, la Fresque est un excellent support de team building. Il s’agit d’un outil rigoureux, neutre et qui sensibilise sans culpabiliser les participants. Les salariés en sortent donc motivés et outillés pour créer des solutions dans l’entreprise.

Plus d’infos : https://fresqueduclimat.org/entreprises/

La fresque du climat : Concrètement //

Cet atelier d’intelligence collective dure 3h. Le jeu est composé de 42 cartes du climat qu’il convient de positionner correctement selon des liens de cause à effet. Il peut y avoir 1 à 3 groupes. Les groupes restreints permettent de fluidifier les échanges et de favoriser l’intelligence collaborative.

Chez Apside, nous avons souhaité l’initier en présentiel, car la cause génère beaucoup de lien humain, et cela nous tenait à cœur. Toutefois, il existe une version 100% en ligne, avec des outils collaboratifs puissants qui fonctionnent très bien.

Pendant 1h30, chaque groupe découvre les cartes et leurs notions, et tente de les relier entre elles. Petit à petit, l’aspect systémique se dessine, avec des flèches dans tous les sens ! Puis, vient le moment de la « digestion ». On écoute ce que ça provoque à l’intérieur de nous, on partage, et on réfléchit aux solutions.

Cet atelier n’engage les participants à aucune action, si ce n’est des sourires, de l’énergie positive, de la curiosité et l’envie d’apprendre et de partager : en somme, de l’engagement dans le moment. Néanmoins, chez certains, la prise de conscience est un choc, et le passage à l’action immédiat. Parfois, les émotions génèrent un sentiment d’impuissance. Mais tôt ou tard, les graines semées lèvent. Nous sommes tous différents et il faut s’en réjouir.

L’objectif est tout d’abord de passer un moment convivial, et d’apprendre ensemble !

La fresque du climat : chez Apside, grâce à l'intervention d'Elodie //

« Engagée sur les questions d’écologie et de résilience depuis plusieurs années, je me suis formée à la Fresque récemment pour animer en tant que bénévole auprès du grand public. Grâce au soutien et à la confiance de mon agence de Nantes, que je me suis sentie complètement légitime à proposer ces ateliers, et l’idée a été accueillie avec enthousiasme. Charlotte, membre de l’équipe RSE et Camille, membre de l’Académie by Apside, m’ont très vite contactée et c’est avec notre plus belle énergie que nous avons lancé le projet.

Rapidement, le Comex ainsi que l’agence de Strasbourg se sont manifestés, et j’ai eu le grand plaisir d’animer ces fresques pour eux début octobre.

L’association propose un parcours de formation officiel très efficace. Simple, abordable, tout est sur le site. Les personnes référentes sont également très disponibles. Après avoir réalisé ma première fresque en mai dernier, je me suis donc inscrite pour être formée à l’animation. J’ai ensuite passé quelques heures à étudier les notions plus en profondeur, j’ai co-animé une première fresque, puis je me suis lancée seule.

L’accueil a été très chaleureux. Les personnes avaient vraiment à cœur d’en apprendre plus et de réfléchir aux questions d’avenir à leur échelle. Le Comex au complet a dédié une demi-journée à cet atelier. A Strasbourg, 16 personnes étaient présentes ! Les échanges étaient riches et j’ai eu un immense plaisir à rencontrer chacun des participants. L’atelier officiel propose une phase de créativité pour décorer la fresque. J’ai pris le parti de limiter cette étape chez Apside au profit de réflexions pour passer à l’action très concrètement.

L’intelligence émotionnelle est un axe que je trouve trop souvent sous-exploité ou sous-valorisé en entreprise. Quand on comprend l’urgence de la situation climatique, ce n’est pas seulement dans nos têtes que se passe le mouvement, mais dans nos tripes ! Savoir l’exprimer et comprendre que nous ne sommes pas seuls face à ces émotions est une première étape cruciale.

Ensuite, seulement, on réquisitionne notre mental pour imaginer les solutions d’aujourd’hui et de demain. Je demande à chacun de réfléchir à ses aspirations, les encourage à agir au sein de leur cercle d’influence, puis nous finissons l’atelier avec des pistes concrètes à mettre en place au sein d’Apside.

Le format est amené à évoluer. Comme en agilité, je fais du test and learn ! Selon les retours que je collecte à chaque atelier, je peaufine, j’adapte continuellement. »

La fresque du climat : ton parcours en tant que fresqueuse //

« J’ai toujours eu une conscience écolo développée, mais l’élément déclencheur a été une conférence de Pablo Servigne à la Cité des Sciences (https://www.youtube.com/watch?v=ClkcLkfJpzU), que j’ai visualisée début janvier 2018 grâce à un collègue ami de Oui SNCF qui me comptait parmi ses « colibris » (référence à Pierre Rabhi). En parallèle, j’ai découvert le rapport du GIEC, qui m’a confirmé que j’étais face à un consensus de l’ensemble de la communauté scientifique.

Maman de 2 enfants de 4 et 7 ans, il m’a été alors impossible de continuer à vivre comme si je ne savais pas ce qu’il était en train de se passer. Et comme je suis de nature très positive, je suis passé à l’action. J’ai changé beaucoup d’habitudes à titre personnel (transport à vélo, zéro déchet, potager naturel, consommation bio, locale, directe au producteur, seconde main…), et je me sens de plus en plus engagée pour la cause.

Lorsque j’ai participé à une Fresque du Climat en ligne en mai dernier, j’ai été séduite par le format ludique et participatif. En tant que coach agile, l’intelligence collective est au cœur de mes pratiques. Mettre mon savoir-faire au profit de la planète et de l’avenir a été une évidence.

Je ne sais pas quel chemin m’attend, mais je mets instinctivement mon énergie dans deux choses : l’Humain, et la Terre. Je crois que j’aime autant les deux. Chaque jour, mon métier m’apporte son lot d’enseignement et de joie, malgré toutes les difficultés. Travailler avec l’Humain me passionne. Allier cela à la cause ultime (à mon sens !) qu’est la Planète est pour moi une vraie source d’épanouissement.

J’ai découvert l’agilité de façon autodidacte en 2012, quand cette philosophie faisait ses premiers pas dans les entreprises françaises. Je suis un bébé de l’agilité. J’ai tout de suite mis beaucoup de sens dans cette façon de travailler, car cela répondait à des valeurs profondes : responsabilisation, initiative, créativité, bienveillance, collaboration, pragmatisme… Elles sont chez moi une source de bonheur au travail.

Nous avons absolument besoin de ces qualités pour répondre aux problématiques actuelles. Je suis convaincue que c’est à travers le collectif que nous trouverons nos solutions pour vivre ces temps de grande transition. »

Merci beaucoup Elodie pour ce retour et pour ton implication. Nous avons hâte de découvrir les prochaines étapes de ton parcours !