Dans l’arène des conférences, les esprits s’ouvrent, les connaissances se partagent et les horizons s’élargissent.
LAVAL VIRTUAL – Avril 2025
Lors de cette intervention, Richard Guignon et Sébastien Poivre ont présenté Photon, une solution innovante dédiée aux environnements de formation en réalité virtuelle (VR). Contrairement à des éditeurs de contenus classiques, Photon ne conçoit pas de scénarios à la place des clients, mais leur fournit des outils et des exemples pour leur permettre de développer eux-mêmes leurs supports pédagogiques immersifs.
🧩 Un appui à la création de contenus VR collaboratifs
Photon propose des modèles d’activités (templates) prêts à l’emploi, comme des quiz en 3D, des exercices d’assemblage (via des points d’ancrage), ou des chronomètres pour mesurer la durée d’une tâche. Ces modèles peuvent être utilisés tels quels ou servir de base pour créer des activités sur mesure.
🤝 La collaboration au cœur des dispositifs
Un des points forts de Photon est la gestion de scénarios collaboratifs : plusieurs formateurs et apprenants peuvent interagir en temps réel dans le même environnement. La synchronisation des actions (mouvements, positions des mains, manipulation d’objets…) est assurée par défaut, et des fonctionnalités avancées peuvent être ajoutées manuellement si besoin.
🧭 Suivi individualisé dans un contexte collectif
Même en formation multi-utilisateurs, chaque apprenant reste suivi individuellement : l’interface permet au formateur de savoir en un clin d’œil qui est connecté, prêt à démarrer, en cours d’activité ou a terminé. Cette gestion fine rappelle les tableaux de bord utilisés dans des plateformes comme e·greta-cfa.
🔧 Exemple de scénario : assembler et piloter un drone
Un exemple marquant présenté : une activité où les apprenants construisent collectivement un drone en 3D. Une fois l’assemblage terminé, un seul apprenant prend la main pour effectuer le vol d’essai, illustrant la gestion fine des droits sur les objets dans un environnement partagé.
⚙️ Quelques aspects techniques
Photon s’intègre avec Unity, un moteur de développement pour la VR, bien que le mode éditeur puisse parfois se révéler lent ou instable. La question de l’autorité sur les objets (qui les crée, qui peut les déplacer) est également centrale dans les scénarios multijoueurs.
Beyond the headset : XR Experiences that redefine public spaces
L’XR (réalité étendue) suscite le plus de satisfaction chez ses utilisateurs lorsqu’elle leur permet de vivre des expériences émotionnellement puissantes, souvent inaccessibles dans la réalité. Plusieurs types de situations se démarquent :
- La proximité avec l’inaccessible : observer une baleine à taille réelle, approcher des éléments lointains ou disparus, comme la charpente de Notre-Dame.
- L’évasion réaliste : vivre une autre vie à travers un film en VR ou un avatar convaincant.
- L’accès à l’invisible : explorer des lieux interdits ou des mécanismes internes (machines, bâtiments, organismes…).
- La connexion humaine : ressentir la présence d’autrui, malgré la distance, par l’intermédiaire de dispositifs XR.
Point commun à toutes ces expériences : le réalisme des émotions générées, qu’il soit visuel, sensoriel ou narratif.
🎭 Le storytelling et le corps comme leviers émotionnels
Pour susciter l’émotion, le storytelling reste l’outil le plus direct : plonger l’utilisateur dans un récit engageant l’aide à s’immerger dans l’expérience. Mais lorsque le récit est limité ou absent, c’est le corps qui devient un vecteur émotionnel puissant : respiration, gestes, déplacements, interactions tactiles…
Par exemple, le simple fait de devoir se défendre dans un combat VR peut rendre la chute qui suit bien plus intense que si elle survenait sans contexte. Cette implication physique permet de renforcer le sentiment de présence… à condition que le confort du matériel suive (certains équipements comme les backpacks peuvent nuire à la liberté de mouvement).
🤝 L’émotion au service du collectif
Une critique fréquente de l’XR est son caractère introspectif et isolant. Pourtant, lorsqu’elle suscite des émotions fortes, elle peut aussi renforcer les liens sociaux : un joueur qui sursaute, un autre qui protège le groupe… autant d’interactions émotionnelles qui créent du lien. Ces souvenirs partagés, rares et intenses, deviennent alors des points d’ancrage dans la mémoire collective.
🎉 Créer des expériences sans déranger
L’XR ouvre aussi la voie à des usages inédits dans la vie quotidienne : organiser une fête à distance sans bruit pour le voisinage, ou même créer une soirée entre avatars dans un monde virtuel. L’expérience est différente, mais l’émotion – elle – est bien réelle.
🧠 XR vs Réel : un équilibre à trouver
L’un des défis majeurs de l’XR est de trouver sa place entre amplification et substitution du réel. Aujourd’hui, la vue et l’ouïe sont bien prises en charge, mais le toucher, le goût et l’odorat restent largement absents. Comme le cinéma n’a jamais remplacé la littérature, l’XR ne remplacera pas la réalité, mais pourra offrir des expériences alternatives, marquantes, et parfois profondément transformatrices.
When and how to use AI characters, in XR
L’intégration de personnages virtuels, qu’ils soient animés par une intelligence artificielle ou non, transforme en profondeur notre manière d’interagir avec les machines. Ces entités incarnées permettent de rendre les échanges plus intuitifs, émotionnels et engageants.
🧠 Du feed-back émotionnel à l’accompagnement personnalisé
Plutôt que de simples messages textuels, un personnage peut exprimer visuellement une émotion – tristesse, encouragement, enthousiasme – pour accompagner une réponse ou corriger une erreur. Cette couche émotionnelle renforce l’engagement utilisateur et favorise l’apprentissage.
💬 Une interface plus accessible et plus naturelle
Les humains ont naturellement tendance à parler plus facilement à un visage qu’à une interface impersonnelle. Un assistant incarné, même virtuel, peut donc favoriser les échanges, notamment dans les environnements en réalité mixte ou augmentée. Cependant, son usage reste plus limité si l’utilisateur doit porter un casque XR uniquement pour accéder à cette interaction.
🧩 Une « coquille humaine » autour de l’IA
Les personnages agissent comme une enveloppe plus rassurante pour l’IA : ils donnent aux utilisateurs l’impression de dialoguer avec une entité bienveillante, compréhensive, voire empathique. Ce ressenti peut réduire les blocages émotionnels, renforcer la confiance et encourager l’exploration de fonctionnalités peu utilisées.
🌍 Dans le métavers, des PNJ pour donner vie aux mondes virtuels
Dans les environnements de type métavers, les personnages IA sont essentiels : ils peuplent les mondes virtuels en attendant l’arrivée des utilisateurs réels, créent de l’animation, et peuvent interagir avec chacun de manière personnalisée.
NANTES DIGITAL WEEK – Septembre 2024
Generative AI : 1 an après, où en êtes-vous ?
Intervenant : Cap Gemini La traduction « intelligences artificielles » pour l’équivalent « AI » en anglais gagnerait à être remplacée par « raisonnements artificiels ». En effet, en anglais, le mot « intelligence » ne fait référence qu’à l’intelligence analytique, et pas aux autres formes d’intelligence qui sont intégrées à la définition française de l’intelligence. Les IA ne sont pas quelque chose de nouveau : on les trouvait déjà partout depuis le début des années 2000. Ce sont surtout les IA génératives qui sont nouvelles (lancement de ChatGPT le 22 novembre 2022). Pourtant, les mêmes IA historiques sont encore très peu maîtrisées au regard des possibilités qu’elles proposent. Au départ, l’IA générative est née d’une blague d’un ingénieur de chez Google qui s’est dit qu’après 10 ans d’existence de Google Images, le logiciel devait savoir ce qu’était un chat, un chien etc. et devrait donc être capable de créer une image de toutes pièces. En effet, il en était capable. La différence entre les IA historiques et les IA génératives se situe principalement dans le principe du « tchat » : les IA génératives actuelles sont très bavardes, ce qui peut donner l’impression qu’elles réfléchissent alors qu’elles ne font qu’analyser des données et fournir des réponses en fonction de modèles probabilistes. La prochaine étape à venir est d’ailleurs l’interaction en langage naturel oral. Néanmoins, il est important de se rappeler que les IA génératives ne sont rien de plus que des boîtes noires avec une vision entrée-sortie : une mauvaise entrée = une mauvaise sortie. La place de l’humain dans les résultats de l’IA est donc essentielle pour faire ressortir le bon et éliminer le mauvais. Les IA sont des outils, bien qu’elles ne soient bien souvent pas considérées comme tels, et qui doivent le rester car elles ne peuvent pas remplacer les capacités émotionnelles et la créativité humaines indispensables à une grande variété d’activités. Pour trouver la bonne distance entre l’IA et nous, il convient de se poser la question de ce qui est souhaitable éthiquement, humainement et environnementalement. Ce sont principalement les tâches sans valeur ajoutée humaine qui valent le coup d’être déléguées à l’IA. Pour autant, la notion de valeur ajoutée est très subjective et variable d’une personne à l’autre (ex : envoyer un mail -> pour parler avec un humain ou juste pour récupérer de l’info rapidement ?). Pour bien utiliser les IA, il est aussi important de comprendre comment elles ont été entraînées afin d’utiliser la bonne IA au bon moment (par exemple, DALL-E = génération d’image simple type pictogramme ; Midjourney = génération d’image complexe). Dans le futur, des agents autonomes vont pouvoir se développer, reposant sur la complémentarité entre plusieurs IA aux compétences différentes. En 2024, le déploiement de l’IA générative a beaucoup consisté en une démocratisation pour le grand public, par l’intégration aux outils plébiscités par les entreprises (Microsoft Office, notamment) et les particuliers (Siri, par exemple). Du point de vue des outils, ce sont surtout les outils de génération d’images et de vidéos qui s’améliorent le plus rapidement. En parallèle de l’IA, les stratégies RSE prennent aussi en importance dans les préoccupations des dirigeants. Il y a, là aussi, un équilibre à trouver. Selon les intervenants, pour faire réduire les besoins en énergie et en eau des IA génératives, il faudrait que les entreprises et les collectivités mettent la pression sur les développeurs en refusant leurs produits ou en réduisant leur usage au minimum. Le business model des développeurs d’IA étant basé sur la vente d’abonnements, moins d’abonnements = plus de pression. L’IA générative transforme de nombreux aspects de la société, mais elle doit être vue comme un outil et non comme une solution globale. Pour en tirer le meilleur parti, il est nécessaire de comprendre ses limites et d’encadrer son utilisation. Le développement d’une stratégie numérique responsable et la prise en compte des aspects éthiques et environnementaux sont essentiels pour l’avenir de l’IA.
Dessine-moi 3 petits cochons
Intervenant : Polytech Nantes Vulgarisation scientifique du rapport « Stable Scientific Diffusion : une installation interactive pour sensibiliser aux IA génératives (d’images) » Pour accéder au rapport : https://uncloud.univ-nantes.fr/index.php/s/Rm7oazpDHDcAbi9
L’IA dans la relation de travail
Intervenant : avocats du Barreau de Nantes Quelques solutions d’IA utilisées dans le travail :
- Aide au recrutement : tri de CV, vérification de références, cartographie des compétences déjà présentes en entreprise, chasseur de têtes en ligne… Ces outils facilitent le travail des services RH, mais engendrent un risque accru de discrimination à l’embauche et de biais lié aux méthodes d’entraînement.
- Chatbots : échange entre les services RH et les salariés. Les chatbots permettent un gain de temps et une facilitation de l’interaction.
- Surveillance de l’activité : prévention des risques professionnels, évaluation de la performance… Au-delà des bénéfices en termes de gain d’efficience dans le travail et dans la sécurité, il faut noter un risque accru de sanctions basées sur les données fournies par l’IA.
- Traduction : les IA de traduction permettent un accès à des postes multilingues pour tous mais engendrent des risques liés à la confidentialité.
- IA génératives de texte : pouvant être utilisées pour tous les types de textes, ces IA représentent un gain de temps mais peuvent conduire à des erreurs, dont des erreurs juridiques aux conséquences potentiellement graves. La vérification humaine ne peut donc pas être considérée comme optionnelle.
- CR de réunion : certaines IA permettent la génération automatique de CR de réunion, ce qui représente un gain de temps et l’évitement d’une activité rébarbative mais il faut être prudent vis-à-vis de l’excès d’informations et de la confidentialité de ces informations.
L’IA act est le règlement qui s’applique sur l’IA dans l’Union Européenne depuis le 01 août 2024. Il existe désormais un bureau de l’IA à la Commission Européenne, qui va devoir trouver une déclinaison de l’IA act au niveau français (une nouvelle compétence pour la CNIL est envisageable). Pour les entreprises qui utilisent l’IA, il est obligatoire de se mettre en conformité dans les 2 ans (même logique que le RGPD) avec les réglementations posées par l’IA act. Ce dernier indique des obligations non seulement pour les développeurs d’IA, mais aussi aux déployeurs/utilisateurs.
L’IA act valorise une approche par les risques. Il distingue différents types de risques :
- Les IA à risque inacceptable : certaines catégories d’IA sont tout simplement interdites comme celles qui mettent en oeuvre une notation sociale, la prédiction de commission d’infractions etc. Ex : IA d’analyse des émotions sur le lieu de travail
- Les IA à haut risque : il s’agit principalement des IA implémentées dans des produits réglementés, comme les jouets par exemple, et d’autres IA particulières : IA de biométrie, de gestion du gaz, du trafic routier, de l’eau, IA portant sur l’éducation, la justice, la répression etc. Ex : IA de tri de CV, IA de surveillance en lien avec la promotion ou la sanction
- Les IA à risque de transparence : il s’agit des IA génératives de contenu et des IA qui interagissent directement avec des êtres humains (chatbots). Pour ces IA, il est obligatoire d’indiquer qu’elles sont des IA et non de vraies personnes. Ex : chatbot avec les salariés
- Les IA sans risque spécifique : il n’y a pas de réglementation qui s’applique à ces IA. Ex : IA de mise en forme de document
- Les IA à usage général : ces IA peuvent s’intégrer dans d’autres groupes mais une réglementation particulière s’y applique, car elles n’ont pas une vocation particulière au départ. Ce sont principalement les fournisseurs qui sont concernés par cette réglementation spécifique.
Pour les déployeurs d’IA à haut risque, il est désormais obligatoire :
- d’établir les mesures techniques et organisationnelles appropriées afin de garantir l’utilisation conforme des IA ;
- d’assurer un contrôle humain ;
- d’informer le fournisseur et les autorités en cas de non-conformité ou d’incident grave ;
- de tenir et conserver des journaux ;
- d’informer les représentants du personnel et les salariés concernés ;
- de réaliser une étude d’impact pour certaines catégories de déployeurs : organismes publics, entreprises fournissant des services publics et les établissements de crédit et de prévoyance.
L’IA act constitue une forme de prolongement du RGPD, puisque l’IA se trouve à la croisée de plusieurs préoccupations, notamment celle des données personnelles. Dans le cas où l’IA manipule des données personnelles, il est nécessaire de sécuriser les données et d’assurer la confidentialité. Les personnes dont les données personnelles sont mobilisées doivent aussi être informées de cette utilisation et de leurs droits par rapport à cette utilisation. Les situations varient selon le fondement dans lequel on utilise les données personnelles : base légale, intérêt légitime ou consentement.
Forum régional Science Société – Avril 2023
Quels leviers culturels pour la transformation écologique et solidaire ?
Intervenant : Richard Emmanuel Eastes L’univers de la science se structure autour de 3 axes principaux :
- la communication scientifique
- l’enseignement et la formation
- la recherche académique
Au début de sa carrière, avec son épouse Francine Pellaud, Richard-Emmanuel Eastes a fondé plusieurs associations et groupements de culture scientifique dont le but était de diffuser la notion de développement durable. Par la suite, ils se sont rendus compte que ce concept n’amenait qu’à endormir le débat public car il était toujours question de transition, et non de transformation de fond. Comme d’autres chercheurs à travers le monde, ils ont commencé à vouloir sortir de la neutralité axiologique de la recherche pour s’investir dans un mouvement militant. Ils ont d’ailleurs publié un article pour démonter la notion de développement durable et promouvoir la position de chercheur-militant dans The Conversation. À la notion de durabilité, ils opposent plutôt celle de subversivité. Face à l’urgence écologique, les chercheurs se mobilisent, notamment à travers le donut des limites planétaires et des planchers sociaux. Pour autant, les solutions qu’ils proposent ne semblent pas trouver leur public, ni les effets attendus.On distingue 3 voies usuelles pour changer les comportements collectifs :
- la voie économique : théorie signal-prix, impacte les pauvres surtout de manière négative
- la voie d’ingénierie : théorie du rationnement, qui produit du lobbying réactionnaire de la part des entreprises et des plus fortunés, la plupart du temps
- la voie comportementaliste : les nudges
Mais la culture ne pourrait-elle pas faire mieux que ça pour partager la science et la rendre efficace ? Les premières questions qu’on se pose sont généralement :
- Comment limiter son propre impact environnemental ?
- Comment promouvoir une transition permettant d’éviter le pire ?
- Comment adapter la civilisation aux crises qu’on ne pourra pas éviter ?
Cependant, selon Richard-Emmanuel Eastes, inspiré par Aurélien Barrau, la 1ère question devrait plutôt être remplacée par « À quel point contribuons-nous à entretenir le problème écologique par notre discours, nos partenariats, nos comportements ? ».On trouve chez Daniel Curnier la même réflexion sur la place de l’école : Vers une école éco-logique. Richard-Emmanuel Eastes s’est donc posé la question de l’évolution du rôle de la médiation scientifique au cours des 30 dernières années. La médiation a toujours été utilisée politiquement pour résoudre des crises :
- crise des banlieues -> éducation populaire
- crise terroriste -> inclusion sociale
- crise du Covid-19 -> la science en train de se faire
- crise de la confiance -> sciences citoyennes
- etc.
La médiation devrait donc trouver sa place pour lutter contre la crise écologique. La question est de savoir si la médiation doit contribuer à empêcher la crise ou se concentrer sur l’adaptation. Les transitions, quelles qu’elles soient peuvent être :
- choisies ou subies
- de rupture ou continues
Par exemple, le passage de la voiture thermique à la voiture électrique est une transition choisie et continue alors que la disparition des pollinisateurs est une transition subie et de rupture. Le développement durable se situe du côté de la transition continue, d’où l’immobilisme qu’il engendre. À l’opposé, sur l’axe des ruptures, on trouve un nouveau régime climatique. On a donc le choix entre 4 options :
- les améliorations (transition choisie et continue)
- les atténuations (transition subie et continue)
- les transformations (transition choisie et de rupture)
- les adaptations (transition subie et de rupture)
Selon Richard-Emmanuel Eastes, il n’est plus possible de faire de la transition continue, c’est-à-dire douce. On se situe désormais forcément dans la rupture car nous n’avons plus assez de temps. En ce sens, la culture scientifique et technique doit se concentrer sur les impacts systémiques, et pas forcément sur les actions individuelles. On peut le voir dans les 12 leviers de changement identifiés par Meadows (1997) : le levier le plus efficace est le changement de paradigme. C’est à ce niveau que la Culture Scientifique, Technique et Industrielle (CSTI) trouve sa place. Les structures de CSTI dépendent de financements publics et d’entreprises, qui n’ont aucun intérêt à faire changer les choses. Elles sont donc très dépendantes : « En tant qu’institutions financées et pilotées par les pouvoirs publics (voire, dans certains cas, par des acteurs du monde économique), il est difficile pour les lieux et acteurs culturels de proposer des actions qui sortent d’une pensée lisse et sage, compatible avec l’ordre social existant, et surtout avec le modèle économique qui l’entretient. » (Richard-Emmanuel Eastes, manifeste en cours de rédaction). La question des paradigmes est centrale. Elle explique pourquoi le concept de décroissance ne peut actuellement pas passer, car il propose un objectif qui n’est pas acceptable pour le grand public au regard de leurs imaginaires actuels. Pour Richard-Emmanuel Eastes, pour contourner le problème, il faut distinguer 3 niveaux de réflexion :
- où en sommes-nous ?
- comment aller à l’objectif ?
- où atterrir ?
Dans la transition écologique telle que pratiquée actuellement, nous savons où nous en sommes mais nous ne savons ni où aller, ni comment y aller. En décorrélant les 3 niveaux, cela permet de rendre les informations plus acceptables, notamment pour les professionnels de la culture scientifique et technique. Le rôle des structures de CSTI est de proposer des futurs possibles et de les rendre désirables, mais cela requiert de sortir de la neutralité axiologique. Il existe tout un spectre de discours possibles pour la culture, allant du positif au négatif : séducteur – incitatif – sensibilisateur – culpabilisant – catastrophiste. Actuellement, toutes les structures de CSTI se trouvent dans le sensibilisateur car il est neutre. Il faudrait choisir plutôt un camp : séducteur ou catastrophiste, pour créer du mouvement.Le discours plus séducteur semble plus avenant à première vue, par rapport au catastrophisme. Mais il requiert d’aller assez loin dans les imaginaires pour ne pas rester dans l’incitation. Le catastrophisme est beaucoup plus simple à mettre en oeuvre : il s’agit d’aller au pire. On trouve, dans cette perspective, tout le champ de la collapsologie (des catastrophistes qui prophétisent dans l’espoir d’avoir tort). La culture et la science peuvent être des outils de subversion. Richard-Emmanuel Eastes avoue avoir l’idée en théorie mais ne pas savoir exactement comment faire en pratique. Il y a peut-être quelque chose à aller chercher du côté de la fenêtre d’Overton : il s’agit de la fenêtre de ce qui est acceptable. Actuellement, les partis d’extrême-droite déplacent la fenêtre d’Overton pour rendre leurs idées acceptables. Et cette fenêtre n’est pas extensible à l’infini, donc il faudrait que la CSTI tire aussi la fenêtre en son sens et vers un autre idéal écologique et social. Parmi les actions qui contribuent à déplacer la fenêtre d’Overton dans le bon sens, il y a le militantisme radical (désobéissance civile, notamment) : il contribue à faire accepter le militantisme « soft ». Les structures de CSTI pourraient être des incubateurs de subversion. Elles ne peuvent cependant pas être directement subversives car elles perdraient leurs financements. Leur adhésion au militantisme pourrait mettre fin purement et simplement à leur existence. En revanche, elles peuvent se situer comme des relais d’actions subversives menées par des militants radicaux (ex : ne pas faire de désobéissance civile mais faire une exposition sur la désobéissance civile ; utiliser plutôt la notion de « matrimoine » que de « patrimoine » ; etc.). Si l’on en revient aux 3 niveaux de réflexion sur la crise écologique (d’où partir, où aller, comment y aller), on peut dire que la science se situe historiquement dans le « d’où partir » (les faits), l’action politique dans le « comment y aller » (les opinions) et les aspirations citoyennes dans le « où aller » (les imaginaires). Mais dans une période de crise, les rôles ont tendance à se brouiller ce qui engendre le conspirationnisme et le révisionnisme scientifique. Les structures de CSTI se trouvent souvent plutôt du côté des faits (pour les transmettre), mais il faut qu’elles étendent leur champ pour stimuler les imaginaires et susciter l’engagement au regard des opinions.Du point de vue des faits, les structures de CSTI doivent se placer sur le domaine de l’épistémologie pour expliquer comment la science se fait. Du point de vue des opinions, elles doivent éviter les visions court-termistes et promouvoir une vision systémique. Enfin, du point de vue des imaginaires, elles doivent générer des débats qui permettent aux participants de se mettre d’accord sur ce sur quoi ils ne sont pas d’accord. 5 propositions de Richard-Emmanuel Eastes :
- Se questionner sur les rôles et les impacts des structures de CSTI
- Comment ne plus contribuer à l’aggravation du problème
- Sortir de l’écogeste et de l’écobilan pour aller vers le systémique
- Promouvoir une culture du désaccord
- Éviter les chambres d’échos mais plutôt se mettre d’accord sur l’objet de ses désaccords
- Critiquer la notion d’esprit critique
- Promouvoir une culture systémique
- Parler d’interdisciplinarité, de transversalité, de complexité
- Aller vers une science post-normale en intégrant faits ET valeurs
- Promouvoir une culture épistémologique
- Mettre en oeuvre une culture de science et une critique de science
- Renforcer les critères sur ce que l’on tient pour vrai
- Devenir des incubateurs de subversivité
La science post-normale désigne une stratégie de résolution des problèmes scientifiques à laquelle on peut recourir en cas de complexité éthique. Elle se situe en dehors de la science fondamentale, de la science appliquée et de l’expertise, en prenant en compte des savoirs non-scientifiques pour résoudre un problème urgent et complexe.
Philosophie de l’environnement – Mars 2023
Comment penser la crise écologique ?
Le champ de la philosophie de l’environnement et des éthiques environnementales démarre réellement à partir des publications de 1973 (Peter Singer, Richard Routley, Arne Naess). Les questions environnementales sont abordées aussi bien du point de vue de l’animal que du végétal.Routley propose une expérience de pensée : si le dernier homme sur terre se met à détruire toute la faune et la flore, est-ce qu’il commet une faute morale ? Derrière cette question se cache celle de la valeur intrinsèque de la nature.Naess, quant à lui, distingue écologie profonde et écologie superficielle, dans un contexte où l’écologie profonde est perçue comme de l’éco-fascisme dans les années 90. Pour Naess, il faut repenser la perception que les hommes ont du monde.La philosophie de l’environnement va ensuite se développer dans les milieux anglo-saxons, et notamment aux USA avec la revue Environmental Ethics (1979). Si l’on compare le 1er et le dernier numéro en date de la revue, on note que le champ de la philosophie de l’environnement s’est ouvert à l’international. Dans ses travaux, Rémi Beau note que la philosophie de l’environnement a souvent pour objet la protection de la nature sauvage, alors que la nature se trouve partout : nous y travaillons, nous y habitons, nous vivons dans la nature. Son objectif est de sortir de la perspective anthropocentrique souvent adoptée. Une des activités humaines qui nous met le plus en contact avec la nature, c’est l’agriculture. Or, avec sa critique de l’anthropocentrisme, Rémi Beau tente de voir si une reconsidération de l’agroécologie serait possible grâce à la philosophie de l’environnement.Au-delà des théories auxquelles il souscrit ou critique, Rémi Beau souhaite faire de la philosophie de l’environnement une thématique interdisciplinaire. Dans son laboratoire, il travaille notamment avec des écologues. Richard Raymond n’est pas philosophe mais éco-anthropologue. Il documente les interactions entre sociétés et biodiversité, du point de vue des sciences humaines et sociales. Selon son point de vue, il est important de sortir de l’intuition humaine pour poser des questions et apporter des réponses à partir des faits du terrain (démarche inductive). Il teste notamment l’impact des injonctions à la préservation de l’environnement. En 1995, la France décide la création d’un parc naturel dans la Vexin français alors que le bassin est principalement agricole. Les céréales produites intensivement dans la zone sont exportées à l’international, plutôt que d’être utilisées pour nourrir Paris (à 45km). Étant donné les forts rendements de la zone, il est très étonnant que l’idée de construire un parc naturel ici ait été énoncée. Dans les enjeux de cette construction, on trouve la préservation des paysages (plus que l’environnement, alors que l’agriculture intensive pratiquée là-bas est assez nocive) : la zone a notamment servi d’inspiration pour les peintres impressionnistes et expressionnistes. Pour résoudre le paradoxe, l’idée est de mettre en place une agriculture raisonnée qui soit toujours productive. Au final, la création du parc conduit à un maintien de la stabilité sociale de la zone mais à un manque de préservation de la biodiversité. À quelle échelle pertinente faudrait-il penser notre rapport à la nature ? La problématique climatique est globale, mais les solutions mises en place actuellement sont peu efficaces et ne peuvent pas être les mêmes sur tous les territoires.Selon Rémi Beau, il faut envisager la question à différentes échelles. Quand la philosophie environnementale apparaît dans les années 70, elle a pour horizon le local. Au début des années 90, le caractère global de la crise climatique commence à émerger (Sommet de la Terre de Rio, 1992). À la fin des années 2000, après de nombreuses recherches sur la dimension internationale, beaucoup d’auteurs en philosophie de l’environnement en viennent à considérer qu’une action globale est impossible et inefficace. Les réponses locales sont de plus en plus valorisées, notamment depuis les années 2010. Pour Richard Raymond, la réponse est assez simple : pensons global, agissons local. Les groupes sociaux ne sont pas homogènes sur tous les territoires, les réalités sont variées, donc une action commune n’aurait aucun sens. Dans un même temps, les micro-actions non coordonnées engendrent le risque d’éparpillement et d’inefficacité, voire de contre productivité (ex : réintroduction de trop d’espèces urbaines au lieu de cibler selon le biome urbain attendu). La biodiversité est un système, qu’il faut penser en système. Les enjeux ne peuvent être saisis que globalement, mais les actions ne sont pas les enjeux : ce sont des réponses à ces enjeux. Au niveau global, il existerait un « schisme de réalité » au niveau international : les superstructures internationales fixent des objectifs mais il ne se passe rien de concret. Cela donne l’impression que « des choses se font » alors que, factuellement, rien ne se fait. Cela a pour conséquence la maxime suivante : la meilleure façon de ne pas traiter un problème, ce n’est pas de l’ignorer, mais de dire qu’on le traite. Quel serait le rôle d’une éthique environnementale ?Richard Raymond se demande si l’humain peut vraiment se détacher de sa perspective d’humain. Peut-être que notre éthique environnementale existe déjà mais est pensée à notre échelle d’humain. Que signifierait cette éthique dans les yeux d’une grenouille ou d’un sanglier ?Pour Rémi Beau, l’effort de se mettre à la place des animaux et de l’environnement permet tout de même des évolutions pour les manières de vivre humaines, notamment sur le droit (droit du littoral, sauvegarde des forêts etc.). L’éthique environnementale qui nous anime n’est sûrement pas suffisante, mais elle appelle à se mettre à la place de et à reconsidérer des manières de vivre. De toute manière, l’éthique ne permet jamais de trancher et de garantir les manières de se comporter au regard de croyances ou de morales. Donc il faut plus que de l’éthique. Ce qui compte, c’est d’utiliser l’éthique pour pluraliser les intérêts, notamment les intérêts non-humains, dans les délibérations publiques puisque les arbitrages légaux peuvent changer concrètement les manières d’agir. Comment penser de nouveaux rapports à la nature ?La notion de nature a été construite par les occidentaux comme un système de ressources exploitables. Aussi, ne faudrait-il pas un nouveau paradigme ?Pour Rémi Beau, il y a une définition mais surtout une grande diversité de rapports réels à la nature, y compris dans la société occidentale. Il faudrait donc réaliser un travail d’enquête pour ne pas s’en tenir aux idées un peu convenues que véhiculent parfois les philosophes de l’environnement. Ce travail de recherche permettrait d’éclairer le dialogue entre les différentes manières de percevoir la nature et d’organiser notre rapport au monde. Pour Richard Raymond, l’idée de dépasser le dualisme nature-culture pour trouver d’autres articulations pose quand même le problème que la réalité est toujours encapsulée dans la réalité sociale. Or, si tout est construit social, il « suffit » de changer de conventions sociales, de changer de point de vue. Aucun regard ne tient une vérité absolue, mais le construit social que nous partageons nous ramène à une idée commune de la nature. La science propose une interprétation de la réalité extérieure qui est déjà la plus fiable possible au regard de nos possibilités cognitives et techniques, de sorte que nous ayons une vision de la nature qui nous permette de mettre en perspective ce que nous pensons et faisons au regard de cette nature. En abandonnant le dualisme nature-culture, on se trouverait dans un problème de référence commune.
NANTES DIGITAL WEEK – Septembre 2023
Écoconception de services numériques
Intervenants : I have a Green, Num&Res et Greenspector
Film : « Home » de Yann Arthus Bertrand
Le numérique est un outil très généralisé. Au quotidien, il répond à la fois à des problèmes et à des besoins : il fait partie de la solution pour beaucoup de choses, dont l’écologie (lutte contre le gaspillage alimentaire, seconde main etc.). Mais il fait aussi partie du problème.
Les chiffres clés de l’impact du numérique :
- 3 à 4% des émissions de GES mondiales
- 10% de la production mondiale d’électricité (plutôt 15% entre 2025 et 2030)
- + de 70 matériaux nécessaires pour fabriquer un smartphone de 200g, représentant 200kg de matière première
En France, il existe désormais un double observatoire national de l’impact environnemental du numérique : l’ADEME et l’ARCEP.
La fabrication des équipements représente 80% des émissions de GES liés au numérique, les infrastructures réseaux 5% et les datacenters 15%.
Le numérique engendre aussi des impacts sociaux : exclusion, illectronisme, fracture numérique, exploitation des humains pour l’exploitation minière, addiction, atteinte aux libertés (RGPD) etc.
Le numérique responsable est une évolution du Green IT orientée autour de 2 pôles :
- Le développement durable au service de l’humain, de l’économie et de la planète
- La convergence numérique/environnement
Green for IT : réduire l’empreinte environnementale du numérique
IT for Green : réduire l’empreinte environnementale globale grâce au numérique
On a les mêmes différences entre Human for IT et IT for Human.
L’écoconception prend en compte les aspects habituels de la conception, mais avec le développement durable en plus. C’est une approche en cycle de vie (économie circulaire), plutôt qu’en économie linéaire.
La dimension « développement durable » de l’éco conception se décline sur 5 sujets :
- Les référentiels
- Les parties prenantes
- La sobriété fonctionnelle
- L’accessibilité
- L’efficience technique
En plus des référentiels, il est intéressant d’utiliser des outils de mesure comme GTmetrix, EcoIndex, Greenspector pour mesurer :
- Le poids de la page
- Le nombre de requêtes
- La vitesse d’affichage
- Le nombre d’éléments du Dom (balises HTML)
- L’estimation GES
- La consommation électrique
Pour trouver un hébergeur le plus écologique possible, on peut se référer à The Green Foundation.
La sobriété fonctionnelle désigne le fait de développer uniquement les fonctionnalités essentielles d’un service. C’est la plus grosse partie de l’impact environnemental et social. On peut retenir la règle des 3U :
- Utile (en termes de besoin réel)
- Utilisable (en termes pratiques, par rapport aux équipements et à l’ergonomie)
- Utilisé (en termes de mise en œuvre)
A noter que 70% des services numériques produits (et souvent disponibles sur internet) ne servent à RIEN.
L’accessibilité désigne le fait que les services numériques soient conçus pour être utilisés par des personnes en situation de handicap. Il faut distinguer « être handicapé » et « être en situation de handicap » : nous sommes tous en situation de handicap par moments.
Https://www.atalan.fr/agissons/fr/index.html pour simuler différents handicaps.
L’efficience technique se traduit à la fois dans le codage et l’administration de site. Le principal problème est l’obsolescence logicielle, le fait de ne pas pouvoir accéder à un service à cause d’un appareil trop ancien. Une meilleure efficience technique se traduit aussi par la réduction de la taille et du poids des fichiers. Pour les images, les formats les plus légers sont les images vectorielles.
Sur la compression de fichiers : la compression est environnementalement intéressante seulement si plusieurs personnes sont destinataires du fichier compressé.
Il faut faire attention car l’impact environnemental des sites prend aussi en compte le temps de développement. Dans certains cas, le Quick & Dirty peut servir si l’amortissement du développement ne peut pas être atteint (par exemple pour un site très peu consulté).
3 idées clés à retenir :
- Less is more
- Compatibilité sur du vieux matériel
- Accessibilité
Une entreprise nantaise dans une démarche d’écoconception totale : http://www.translucide.net
Écoconception & accessibilité
Intervenants : Intuiti, Conserto
« Chaque octet a un impact dans le monde réel » – Fondateur de Green IT Quelques chiffres :
- GES : 3 et 4% à l’échelle mondiale
- Empreinte carbone française : 2,5%
- Consommation EP : 4,2%
- Consommation eau : 0,2%
- Production des terminaux : 70% de l’empreinte numérique
La pollution liée au numérique n’est pas que causée par le CO2. Le numérique impacte aussi les ressources abiotiques, la consommation d’eau et les radiations ionisantes. 1 milliard de personnes vit en situation de handicap. En France, 70% du contenu n’est pas accessible actuellement. Ces handicaps sont à 80% invisibles. Les principaux types de handicap :
- Auditif : pour écouter des podcasts, par exemple
- Visuel : pour lire un contenu, par exemple
- Moteur : pour naviguer, par exemple
- Cognitif : pour comprendre un contenu complexe, par exemple
Illectronisme = ne pas disposer de matériel ou ne pas être familier des usages. Il concerne 15,4% : personnes de + de 15 ans. L’éco conception vise à faire co-exister l’essor du numérique (et de son économie) et les enjeux environnementaux et sociétaux qui y sont associés. La législation concernant l’accessibilité va beaucoup se durcir à partir de 2025. Actuellement, le cadre légal RGAA touche quasi-uniquement le domaine public. Le secteur privé sera désormais concerné, et notamment le secteur de la vente en ligne. Un référentiel qui associe le RGPD et le RGAA = le RGESN, Référentiel général d’éco-conception de services numériques Les étapes de l’éco-conception :
- Cadrage stratégique : quelle est l’utilité du projet ? quels sont les besoins des cibles ?
- Connaissance des utilisateurs : pour qui le projet est-il développé ?
- Conception : comment réaliser le projet ? quelles sont les fonctionnalités essentielles ?
- Développement : comment développer le projet ? quel matériel va être utilisé pour développer le projet ?
- Évaluation : quels seront les indicateurs de réussite ?
Cadrage stratégique
Le rôle du chef de projet : penser le projet avec la perspective de l’éco-conception et s’assurer que la ligne est tenue sur toute la durée du projet. L’éco-conception doit trouver sa place dès la conception du projet.
Connaissance des utilisateurs
Concevoir en prenant en compte les utilisateurs signifie produire un contenu qui est utile, mais qui ne gâche pas inutilement des ressources. Il faut s’inscrire dans une démarche de sobriété. Pour rappel, 70% des services numériques conçus ne sont pas consultés.Cela ne signifie pas pour autant :
- limiter les ambitions : en répartissant mieux les ressources, on peut faire plus de projets
- image de marque : une marque engagée dans une démarche itérative avec ses cibles sera perçue de manière positive et à l’écoute. Ce qui sera perçu positivement, c’est le lien étroit entre le bénéficiaire et le concepteur
- devenir décroissante : la question n’est pas de faire moins mais de faire mieux. Par exemple, une page en code léger peut avoir la même apparence qu’une page codée « normalement », tout en étant plus légère et moins polluante
3 éléments importants pour la méthodologie :
- L’information recherchée (la satisfaction, le parcours client, l’utilisation, le trafic etc.)
- Le bon moment (en amont, pendant ou après la conception)
- La cible visée (pour qui est le produit ?)
Conception
45% des fonctionnalités ne sont jamais utilisées sur un site. Quelques recommandations :
- Point de vue UI :
- Adoptez l’approche mobile first (un téléphone portable est beaucoup moins polluant à fabriquer qu’un ordinateur pour la simple raison de son poids)
- Donnez la maîtrise des interactions à l’utilisateur
- Prévoyez des repères de navigation / fil d’Ariane
- Pensez légèreté des pages (contenus, structure)
- Pensez usage du service en faible connexion sur du matériel ancien
- Navigation au clavier (tabulation)
- Liens de transcription des vidéos/audios
- Possibilité de mettre les animations/vidéos en pause
- Optimisez les formulaires à étapes
- Capitalisez sur les fonctionnalités et les composants natifs
- Limitez les slideshows / diaporamas
- Évitez l’usage des vidéos en autoplay
- Évitez l’auto-complétion / l’auto-suggestion
- Limitez les outils tiers au strict nécessaire (carte interactive, chatbot)
- Évitez le scroll infini
- Point de vue DA :
- Imaginez des design simples & épurés
- Limitez la quantité de ressources graphiques (polices, pictos icono etc)
- Alternez images et illustrations
- Préférez les images vectorielles et glyphes
- Adoptez le svg
- Testez les contrastes couleurs (Elama Color contrast analyser/togi.com/color-contrast-checker/apo.contrast-finderorg)
- Interrogez la pertinence des médias de chaque page
- Tenez compte du caractère évolutif du service
- Privilégiez les changements instantanés vs animés (javascript)
- Pensez économie/capitalisation des composants
- Modérez l’usage d’images pleine largeur / immersives
- Bannir les fonds vidéos et la lecture automatique
- Évitez les carrousels en autoplay
- Évitez les GIFs animés
Il est important de trouver des manières de travailler à la fois sobres ET élégantes ET innovantes.
- Point de vue contenu : appliquer au contenu les même exigences
- Rédigez clairement
- De façon concise (utilisez les listes à puces)
- Envisagez le FALC (Facile À Lire et à Comprendre)
- Structurez l’information en titres, sous-titres, citations et textes
- Optimisez le poids, la taille et les formats des images
- Pensez la périodicité des contenus
- Décrivez le contenu dans la métadonnée pour optimiser le SEO
- Formez les équipes de contribution et de production
- Ne justifiez pas les textes
- Ne densifiez pas trop les pages, pensez aération des contenus (interlignage, blancs tournants, marges entre paragraphes)
Développement
« Nous avons le devoir de produire des sites compatibles avec les terminaux les plus anciens. » = rétrocompatibilité. On peut utiliser le site « Can I use » pour évaluer la rétrocompatibilité au niveau des sites web pour les anciens navigateurs. On peut aussi intégrer des matériels modestes pour tester les outils créés (ex : Raspberry Pi). « Il faut aussi mettre en place des outils de mesure pour entrer dans une démarche d’amélioration et d’optimisation. » (cf. conférence Écoconception de services numériques). Quelques exemples d’extensions de mesure :
- Éco index : extension permettant de mesurer (note de A à F) la consommation du site.
- Frugrr : mesure de l’accessibilité du site + de la sobriété de la conception + de l’impact environnemental (comme GreenTrackr) [fonctionne avec un système de seuil]
Pour bien choisir son hébergeur :
- Regarder comment est produite l’électricité utilisée pour le serveur
- S’assurer d’un PUE le plus proche de 1 possible
Évaluation
L’AB Testing consiste à publier 2 contenus avec quelques différences et à les proposer à des cohortes d’utilisateurs pour voir quelle version est la meilleure.
Usage utile de la vidéo au service de la stratégie RSE des entreprises
Intervenants : Green IT, SpeakyLink Green IT est une association qui existe depuis 2011 et qui fédère des entreprises qui sont impliquées à tous les niveaux de la chaîne numérique et qui mènent une démarche d’écoresponsabilité numérique. Le numérique ressemble beaucoup à de la magie, il en partage les propriétés. Pour faire de la magie, il faut donner l’illusion de l’instantanéité, mais il y a beaucoup de solutions matérielles derrière. C’est pareil pour le numérique. Dans toute chaîne, on retrouve les mêmes composants : des terminaux, des réseaux, des data centers. Toutes les heures dans le monde il y a 10 milliards d’échanges de mails et 180 millions de recherches Google qui, chacun, mobilisent ces composants tous en même temps. Ce sont ces composants qui font la magie du numérique. Les impacts du numérique ne sont pas uniquement liés aux GES et à l’énergie. Le numérique est responsable de 2 à 4% des émissions de GES à l’échelle mondiale. C’est autant que l’aviation civile sauf que les services numériques concernent environ 50% des habitants de la Terre alors que l’aviation n’est accessible que pour 15% des êtres humains. Le numérique représente aussi 0,2% de la consommation en eau et 5,6% de la consommation en électricité mondiale. En France, 2 millions de tonnes d’équipements neufs sont mis sur le marché chaque année ; en parallèle, le numérique génère entre 50 et 75 millions de tonnes de déchets par an à l’échelle mondiale. Cela implique une grande quantité de matière première. On utilise l’échelle MIPS (Material Input Per unit of Service) : pour une puce électronique il faut 16kg de matières première pour 1g de puce. L’analyse en cycle de vie est très utile pour comprendre comment éviter d’extraire de nouvelles matières premières à chaque fois. L’analyse en cycle de vie permet aussi de comprendre les impacts sociaux du numérique : conflits dans l’usage de l’eau, conflit autour des mines etc. 75% des impacts du numérique sont liés à la fabrication : il y a des dizaines de milliards de terminaux contre « seulement » des dizaines de millions d’infrastructures (équipements réseaux et datacenters). Les terminaux nécessitent aussi énormément de matières premières différentes : 50 métaux différents. Pour un écran de 30 pouces, les 374kg de CO2e générés sur tout son cycle de vie 299kg sont déjà produits rien qu’à l’issue de la fabrication. Actuellement, la vidéo en ligne représente 60% de l’impact environnemental de la vidéo. Au quotidien, pour faire un usage raisonné de la vidéo on peut :
- Bien acheter :
- dimensionner son équipement
- acheter ou récupérer des équipements d’occasion
- louer quand c’est possible
- acheter en observant des critères environnementaux
- Bien utiliser :
- allonger la durée de vie
- privilégier le wifi car il consomme 40x moins que la 4G
- réduire la résolution des vidéos consultées
- privilégier l’audio quand la vidéo n’est pas nécessaire
- désactiver la lecture automatique des vidéos
- débrancher sa box quand on ne s’en sert pas
- Bien se séparer :
- donner ou vendre son équipement
- recycler son équipement en le triant correctement
Reste à noter que l’empreinte carbone des usages numériques est très restreinte par rapport à l’utilisation de la voiture, la consommation de viande, l’utilisation du gaz et du fioul, l’impact du logement etc. SpeakyLink est une solution logicielle proposant un service support en co-animation vidéo. Concrètement, cela fonctionne comme le support Apple qui prend le contrôle sur le terminal. Un lien est envoyé par sms et en parallèle de l’appel téléphonique, une visioconférence démarre. En soi, SpeakyLink n’a rien de révolutionnaire mais cela permet des externalités positives qui sont liées au RSE : moins de retours de produit inutiles (donc moins de transport), moins d’étapes de réparation d’un produit (donc moins de transport de nouveau), augmentation des taux de réparation (donc augmentation de la durée de vie) etc.
IA & Acceptabilité : code et design au risque du machine learning génératif
Intervenants :
- Frédérique Krupa
- Alexandre Agossah
- Olivier Dermanez
- Léa Genais
Impact des IA dans le milieu pro Les limites de ce que l’on considère comme acceptable avec les IA.Machine learning : aide à résoudre les problèmes de langage, les problèmes de vision… Cela permet de classifier les informations Nous sommes sur des modèles primitifs, on se base sur des expériences de données.l’IA : on est sur de l’automatisation cognitive Pourquoi y avait-il une réticence ?
- la propriété intellectuelle : un enjeu qui est en train de se résoudre au tribunal
- la génération d’image : la personne ne l’a pas créée donc, elle ne peut pas protéger la génération.
Vers une interaction humain-machine efficiente en contexte professionnel : méthodes de conception et d’évaluation de solution utilisant de l’IA – Alexandre Agossah (Doctorant) Comment est perçue l’IA en contexte professionnel ?Améliorer l’acceptabilité en l’IANorme ISO 92.41 : une vision techno-centrée de l’acceptabilité (en fin de chaîne)Mesurer la confiance en un outill’IA est un outil que l’on doit comprendre et qui répond à nos besoins.Impact de la transparence L’IA générative a des avantages :
- augmenter la productivité
- améliorer la qualité
- accélérer l’innovation
Mais on ne peut pas ignorer certaines questions :
- Maintien des compétences
- Risque de violation de copyright
- Risque sur les hallucinations (les erreurs générées par l’IA)
- Risque sur la propriété intellectuelle
- Dépendance technologique (Comment s’assurer que nous ne sommes pas dépendants de l’outil ?)
La créativité vient du prompt : création totale d’un prompt.Il y a une part de créativité qui reste, peut être orientée. labelliser les créations avec ou sans assistance par une IA.
Les défis brûlants de l’IA pour le droit d’auteur
Intervenants :
- Maître Carole COUSON, avocate au barreau de Nantes – spécialisée en propriété intellectuelle
- Maître Delphine GANOOTE-MARY, avocate au barreau de Nantes
- Frédéric Maupomé – écrivain, scénariste
La CNIL a donné une définition simple mais pragmatique : système permettant de créer un texte, des images ou d’autres contenus à partir d’instructions et d’un utilisateur humain.L’intelligence artificielle générative de contenu est un domaine en pleine expansion qui suscite de nombreuses questions et réflexions, notamment en ce qui concerne la création de textes, d’images et d’autres contenus à partir d’instructions et de l’intervention d’un utilisateur humain. Cette note explore les aspects clés de cette technologie émergente. Le Deep Learning et la Création de Contenu :Le « deep learning » est la base de l’apprentissage des machines pour générer du contenu en se basant sur ce qui existe sur Internet. Un exemple notable est « The Road », le premier livre écrit par une machine en 2018.L’Apprentissage de l’IA par la Répétition :L’apprentissage de l’IA repose sur la répétition et la combinaison d’images et de textes. Au fil de la répétition, l’IA s’améliore et devient plus performante.Accessibilité de l’IA Générative :L’attrait de cette technologie réside dans son coût abordable, avec des tarifs de démarrage aussi bas que 10 € par mois, ce qui rend son utilisation accessible, notamment dans le domaine publicitaire (ex. Undiz et Martini).Protection des Créations Générées par l’IA :Aux États-Unis, une décision récente en août 2023 a conclu que les œuvres générées par une IA ne pouvaient pas bénéficier du droit d’auteur en raison de l’absence d’intervention humaine directe dans le processus de création.Droits d’Auteur en France :En France, la position majoritaire stipule que pour qu’une œuvre soit protégée par le droit d’auteur, elle doit refléter la personnalité de l’auteur, sa sensibilité et son originalité.
- Le prompt ne peut pas être protégé par le droit d’auteur car il s’agit d’une production trop insuffisante. De plus, il existe maintenant des IA capables de générer du prompt dans une seconde IA afin de générer du contenu, c’est le cas de la nouvelle version de Dall•e qui inclut ChatGPT pour réaliser de nouvelles images.
Utilisation d’Œuvres Antérieures et Données :L’utilisation d’œuvres préexistantes pour l’entraînement de l’IA soulève des questions, notamment en ce qui concerne le consentement de la personne, comme le stipule le RGPD.IA Capable de Créer des Contenus Originaux :La capacité de l’IA à générer des images ou des textes originaux sans avoir besoin de données préexistantes pose des questions sur le stockage et la création de contenu entièrement autonome.Impacts sur les Droits d’Images et la Vie Privée :Outre les droits d’auteur, l’utilisation de l’IA soulève des préoccupations liées aux droits d’images et à la vie privée, notamment en ce qui concerne la création de fausses images ou de contenus diffamatoires.Impacts Économiques et Sociaux :L’adoption généralisée de l’IA générative de contenu pourrait entraîner des pertes d’emplois, notamment dans les secteurs de la presse. Les biais programmés dans les IA peuvent également poser des problèmes.Solutions Proposées :Des propositions de loi visent à informer clairement lorsque le contenu a été généré par une IA, afin d’assurer la transparence. La traçabilité de l’information est également un sujet de préoccupation. En résumé, l’IA générative de contenu soulève des questions complexes liées aux droits d’auteur, à la vie privée, à l’économie et à la société dans son ensemble. Une réglementation adéquate et des solutions innovantes sont nécessaires pour relever ces défis émergents.
L’IA a-t-elle un genre ?
Intervenants :
- Aurélie Beaupel – déléguée PDL femme du numérique pour nuseum + membre du board La French Technique Vendée
- Rémi Ferrand – représentant de talents du numérique
- Marianne Allanic – membre du CA – femme digital ouest + dirigeante Altena
La montée en puissance de l’intelligence artificielle (IA) suscite de nombreuses interrogations quant à ses implications sur la société. Cette prise de note aborde trois thèmes majeurs : le genre dans les images générées par l’IA, la présence des femmes dans le domaine, et les biais inhérents à cette technologie. Genre dans les Images Générées par l’IA :L’utilisation de l’IA pour attribuer un genre aux images générées soulève des questions importantes. Par exemple, l’association « nurse = femme » et « CEO = homme » met en lumière des stéréotypes de genre que l’IA peut renforcer. La présence des Femmes dans l’IA :Les chiffres concernant la participation des femmes dans le domaine de l’IA sont difficiles à obtenir et souvent mêlés à d’autres métiers du numérique. Certaines études ne tiennent même plus compte de ce critère, suggérant un manque de mesure précise de la présence féminine. Les entreprises : 35% des entreprises ont déjà investi dans l’intelligence artificielle, et ce chiffre devrait augmenter avec 44% prévoyant d’investir dans l’IA l’année prochaine. L’IA est une technologie aux multiples facettes qui offre divers avantages :
- Autonomie Stratégique : L’IA permet aux entreprises de développer des avantages concurrentiels en améliorant leur efficacité opérationnelle, en optimisant la gestion de leurs ressources, et en automatisant des processus complexes.
- Confiance Accordée à des Solutions Éthiques : Les entreprises peuvent utiliser l’IA pour renforcer la confiance de leurs clients et partenaires en adoptant des pratiques éthiques et transparentes dans leur prise de décision.
- Aide pour le Bien Commun : L’IA peut être employée pour résoudre des problèmes sociaux et environnementaux complexes, en contribuant au bien commun. Elle peut être utilisée pour améliorer la santé publique, la gestion des ressources naturelles et bien plus encore.
- Responsabilité Sociale d’Entreprise (RSE) : L’IA permet aux entreprises de surveiller et de rapporter en temps réel leur impact social et environnemental, renforçant ainsi leur engagement en matière de RSE.
- Prévention des Risques : L’IA offre la possibilité de prévoir et de gérer les risques, que ce soit dans la chaîne d’approvisionnement, la sécurité des données ou la gestion de crise.
- Réduction de l’Emprunte Carbone : En optimisant les processus et en proposant des solutions éco-responsables, l’IA peut contribuer à réduire l’empreinte carbone des entreprises, répondant ainsi aux enjeux environnementaux actuels.
Opportunités et Impact sur l’Emploi :L’IA offre de nombreuses opportunités sur le marché, mais elle peut également avoir un impact sur l’emploi, avec la prévision de la destruction de 85 millions d’emplois et la création de 97 millions d’autres, dont 12 millions impliquent des personnes formées à l’IA pour remplacer d’autres travailleurs. Éducation, Attractivité et Représentations :L’éducation joue un rôle crucial dans l’augmentation de la participation féminine dans le domaine de l’IA. Les réformes académiques visent à encourager plus de femmes à s’inscrire dans des programmes numériques, mais des stéréotypes persistants doivent être surmontés. Note sur la Parité dans les Emplois de Data et d’IA :Actuellement, la participation des femmes dans les emplois liés à la data et à l’intelligence artificielle (IA) s’élève à seulement 29%, et ce chiffre semble stagner. Cette situation souligne un déséquilibre persistant dans ce secteur. Pour tenter de remédier à cette disparité, le ministre de l’Éducation nationale, Jean-Michel Blanquer, a lancé une réforme éducative visant à influencer les parcours académiques des jeunes femmes. 1. Enseignement de Spécialité Académique : Un des points clés de cette réforme est l’introduction d’un enseignement de spécialité académique. Cependant, il est préoccupant de constater que ce domaine demeure peu fréquenté par les femmes, ce qui peut influencer leur choix de carrière. 2. Parcours Supérieur : Les données montrent que seulement 25% des inscriptions dans des formations liées au numérique sont le fait de femmes. Cette statistique suggère que l’attractivité des programmes liés à la technologie reste faible pour les étudiantes. 3. Parcours Sélectifs : L’inscription des femmes dans des parcours sélectifs est encore plus basse, ne représentant que 19%. Cette tendance peut refléter des obstacles structurels à l’entrée des femmes dans des filières exigeantes. En somme, le défi de l’équité de genre dans les emplois liés à la data et à l’IA se situe au croisement de l’éducation, de l’attractivité de ces carrières pour les femmes, et des représentations sociales qui peuvent influencer leurs choix. La réforme éducative entreprise par le ministre Blanquer est une étape importante, mais il est nécessaire de poursuivre les efforts pour encourager plus de femmes à poursuivre des carrières dans ce secteur en plein essor. Cela peut contribuer non seulement à combler le fossé de genre, mais aussi à promouvoir la diversité et l’innovation dans ces domaines clés de l’économie moderne. Les Biais dans l’IA :Toute technologie est neutre en elle-même, c’est la façon dont on va l’utiliser qui va induire des biais.Les biais dans l’IA sont principalement le résultat des préjugés des concepteurs. Cela peut conduire à des problèmes de sexisme et de racisme dans les applications, comme la reconnaissance faciale moins précise pour les personnes de couleur. La Conscience et la Culture Numérique :Il est essentiel de former les individus à la conscience des biais et à la culture numérique. Actuellement, seuls 12% des concepteurs d’IA sont des femmes, ce qui souligne le besoin d’inclure l’IA dans l’éducation générale.De plus, il est crucial d’agir rapidement pour remédier aux stéréotypes de genre dans l’éducation (EN). Cela nécessite une formation des enseignants axée sur l’égalité des genres et la promotion de carrières techniques pour les femmes. Notre société est encore en retard sur cette question, mais en investissant dans l’éducation inclusive, nous pouvons créer un avenir plus équilibré et diversifié dans les domaines tels que la technologie et l’IA. L’IA comme Opportunité :L’IA peut également être considérée comme une opportunité, car elle met en évidence les biais existants, incitant ainsi à les examiner et à les remettre en question pour faire évoluer la société. Conclusion :L’IA est une technologie puissante qui a le potentiel de remodeler notre société de diverses manières. Cependant, elle pose des défis importants en matière de genre et de biais, qui nécessitent une prise de conscience, une éducation et des actions continues pour garantir que ses avantages profitent à tous.
Comment les biais de genre se retrouvent-ils dans les modèles prédictifs ?
Intervenante : Frédérique Krupa
Considérations générales
On voit dans les statistiques américaines que, jusqu’en 1985, il n’y avait que des femmes dans l’informatique. Mais depuis, la part des femmes décroit de manière très puissante, au profit des hommes. Cela s’explique par le fait que les hommes ont abandonné le hardware pour rejoindre le côté logiciel : le hardware est devenu l’apanage des femmes et des hommes déclassés (pauvres, racisés etc.). Les femmes, elles, étaient dès le début dans les logiciels car les hommes contrôlaient le hardware. La montée du nombre d’hommes sur la partie logicielle a conduit à la mise en place d’une compétition, compétition qui tend à attirer encore plus d’hommes. L’exemple d’Apple :On trouve 65% d’hommes et 35% de femmes, d’après les chiffres officiels. Mais cette répartition s’explique par le fait que les femmes qui travaillent sur les lignes de production ne sont pas comptées : elles sont en réalité beaucoup plus nombreuses si on les prends en compte. On les retrouve sur les lignes car il s’agit d’un travail déclassé, avec très peu de valorisation. La programmation reste aux mains des hommes. Une étude a été menée pour compter le nombre de publications des femmes sur l’IA, par rapport aux hommes. Bien qu’elles apparaissent dans 1/4 des publications, le milieu est largement masculin. Même dans les publications de groupes, elles ne représentent généralement qu’1 chercheuse sur le lot. Cette place très limitée dans la recherche s’explique principalement à cause des stéréotypes sur l’incapacité des femmes à faire des mathématiques et à manipuler des machines complexes (« C’est si simple que même une femme peut le faire ! »). Bien que le milieu scientifique se soit affranchi de ce stéréotype, il continue d’infuser dans la société donc peu de femmes suivent des études en sciences dures (et donc ne deviennent pas chercheuses dans ce domaine). À l’inverse, on a une représentation de l’homme qui sait bricoler, réparer, créer, faire des mathématiques (image du geek, du hacker), avec l’effet inverse. Pour la femme, aller vers l’IA est donc une forme de transgression. Par exemple, on note qu’il n’y a actuellement que 4% des lycéennes qui s’orientent vers la conception de jeux vidéos. Cela réduit considérablement le nombre de femmes qui y aboutiront finalement, car les adolescents sont très influencés par tous les stéréotypes véhiculés dans la société ce qui génère encore plus d’abandon chez les femmes. Il faudrait donc un tronc commun plus long pour que les femmes aient le temps et la maturité de se départir de ces stéréotypes pour faire ce qu’elles veulent réellement. Nos stéréotypes sont associés à des biais cognitifs, qui sont absolument nécessaires pour survivre car ils permettent de survivre face à la quantité d’informations que nous recevons en permanence. Pour autant, il faut réussir à en déconstruire certains. Par exemple, quand on demande à des étudiants de dessiner un scientifique, ils dessinent un homme blanc d’âge moyen en blouse blanche. C’est la représentation-archétype de l’homme. Si on demande une scientifique femme, elle sera souvent plus âgée et on parlera plutôt d’une chercheuse, terme moins associée aux sciences dures. Occasionnellement, on pourra aussi se représenter une technicienne type technicienne de laboratoire. En attendant, il est important de se fixer des quotas de diversité pour créer des projets les plus inclusifs possibles. D’après Rosabeth Kanter, il faudrait que plus de 15% de la masse salariale représente une forme de diversité (genre, origines sociales, groupe ethnique, orientation sexuelle etc.) pour pouvoir vraiment prendre en compte cette diversité dans le résultat du projet. Rock, Grant et Grey ont observé que quand des équipes sont diversifiées, le travail est plus difficile car il y a plus de confrontation, mais le résultat est souvent plus qualitatif. Actuellement les designers travaillent plutôt entre eux, en vase clos. Exemple chez Apple : Dans la première version de Santé, on pouvait mesurer le taux d’alcoolémie mais pas tracker son cycle menstruel. Simplement car personne n’y avait pensé.
Ce que l’IA fait aux femmes : les biais
Le machine learning a permis de créer des modèles prédictifs. Les biais dans les donnéesMais des biais peuvent se glisser dans ce système d’apprentissage. On utilise notamment des librairies de données déjà toutes faites pour entraîner les IA. Le principe est de faire entrer un maximum de données pour que l’IA puisse reconnaître des éléments et faire des prédictions sur le futur par rapport à ce qui a déjà été vu. Mais les ingénieurs ne se posent pas toujours la question de la nature des données : ils se focalisent surtout sur l’entraînement et la qualité des prédictions. Les biais dans la mise en oeuvreExemple de Imagenet :Il s’agit d’une démarche visant à un moteur de recherche d’images, basé sur des images labellisées. Dans un premier temps, il a fallu labelliser une quantité incroyable d’images. Mais cela est très long et coute très cher. Donc la labellisation a été déléguée à des étudiants de Stanford, puis à des personnes en freelance ou des entreprises spécialisée. Mais il n’y avait toujours pas assez de personnes pour faire cette labellisation. Alors tout le grand public a pu faire des labels et faire des propositions d’images pour différentes thématiques. Le problème, c’est que les personnes qui ont participé avaient des biais. Par exemple, pour représenter le thème « une mariée », on ne trouvait que des femmes jeunes, blanches et en robe blanche. Au final, l’IA était rempli de biais racistes, homophobes, sexistes etc. Par la suite, la société a dû recruter des personnes pour identifier tous ces biais et refaire du tri. Ils en sont venus à supprimer beaucoup de labels qui posaient problème en eux-mêmes. Les biais dans la prédiction
- Une première étude montre que, dans les logiciels de reconnaissance de genre (femmes ou hommes sur une photo), il y a plus d’erreurs pour reconnaître les femmes et les personnes racisées, le pire étant les femmes racisées qui ne sont pas reconnues comme femmes au moins 1 fois sur 4. Ce problème tient essentiellement au manque de diversité de la base de données utilisée au départ.
- Une autre étude montre que, si une IA doit faire une description de 2 députés américains qui ont le même poste, les adjectifs utilisés pour les hommes vont faire référence à leur travail et à leurs qualités intellectuelles, alors que pour les femmes, les adjectifs vont plutôt être relatifs au physique et aux qualités familiales.
- Une recherche montre également que dans les 500 plus grandes entreprises américaines, ce sont à 99% des IA qui sélectionnent les candidats qui seront reçus ou non en entretien. En observant le pattern de recrutement de certaines entreprises (dont Amazon), les dirigeants ont découvert que certaines IA excluaient à tous les coups les femmes, qui n’étaient donc jamais reçues.
- X intègre une IA qui permet de redimensionner les images avant qu’on ne clique dessus quand elles sont trop grandes. Une étude a montré que l’IA mettait au centre et en plein écran les visages blancs mais pas les visages de couleur. Il en va de même pour les IA qui créent des fonds sur les visioconférences, qui reconnaissent moins bien les visages de couleur.
Les biais dans les problématiquesOn a tendance à sous-estimer les biais dans les problématiques auxquelles doivent répondre les IA. À la base, ce sont essentiellement des problématiques d’hommes blancs (cf. exemple d’Apple avec l’alcoolémie). Par exemple, il n’y a aucune IA qui essaye de régler la pauvreté, les féminicides etc. Concernant les deepfakes, presque 100% des deepfakes pornographiques concernent des femmes. Quasiment rien n’est fait pour lutter contre, alors que si la majorité était des hommes… L’IA, c’est du pouvoir. Et ce sont les hommes qui ont le pouvoir alors ils mettent l’IA à leur service. Autre exemple : il existe une IA qui prédit les crimes. Comme les policiers sont principalement stationnés dans des quartiers pauvres avec des personnes racisées, ces personnes sont principalement arrêtées et entrées dans le fichier. Donc l’IA prédit principalement des crimes de personnes pauvres et racisées. En Iran, l’IA est utilisée pour trouver les femmes qui ne sont pas voilées. Un projet de Stanford vise à prédire l’homosexualité ou la transidentité sur le visage des individus : son auteur a été invité par Poutine pour présenter son projet. Des problématique de pouvoir, d’hommes blancs. Quelques recommandations pour l’avenir :
- Légiférer de manière pertinente sur l’IA
- Surveiller et faire valider par des tiers les IA à risque
- Demander à vérifier les bases de données qui sont les sources des modèles prédictifs
- Vérifier que ce qui est mis en opensource n’est pas dévoyé ou le contrôler
- Créer de nouveaux métiers pour tous les points précédents, dans une perspective pluridisciplinaire et de diversité intersectionnelle
- Vulgariser la technique
Comment mettre l’IA au service de l’autonomisation des femmes ?
Intervenants :
- Christian Guellérin – Directeur général de l’École de design Nantes Atlantique (dessiner les usages de demain)
- Emmanuelle Roux – Dirigeante de Chaudron.io, administratrice MedNum, coopérative dédiée à une société numérique inclusive
- Florence Sedes – Vice-Présidente d’Université, Professeure des universités, chercheure à l’IRIT, à l’université Toulouse 3 Paul Sabatier
Nous assistons à une transformation systémique majeure de notre société, principalement due à l’émergence de l’intelligence artificielle (IA). Cette révolution technologique est une vague puissante qui va profondément modifier nos modes d’action et de production. Cela se traduira par la disparition de certains emplois, comme le service client, mais cela ne doit pas nécessairement être perçu comme une mauvaise nouvelle.Pour de nombreuses personnes, le travail est souvent considéré comme une contrainte sociale. La véritable question qui se pose est celle de la redistribution de la valeur générée par cette transformation économique (cf. les écrits de Timothée Parrique, économiste + film Startreck). Nous sommes tous des acteurs de la société, et nous sommes souvent enfermés dans une vision de croissance illimitée. Cependant, il est crucial de reconnaître que notre monde est fini, ce qui nous amène à réfléchir sérieusement aux montants considérables générés par les géants de la technologie (GAFAM). Ils ont démocratisé l’accès à de nombreuses solutions, mais à quel moment devons-nous décider si nous voulons des emplois ou des solutions d’automatisation, et comment l’URSSAF peut intervenir pour assurer une redistribution équitable de la valeur générée ? Il est important de comprendre que taxer le travail peut ne pas signifier taxer directement les travailleurs, mais plutôt taxer les entreprises qui utilisent l’automatisation. La question fondamentale est de savoir quelle société nous voulons construire pour demain. Souhaitons-nous une société à la « Wall•e » où les humains n’ont plus aucun impact sur leur environnement parce que tout a été automatisé ? Cela affectera d’abord les emplois traditionnellement occupés par les femmes, tels que le secrétariat et l’assistance juridique ou médicale. La vraie question est donc de savoir si nous devons défendre les emplois en tant que tels ou plutôt les modalités de la redistribution collective de la richesse générée par l’automatisation. Avec le temps libéré par l’IA, devons-nous réinvestir davantage dans le travail ou encourager des activités annexes telles que la participation à des tables rondes, le bénévolat associatif ou le renforcement des liens familiaux ? Nous allons progressivement passer de la technique à la gestion de projets complexes, en prenant en compte des problématiques sociétales telles que l’enseignement. L’IA peut augmenter notre capacité d’action, mais il est important de se rappeler que pour poser des questions, il faut d’abord savoir que ces questions peuvent être posées. Un défi majeur des métiers à venir est que de nombreuses formations pourraient devenir non diplômantes mais qualifiantes, alors que les diplômes restent importants dans notre société. Les femmes devront peut-être lutter davantage pour occuper des postes de leadership. Il est essentiel de comprendre que les IA ne sont que des outils, et les utiliser revient à déléguer certaines tâches, tout comme on pourrait le faire avec un junior. Il ne faut pas prendre les réponses fournies par l’IA comme des vérités absolues. La collaboration homme-machine, en particulier avec une IA, nécessite une véritable compétence dans l’art de poser les bonnes questions, ce qui est actuellement plus courant parmi le public féminin. C’est une extension du dialogue humain. La relation avec la technologie et les usages permettra d’accéder à des métiers valorisants et à l’autonomisation des femmes. Le mot « pouvoir » est souvent associé au masculin, mais utiliser une IA peut être vu comme avoir son propre assistant. Cela soulève la question de savoir si une IA redistribue le pouvoir. Le rapport à la donnée est également un rapport au pouvoir. La délégation implique un certain contrôle. Dans le futur, il n’y aura probablement plus de gestionnaires qui ne comprennent pas la technologie, ce qui soulève la question de savoir si nous devons nous concentrer sur la technologie ou l’ingénierie. Enfin, il est important de noter que notre société a tendance à considérer le pouvoir du côté des décideurs. Nous devons remettre en question ces représentations qui peuvent être facilitantes pour certains et inaccessibles pour d’autres. Notre système étatique s’est également associé à une image de « techno-clergé » avec des interfaces simplifiées, ce qui soulève des questions éducatives importantes. En politique, être inclus numériquement signifie souvent être un utilisateur, mais cela ne nécessite pas nécessairement de réflexion active. Nous devons réfléchir à ce que signifie être inclus dans un monde numérique en tant que citoyen capable de prendre des décisions. L’IA doit être perçue comme un support pour développer des solutions aux problèmes sociétaux, démystifiant ainsi les domaines scientifiques souvent considérés comme réservés aux hommes. Il est essentiel de réfléchir à ce que cette technologie peut nous apporter. En conclusion, la disparition d’emplois ne concerne pas nécessairement les métiers féminins, mais plutôt les métiers peu qualifiés. La solution pourrait être de mieux qualifier ces métiers en enseignant l’IA dès le plus jeune âge, ce qui contribuerait à une société plus équilibrée et préparée à l’avenir technologique. On va passer de la technique à du management de projet complexe (et de problématiques sociétal – enseignement)L’IA augmente notre capacité d’agir.