Conférences et évènements

Dans l’arène des conférences, les esprits s’ouvrent, les connaissances se partagent et les horizons s’élargissent.

Conférence Médiapilote – Septembre 2025

Cette rencontre organisée par Mediapilote autour du thème « Découvrez les coulisses des dossiers intégrant l’Intelligence Artificielle » a réuni trois interventions qui ont rythmé l’événement, chacune apportant un regard concret sur la manière dont l’IA transforme les pratiques professionnelles.

Elsa SAL, de l’agence ODIENS, a ouvert la discussion sur une notion émergente : le GEO (Generative Engine Optimization), complément du SEO traditionnel. Avec 31 % des Français utilisant déjà l’IA pour leurs achats, il devient essentiel d’adapter nos contenus aux moteurs génératifs. Cela passe par la mise en avant de mots-clés pertinents dans nos sites web, nos réseaux sociaux, nos FAQ ou nos fiches produits, afin de “nourrir” les IA. ODIENS propose d’ailleurs aux entreprises un accompagnement complet : audit, plan d’action, suivi et reporting, pour les aider à mieux intégrer cette nouvelle dimension du référencement.

Yvan LEG a ensuite partagé sa vision des chatbots boostés à l’IA. Pour lui, 2025 marque un tournant : la technologie est désormais mature, le marché en pleine expansion, et 64 % des clients s’attendent à interagir avec ce type d’outil. Les bénéfices sont nombreux : réduction des charges pour le service client, hausse de l’engagement utilisateur et amélioration du taux de conversion. Il distingue plusieurs niveaux de chatbots, du plus simple basé sur les contenus du site aux solutions sur mesure intégrant de nombreuses fonctionnalités. Leur mise en œuvre suit un processus clair : analyse des besoins, configuration, tests, déploiement, formation et suivi.

Enfin, Clément SEMI a questionné la place de l’IA dans la créativité : simple coup de main ou véritable coup de grâce ? Plutôt que de voir l’IA comme une menace, il a insisté sur ses bénéfices. Elle représente un gain de temps considérable, tout en favorisant l’efficacité économique et l’impact écologique en limitant certains coûts de production. Surtout, elle permet de se projeter rapidement en testant et en explorant des idées nouvelles, devenant ainsi un véritable allié des créatifs. Cependant, ce dernier a également rappelé que l’IA ne doit être qu’un soutien : certaines marques, comme Undiz ou Moncler, ayant utilisé des visuels générés par IA pour leurs campagnes, ont montré les limites de cette pratique. Si l’effet visuel attire, les imperfections restent visibles et peuvent nuire à l’image. L’IA peut donc aider à réduire les coûts logistiques, à éviter par exemple de mobiliser un mannequin et d’organiser un shooting à l’autre bout du monde mais il reste essentiel qu’un designer humain reprenne la main pour affiner, corriger et sublimer le visuel généré.

Au final, cette rencontre a montré que l’IA n’est pas un gadget, mais un levier stratégique. Qu’il s’agisse d’inspirer la créativité, d’anticiper les nouveaux usages avec le GEO ou d’améliorer l’expérience client grâce aux chatbots, elle offre de réelles opportunités pour innover, optimiser et construire dès aujourd’hui les pratiques de demain.

NANTES DIGITAL WEEK 2025

La conférence a démarré par une scène de théâtre. Objectif : montrer en direct – avec humour et un brin de chaos maîtrisé – comment l’IA peut, ou pas, aider un formateur face à des imprévus très “réels” (client qui répond pendant l’intervention, demandes contradictoires, versionnage express d’un devis, etc.). Au-delà du show, la matinée a livré des données d’usage, des cas pratiques solides, un témoignage d’entreprise (H3O) et un rappel salutaire : l’IA est un outil pédagogique, pas une baguette magique.

La rencontre a livré une vision claire de l’état actuel des usages. Les données partagées montraient qu’en 2023, moins d’un tiers des formateurs et enseignants se disaient familiers avec l’IA générative, alors qu’en 2025 près de la moitié déclarent l’être et que plus de six sur dix affirment l’utiliser. Toutefois, il s’agit encore largement de pratiques individuelles, parfois improvisées et échappant aux cadres institutionnels. On observe ainsi un « shadow IA » où chacun expérimente ses propres outils, sans stratégie globale de l’organisation. Après formation, des communautés de pratique émergent et des usages collectifs commencent à se structurer, signe d’une maturité en construction. Le constat reste néanmoins partagé : l’IA est adoptée, mais pas toujours comprise, et ses effets sur l’apprentissage doivent encore être mesurés scientifiquement.

Les exemples concrets présentés ont illustré comment l’IA peut enrichir l’expérience pédagogique. Dans un premier cas, un formateur a conçu un chatbot incarnant un professeur volontairement rigide et attaché à des méthodes traditionnelles. Les apprenants ont dialogué longuement avec cette figure numérique, développant leurs arguments et consolidant leurs connaissances dans un cadre à la fois ludique et exigeant. Dans un deuxième exemple, l’IA a servi de soutien à la création d’escape games pédagogiques, rendant possible la conception d’univers visuels et narratifs cohérents, autrefois longs et coûteux à produire. Enfin, un troisième cas a montré l’usage de l’IA dans une formation en anglais professionnel, où elle a permis de corriger des mails, d’expliquer des règles grammaticales et de préparer un travail plus efficace en présentiel.

Un témoignage de l’entreprise H3O a ensuite apporté un éclairage précieux sur la manière dont une organisation peut intégrer progressivement l’IA dans ses pratiques. Après une transition numérique entamée dès 2017, l’entreprise a choisi en 2023 de s’emparer du sujet en embarquant l’ensemble des équipes. Aujourd’hui, l’IA est utilisée au quotidien non seulement dans la conception et l’animation de formations mais aussi dans les activités commerciales et marketing. Ce retour d’expérience confirme que l’intégration est possible, sans rupture brutale, mais à condition d’accompagner les équipes, d’expérimenter et de progresser par étapes.

La conférence n’a pas éludé les limites et les risques. Les hallucinations de l’IA restent une réalité, ce qui oblige les formateurs à garder la main et à vérifier systématiquement les productions. Les questions de protection des données sont également sensibles : il ne s’agit pas de confier à un modèle externe des informations confidentielles sans réflexion. S’y ajoute l’impact environnemental, qui interpelle alors même que le numérique dans son ensemble représente déjà une part significative des émissions de gaz à effet de serre. Les intervenants ont insisté sur la nécessité d’un usage raisonné, ciblé, et d’une montée en compétence des formateurs pour rédiger des prompts efficaces et réduire ainsi la consommation inutile de ressources.

Le rôle du formateur ressort renforcé par ces échanges. L’IA ne le remplace pas, mais elle l’oblige à redéfinir sa posture. En amont, il conçoit les scénarios, choisit les outils et teste les prompts. Pendant la formation, il facilite, accompagne, cadre et débriefe, en exploitant l’imprévu comme matière pédagogique. Après coup, il analyse, corrige et ajuste, garantissant que l’IA reste au service des objectifs d’apprentissage. L’outil devient ainsi un levier d’innovation, à condition d’être intégré dans une stratégie pédagogique claire.

En conclusion, cette conférence a montré que l’IA générative peut devenir un formidable accélérateur dans la formation, en permettant de gagner du temps, d’innover dans les formats et de diversifier les approches. Mais elle n’apporte aucune solution magique. La pédagogie demeure dans les mains du pédagogue et de l’apprenant, et c’est dans ce dialogue, enrichi par la technologie mais jamais remplacé par elle, que se joue l’avenir de la formation.

La transformation numérique est aujourd’hui au cœur de nos sociétés, mais son développement rapide entraîne une consommation croissante de ressources énergétiques et matérielles. Face à ce constat, Inetum, La Poste et ESOS ont proposé un atelier de sensibilisation pour découvrir deux référentiels récents qui apportent des réponses concrètes pour concilier innovation et transition écologique : le référentiel général d’écoconception des services numériques et le référentiel général pour l’IA frugale.

Le premier établit un cadre global qui vise à intégrer l’environnement dès la conception et tout au long du cycle de vie des services numériques. Il encourage les acteurs à réfléchir à la sobriété fonctionnelle de leurs projets, à optimiser l’usage des infrastructures et des terminaux, à allonger la durée de vie des équipements, à réduire les consommations énergétiques et à garantir une meilleure accessibilité. L’évaluation continue, fondée sur des indicateurs environnementaux, permet d’assurer le suivi de ces engagements et d’améliorer progressivement les services. Ce référentiel pose ainsi les bases d’un numérique plus sobre, inclusif et durable.

Le second, publié par l’AFNOR en 2024 et corrigé en 2025, apporte un éclairage spécifique sur l’intelligence artificielle, domaine particulièrement énergivore et en forte expansion. Il définit ce que l’on entend par IA frugale et propose une méthodologie d’évaluation reposant notamment sur l’analyse du cycle de vie. L’accent est mis à la fois sur les impacts directs liés aux équipements, aux calculs et aux entraînements de modèles, et sur les impacts indirects comme les effets rebond ou l’apparition de nouveaux usages. Le document invite à limiter la complexité algorithmique, à réduire les volumes de données, à choisir des infrastructures plus sobres et à questionner en amont la pertinence même du recours à l’IA lorsqu’une autre solution moins consommatrice peut répondre aux besoins. La notion de frugalité dépasse la simple optimisation technique : elle suppose de redéfinir les usages et de replacer les besoins humains et environnementaux au centre de la démarche.

Pris ensemble, ces deux référentiels se complètent et dessinent une vision commune. L’écoconception fournit un socle applicable à l’ensemble des services numériques, tandis que l’IA frugale vient préciser les méthodes et bonnes pratiques adaptées à un secteur en pleine croissance. Leur mise en œuvre conjointe offre aux organisations un cadre solide pour réduire leur empreinte écologique, anticiper les futures réglementations européennes et renforcer la confiance des usagers.

L’enjeu est crucial. Les services numériques représentent déjà une part importante des émissions de gaz à effet de serre et de l’utilisation des ressources rares. Quant à l’intelligence artificielle, son développement exponentiel accentue ces pressions, notamment avec les modèles génératifs dont les besoins en calcul et en données explosent. Adopter les principes d’écoconception et de frugalité, c’est non seulement répondre à l’urgence climatique, mais aussi repenser le rôle du numérique pour qu’il reste au service des besoins réels de la société.

En définitive, ces deux référentiels traduisent une même ambition : construire un numérique plus responsable, capable d’innover tout en respectant les limites de la planète. Ils offrent aux acteurs publics et privés des outils concrets pour passer de l’intention à l’action et contribuer à une transition écologique qui ne laisse personne de côté.

Nos usages sont de plus en plus façonnés par des plateformes dont l’objectif est la rentabilité, que ce soit par la publicité, les abonnements ou la collecte de données. Cela se traduit par des mécanismes de captation de l’attention, appelés “captalogie”, qui incluent le scroll infini, les notifications, les recommandations manipulées ou encore la récompense aléatoire qui nous incite à revenir “au cas où”. On observe également une “merdification” progressive, c’est-à-dire une baisse volontaire de qualité afin de pousser vers la version payante ou d’extraire davantage de données. Enfin, ces pratiques soulèvent des risques juridiques et géopolitiques, notamment dans le conflit entre le Cloud Act américain et le RGPD européen, où des lois extraterritoriales peuvent forcer l’accès à des données hébergées en Europe.

Le logiciel libre (programme informatique gratuit que l’on peut utiliser, modifier et partager librement) propose une autre voie, fondée sur quatre libertés : utiliser, étudier, modifier et partager. C’est un levier concret pour reprendre la main sur ses outils, ses données et son attention. Ce que change le libre, c’est d’abord la transparence et le contrôle : le code est auditable, les règles sont publiques et la gouvernance est plus ouverte. C’est aussi une question de souveraineté et de pérennité, puisqu’il devient possible d’auto-héberger, de changer de prestataire sans changer d’outil et d’éviter les verrouillages. Enfin, il favorise la sobriété en permettant de prolonger la durée de vie des appareils : on peut, par exemple, installer Linux sur un ordinateur, ou LineageOS ou /e/OS sur un smartphone compatible, plutôt que de racheter du matériel.

L’écosystème du libre repose sur plusieurs modèles complémentaires. On trouve les communautés, composées de bénévoles et d’associations comme Framasoft. Viennent ensuite les fondations, qui permettent la mutualisation entre acteurs, à l’image de Wikipédia, OpenStreetMap ou le W3C. Enfin, les éditeurs sont des entreprises qui publient du libre tout en vendant du support ou de l’hébergement, comme Red Hat, GitLab ou Oracle, souvent en double licence.

Il existe de nombreuses alternatives libres à nos outils quotidiens. Pour les systèmes d’exploitation, Windows et macOS peuvent être remplacés par Linux, ou Ubuntu, par exemple sur mobile, Android et iOS peuvent être remplacés, selon le modèle, par LineageOS ou /e/OS. Pour la bureautique, Microsoft Office peut être remplacé par LibreOffice, tandis que Google Drive peut laisser place à Nextcloud pour le stockage et la synchronisation de fichiers. Côté messagerie, WhatsApp peut être remplacé par Signal, et Slack par Mattermost pour le travail en équipe. Pour la navigation web, Chrome peut être remplacé par Firefox, et Teams par Jitsi en visioconférence. Les réseaux sociaux disposent aussi de leurs équivalents libres : X (Twitter) peut être remplacé par Mastodon, Instagram par PixelFed, YouTube par PeerTube et Meetup par Mobilizon. Il est bon de savoir que ces réseaux sociaux libres sont fédérés, c’est-à-dire décentralisés et interopérables, ce qui limite la dépendance à un seul acteur.

Le mouvement du libre s’inscrit ainsi dans le bien commun numérique : il regroupe des savoirs, des logiciels et des données ouverts, respectueux des droits humains et alignés avec la transition écologique. Des projets comme Wikipédia ou OpenStreetMap montrent qu’il est possible de produire, ensemble, des services utiles, robustes et durables… et cela, à l’échelle mondiale.

Pour commencer, il n’est pas nécessaire de tout changer d’un coup. On peut par exemple modifier un premier maillon en passant à Firefox, en installant LibreOffice ou en créant un compte Signal. La démarche peut aussi consister à se “dégoogliser” (réduire ou supprimer l’usage des services Google pour protéger ses données et sa vie privée) en douceur en testant Nextcloud pour la synchronisation de l’agenda ou des fichiers. D’autres pistes passent par l’exploration d’alternatives grâce à des ressources comme AlternativeTo, qui permet de rechercher des outils équivalents, FramaLibre, qui recense logiciels et services libres, ou encore le Comptoir du Libre, qui partage des retours d’expérience, surtout dans le domaine professionnel. Prolonger la durée de vie des appareils est également une entrée possible : avant de remplacer un ordinateur, il est possible d’essayer Linux, et pour le mobile, de se renseigner sur LineageOS ou /e/OS selon le modèle. Enfin, il peut être précieux de s’entourer en participant à une install party (événement où des participants se réunissent pour installer et configurer des logiciels libres sur leurs ordinateurs) ou en contactant une association locale, comme une Maison du Libre, afin d’être accompagné dans la démarche.

La Fresque de l’IA est conçue comme un outil de sensibilisation et de réflexion collective sur l’intelligence artificielle et ses impacts, au service des structures prévoyant de déployer prochainement l’IA mais sans plan d’action débuté. L’atelier dure environ 1h30, et favorise l’échange et la co-construction.
 
L’atelier débute avant même la rencontre avec les autres participants, par un sondage préalable qui permet de recueillir le ressenti de chacun, et ainsi d’adapter l’introduction et d’ouvrir un débat de cadrage. Un questionnaire est envoyé aux participants pour recueillir leur niveau de connaissance de l’IA, leurs craintes, attentes et perceptions (ex. “tsunami ou petite vague ?”, impact sur leur emploi, etc.). 
 
En début d’atelier, la phase d’introduction se compose de 3 étapes :
  • Présentation générale de l’IA et distinction avec l’IA générative,
  • Débat introductif autour de notions philosophiques et sociétales (qu’est-ce que l’intelligence, quels impacts environnementaux, éthiques, sociaux…),
  • Mise en contexte de l’entreprise ou de la collectivité pour relier le sujet aux métiers des participants.
Ensuite, les participants, répartis en équipes de 6 à 8 et travaillent avec trois jeux de cartes :
 
  1. Cas d’usage (adaptés aux métiers et contextes des participants).
  2. Conséquences (positives et négatives, environnementales, sociales, économiques, éthiques, etc.).
  3. Conditions de succès (stratégie, organisation, freins au changement, leviers concrets).

Chaque groupe dispose d’un jeu de cartes et de son propre support pour travailler.

Le premier jeu de cartes concerne les cas d’usage de l’IA. Il comprend 80 cartes, sélectionnées par les animateurs en fonction du secteur d’activité de la structure, voire créées spécialement pour elle. Chaque participant choisit des cartes de cas d’usage liés à son activité, puis les présente au groupe. Le groupe discute, sélectionne et priorise 5 cas d’usage jugés pertinents pour tous. 
 
Le deuxième jeu de cartes traite des conséquences du déploiement de l’IA. Les cartes couvrent les conséquences positives et négatives (économiques, sociales, environnementales, sécuritaires, éthiques). Chaque participant analyse ses cartes, puis le groupe sélectionne les plus pertinentes et relie collectivement conséquences et cas d’usage. Cela produit une visualisation en “spaghetti” des liens, générant échanges et prise de conscience.
 
Le troisième jeu de cartes porte sur les conditions de succès du déploiement de l’IA. Les cartes proposent des leviers de réussite : stratégie, organisation, technologie, accompagnement du changement, etc. Chaque équipe sélectionne des conditions adaptées à son contexte et construit un début de plan d’action (court, moyen et long terme). Les participants identifient les premières actions prioritaires à mettre en œuvre dans les mois suivants (quick wins, actions simples et rapides à mettre en place qui apportent des résultats immédiats et visibles).
 
À l’issue de ces 3 phases, une restitution collective est proposée. Chaque groupe désigne un rapporteur qui présente ses choix de cas d’usage, conséquences et pistes d’action. Tous les participants votent avec des gommettes pour prioriser les actions et usages retenus. Une synthèse écrite est produite (photos des supports, compte rendu, bibliographie et ressources).
 
Ainsi, l’objectif de cet atelier est à la fois pédagogique, ludique et opérationnel : démystifier l’IA, susciter l’adhésion, et amorcer des actions concrètes adaptées aux réalités de l’entreprise.
La conférence « Open weights, closed data : l’angle mort de l’IA ouverte ? » portait sur la question centrale des données d’entraînement des modèles. L’intervenant, du laboratoire Pleias, a rappelé que l’IA générative repose entièrement sur les corpus utilisés. Or la traçabilité en est quasi nulle : depuis GPT-3, les laboratoires ne publient plus la provenance de leurs données. Les enjeux sont à la fois techniques (répartition sur des centaines de GPU, frictions), juridiques (droits d’auteur, sanctions financières) et éthiques (biais culturels, opacité).
 
Historiquement, l’IA reposait sur des algorithmes sans besoin d’entraînement massif, mais aujourd’hui la performance dépend directement du volume de données, allant de quelques milliards de tokens (Wikipedia) à des dizaines de trillions (Qwen d’Alibaba). Or, les sources de données de qualité s’épuisent et les modèles reproduisent des corpus web imparfaits, incapables de saisir le mouvement ou les formats non textuels (ex. lecture d’une horloge).
 
Pour contourner cette rareté, les chercheurs recourent à la donnée synthétique, c’est-à-dire des contenus générés artificiellement pour imiter des données réelles. Cette technique est associée à l’amplification artificielle (augmentation non naturelle de la visibilité ou de l’intensité d’un contenu grâce à des moyens techniques), qui consiste à dupliquer un contenu existant en le modifiant légèrement (changement de noms, reformulations, variations contextuelles). Cela augmente artificiellement la taille du corpus mais peut introduire des redondances et des biais si ces données ne sont pas soigneusement encadrées.
 
Dans ce contexte, l’intervenant a présenté un des projet du laboratoire Pleias : la constitution d’un Common Corpus (ensemble de textes ou de données utilisés comme référence pour entraîner ou évaluer des modèles linguistiques), 2 000 milliards de textes issus de 500 millions de documents, tous documentés avec licence et provenance, et développement de petits modèles multilingues de raisonnement, conçus pour un accès fiable aux données. Ces modèles peuvent être couplés à des systèmes de type RAG (Retrieval-Augmented Generation, IA qui génère du texte en utilisant des informations recherchées dans des sources externes), qui permettent à l’IA de chercher activement des informations pertinentes dans un corpus externe, plutôt que de se limiter aux connaissances encodées lors de l’entraînement. Ce qui améliore la précision, la mise à jour et la transparence des réponses.
 
Un basculement semble se dessiner : plutôt que de poursuivre la course aux grands modèles prédictifs, l’avenir passerait par des modèles plus petits, spécialisés, transparents et capables de raisonner. L’angle mort de l’IA n’est donc pas la puissance de calcul mais bien la donnée : rare, biaisée, opaque, et juridiquement fragile.

Lors de cet atelier-débat animé par Nantes Université, une question volontairement provocatrice était posée : l’intelligence artificielle va-t-elle nous rendre encore plus idiots ? L’échange a permis de croiser des regards très différents, depuis l’histoire des techniques jusqu’aux enjeux sociaux et politiques actuels.

Dès l’introduction, les intervenants ont rappelé que ce type d’inquiétude n’est pas nouveau. Au IVe siècle avant notre ère, Platon rapportait déjà la crainte que l’écriture ne fasse perdre la mémoire en externalisant notre savoir. Bien plus tard, certains observateurs accusaient Google de réduire notre effort intellectuel en mettant toute l’information à portée de clic. Aujourd’hui, les outils génératifs comme ChatGPT, Claude ou d’autres soulèvent la même interrogation : délestés de la recherche, de l’analyse ou de la rédaction, serons-nous encore capables de penser par nous-mêmes ?

Un premier camp a souligné les risques. Selon eux, l’IA réduit à la fois notre « coût cognitif » – l’effort que nous consacrons à une tâche – et notre « bagage cognitif », c’est-à-dire les connaissances que nous mobilisons. En nous habituant à déléguer, nous devenons plus crédules et moins attentifs. Des études ont même montré que les utilisateurs accordent plus de confiance à des réponses fausses quand elles confirment leurs propres intuitions. De plus, les IA peuvent favoriser un biais de disponibilité : nous argumentons sur la base de ce qui est immédiatement accessible, sans recul critique. En fin de compte, cela risque de produire un appauvrissement intellectuel, une mémoire collective construite par des machines qui se copient entre elles et génèrent des contenus standardisés. L’exemple des images « à la manière de Ghibli » devenues virales illustre ce phénomène de répétition et de dégénérescence.

D’autres intervenants ont insisté sur l’aspect politique et social de la question. L’IA n’est pas neutre : derrière ces systèmes se trouvent des entreprises et des logiques économiques qui cherchent avant tout à capter notre attention. De ce point de vue, le danger n’est pas tant la machine que l’usage qu’on en fait et l’écosystème qui la soutient. À force de consulter des réponses toutes faites, on peut perdre l’habitude d’échanger, de confronter nos idées et de construire du savoir collectivement. Or, c’est précisément dans la confrontation, le débat et la mise en commun des connaissances que se construit l’intelligence humaine.

Pour autant, le débat n’était pas unilatéral. Les défenseurs d’une vision plus optimiste ont rappelé que l’IA reste avant tout un outil. Elle calcule, mais ne pense pas, ne juge pas, ne sympathise pas. Elle peut nous soulager de tâches répétitives et nous donner plus de temps pour des activités créatives, réflexives ou sociales. Comme la calculatrice ou le correcteur d’orthographe, elle modifie nos pratiques sans pour autant condamner nos capacités intellectuelles. Tout dépend de la manière dont nous l’intégrons dans nos apprentissages et nos institutions. Certains ont même souligné que, grâce à la traduction automatique et à l’accès facilité à l’information, l’IA pouvait réduire certaines inégalités à l’échelle mondiale en ouvrant des ressources éducatives à des populations qui en étaient privées.

Le débat a aussi abordé la question des inégalités sociales. Plusieurs études montrent que l’automatisation et les systèmes d’IA tendent souvent à accentuer les écarts, en reproduisant des biais sociaux existants ou en pénalisant les plus fragiles. Mais d’autres usages, par exemple dans l’éducation ou la médecine, pourraient au contraire élargir l’accès à la connaissance et améliorer les diagnostics. Tout dépendra donc du cadre dans lequel ces technologies sont utilisées et de la capacité de la société à en fixer les limites.

En conclusion, l’IA est apparue comme un « pharmakon » (technologie qui peut être à la fois bénéfique et problématique, selon son usage ou ses effets) , pour reprendre le mot de Platon : à la fois remède et poison. Elle peut simplifier nos vies, libérer du temps, améliorer l’accès à l’information et ouvrir de nouvelles perspectives créatives. Mais elle peut aussi nous rendre moins vigilants, plus dépendants et fragiliser nos liens sociaux si nous en restons à un usage passif. La véritable question n’est donc pas de savoir si l’IA nous rendra idiots ou intelligents, mais de décider collectivement de la place que nous voulons lui donner. Ce qui est en jeu, c’est notre rapport à l’éducation, à l’esprit critique et au débat public. En d’autres termes, ce n’est pas l’IA qui déterminera notre avenir intellectuel, mais la manière dont nous choisirons de l’utiliser, de la réguler et de la mettre au service du bien commun.

L’atelier, animé par Joël Person et Guillaume Cuny (chercheurs au Centre de Recherche en Education de Nantes), proposait un débat sous forme de jeu de rôle autour de la question « Faut-il interdire l’intelligence artificielle ? ». Les participants étaient répartis en trois groupes : Synapse ascendante (pro-IA), Humanité vraie (anti-IA) et Grain de sable (interrogateurs/contre-arguments).
Le déroulé suivait une trame pédagogique pensée à l’origine pour des collégiens : introduction audiovisuelle (mur d’images mêlant contenus authentiques et générés par IA), temps de préparation par groupe (élaboration de trois arguments), puis restitution chronométrée (7 minutes par groupe) avec interventions du « Grain de sable ».
 
Les pro-IA ont mis en avant :
 
    1. le gain de temps sur les tâches à faible valeur ajoutée (tâches répétitives, notamment),
    2. la neutralité et l’objectivité supposée de l’IA (ex. décisions de justice),
    3. la contraction du temps et de l’espace (ex. coupe de cheveux en libre-service).
 
Les anti-IA ont souligné :
 
    1. l’impact environnemental (consommation énergétique et en eau),
    2. les menaces pour la démocratie (désinformation, manipulation, inégalités d’accès),
    3. la perte de lien social et de capacités cognitives chez les jeunes.
 
Le groupe Grain de sable a interrogé et fragilisé les arguments en pointant les limites des modèles d’IA, les biais et les effets pervers possibles. L’atelier n’a pas tranché mais a permis d’explorer les tensions entre utopies technologiques et inquiétudes sociétales.
 
L’objectif premier de cet atelier était de faire expérimenter aux participants une méthode de débat argumentée applicable avec tous les publics, y compris les jeunes publics.

Lors de cette conférence, chercheurs et praticiens des sciences cognitives ont décortiqué un phénomène quotidien : notre rapport quasi fusionnel avec nos téléphones. Nous le consultons en moyenne 150 fois par jour, preuve d’une attirance qui ne doit rien au hasard.

Le rôle de nos sens et du cerveau

Le cerveau travaille avec nos cinq sens, mais la vue occupe une place dominante : environ 70 % de notre activité sensorielle y est consacrée. Le moindre mouvement dans notre champ visuel attire notre attention. Ainsi, lorsqu’un écran s’allume, il capte presque automatiquement notre regard.
À cela s’ajoute l’audition, plus structurée et profonde. Vibrations, sonneries ou notifications viennent renforcer ce réflexe visuel et rendent encore plus difficile la déconnexion.

Habitude et automatisme

Au-delà des sens, la répétition crée une habitude devenue réflexe. Saisir son téléphone est devenu une activité “sous-corticale”, comparable à la conduite : au départ exigeante, elle est peu à peu automatisée par le cerveau. Résultat : nous déverrouillons nos écrans presque sans y penser.

L’économie de l’attention

Les plateformes exploitent ces mécanismes grâce à un design pensé pour retenir le plus longtemps possible notre regard. Notifications, likes, scroll infini… tout est construit pour déclencher un mélange de curiosité et de frustration, semblable au principe des machines à sous.
Cette logique nourrit le FOMO (Fear Of Missing Out) : la peur de rater une information ou un événement pousse à consulter encore plus souvent. Les algorithmes privilégient par ailleurs les contenus qui suscitent des émotions fortes, notamment la colère, car ils génèrent plus d’interactions et donc plus de temps passé en ligne.

Conséquences sur le sommeil et l’attention

Le téléphone perturbe nos cycles naturels : garder son portable allumé près de soi retarde l’endormissement et dégrade la qualité du sommeil. Un manque de repos fragilise ensuite nos capacités d’attention, rendant encore plus difficile la résistance aux sollicitations numériques.
Les chiffres sont parlants : les adolescents passent en moyenne cinq heures par jour devant leurs écrans de loisirs, mais seulement une douzaine de minutes à lire un livre. Et 40 % d’entre eux souffrent déjà d’un déficit de sommeil.

Dépendance et isolement

Cette captation de l’attention peut créer une dépendance comparable à d’autres addictions. Elle est renforcée par la solitude : plus les interactions humaines sont faibles, plus l’écran devient refuge. Le paradoxe est connu : être “seuls ensemble”, côte à côte mais absorbés chacun par son téléphone.

Et demain, avec l’IA ?

Les conférenciers ont rappelé que l’intelligence artificielle ajoute une nouvelle dimension. En proposant des réponses prémâchées, parfois biaisées, elle risque d’amplifier cette délégation de notre attention et de notre jugement.
À l’avenir, il ne s’agira peut-être même plus de regarder un écran, mais de se laisser guider par une voix dans nos écouteurs, toujours disponible et jamais en désaccord. Une perspective qui pose la question du libre arbitre et de la désocialisation.

Comment résister ?

À l’échelle individuelle :

    • réduire les notifications ou les regrouper à certains moments de la journée,
    • passer l’écran en noir et blanc (gain moyen de 22 minutes d’usage par jour),
    • éteindre son portable la nuit et instaurer des moments sans écran.

À l’échelle collective :

  • exiger des cadres légaux (RGPD, Digital Services Act, AI Act),
  • renforcer l’éducation au numérique et l’esprit critique,
  • encourager des alternatives sociales, associatives ou locales qui favorisent la discussion et la convivialité.

Nos téléphones sont conçus pour exploiter nos sens et nos habitudes, au point d’occuper une place centrale dans nos vies. Mais la dépendance n’est pas une fatalité. Prendre du recul, recréer des espaces de lenteur et multiplier les contacts humains sont des antidotes essentiels. Comme le rappelaient les intervenants : “il faut parfois se garer sur le parking pour que le moteur refroidisse.”

LAVAL VIRTUAL – Avril 2025 

Lors de cette intervention, Richard Guignon et Sébastien Poivre ont présenté Photon, une solution innovante dédiée aux environnements de formation en réalité virtuelle (VR). Contrairement à des éditeurs de contenus classiques, Photon ne conçoit pas de scénarios à la place des clients, mais leur fournit des outils et des exemples pour leur permettre de développer eux-mêmes leurs supports pédagogiques immersifs.

🧩 Un appui à la création de contenus VR collaboratifs

Photon propose des modèles d’activités (templates) prêts à l’emploi, comme des quiz en 3D, des exercices d’assemblage (via des points d’ancrage), ou des chronomètres pour mesurer la durée d’une tâche. Ces modèles peuvent être utilisés tels quels ou servir de base pour créer des activités sur mesure.

🤝 La collaboration au cœur des dispositifs

Un des points forts de Photon est la gestion de scénarios collaboratifs : plusieurs formateurs et apprenants peuvent interagir en temps réel dans le même environnement. La synchronisation des actions (mouvements, positions des mains, manipulation d’objets…) est assurée par défaut, et des fonctionnalités avancées peuvent être ajoutées manuellement si besoin.

🧭 Suivi individualisé dans un contexte collectif

Même en formation multi-utilisateurs, chaque apprenant reste suivi individuellement : l’interface permet au formateur de savoir en un clin d’œil qui est connecté, prêt à démarrer, en cours d’activité ou a terminé. Cette gestion fine rappelle les tableaux de bord utilisés dans des plateformes comme e·greta-cfa.

🔧 Exemple de scénario : assembler et piloter un drone

Un exemple marquant présenté : une activité où les apprenants construisent collectivement un drone en 3D. Une fois l’assemblage terminé, un seul apprenant prend la main pour effectuer le vol d’essai, illustrant la gestion fine des droits sur les objets dans un environnement partagé.

⚙️ Quelques aspects techniques

Photon s’intègre avec Unity, un moteur de développement pour la VR, bien que le mode éditeur puisse parfois se révéler lent ou instable. La question de l’autorité sur les objets (qui les crée, qui peut les déplacer) est également centrale dans les scénarios multijoueurs.

L’XR (réalité étendue) suscite le plus de satisfaction chez ses utilisateurs lorsqu’elle leur permet de vivre des expériences émotionnellement puissantes, souvent inaccessibles dans la réalité. Plusieurs types de situations se démarquent :

  • La proximité avec l’inaccessible : observer une baleine à taille réelle, approcher des éléments lointains ou disparus, comme la charpente de Notre-Dame.
  • L’évasion réaliste : vivre une autre vie à travers un film en VR ou un avatar convaincant.
  • L’accès à l’invisible : explorer des lieux interdits ou des mécanismes internes (machines, bâtiments, organismes…).
  • La connexion humaine : ressentir la présence d’autrui, malgré la distance, par l’intermédiaire de dispositifs XR.

 

Point commun à toutes ces expériences : le réalisme des émotions générées, qu’il soit visuel, sensoriel ou narratif.

🎭 Le storytelling et le corps comme leviers émotionnels

Pour susciter l’émotion, le storytelling reste l’outil le plus direct : plonger l’utilisateur dans un récit engageant l’aide à s’immerger dans l’expérience. Mais lorsque le récit est limité ou absent, c’est le corps qui devient un vecteur émotionnel puissant : respiration, gestes, déplacements, interactions tactiles…

Par exemple, le simple fait de devoir se défendre dans un combat VR peut rendre la chute qui suit bien plus intense que si elle survenait sans contexte. Cette implication physique permet de renforcer le sentiment de présence… à condition que le confort du matériel suive (certains équipements comme les backpacks peuvent nuire à la liberté de mouvement).

🤝 L’émotion au service du collectif

Une critique fréquente de l’XR est son caractère introspectif et isolant. Pourtant, lorsqu’elle suscite des émotions fortes, elle peut aussi renforcer les liens sociaux : un joueur qui sursaute, un autre qui protège le groupe… autant d’interactions émotionnelles qui créent du lien. Ces souvenirs partagés, rares et intenses, deviennent alors des points d’ancrage dans la mémoire collective.

🎉 Créer des expériences sans déranger

L’XR ouvre aussi la voie à des usages inédits dans la vie quotidienne : organiser une fête à distance sans bruit pour le voisinage, ou même créer une soirée entre avatars dans un monde virtuel. L’expérience est différente, mais l’émotion – elle – est bien réelle.

🧠 XR vs Réel : un équilibre à trouver

L’un des défis majeurs de l’XR est de trouver sa place entre amplification et substitution du réel. Aujourd’hui, la vue et l’ouïe sont bien prises en charge, mais le toucher, le goût et l’odorat restent largement absents. Comme le cinéma n’a jamais remplacé la littérature, l’XR ne remplacera pas la réalité, mais pourra offrir des expériences alternatives, marquantes, et parfois profondément transformatrices.

 

L’intégration de personnages virtuels, qu’ils soient animés par une intelligence artificielle ou non, transforme en profondeur notre manière d’interagir avec les machines. Ces entités incarnées permettent de rendre les échanges plus intuitifs, émotionnels et engageants.

🧠 Du feed-back émotionnel à l’accompagnement personnalisé

Plutôt que de simples messages textuels, un personnage peut exprimer visuellement une émotion – tristesse, encouragement, enthousiasme – pour accompagner une réponse ou corriger une erreur. Cette couche émotionnelle renforce l’engagement utilisateur et favorise l’apprentissage.

💬 Une interface plus accessible et plus naturelle

Les humains ont naturellement tendance à parler plus facilement à un visage qu’à une interface impersonnelle. Un assistant incarné, même virtuel, peut donc favoriser les échanges, notamment dans les environnements en réalité mixte ou augmentée. Cependant, son usage reste plus limité si l’utilisateur doit porter un casque XR uniquement pour accéder à cette interaction.

🧩 Une « coquille humaine » autour de l’IA

Les personnages agissent comme une enveloppe plus rassurante pour l’IA : ils donnent aux utilisateurs l’impression de dialoguer avec une entité bienveillante, compréhensive, voire empathique. Ce ressenti peut réduire les blocages émotionnels, renforcer la confiance et encourager l’exploration de fonctionnalités peu utilisées.

🌍 Dans le métavers, des PNJ pour donner vie aux mondes virtuels

Dans les environnements de type métavers, les personnages IA sont essentiels : ils peuplent les mondes virtuels en attendant l’arrivée des utilisateurs réels, créent de l’animation, et peuvent interagir avec chacun de manière personnalisée.

NANTES DIGITAL WEEK – Septembre 2024

Intervenant : Cap Gemini
 
La traduction « intelligences artificielles » pour l’équivalent « AI » en anglais gagnerait à être remplacée par « raisonnements artificiels ». En effet, en anglais, le mot « intelligence » ne fait référence qu’à l’intelligence analytique, et pas aux autres formes d’intelligence qui sont intégrées à la définition française de l’intelligence. 
 
Les IA ne sont pas quelque chose de nouveau : on les trouvait déjà partout depuis le début des années 2000. Ce sont surtout les IA génératives qui sont nouvelles (lancement de ChatGPT le 22 novembre 2022). Pourtant, les mêmes IA historiques sont encore très peu maîtrisées au regard des possibilités qu’elles proposent. Au départ, l’IA générative est née d’une blague d’un ingénieur de chez Google qui s’est dit qu’après 10 ans d’existence de Google Images, le logiciel devait savoir ce qu’était un chat, un chien etc. et devrait donc être capable de créer une image de toutes pièces. En effet, il en était capable. 
La différence entre les IA historiques et les IA génératives se situe principalement dans le principe du « tchat » : les IA génératives actuelles sont très bavardes, ce qui peut donner l’impression qu’elles réfléchissent alors qu’elles ne font qu’analyser des données et fournir des réponses en fonction de modèles probabilistes. La prochaine étape à venir est d’ailleurs l’interaction en langage naturel oral. Néanmoins, il est important de se rappeler que les IA génératives ne sont rien de plus que des boîtes noires avec une vision entrée-sortie : une mauvaise entrée = une mauvaise sortie. La place de l’humain dans les résultats de l’IA est donc essentielle pour faire ressortir le bon et éliminer le mauvais. 
 
Les IA sont des outils, bien qu’elles ne soient bien souvent pas considérées comme tels, et qui doivent le rester car elles ne peuvent pas remplacer les capacités émotionnelles et la créativité humaines indispensables à une grande variété d’activités. Pour trouver la bonne distance entre l’IA et nous, il convient de se poser la question de ce qui est souhaitable éthiquement, humainement et environnementalement. Ce sont principalement les tâches sans valeur ajoutée humaine qui valent le coup d’être déléguées à l’IA. Pour autant, la notion de valeur ajoutée est très subjective et variable d’une personne à l’autre (ex : envoyer un mail -> pour parler avec un humain ou juste pour récupérer de l’info rapidement ?). 
Pour bien utiliser les IA, il est aussi important de comprendre comment elles ont été entraînées afin d’utiliser la bonne IA au bon moment (par exemple, DALL-E = génération d’image simple type pictogramme ; Midjourney = génération d’image complexe). Dans le futur, des agents autonomes vont pouvoir se développer, reposant sur la complémentarité entre plusieurs IA aux compétences différentes. 
 
En 2024, le déploiement de l’IA générative a beaucoup consisté en une démocratisation pour le grand public, par l’intégration aux outils plébiscités par les entreprises (Microsoft Office, notamment) et les particuliers (Siri, par exemple).  Du point de vue des outils, ce sont surtout les outils de génération d’images et de vidéos qui s’améliorent le plus rapidement. 
En parallèle de l’IA, les stratégies RSE prennent aussi en importance dans les préoccupations des dirigeants. Il y a, là aussi, un équilibre à trouver. Selon les intervenants, pour faire réduire les besoins en énergie et en eau des IA génératives, il faudrait que les entreprises et les collectivités mettent la pression sur les développeurs en refusant leurs produits ou en réduisant leur usage au minimum. Le business model des développeurs d’IA étant basé sur la vente d’abonnements, moins d’abonnements = plus de pression. 
 
L’IA générative transforme de nombreux aspects de la société, mais elle doit être vue comme un outil et non comme une solution globale. Pour en tirer le meilleur parti, il est nécessaire de comprendre ses limites et d’encadrer son utilisation. Le développement d’une stratégie numérique responsable et la prise en compte des aspects éthiques et environnementaux sont essentiels pour l’avenir de l’IA.
 
Intervenant : Polytech Nantes
 
Vulgarisation scientifique du rapport « Stable Scientific Diffusion : une installation interactive pour sensibiliser aux IA génératives (d’images) »
 
Intervenant : avocats du Barreau de Nantes
 
Quelques solutions d’IA utilisées dans le travail :
  • Aide au recrutement : tri de CV, vérification de références, cartographie des compétences déjà présentes en entreprise, chasseur de têtes en ligne… Ces outils facilitent le travail des services RH, mais engendrent un risque accru de discrimination à l’embauche et de biais lié aux méthodes d’entraînement.
  • Chatbots : échange entre les services RH et les salariés. Les chatbots permettent un gain de temps et une facilitation de l’interaction.
  • Surveillance de l’activité : prévention des risques professionnels, évaluation de la performance… Au-delà des bénéfices en termes de gain d’efficience dans le travail et dans la sécurité, il faut noter un risque accru de sanctions basées sur les données fournies par l’IA.
  • Traduction : les IA de traduction permettent un accès à des postes multilingues pour tous mais engendrent des risques liés à la confidentialité.
  • IA génératives de texte : pouvant être utilisées pour tous les types de textes, ces IA représentent un gain de temps mais peuvent conduire à des erreurs, dont des erreurs juridiques aux conséquences potentiellement graves. La vérification humaine ne peut donc pas être considérée comme optionnelle.
  • CR de réunion : certaines IA permettent la génération automatique de CR de réunion, ce qui représente un gain de temps et l’évitement d’une activité rébarbative mais il faut être prudent vis-à-vis de l’excès d’informations et de la confidentialité de ces informations.
 
L’IA act est le règlement qui s’applique sur l’IA dans l’Union Européenne depuis le 01 août 2024. Il existe désormais un bureau de l’IA à la Commission Européenne, qui va devoir trouver une déclinaison de l’IA act au niveau français (une nouvelle compétence pour la CNIL est envisageable). Pour les entreprises qui utilisent l’IA, il est obligatoire de se mettre en conformité dans les 2 ans (même logique que le RGPD) avec les réglementations posées par l’IA act. Ce dernier indique des obligations non seulement pour les développeurs d’IA, mais aussi aux déployeurs/utilisateurs.

L’IA act valorise une approche par les risques. Il distingue différents types de risques :
  1. Les IA à risque inacceptable : certaines catégories d’IA sont tout simplement interdites comme celles qui mettent en oeuvre une notation sociale, la prédiction de commission d’infractions etc. Ex : IA d’analyse des émotions sur le lieu de travail
  2. Les IA à haut risque : il s’agit principalement des IA implémentées dans des produits réglementés, comme les jouets par exemple, et d’autres IA particulières : IA de biométrie, de gestion du gaz, du trafic routier, de l’eau, IA portant sur l’éducation, la justice, la répression etc. Ex : IA de tri de CV, IA de surveillance en lien avec la promotion ou la sanction
  3. Les IA à risque de transparence : il s’agit des IA génératives de contenu et des IA qui interagissent directement avec des êtres humains (chatbots). Pour ces IA, il est obligatoire d’indiquer qu’elles sont des IA et non de vraies personnes. Ex : chatbot avec les salariés
  4. Les IA sans risque spécifique : il n’y a pas de réglementation qui s’applique à ces IA. Ex : IA de mise en forme de document
  5. Les IA à usage général : ces IA peuvent s’intégrer dans d’autres groupes mais une réglementation particulière s’y applique, car elles n’ont pas une vocation particulière au départ. Ce sont principalement les fournisseurs qui sont concernés par cette réglementation spécifique.
 
Pour les déployeurs d’IA à haut risque, il est désormais obligatoire :
  • d’établir les mesures techniques et organisationnelles appropriées afin de garantir l’utilisation conforme des IA ;
  • d’assurer un contrôle humain ;
  • d’informer le fournisseur et les autorités en cas de non-conformité ou d’incident grave ;
  • de tenir et conserver des journaux ;
  • d’informer les représentants du personnel et les salariés concernés ;
  • de réaliser une étude d’impact pour certaines catégories de déployeurs : organismes publics, entreprises fournissant des services publics et les établissements de crédit et de prévoyance.
 
L’IA act constitue une forme de prolongement du RGPD, puisque l’IA se trouve à la croisée de plusieurs préoccupations, notamment celle des données personnelles. Dans le cas où l’IA manipule des données personnelles, il est nécessaire de sécuriser les données et d’assurer la confidentialité. Les personnes dont les données personnelles sont mobilisées doivent aussi être informées de cette utilisation et de leurs droits par rapport à cette utilisation. Les situations varient selon le fondement dans lequel on utilise les données personnelles : base légale, intérêt légitime ou consentement. 
 

Forum régional Science Société – Avril 2023

Intervenant : Richard Emmanuel Eastes
 
L’univers de la science se structure autour de 3 axes principaux :
  • la communication scientifique
  • l’enseignement et la formation
  • la recherche académique
 
Au début de sa carrière, avec son épouse Francine Pellaud, Richard-Emmanuel Eastes a fondé plusieurs associations et groupements de culture scientifique dont le but était de diffuser la notion de développement durable. Par la suite, ils se sont rendus compte que ce concept n’amenait qu’à endormir le débat public car il était toujours question de transition, et non de transformation de fond. Comme d’autres chercheurs à travers le monde, ils ont commencé à vouloir sortir de la neutralité axiologique de la recherche pour s’investir dans un mouvement militant. Ils ont d’ailleurs publié un article pour démonter la notion de développement durable et promouvoir la position de chercheur-militant dans The Conversation. À la notion de durabilité, ils opposent plutôt celle de subversivité.
 
Face à l’urgence écologique, les chercheurs se mobilisent, notamment à travers le donut des limites planétaires et des planchers sociaux. Pour autant, les solutions qu’ils proposent ne semblent pas trouver leur public, ni les effets attendus.
On distingue 3 voies usuelles pour changer les comportements collectifs :
  • la voie économique : théorie signal-prix, impacte les pauvres surtout de manière négative
  • la voie d’ingénierie : théorie du rationnement, qui produit du lobbying réactionnaire de la part des entreprises et des plus fortunés, la plupart du temps
  • la voie comportementaliste : les nudges
 
Mais la culture ne pourrait-elle pas faire mieux que ça pour partager la science et la rendre efficace ?
 
Les premières questions qu’on se pose sont généralement :
  1. Comment limiter son propre impact environnemental ?
  2. Comment promouvoir une transition permettant d’éviter le pire ?
  3. Comment adapter la civilisation aux crises qu’on ne pourra pas éviter ?
 
Cependant, selon Richard-Emmanuel Eastes, inspiré par Aurélien Barrau, la 1ère question devrait plutôt être remplacée par « À quel point contribuons-nous à entretenir le problème écologique par notre discours, nos partenariats, nos comportements ? ».
On trouve chez Daniel Curnier la même réflexion sur la place de l’école : Vers une école éco-logique.
 
Richard-Emmanuel Eastes s’est donc posé la question de l’évolution du rôle de la médiation scientifique au cours des 30 dernières années. La médiation a toujours été utilisée politiquement pour résoudre des crises :
  • crise des banlieues -> éducation populaire
  • crise terroriste -> inclusion sociale
  • crise du Covid-19 -> la science en train de se faire
  • crise de la confiance -> sciences citoyennes
  • etc.
La médiation devrait donc trouver sa place pour lutter contre la crise écologique. La question est de savoir si la médiation doit contribuer à empêcher la crise ou se concentrer sur l’adaptation.
 
Les transitions, quelles qu’elles soient peuvent être :
  • choisies ou subies
  • de rupture ou continues
 
Par exemple, le passage de la voiture thermique à la voiture électrique est une transition choisie et continue alors que la disparition des pollinisateurs est une transition subie et de rupture. Le développement durable se situe du côté de la transition continue, d’où l’immobilisme qu’il engendre. À l’opposé, sur l’axe des ruptures, on trouve un nouveau régime climatique.
 
On a donc le choix entre 4 options :
  • les améliorations (transition choisie et continue)
  • les atténuations (transition subie et continue)
  • les transformations (transition choisie et de rupture)
  • les adaptations (transition subie et de rupture)
 
Selon Richard-Emmanuel Eastes, il n’est plus possible de faire de la transition continue, c’est-à-dire douce. On se situe désormais forcément dans la rupture car nous n’avons plus assez de temps. En ce sens, la culture scientifique et technique doit se concentrer sur les impacts systémiques, et pas forcément sur les actions individuelles. On peut le voir dans les 12 leviers de changement identifiés par Meadows (1997) : le levier le plus efficace est le changement de paradigme. C’est à ce niveau que la Culture Scientifique, Technique et Industrielle (CSTI) trouve sa place.
 
Les structures de CSTI dépendent de financements publics et d’entreprises, qui n’ont aucun intérêt à faire changer les choses. Elles sont donc très dépendantes : « En tant qu’institutions financées et pilotées par les pouvoirs publics (voire, dans certains cas, par des acteurs du monde économique), il est difficile pour les lieux et acteurs culturels de proposer des actions qui sortent d’une pensée lisse et sage, compatible avec l’ordre social existant, et surtout avec le modèle économique qui l’entretient. » (Richard-Emmanuel Eastes, manifeste en cours de rédaction).
 
La question des paradigmes est centrale. Elle explique pourquoi le concept de décroissance ne peut actuellement pas passer, car il propose un objectif qui n’est pas acceptable pour le grand public au regard de leurs imaginaires actuels.
 
Pour Richard-Emmanuel Eastes, pour contourner le problème, il faut distinguer 3 niveaux de réflexion :
  • où en sommes-nous ?
  • comment aller à l’objectif ?
  • où atterrir ?
Dans la transition écologique telle que pratiquée actuellement, nous savons où nous en sommes mais nous ne savons ni où aller, ni comment y aller. En décorrélant les 3 niveaux, cela permet de rendre les informations plus acceptables, notamment pour les professionnels de la culture scientifique et technique.
 
Le rôle des structures de CSTI est de proposer des futurs possibles et de les rendre désirables, mais cela requiert de sortir de la neutralité axiologique. Il existe tout un spectre de discours possibles pour la culture, allant du positif au négatif : séducteur – incitatif – sensibilisateur – culpabilisant – catastrophiste. Actuellement, toutes les structures de CSTI se trouvent dans le sensibilisateur car il est neutre. Il faudrait choisir plutôt un camp : séducteur ou catastrophiste, pour créer du mouvement.
Le discours plus séducteur semble plus avenant à première vue, par rapport au catastrophisme. Mais il requiert d’aller assez loin dans les imaginaires pour ne pas rester dans l’incitation. Le catastrophisme est beaucoup plus simple à mettre en oeuvre : il s’agit d’aller au pire. On trouve, dans cette perspective, tout le champ de la collapsologie (des catastrophistes qui prophétisent dans l’espoir d’avoir tort).
 
La culture et la science peuvent être des outils de subversion. Richard-Emmanuel Eastes avoue avoir l’idée en théorie mais ne pas savoir exactement comment faire en pratique. Il y a peut-être quelque chose à aller chercher du côté de la fenêtre d’Overton : il s’agit de la fenêtre de ce qui est acceptable. Actuellement, les partis d’extrême-droite déplacent la fenêtre d’Overton pour rendre leurs idées acceptables. Et cette fenêtre n’est pas extensible à l’infini, donc il faudrait que la CSTI tire aussi la fenêtre en son sens et vers un autre idéal écologique et social. Parmi les actions qui contribuent à déplacer la fenêtre d’Overton dans le bon sens, il y a le militantisme radical (désobéissance civile, notamment) : il contribue à faire accepter le militantisme « soft ».
 
Les structures de CSTI pourraient être des incubateurs de subversion. Elles ne peuvent cependant pas être directement subversives car elles perdraient leurs financements. Leur adhésion au militantisme pourrait mettre fin purement et simplement à leur existence. En revanche, elles peuvent se situer comme des relais d’actions subversives menées par des militants radicaux (ex : ne pas faire de désobéissance civile mais faire une exposition sur la désobéissance civile ; utiliser plutôt la notion de « matrimoine » que de « patrimoine » ; etc.).
 
Si l’on en revient aux 3 niveaux de réflexion sur la crise écologique (d’où partir, où aller, comment y aller), on peut dire que la science se situe historiquement dans le « d’où partir » (les faits), l’action politique dans le « comment y aller » (les opinions) et les aspirations citoyennes dans le « où aller » (les imaginaires). Mais dans une période de crise, les rôles ont tendance à se brouiller ce qui engendre le conspirationnisme et le révisionnisme scientifique. Les structures de CSTI se trouvent souvent plutôt du côté des faits (pour les transmettre), mais il faut qu’elles étendent leur champ pour stimuler les imaginaires et susciter l’engagement au regard des opinions.
Du point de vue des faits, les structures de CSTI doivent se placer sur le domaine de l’épistémologie pour expliquer comment la science se fait. Du point de vue des opinions, elles doivent éviter les visions court-termistes et promouvoir une vision systémique. Enfin, du point de vue des imaginaires, elles doivent générer des débats qui permettent aux participants de se mettre d’accord sur ce sur quoi ils ne sont pas d’accord.
 
5 propositions de Richard-Emmanuel Eastes :
  1. Se questionner sur les rôles et les impacts des structures de CSTI
    • Comment ne plus contribuer à l’aggravation du problème
    • Sortir de l’écogeste et de l’écobilan pour aller vers le systémique
  2. Promouvoir une culture du désaccord
    • Éviter les chambres d’échos mais plutôt se mettre d’accord sur l’objet de ses désaccords
    • Critiquer la notion d’esprit critique
  3. Promouvoir une culture systémique
    • Parler d’interdisciplinarité, de transversalité, de complexité
    • Aller vers une science post-normale en intégrant faits ET valeurs
  4. Promouvoir une culture épistémologique
    • Mettre en oeuvre une culture de science et une critique de science
    • Renforcer les critères sur ce que l’on tient pour vrai
  5. Devenir des incubateurs de subversivité
 
La science post-normale désigne une stratégie de résolution des problèmes scientifiques à laquelle on peut recourir en cas de complexité éthique. Elle se situe en dehors de la science fondamentale, de la science appliquée et de l’expertise, en prenant en compte des savoirs non-scientifiques pour résoudre un problème urgent et complexe.

Philosophie de l’environnement – Mars 2023

Le champ de la philosophie de l’environnement et des éthiques environnementales démarre réellement à partir des publications de 1973 (Peter Singer, Richard Routley, Arne Naess). Les questions environnementales sont abordées aussi bien du point de vue de l’animal que du végétal.
Routley propose une expérience de pensée : si le dernier homme sur terre se met à détruire toute la faune et la flore, est-ce qu’il commet une faute morale ? Derrière cette question se cache celle de la valeur intrinsèque de la nature.
Naess, quant à lui, distingue écologie profonde et écologie superficielle, dans un contexte où l’écologie profonde est perçue comme de l’éco-fascisme dans les années 90. Pour Naess, il faut repenser la perception que les hommes ont du monde.
La philosophie de l’environnement va ensuite se développer dans les milieux anglo-saxons, et notamment aux USA avec la revue Environmental Ethics (1979). Si l’on compare le 1er et le dernier numéro en date de la revue, on note que le champ de la philosophie de l’environnement s’est ouvert à l’international.
 
Dans ses travaux, Rémi Beau note que la philosophie de l’environnement a souvent pour objet la protection de la nature sauvage, alors que la nature se trouve partout : nous y travaillons, nous y habitons, nous vivons dans la nature. Son objectif est de sortir de la perspective anthropocentrique souvent adoptée. Une des activités humaines qui nous met le plus en contact avec la nature, c’est l’agriculture. Or, avec sa critique de l’anthropocentrisme, Rémi Beau tente de voir si une reconsidération de l’agroécologie serait possible grâce à la philosophie de l’environnement.
Au-delà des théories auxquelles il souscrit ou critique, Rémi Beau souhaite faire de la philosophie de l’environnement une thématique interdisciplinaire. Dans son laboratoire, il travaille notamment avec des écologues.
 
Richard Raymond n’est pas philosophe mais éco-anthropologue. Il documente les interactions entre sociétés et biodiversité, du point de vue des sciences humaines et sociales. Selon son point de vue, il est important de sortir de l’intuition humaine pour poser des questions et apporter des réponses à partir des faits du terrain (démarche inductive). Il teste notamment l’impact des injonctions à la préservation de l’environnement.
 
En 1995, la France décide la création d’un parc naturel dans la Vexin français alors que le bassin est principalement agricole. Les céréales produites intensivement dans la zone sont exportées à l’international, plutôt que d’être utilisées pour nourrir Paris (à 45km). Étant donné les forts rendements de la zone, il est très étonnant que l’idée de construire un parc naturel ici ait été énoncée. Dans les enjeux de cette construction, on trouve la préservation des paysages (plus que l’environnement, alors que l’agriculture intensive pratiquée là-bas est assez nocive) : la zone a notamment servi d’inspiration pour les peintres impressionnistes et expressionnistes. Pour résoudre le paradoxe, l’idée est de mettre en place une agriculture raisonnée qui soit toujours productive. Au final, la création du parc conduit à un maintien de la stabilité sociale de la zone mais à un manque de préservation de la biodiversité.
 
À quelle échelle pertinente faudrait-il penser notre rapport à la nature ?
La problématique climatique est globale, mais les solutions mises en place actuellement sont peu efficaces et ne peuvent pas être les mêmes sur tous les territoires.
Selon Rémi Beau, il faut envisager la question à différentes échelles. Quand la philosophie environnementale apparaît dans les années 70, elle a pour horizon le local. Au début des années 90, le caractère global de la crise climatique commence à émerger (Sommet de la Terre de Rio, 1992). À la fin des années 2000, après de nombreuses recherches sur la dimension internationale, beaucoup d’auteurs en philosophie de l’environnement en viennent à considérer qu’une action globale est impossible et inefficace. Les réponses locales sont de plus en plus valorisées, notamment depuis les années 2010.
 
Pour Richard Raymond, la réponse est assez simple : pensons global, agissons local. Les groupes sociaux ne sont pas homogènes sur tous les territoires, les réalités sont variées, donc une action commune n’aurait aucun sens. Dans un même temps, les micro-actions non coordonnées engendrent le risque d’éparpillement et d’inefficacité, voire de contre productivité (ex : réintroduction de trop d’espèces urbaines au lieu de cibler selon le biome urbain attendu). La biodiversité est un système, qu’il faut penser en système. Les enjeux ne peuvent être saisis que globalement, mais les actions ne sont pas les enjeux : ce sont des réponses à ces enjeux. Au niveau global, il existerait un « schisme de réalité » au niveau international : les superstructures internationales fixent des objectifs mais il ne se passe rien de concret. Cela donne l’impression que « des choses se font » alors que, factuellement, rien ne se fait. Cela a pour conséquence la maxime suivante : la meilleure façon de ne pas traiter un problème, ce n’est pas de l’ignorer, mais de dire qu’on le traite. 
 
Quel serait le rôle d’une éthique environnementale ?
Richard Raymond se demande si l’humain peut vraiment se détacher de sa perspective d’humain. Peut-être que notre éthique environnementale existe déjà mais est pensée à notre échelle d’humain. Que signifierait cette éthique dans les yeux d’une grenouille ou d’un sanglier ?
Pour Rémi Beau, l’effort de se mettre à la place des animaux et de l’environnement permet tout de même des évolutions pour les manières de vivre humaines, notamment sur le droit (droit du littoral, sauvegarde des forêts etc.). L’éthique environnementale qui nous anime n’est sûrement pas suffisante, mais elle appelle à se mettre à la place de et à reconsidérer des manières de vivre. De toute manière, l’éthique ne permet jamais de trancher et de garantir les manières de se comporter au regard de croyances ou de morales. Donc il faut plus que de l’éthique. Ce qui compte, c’est d’utiliser l’éthique pour pluraliser les intérêts, notamment les intérêts non-humains, dans les délibérations publiques puisque les arbitrages légaux peuvent changer concrètement les manières d’agir.
 
Comment penser de nouveaux rapports à la nature ?
La notion de nature a été construite par les occidentaux comme un système de ressources exploitables. Aussi, ne faudrait-il pas un nouveau paradigme ?
Pour Rémi Beau, il y a une définition mais surtout une grande diversité de rapports réels à la nature, y compris dans la société occidentale. Il faudrait donc réaliser un travail d’enquête pour ne pas s’en tenir aux idées un peu convenues que véhiculent parfois les philosophes de l’environnement. Ce travail de recherche permettrait d’éclairer le dialogue entre les différentes manières de percevoir la nature et d’organiser notre rapport au monde.
 
Pour Richard Raymond, l’idée de dépasser le dualisme nature-culture pour trouver d’autres articulations pose quand même le problème que la réalité est toujours encapsulée dans la réalité sociale. Or, si tout est construit social, il « suffit » de changer de conventions sociales, de changer de point de vue. Aucun regard ne tient une vérité absolue, mais le construit social que nous partageons nous ramène à une idée commune de la nature. La science propose une interprétation de la réalité extérieure qui est déjà la plus fiable possible au regard de nos possibilités cognitives et techniques, de sorte que nous ayons une vision de la nature qui nous permette de mettre en perspective ce que nous pensons et faisons au regard de cette nature. En abandonnant le dualisme nature-culture, on se trouverait dans un problème de référence commune.

NANTES DIGITAL WEEK – Septembre 2023

Intervenants : I have a Green, Num&Res et Greenspector
 
Film : « Home » de Yann Arthus Bertrand
 
Le numérique est un outil très généralisé. Au quotidien, il répond à la fois à des problèmes et à des besoins : il fait partie de la solution pour beaucoup de choses, dont l’écologie (lutte contre le gaspillage alimentaire, seconde main etc.). Mais il fait aussi partie du problème.
 
Les chiffres clés de l’impact du numérique :
  • 3 à 4% des émissions de GES mondiales
  • 10% de la production mondiale d’électricité (plutôt 15% entre 2025 et 2030)
  • + de 70 matériaux nécessaires pour fabriquer un smartphone de 200g, représentant 200kg de matière première
 
En France, il existe désormais un double observatoire national de l’impact environnemental du numérique : l’ADEME et l’ARCEP.
 
La fabrication des équipements représente 80% des émissions de GES liés au numérique, les infrastructures réseaux 5% et les datacenters 15%.
 
Le numérique engendre aussi des impacts sociaux : exclusion, illectronisme, fracture numérique, exploitation des humains pour l’exploitation minière, addiction, atteinte aux libertés (RGPD) etc.
 
Le numérique responsable est une évolution du Green IT orientée autour de 2 pôles :
  • Le développement durable au service de l’humain, de l’économie et de la planète
  • La convergence numérique/environnement
 
Green for IT : réduire l’empreinte environnementale du numérique
IT for Green : réduire l’empreinte environnementale globale grâce au numérique
On a les mêmes différences entre Human for IT et IT for Human.
 
L’écoconception prend en compte les aspects habituels de la conception, mais avec le développement durable en plus. C’est une approche en cycle de vie (économie circulaire), plutôt qu’en économie linéaire.
 
La dimension « développement durable » de l’éco conception se décline sur 5 sujets :
  • Les référentiels
  • Les parties prenantes
  • La sobriété fonctionnelle
  • L’accessibilité
  • L’efficience technique
 
En plus des référentiels, il est intéressant d’utiliser des outils de mesure comme GTmetrix, EcoIndex, Greenspector pour mesurer :
  • Le poids de la page
  • Le nombre de requêtes
  • La vitesse d’affichage
  • Le nombre d’éléments du Dom (balises HTML)
  • L’estimation GES
  • La consommation électrique
 
Pour trouver un hébergeur le plus écologique possible, on peut se référer à The Green Foundation.
 
La sobriété fonctionnelle désigne le fait de développer uniquement les fonctionnalités essentielles d’un service.  C’est la plus grosse partie de l’impact environnemental et social. On peut retenir la règle des 3U :
  • Utile (en termes de besoin réel)
  • Utilisable (en termes pratiques, par rapport aux équipements et à l’ergonomie)
  • Utilisé (en termes de mise en œuvre)
A noter que 70% des services numériques produits (et souvent disponibles sur internet) ne servent à RIEN.
 
L’accessibilité désigne le fait que les services numériques soient conçus pour être utilisés par des personnes en situation de handicap. Il faut distinguer « être handicapé » et « être en situation de handicap » : nous sommes tous en situation de handicap par moments.
Https://www.atalan.fr/agissons/fr/index.html pour simuler différents handicaps.
 
L’efficience technique se traduit à la fois dans le codage et l’administration de site. Le principal problème est l’obsolescence logicielle, le fait de ne pas pouvoir accéder à un service à cause d’un appareil trop ancien. Une meilleure efficience technique se traduit aussi par la réduction de la taille et du poids des fichiers. Pour les images, les formats les plus légers sont les images vectorielles.
Sur la compression de fichiers : la compression est environnementalement intéressante seulement si plusieurs personnes sont destinataires du fichier compressé.
  
Il faut faire attention car l’impact environnemental des sites prend aussi en compte le temps de développement. Dans certains cas, le Quick & Dirty peut servir si l’amortissement du développement ne peut pas être atteint (par exemple pour un site très peu consulté).
 
3 idées clés à retenir :
  • Less is more
  • Compatibilité sur du vieux matériel
  • Accessibilité
 
Une entreprise nantaise dans une démarche d’écoconception totale : http://www.translucide.net

Intervenants : Intuiti, Conserto

« Chaque octet a un impact dans le monde réel » – Fondateur de Green IT
 
Quelques chiffres :
  • GES : 3 et 4% à l’échelle mondiale
  • Empreinte carbone française : 2,5%
  • Consommation EP : 4,2%
  • Consommation eau : 0,2%
  • Production des terminaux : 70% de l’empreinte numérique
 
La pollution liée au numérique n’est pas que causée par le CO2. Le numérique impacte aussi les ressources abiotiques, la consommation d’eau et les radiations ionisantes.
 
1 milliard de personnes vit en situation de handicap.
 
En France, 70% du contenu n’est pas accessible actuellement. Ces handicaps sont à 80% invisibles.
 
Les principaux types de handicap :
  • Auditif : pour écouter des podcasts, par exemple
  • Visuel : pour lire un contenu, par exemple
  • Moteur : pour naviguer, par exemple
  • Cognitif : pour comprendre un contenu complexe, par exemple
 
Illectronisme = ne pas disposer de matériel ou ne pas être familier des usages. Il concerne 15,4% : personnes de + de 15 ans.
 
L’éco conception vise à faire co-exister l’essor du numérique (et de son économie) et les enjeux environnementaux et sociétaux qui y sont associés.
 
La législation concernant l’accessibilité va beaucoup se durcir à partir de 2025. Actuellement, le cadre légal RGAA touche quasi-uniquement le domaine public. Le secteur privé sera désormais concerné, et notamment le secteur de la vente en ligne.
 
Un référentiel qui associe le RGPD et le RGAA = le RGESN, Référentiel général d’éco-conception de services numériques
 
Les étapes de l’éco-conception :
  1. Cadrage stratégique : quelle est l’utilité du projet ? quels sont les besoins des cibles ?
  2. Connaissance des utilisateurs : pour qui le projet est-il développé ?
  3. Conception : comment réaliser le projet ? quelles sont les fonctionnalités essentielles ?
  4. Développement : comment développer le projet ? quel matériel va être utilisé pour développer le projet ?
  5. Évaluation : quels seront les indicateurs de réussite ?
 
Cadrage stratégique
Le rôle du chef de projet : penser le projet avec la perspective de l’éco-conception et s’assurer que la ligne est tenue sur toute la durée du projet. L’éco-conception doit trouver sa place dès la conception du projet.
 
Connaissance des utilisateurs
Concevoir en prenant en compte les utilisateurs signifie produire un contenu qui est utile, mais qui ne gâche pas inutilement des ressources. Il faut s’inscrire dans une démarche de sobriété. Pour rappel, 70% des services numériques conçus ne sont pas consultés.
Cela ne signifie pas pour autant :
  • limiter les ambitions : en répartissant mieux les ressources, on peut faire plus de projets
  • image de marque : une marque engagée dans une démarche itérative avec ses cibles sera perçue de manière positive et à l’écoute. Ce qui sera perçu positivement, c’est le lien étroit entre le bénéficiaire et le concepteur
  • devenir décroissante : la question n’est pas de faire moins mais de faire mieux. Par exemple, une page en code léger peut avoir la même apparence qu’une page codée « normalement », tout en étant plus légère et moins polluante
 
3 éléments importants pour la méthodologie :
  • L’information recherchée (la satisfaction, le parcours client, l’utilisation, le trafic etc.)
  • Le bon moment (en amont, pendant ou après la conception)
  • La cible visée (pour qui est le produit ?)
 
Conception
45% des fonctionnalités ne sont jamais utilisées sur un site.
 
Quelques recommandations :
  • Point de vue UI :
    • Adoptez l’approche mobile first (un téléphone portable est beaucoup moins polluant à fabriquer qu’un ordinateur pour la simple raison de son poids)
    • Donnez la maîtrise des interactions à l’utilisateur
    • Prévoyez des repères de navigation / fil d’Ariane
    • Pensez légèreté des pages (contenus, structure)
    • Pensez usage du service en faible connexion sur du matériel ancien
    • Navigation au clavier (tabulation)
    • Liens de transcription des vidéos/audios
    • Possibilité de mettre les animations/vidéos en pause
    • Optimisez les formulaires à étapes
    • Capitalisez sur les fonctionnalités et les composants natifs
    • Limitez les slideshows / diaporamas
    • Évitez l’usage des vidéos en autoplay
    • Évitez l’auto-complétion / l’auto-suggestion
    • Limitez les outils tiers au strict nécessaire (carte interactive, chatbot)
    • Évitez le scroll infini
 
  • Point de vue DA :
    • Imaginez des design simples & épurés
    • Limitez la quantité de ressources graphiques (polices, pictos icono etc)
    • Alternez images et illustrations
    • Préférez les images vectorielles et glyphes
    • Adoptez le svg
    • Testez les contrastes couleurs (Elama Color contrast analyser/togi.com/color-contrast-checker/apo.contrast-finderorg)
    • Interrogez la pertinence des médias de chaque page
    • Tenez compte du caractère évolutif du service
    • Privilégiez les changements instantanés vs animés (javascript)
    • Pensez économie/capitalisation des composants
    • Modérez l’usage d’images pleine largeur / immersives
    • Bannir les fonds vidéos et la lecture automatique
    • Évitez les carrousels en autoplay
    • Évitez les GIFs animés
 
Il est important de trouver des manières de travailler à la fois sobres ET élégantes ET innovantes.
 
  • Point de vue contenu : appliquer au contenu les même exigences
    • Rédigez clairement
    • De façon concise (utilisez les listes à puces)
    • Envisagez le FALC (Facile À Lire et à Comprendre)
    • Structurez l’information en titres, sous-titres, citations et textes
    • Optimisez le poids, la taille et les formats des images
    • Pensez la périodicité des contenus
    • Décrivez le contenu dans la métadonnée pour optimiser le SEO
    • Formez les équipes de contribution et de production
    • Ne justifiez pas les textes
    • Ne densifiez pas trop les pages, pensez aération des contenus (interlignage, blancs tournants, marges entre paragraphes)
 
Développement
« Nous avons le devoir de produire des sites compatibles avec les terminaux les plus anciens. » = rétrocompatibilité. On peut utiliser le site « Can I use » pour évaluer la rétrocompatibilité au niveau des sites web pour les anciens navigateurs. On peut aussi intégrer des matériels modestes pour tester les outils créés (ex : Raspberry Pi).
 
« Il faut aussi mettre en place des outils de mesure pour entrer dans une démarche d’amélioration et d’optimisation. » (cf. conférence Écoconception de services numériques).
 
Quelques exemples d’extensions de mesure :
  • Éco index : extension permettant de mesurer (note de A à F) la consommation du site.
  • Frugrr : mesure de l’accessibilité du site + de la sobriété de la conception + de l’impact environnemental (comme GreenTrackr) [fonctionne avec un système de seuil]
 
Pour bien choisir son hébergeur :
  • Regarder comment est produite l’électricité utilisée pour le serveur
  • S’assurer d’un PUE le plus proche de 1 possible
 
Évaluation
L’AB Testing consiste à publier 2 contenus avec quelques différences et à les proposer à des cohortes d’utilisateurs pour voir quelle version est la meilleure.
Intervenants : Green IT, SpeakyLink
 
Green IT est une association qui existe depuis 2011 et qui fédère des entreprises qui sont impliquées à tous les niveaux de la chaîne numérique et qui mènent une démarche d’écoresponsabilité numérique.
 
Le numérique ressemble beaucoup à de la magie, il en partage les propriétés. Pour faire de la magie, il faut donner l’illusion de l’instantanéité, mais il y a beaucoup de solutions matérielles derrière. C’est pareil pour le numérique. Dans toute chaîne, on retrouve les mêmes composants : des terminaux, des réseaux, des data centers. Toutes les heures dans le monde il y a 10 milliards d’échanges de mails et 180 millions de recherches Google qui, chacun, mobilisent ces composants tous en même temps. Ce sont ces composants qui font la magie du numérique.
 
Les impacts du numérique ne sont pas uniquement liés aux GES et à l’énergie. Le numérique est responsable de 2 à 4% des émissions de GES à l’échelle mondiale. C’est autant que l’aviation civile sauf que les services numériques concernent environ 50% des habitants de la Terre alors que l’aviation n’est accessible que pour 15% des êtres humains. Le numérique représente aussi 0,2% de la consommation en eau et 5,6% de la consommation en électricité mondiale. En France, 2 millions de tonnes d’équipements neufs sont mis sur le marché chaque année ; en parallèle, le numérique génère entre 50 et 75 millions de tonnes de déchets par an à l’échelle mondiale. Cela implique une grande quantité de matière première. On utilise l’échelle MIPS (Material Input Per unit of Service) : pour une puce électronique il faut 16kg de matières première pour 1g de puce. L’analyse en cycle de vie est très utile pour comprendre comment éviter d’extraire de nouvelles matières premières à chaque fois. L’analyse en cycle de vie permet aussi de comprendre les impacts sociaux du numérique : conflits dans l’usage de l’eau, conflit autour des mines etc. 75% des impacts du numérique sont liés à la fabrication : il y a des dizaines de milliards de terminaux contre « seulement » des dizaines de millions d’infrastructures (équipements réseaux et datacenters). Les terminaux nécessitent aussi énormément de matières premières différentes : 50 métaux différents. Pour un écran de 30 pouces, les 374kg de CO2e générés sur tout son cycle de vie 299kg sont déjà produits rien qu’à l’issue de la fabrication.
 
Actuellement, la vidéo en ligne représente 60% de l’impact environnemental de la vidéo. Au quotidien, pour faire un usage raisonné de la vidéo on peut :
  • Bien acheter :
    • dimensionner son équipement
    • acheter ou récupérer des équipements d’occasion
    • louer quand c’est possible
    • acheter en observant des critères environnementaux
  • Bien utiliser :
    • allonger la durée de vie
    • privilégier le wifi car il consomme 40x moins que la 4G
    • réduire la résolution des vidéos consultées
    • privilégier l’audio quand la vidéo n’est pas nécessaire
    • désactiver la lecture automatique des vidéos
    • débrancher sa box quand on ne s’en sert pas
  • Bien se séparer :
    • donner ou vendre son équipement
    • recycler son équipement en le triant correctement
 
Reste à noter que l’empreinte carbone des usages numériques est très restreinte par rapport à l’utilisation de la voiture, la consommation de viande, l’utilisation du gaz et du fioul, l’impact du logement etc.
 
SpeakyLink est une solution logicielle proposant un service support en co-animation vidéo. Concrètement, cela fonctionne comme le support Apple qui prend le contrôle sur le terminal. Un lien est envoyé par sms et en parallèle de l’appel téléphonique, une visioconférence démarre. En soi, SpeakyLink n’a rien de révolutionnaire mais cela permet des externalités positives qui sont liées au RSE : moins de retours de produit inutiles (donc moins de transport), moins d’étapes de réparation d’un produit (donc moins de transport de nouveau), augmentation des taux de réparation (donc augmentation de la durée de vie) etc.
Intervenants :
  • Frédérique Krupa
  • Alexandre Agossah
  • Olivier Dermanez
  • Léa Genais
 
Impact des IA dans le milieu pro
Les limites de ce que l’on considère comme acceptable avec les IA.
Machine learning : aide à résoudre les problèmes de langage, les problèmes de  vision… Cela permet de classifier les informations
 
Nous sommes sur des modèles primitifs, on se base sur des expériences de données.
l’IA : on est sur de l’automatisation cognitive
 
Pourquoi y avait-il une réticence ?
  • la propriété intellectuelle :  un enjeu qui est en train de se résoudre au tribunal
  • la génération d’image : la personne ne l’a pas créée donc, elle ne peut pas protéger la génération.
 
Vers une interaction humain-machine efficiente en contexte professionnel : méthodes de conception et d’évaluation de solution utilisant de l’IA  – Alexandre Agossah (Doctorant)
Comment est perçue l’IA en contexte professionnel ?
Améliorer l’acceptabilité en l’IA
Norme ISO 92.41 : une vision techno-centrée de l’acceptabilité (en fin de chaîne)
Mesurer la confiance en un outil
l’IA est un outil que l’on doit comprendre et qui répond à nos besoins.
Impact de la transparence
 
L’IA générative a des avantages :
  • augmenter la productivité
  • améliorer la qualité
  • accélérer l’innovation
 
Mais on ne peut pas ignorer certaines questions :
  • Maintien des compétences
  • Risque de violation de copyright
  • Risque sur les hallucinations (les erreurs générées par l’IA)
  • Risque sur la propriété intellectuelle
  • Dépendance technologique (Comment s’assurer que nous ne sommes pas dépendants de l’outil ?)
 
La créativité vient du prompt : création totale d’un prompt.
Il y a une part de créativité qui reste, peut être orientée.
 
labelliser les créations avec ou sans assistance par une IA.
Intervenants :
  • Maître Carole COUSON, avocate au barreau de Nantes – spécialisée en propriété intellectuelle
  • Maître Delphine GANOOTE-MARY, avocate au barreau de Nantes
  • Frédéric Maupomé – écrivain, scénariste
 
La CNIL a donné une définition simple mais pragmatique : système permettant de créer un texte, des images ou d’autres contenus à partir d’instructions et d’un utilisateur humain.
L’intelligence artificielle générative de contenu est un domaine en pleine expansion qui suscite de nombreuses questions et réflexions, notamment en ce qui concerne la création de textes, d’images et d’autres contenus à partir d’instructions et de l’intervention d’un utilisateur humain. Cette note explore les aspects clés de cette technologie émergente.
 
Le Deep Learning et la Création de Contenu :
Le « deep learning » est la base de l’apprentissage des machines pour générer du contenu en se basant sur ce qui existe sur Internet. Un exemple notable est « The Road », le premier livre écrit par une machine en 2018.
L’Apprentissage de l’IA par la Répétition :
L’apprentissage de l’IA repose sur la répétition et la combinaison d’images et de textes. Au fil de la répétition, l’IA s’améliore et devient plus performante.
Accessibilité de l’IA Générative :
L’attrait de cette technologie réside dans son coût abordable, avec des tarifs de démarrage aussi bas que 10 € par mois, ce qui rend son utilisation accessible, notamment dans le domaine publicitaire (ex. Undiz et Martini).
Protection des Créations Générées par l’IA :
Aux États-Unis, une décision récente en août 2023 a conclu que les œuvres générées par une IA ne pouvaient pas bénéficier du droit d’auteur en raison de l’absence d’intervention humaine directe dans le processus de création.
Droits d’Auteur en France :
En France, la position majoritaire stipule que pour qu’une œuvre soit protégée par le droit d’auteur, elle doit refléter la personnalité de l’auteur, sa sensibilité et son originalité.
  • Le prompt ne peut pas être protégé par le droit d’auteur car il s’agit d’une production trop insuffisante. De plus, il existe maintenant des IA capables de générer du prompt dans une seconde IA afin de générer du contenu, c’est le cas de la nouvelle version de Dall•e qui inclut ChatGPT pour réaliser de nouvelles images.
 
Utilisation d’Œuvres Antérieures et Données :
L’utilisation d’œuvres préexistantes pour l’entraînement de l’IA soulève des questions, notamment en ce qui concerne le consentement de la personne, comme le stipule le RGPD.
IA Capable de Créer des Contenus Originaux :
La capacité de l’IA à générer des images ou des textes originaux sans avoir besoin de données préexistantes pose des questions sur le stockage et la création de contenu entièrement autonome.
Impacts sur les Droits d’Images et la Vie Privée :
Outre les droits d’auteur, l’utilisation de l’IA soulève des préoccupations liées aux droits d’images et à la vie privée, notamment en ce qui concerne la création de fausses images ou de contenus diffamatoires.
Impacts Économiques et Sociaux :
L’adoption généralisée de l’IA générative de contenu pourrait entraîner des pertes d’emplois, notamment dans les secteurs de la presse. Les biais programmés dans les IA peuvent également poser des problèmes.
Solutions Proposées :
Des propositions de loi visent à informer clairement lorsque le contenu a été généré par une IA, afin d’assurer la transparence. La traçabilité de l’information est également un sujet de préoccupation.
 
En résumé, l’IA générative de contenu soulève des questions complexes liées aux droits d’auteur, à la vie privée, à l’économie et à la société dans son ensemble. Une réglementation adéquate et des solutions innovantes sont nécessaires pour relever ces défis émergents.
Intervenants :
  • Aurélie Beaupel – déléguée PDL femme du numérique pour nuseum + membre du board La French Technique Vendée
  • Rémi Ferrand – représentant de talents du numérique
  • Marianne Allanic – membre du CA – femme digital ouest + dirigeante Altena
 
La montée en puissance de l’intelligence artificielle (IA) suscite de nombreuses interrogations quant à ses implications sur la société. Cette prise de note aborde trois thèmes majeurs : le genre dans les images générées par l’IA, la présence des femmes dans le domaine, et les biais inhérents à cette technologie.
 
Genre dans les Images Générées par l’IA :
L’utilisation de l’IA pour attribuer un genre aux images générées soulève des questions importantes. Par exemple, l’association « nurse = femme » et « CEO = homme » met en lumière des stéréotypes de genre que l’IA peut renforcer.
 
La présence des Femmes dans l’IA :
Les chiffres concernant la participation des femmes dans le domaine de l’IA sont difficiles à obtenir et souvent mêlés à d’autres métiers du numérique. Certaines études ne tiennent même plus compte de ce critère, suggérant un manque de mesure précise de la présence féminine.
 
Les entreprises :
35% des entreprises ont déjà investi dans l’intelligence artificielle, et ce chiffre devrait augmenter avec 44% prévoyant d’investir dans l’IA l’année prochaine.
 
L’IA est une technologie aux multiples facettes qui offre divers avantages :
  1. Autonomie Stratégique : L’IA permet aux entreprises de développer des avantages concurrentiels en améliorant leur efficacité opérationnelle, en optimisant la gestion de leurs ressources, et en automatisant des processus complexes.
  2. Confiance Accordée à des Solutions Éthiques : Les entreprises peuvent utiliser l’IA pour renforcer la confiance de leurs clients et partenaires en adoptant des pratiques éthiques et transparentes dans leur prise de décision.
  3. Aide pour le Bien Commun : L’IA peut être employée pour résoudre des problèmes sociaux et environnementaux complexes, en contribuant au bien commun. Elle peut être utilisée pour améliorer la santé publique, la gestion des ressources naturelles et bien plus encore.
  4. Responsabilité Sociale d’Entreprise (RSE) : L’IA permet aux entreprises de surveiller et de rapporter en temps réel leur impact social et environnemental, renforçant ainsi leur engagement en matière de RSE.
  5. Prévention des Risques : L’IA offre la possibilité de prévoir et de gérer les risques, que ce soit dans la chaîne d’approvisionnement, la sécurité des données ou la gestion de crise.
  6. Réduction de l’Emprunte Carbone : En optimisant les processus et en proposant des solutions éco-responsables, l’IA peut contribuer à réduire l’empreinte carbone des entreprises, répondant ainsi aux enjeux environnementaux actuels.
 
Opportunités et Impact sur l’Emploi :
L’IA offre de nombreuses opportunités sur le marché, mais elle peut également avoir un impact sur l’emploi, avec la prévision de la destruction de 85 millions d’emplois et la création de 97 millions d’autres, dont 12 millions impliquent des personnes formées à l’IA pour remplacer d’autres travailleurs.
 
Éducation, Attractivité et Représentations :
L’éducation joue un rôle crucial dans l’augmentation de la participation féminine dans le domaine de l’IA. Les réformes académiques visent à encourager plus de femmes à s’inscrire dans des programmes numériques, mais des stéréotypes persistants doivent être surmontés.
 
Note sur la Parité dans les Emplois de Data et d’IA :
Actuellement, la participation des femmes dans les emplois liés à la data et à l’intelligence artificielle (IA) s’élève à seulement 29%, et ce chiffre semble stagner. Cette situation souligne un déséquilibre persistant dans ce secteur. Pour tenter de remédier à cette disparité, le ministre de l’Éducation nationale, Jean-Michel Blanquer, a lancé une réforme éducative visant à influencer les parcours académiques des jeunes femmes.
 
1. Enseignement de Spécialité Académique : Un des points clés de cette réforme est l’introduction d’un enseignement de spécialité académique. Cependant, il est préoccupant de constater que ce domaine demeure peu fréquenté par les femmes, ce qui peut influencer leur choix de carrière.
 
2. Parcours Supérieur : Les données montrent que seulement 25% des inscriptions dans des formations liées au numérique sont le fait de femmes. Cette statistique suggère que l’attractivité des programmes liés à la technologie reste faible pour les étudiantes.
 
3. Parcours Sélectifs : L’inscription des femmes dans des parcours sélectifs est encore plus basse, ne représentant que 19%. Cette tendance peut refléter des obstacles structurels à l’entrée des femmes dans des filières exigeantes.
 
En somme, le défi de l’équité de genre dans les emplois liés à la data et à l’IA se situe au croisement de l’éducation, de l’attractivité de ces carrières pour les femmes, et des représentations sociales qui peuvent influencer leurs choix. La réforme éducative entreprise par le ministre Blanquer est une étape importante, mais il est nécessaire de poursuivre les efforts pour encourager plus de femmes à poursuivre des carrières dans ce secteur en plein essor. Cela peut contribuer non seulement à combler le fossé de genre, mais aussi à promouvoir la diversité et l’innovation dans ces domaines clés de l’économie moderne.
 
Les Biais dans l’IA :
Toute technologie est neutre en elle-même, c’est la façon dont on va l’utiliser qui va induire des biais.
Les biais dans l’IA sont principalement le résultat des préjugés des concepteurs. Cela peut conduire à des problèmes de sexisme et de racisme dans les applications, comme la reconnaissance faciale moins précise pour les personnes de couleur.
 
La Conscience et la Culture Numérique :
Il est essentiel de former les individus à la conscience des biais et à la culture numérique. Actuellement, seuls 12% des concepteurs d’IA sont des femmes, ce qui souligne le besoin d’inclure l’IA dans l’éducation générale.
De plus, il est crucial d’agir rapidement pour remédier aux stéréotypes de genre dans l’éducation (EN). Cela nécessite une formation des enseignants axée sur l’égalité des genres et la promotion de carrières techniques pour les femmes. Notre société est encore en retard sur cette question, mais en investissant dans l’éducation inclusive, nous pouvons créer un avenir plus équilibré et diversifié dans les domaines tels que la technologie et l’IA.
 
L’IA comme Opportunité :
L’IA peut également être considérée comme une opportunité, car elle met en évidence les biais existants, incitant ainsi à les examiner et à les remettre en question pour faire évoluer la société.
 
Conclusion :
L’IA est une technologie puissante qui a le potentiel de remodeler notre société de diverses manières. Cependant, elle pose des défis importants en matière de genre et de biais, qui nécessitent une prise de conscience, une éducation et des actions continues pour garantir que ses avantages profitent à tous.
Intervenante : Frédérique Krupa
Considérations générales
On voit dans les statistiques américaines que, jusqu’en 1985, il n’y avait que des femmes dans l’informatique. Mais depuis, la part des femmes décroit de manière très puissante, au profit des hommes. Cela s’explique par le fait que les hommes ont abandonné le hardware pour rejoindre le côté logiciel : le hardware est devenu l’apanage des femmes et des hommes déclassés (pauvres, racisés etc.). Les femmes, elles, étaient dès le début dans les logiciels car les hommes contrôlaient le hardware. La montée du nombre d’hommes sur la partie logicielle a conduit à la mise en place d’une compétition, compétition qui tend à attirer encore plus d’hommes.
 
L’exemple d’Apple :
On trouve 65% d’hommes et 35% de femmes, d’après les chiffres officiels. Mais cette répartition s’explique par le fait que les femmes qui travaillent sur les lignes de production ne sont pas comptées : elles sont en réalité beaucoup plus nombreuses si on les prends en compte. On les retrouve sur les lignes car il s’agit d’un travail déclassé, avec très peu de valorisation. La programmation reste aux mains des hommes.
 
Une étude a été menée pour compter le nombre de publications des femmes sur l’IA, par rapport aux hommes. Bien qu’elles apparaissent dans 1/4 des publications, le milieu est largement masculin. Même dans les publications de groupes, elles ne représentent généralement qu’1 chercheuse sur le lot. Cette place très limitée dans la recherche s’explique principalement à cause des stéréotypes sur l’incapacité des femmes à faire des mathématiques et à manipuler des machines complexes (« C’est si simple que même une femme peut le faire ! »). Bien que le milieu scientifique se soit affranchi de ce stéréotype, il continue d’infuser dans la société donc peu de femmes suivent des études en sciences dures (et donc ne deviennent pas chercheuses dans ce domaine). À l’inverse, on a une représentation de l’homme qui sait bricoler, réparer, créer, faire des mathématiques (image du geek, du hacker), avec l’effet inverse.
 
Pour la femme, aller vers l’IA est donc une forme de transgression. Par exemple, on note qu’il n’y a actuellement que 4% des lycéennes qui s’orientent vers la conception de jeux vidéos. Cela réduit considérablement le nombre de femmes qui y aboutiront finalement, car les adolescents sont très influencés par tous les stéréotypes véhiculés dans la société ce qui génère encore plus d’abandon chez les femmes. Il faudrait donc un tronc commun plus long pour que les femmes aient le temps et la maturité de se départir de ces stéréotypes pour faire ce qu’elles veulent réellement.
 
Nos stéréotypes sont associés à des biais cognitifs, qui sont absolument nécessaires pour survivre car ils permettent de survivre face à la quantité d’informations que nous recevons en permanence. Pour autant, il faut réussir à en déconstruire certains. Par exemple, quand on demande à des étudiants de dessiner un scientifique, ils dessinent un homme blanc d’âge moyen en blouse blanche. C’est la représentation-archétype de l’homme. Si on demande une scientifique femme, elle sera souvent plus âgée et on parlera plutôt d’une chercheuse, terme moins associée aux sciences dures. Occasionnellement, on pourra aussi se représenter une technicienne type technicienne de laboratoire.
 
En attendant, il est important de se fixer des quotas de diversité pour créer des projets les plus inclusifs possibles. D’après Rosabeth Kanter, il faudrait que plus de 15% de la masse salariale représente une forme de diversité (genre, origines sociales, groupe ethnique, orientation sexuelle etc.) pour pouvoir vraiment prendre en compte cette diversité dans le résultat du projet. Rock, Grant et Grey ont observé que quand des équipes sont diversifiées, le travail est plus difficile car il y a plus de confrontation, mais le résultat est souvent plus qualitatif. Actuellement les designers travaillent plutôt entre eux, en vase clos.
 
Exemple chez Apple :
Dans la première version de Santé, on pouvait mesurer le taux d’alcoolémie mais pas tracker son cycle menstruel. Simplement car personne n’y avait pensé.
 
Ce que l’IA fait aux femmes : les biais
Le machine learning a permis de créer des modèles prédictifs.
 
Les biais dans les données
Mais des biais peuvent se glisser dans ce système d’apprentissage. On utilise notamment des librairies de données déjà toutes faites pour entraîner les IA. Le principe est de faire entrer un maximum de données pour que l’IA puisse reconnaître des éléments et faire des prédictions sur le futur par rapport à ce qui a déjà été vu. Mais les ingénieurs ne se posent pas toujours la question de la nature des données : ils se focalisent surtout sur l’entraînement et la qualité des prédictions.
 
Les biais dans la mise en oeuvre
Exemple de Imagenet :
Il s’agit d’une démarche visant à un moteur de recherche d’images, basé sur des images labellisées. Dans un premier temps, il a fallu labelliser une quantité incroyable d’images. Mais cela est très long et coute très cher. Donc la labellisation a été déléguée à des étudiants de Stanford, puis à des personnes en freelance ou des entreprises spécialisée. Mais il n’y avait toujours pas assez de personnes pour faire cette labellisation. Alors tout le grand public a pu faire des labels et faire des propositions d’images pour différentes thématiques. Le problème, c’est que les personnes qui ont participé avaient des biais. Par exemple, pour représenter le thème « une mariée », on ne trouvait que des femmes jeunes, blanches et en robe blanche. Au final, l’IA était rempli de biais racistes, homophobes, sexistes etc. Par la suite, la société a dû recruter des personnes pour identifier tous ces biais et refaire du tri. Ils en sont venus à supprimer beaucoup de labels qui posaient problème en eux-mêmes.
 
Les biais dans la prédiction
  • Une première étude montre que, dans les logiciels de reconnaissance de genre (femmes ou hommes sur une photo), il y a plus d’erreurs pour reconnaître les femmes et les personnes racisées, le pire étant les femmes racisées qui ne sont pas reconnues comme femmes au moins 1 fois sur 4. Ce problème tient essentiellement au manque de diversité de la base de données utilisée au départ.
  • Une autre étude montre que, si une IA doit faire une description de 2 députés américains qui ont le même poste, les adjectifs utilisés pour les hommes vont faire référence à leur travail et à leurs qualités intellectuelles, alors que pour les femmes, les adjectifs vont plutôt être relatifs au physique et aux qualités familiales.
  • Une recherche montre également que dans les 500 plus grandes entreprises américaines, ce sont à 99% des IA qui sélectionnent les candidats qui seront reçus ou non en entretien. En observant le pattern de recrutement de certaines entreprises (dont Amazon), les dirigeants ont découvert que certaines IA excluaient à tous les coups les femmes, qui n’étaient donc jamais reçues.
  • X intègre une IA qui permet de redimensionner les images avant qu’on ne clique dessus quand elles sont trop grandes. Une étude a montré que l’IA mettait au centre et en plein écran les visages blancs mais pas les visages de couleur. Il en va de même pour les IA qui créent des fonds sur les visioconférences, qui reconnaissent moins bien les visages de couleur.
 
Les biais dans les problématiques
On a tendance à sous-estimer les biais dans les problématiques auxquelles doivent répondre les IA. À la base, ce sont essentiellement des problématiques d’hommes blancs (cf. exemple d’Apple avec l’alcoolémie). Par exemple, il n’y a aucune IA qui essaye de régler la pauvreté, les féminicides etc. Concernant les deepfakes, presque 100% des deepfakes pornographiques concernent des femmes. Quasiment rien n’est fait pour lutter contre, alors que si la majorité était des hommes… L’IA, c’est du pouvoir. Et ce sont les hommes qui ont le pouvoir alors ils mettent l’IA à leur service. Autre exemple : il existe une IA qui prédit les crimes. Comme les policiers sont principalement stationnés dans des quartiers pauvres avec des personnes racisées, ces personnes sont principalement arrêtées et entrées dans le fichier. Donc l’IA prédit principalement des crimes de personnes pauvres et racisées. En Iran, l’IA est utilisée pour trouver les femmes qui ne sont pas voilées. Un projet de Stanford vise à prédire l’homosexualité ou la transidentité sur le visage des individus : son auteur a été invité par Poutine pour présenter son projet. Des problématique de pouvoir, d’hommes blancs.
 
Quelques recommandations pour l’avenir :
  • Légiférer de manière pertinente sur l’IA
  • Surveiller et faire valider par des tiers les IA à risque
  • Demander à vérifier les bases de données qui sont les sources des modèles prédictifs
  • Vérifier que ce qui est mis en opensource n’est pas dévoyé ou le contrôler
  • Créer de nouveaux métiers pour tous les points précédents, dans une perspective pluridisciplinaire et de diversité intersectionnelle
  • Vulgariser la technique
Intervenants :
  • Christian Guellérin – Directeur général de l’École de design Nantes Atlantique (dessiner les usages de demain)
  • Emmanuelle Roux – Dirigeante de Chaudron.io, administratrice MedNum, coopérative dédiée à une société numérique inclusive
  • Florence Sedes – Vice-Présidente d’Université, Professeure des universités, chercheure à l’IRIT, à l’université Toulouse 3 Paul Sabatier
 
Nous assistons à une transformation systémique majeure de notre société, principalement due à l’émergence de l’intelligence artificielle (IA). Cette révolution technologique est une vague puissante qui va profondément modifier nos modes d’action et de production. Cela se traduira par la disparition de certains emplois, comme le service client, mais cela ne doit pas nécessairement être perçu comme une mauvaise nouvelle.
Pour de nombreuses personnes, le travail est souvent considéré comme une contrainte sociale. La véritable question qui se pose est celle de la redistribution de la valeur générée par cette transformation économique (cf. les écrits de Timothée Parrique, économiste + film Startreck).
 
Nous sommes tous des acteurs de la société, et nous sommes souvent enfermés dans une vision de croissance illimitée. Cependant, il est crucial de reconnaître que notre monde est fini, ce qui nous amène à réfléchir sérieusement aux montants considérables générés par les géants de la technologie (GAFAM). Ils ont démocratisé l’accès à de nombreuses solutions, mais à quel moment devons-nous décider si nous voulons des emplois ou des solutions d’automatisation, et comment l’URSSAF peut intervenir pour assurer une redistribution équitable de la valeur générée ? Il est important de comprendre que taxer le travail peut ne pas signifier taxer directement les travailleurs, mais plutôt taxer les entreprises qui utilisent l’automatisation.
 
La question fondamentale est de savoir quelle société nous voulons construire pour demain. Souhaitons-nous une société à la « Wall•e » où les humains n’ont plus aucun impact sur leur environnement parce que tout a été automatisé ? Cela affectera d’abord les emplois traditionnellement occupés par les femmes, tels que le secrétariat et l’assistance juridique ou médicale.
 
La vraie question est donc de savoir si nous devons défendre les emplois en tant que tels ou plutôt les modalités de la redistribution collective de la richesse générée par l’automatisation. Avec le temps libéré par l’IA, devons-nous réinvestir davantage dans le travail ou encourager des activités annexes telles que la participation à des tables rondes, le bénévolat associatif ou le renforcement des liens familiaux ?
 
Nous allons progressivement passer de la technique à la gestion de projets complexes, en prenant en compte des problématiques sociétales telles que l’enseignement. L’IA peut augmenter notre capacité d’action, mais il est important de se rappeler que pour poser des questions, il faut d’abord savoir que ces questions peuvent être posées.
 
Un défi majeur des métiers à venir est que de nombreuses formations pourraient devenir non diplômantes mais qualifiantes, alors que les diplômes restent importants dans notre société. Les femmes devront peut-être lutter davantage pour occuper des postes de leadership.
 
Il est essentiel de comprendre que les IA ne sont que des outils, et les utiliser revient à déléguer certaines tâches, tout comme on pourrait le faire avec un junior. Il ne faut pas prendre les réponses fournies par l’IA comme des vérités absolues. La collaboration homme-machine, en particulier avec une IA, nécessite une véritable compétence dans l’art de poser les bonnes questions, ce qui est actuellement plus courant parmi le public féminin. C’est une extension du dialogue humain.
 
La relation avec la technologie et les usages permettra d’accéder à des métiers valorisants et à l’autonomisation des femmes. Le mot « pouvoir » est souvent associé au masculin, mais utiliser une IA peut être vu comme avoir son propre assistant. Cela soulève la question de savoir si une IA redistribue le pouvoir.
 
Le rapport à la donnée est également un rapport au pouvoir. La délégation implique un certain contrôle. Dans le futur, il n’y aura probablement plus de gestionnaires qui ne comprennent pas la technologie, ce qui soulève la question de savoir si nous devons nous concentrer sur la technologie ou l’ingénierie.
 
Enfin, il est important de noter que notre société a tendance à considérer le pouvoir du côté des décideurs. Nous devons remettre en question ces représentations qui peuvent être facilitantes pour certains et inaccessibles pour d’autres. Notre système étatique s’est également associé à une image de « techno-clergé » avec des interfaces simplifiées, ce qui soulève des questions éducatives importantes.
 
En politique, être inclus numériquement signifie souvent être un utilisateur, mais cela ne nécessite pas nécessairement de réflexion active. Nous devons réfléchir à ce que signifie être inclus dans un monde numérique en tant que citoyen capable de prendre des décisions.
 
L’IA doit être perçue comme un support pour développer des solutions aux problèmes sociétaux, démystifiant ainsi les domaines scientifiques souvent considérés comme réservés aux hommes. Il est essentiel de réfléchir à ce que cette technologie peut nous apporter.
 
En conclusion, la disparition d’emplois ne concerne pas nécessairement les métiers féminins, mais plutôt les métiers peu qualifiés. La solution pourrait être de mieux qualifier ces métiers en enseignant l’IA dès le plus jeune âge, ce qui contribuerait à une société plus équilibrée et préparée à l’avenir technologique.
 
On va passer de la technique à du management de projet complexe (et de problématiques sociétal – enseignement)
L’IA augmente notre capacité d’agir.