Dans l’arène des conférences, les esprits s’ouvrent, les connaissances se partagent et les horizons s’élargissent.
Conférence Médiapilote – Septembre 2025
Cette rencontre organisée par Mediapilote autour du thème « Découvrez les coulisses des dossiers intégrant l’Intelligence Artificielle » a réuni trois interventions qui ont rythmé l’événement, chacune apportant un regard concret sur la manière dont l’IA transforme les pratiques professionnelles.
Elsa SAL, de l’agence ODIENS, a ouvert la discussion sur une notion émergente : le GEO (Generative Engine Optimization), complément du SEO traditionnel. Avec 31 % des Français utilisant déjà l’IA pour leurs achats, il devient essentiel d’adapter nos contenus aux moteurs génératifs. Cela passe par la mise en avant de mots-clés pertinents dans nos sites web, nos réseaux sociaux, nos FAQ ou nos fiches produits, afin de “nourrir” les IA. ODIENS propose d’ailleurs aux entreprises un accompagnement complet : audit, plan d’action, suivi et reporting, pour les aider à mieux intégrer cette nouvelle dimension du référencement.
Yvan LEG a ensuite partagé sa vision des chatbots boostés à l’IA. Pour lui, 2025 marque un tournant : la technologie est désormais mature, le marché en pleine expansion, et 64 % des clients s’attendent à interagir avec ce type d’outil. Les bénéfices sont nombreux : réduction des charges pour le service client, hausse de l’engagement utilisateur et amélioration du taux de conversion. Il distingue plusieurs niveaux de chatbots, du plus simple basé sur les contenus du site aux solutions sur mesure intégrant de nombreuses fonctionnalités. Leur mise en œuvre suit un processus clair : analyse des besoins, configuration, tests, déploiement, formation et suivi.
Enfin, Clément SEMI a questionné la place de l’IA dans la créativité : simple coup de main ou véritable coup de grâce ? Plutôt que de voir l’IA comme une menace, il a insisté sur ses bénéfices. Elle représente un gain de temps considérable, tout en favorisant l’efficacité économique et l’impact écologique en limitant certains coûts de production. Surtout, elle permet de se projeter rapidement en testant et en explorant des idées nouvelles, devenant ainsi un véritable allié des créatifs. Cependant, ce dernier a également rappelé que l’IA ne doit être qu’un soutien : certaines marques, comme Undiz ou Moncler, ayant utilisé des visuels générés par IA pour leurs campagnes, ont montré les limites de cette pratique. Si l’effet visuel attire, les imperfections restent visibles et peuvent nuire à l’image. L’IA peut donc aider à réduire les coûts logistiques, à éviter par exemple de mobiliser un mannequin et d’organiser un shooting à l’autre bout du monde mais il reste essentiel qu’un designer humain reprenne la main pour affiner, corriger et sublimer le visuel généré.
Au final, cette rencontre a montré que l’IA n’est pas un gadget, mais un levier stratégique. Qu’il s’agisse d’inspirer la créativité, d’anticiper les nouveaux usages avec le GEO ou d’améliorer l’expérience client grâce aux chatbots, elle offre de réelles opportunités pour innover, optimiser et construire dès aujourd’hui les pratiques de demain.
NANTES DIGITAL WEEK 2025
La conférence a démarré par une scène de théâtre. Objectif : montrer en direct – avec humour et un brin de chaos maîtrisé – comment l’IA peut, ou pas, aider un formateur face à des imprévus très “réels” (client qui répond pendant l’intervention, demandes contradictoires, versionnage express d’un devis, etc.). Au-delà du show, la matinée a livré des données d’usage, des cas pratiques solides, un témoignage d’entreprise (H3O) et un rappel salutaire : l’IA est un outil pédagogique, pas une baguette magique.
La rencontre a livré une vision claire de l’état actuel des usages. Les données partagées montraient qu’en 2023, moins d’un tiers des formateurs et enseignants se disaient familiers avec l’IA générative, alors qu’en 2025 près de la moitié déclarent l’être et que plus de six sur dix affirment l’utiliser. Toutefois, il s’agit encore largement de pratiques individuelles, parfois improvisées et échappant aux cadres institutionnels. On observe ainsi un « shadow IA » où chacun expérimente ses propres outils, sans stratégie globale de l’organisation. Après formation, des communautés de pratique émergent et des usages collectifs commencent à se structurer, signe d’une maturité en construction. Le constat reste néanmoins partagé : l’IA est adoptée, mais pas toujours comprise, et ses effets sur l’apprentissage doivent encore être mesurés scientifiquement.
Les exemples concrets présentés ont illustré comment l’IA peut enrichir l’expérience pédagogique. Dans un premier cas, un formateur a conçu un chatbot incarnant un professeur volontairement rigide et attaché à des méthodes traditionnelles. Les apprenants ont dialogué longuement avec cette figure numérique, développant leurs arguments et consolidant leurs connaissances dans un cadre à la fois ludique et exigeant. Dans un deuxième exemple, l’IA a servi de soutien à la création d’escape games pédagogiques, rendant possible la conception d’univers visuels et narratifs cohérents, autrefois longs et coûteux à produire. Enfin, un troisième cas a montré l’usage de l’IA dans une formation en anglais professionnel, où elle a permis de corriger des mails, d’expliquer des règles grammaticales et de préparer un travail plus efficace en présentiel.
Un témoignage de l’entreprise H3O a ensuite apporté un éclairage précieux sur la manière dont une organisation peut intégrer progressivement l’IA dans ses pratiques. Après une transition numérique entamée dès 2017, l’entreprise a choisi en 2023 de s’emparer du sujet en embarquant l’ensemble des équipes. Aujourd’hui, l’IA est utilisée au quotidien non seulement dans la conception et l’animation de formations mais aussi dans les activités commerciales et marketing. Ce retour d’expérience confirme que l’intégration est possible, sans rupture brutale, mais à condition d’accompagner les équipes, d’expérimenter et de progresser par étapes.
La conférence n’a pas éludé les limites et les risques. Les hallucinations de l’IA restent une réalité, ce qui oblige les formateurs à garder la main et à vérifier systématiquement les productions. Les questions de protection des données sont également sensibles : il ne s’agit pas de confier à un modèle externe des informations confidentielles sans réflexion. S’y ajoute l’impact environnemental, qui interpelle alors même que le numérique dans son ensemble représente déjà une part significative des émissions de gaz à effet de serre. Les intervenants ont insisté sur la nécessité d’un usage raisonné, ciblé, et d’une montée en compétence des formateurs pour rédiger des prompts efficaces et réduire ainsi la consommation inutile de ressources.
Le rôle du formateur ressort renforcé par ces échanges. L’IA ne le remplace pas, mais elle l’oblige à redéfinir sa posture. En amont, il conçoit les scénarios, choisit les outils et teste les prompts. Pendant la formation, il facilite, accompagne, cadre et débriefe, en exploitant l’imprévu comme matière pédagogique. Après coup, il analyse, corrige et ajuste, garantissant que l’IA reste au service des objectifs d’apprentissage. L’outil devient ainsi un levier d’innovation, à condition d’être intégré dans une stratégie pédagogique claire.
En conclusion, cette conférence a montré que l’IA générative peut devenir un formidable accélérateur dans la formation, en permettant de gagner du temps, d’innover dans les formats et de diversifier les approches. Mais elle n’apporte aucune solution magique. La pédagogie demeure dans les mains du pédagogue et de l’apprenant, et c’est dans ce dialogue, enrichi par la technologie mais jamais remplacé par elle, que se joue l’avenir de la formation.
La transformation numérique est aujourd’hui au cœur de nos sociétés, mais son développement rapide entraîne une consommation croissante de ressources énergétiques et matérielles. Face à ce constat, Inetum, La Poste et ESOS ont proposé un atelier de sensibilisation pour découvrir deux référentiels récents qui apportent des réponses concrètes pour concilier innovation et transition écologique : le référentiel général d’écoconception des services numériques et le référentiel général pour l’IA frugale.
Le premier établit un cadre global qui vise à intégrer l’environnement dès la conception et tout au long du cycle de vie des services numériques. Il encourage les acteurs à réfléchir à la sobriété fonctionnelle de leurs projets, à optimiser l’usage des infrastructures et des terminaux, à allonger la durée de vie des équipements, à réduire les consommations énergétiques et à garantir une meilleure accessibilité. L’évaluation continue, fondée sur des indicateurs environnementaux, permet d’assurer le suivi de ces engagements et d’améliorer progressivement les services. Ce référentiel pose ainsi les bases d’un numérique plus sobre, inclusif et durable.
Le second, publié par l’AFNOR en 2024 et corrigé en 2025, apporte un éclairage spécifique sur l’intelligence artificielle, domaine particulièrement énergivore et en forte expansion. Il définit ce que l’on entend par IA frugale et propose une méthodologie d’évaluation reposant notamment sur l’analyse du cycle de vie. L’accent est mis à la fois sur les impacts directs liés aux équipements, aux calculs et aux entraînements de modèles, et sur les impacts indirects comme les effets rebond ou l’apparition de nouveaux usages. Le document invite à limiter la complexité algorithmique, à réduire les volumes de données, à choisir des infrastructures plus sobres et à questionner en amont la pertinence même du recours à l’IA lorsqu’une autre solution moins consommatrice peut répondre aux besoins. La notion de frugalité dépasse la simple optimisation technique : elle suppose de redéfinir les usages et de replacer les besoins humains et environnementaux au centre de la démarche.
Pris ensemble, ces deux référentiels se complètent et dessinent une vision commune. L’écoconception fournit un socle applicable à l’ensemble des services numériques, tandis que l’IA frugale vient préciser les méthodes et bonnes pratiques adaptées à un secteur en pleine croissance. Leur mise en œuvre conjointe offre aux organisations un cadre solide pour réduire leur empreinte écologique, anticiper les futures réglementations européennes et renforcer la confiance des usagers.
L’enjeu est crucial. Les services numériques représentent déjà une part importante des émissions de gaz à effet de serre et de l’utilisation des ressources rares. Quant à l’intelligence artificielle, son développement exponentiel accentue ces pressions, notamment avec les modèles génératifs dont les besoins en calcul et en données explosent. Adopter les principes d’écoconception et de frugalité, c’est non seulement répondre à l’urgence climatique, mais aussi repenser le rôle du numérique pour qu’il reste au service des besoins réels de la société.
En définitive, ces deux référentiels traduisent une même ambition : construire un numérique plus responsable, capable d’innover tout en respectant les limites de la planète. Ils offrent aux acteurs publics et privés des outils concrets pour passer de l’intention à l’action et contribuer à une transition écologique qui ne laisse personne de côté.
Nos usages sont de plus en plus façonnés par des plateformes dont l’objectif est la rentabilité, que ce soit par la publicité, les abonnements ou la collecte de données. Cela se traduit par des mécanismes de captation de l’attention, appelés “captalogie”, qui incluent le scroll infini, les notifications, les recommandations manipulées ou encore la récompense aléatoire qui nous incite à revenir “au cas où”. On observe également une “merdification” progressive, c’est-à-dire une baisse volontaire de qualité afin de pousser vers la version payante ou d’extraire davantage de données. Enfin, ces pratiques soulèvent des risques juridiques et géopolitiques, notamment dans le conflit entre le Cloud Act américain et le RGPD européen, où des lois extraterritoriales peuvent forcer l’accès à des données hébergées en Europe.
Le logiciel libre (programme informatique gratuit que l’on peut utiliser, modifier et partager librement) propose une autre voie, fondée sur quatre libertés : utiliser, étudier, modifier et partager. C’est un levier concret pour reprendre la main sur ses outils, ses données et son attention. Ce que change le libre, c’est d’abord la transparence et le contrôle : le code est auditable, les règles sont publiques et la gouvernance est plus ouverte. C’est aussi une question de souveraineté et de pérennité, puisqu’il devient possible d’auto-héberger, de changer de prestataire sans changer d’outil et d’éviter les verrouillages. Enfin, il favorise la sobriété en permettant de prolonger la durée de vie des appareils : on peut, par exemple, installer Linux sur un ordinateur, ou LineageOS ou /e/OS sur un smartphone compatible, plutôt que de racheter du matériel.
L’écosystème du libre repose sur plusieurs modèles complémentaires. On trouve les communautés, composées de bénévoles et d’associations comme Framasoft. Viennent ensuite les fondations, qui permettent la mutualisation entre acteurs, à l’image de Wikipédia, OpenStreetMap ou le W3C. Enfin, les éditeurs sont des entreprises qui publient du libre tout en vendant du support ou de l’hébergement, comme Red Hat, GitLab ou Oracle, souvent en double licence.
Il existe de nombreuses alternatives libres à nos outils quotidiens. Pour les systèmes d’exploitation, Windows et macOS peuvent être remplacés par Linux, ou Ubuntu, par exemple sur mobile, Android et iOS peuvent être remplacés, selon le modèle, par LineageOS ou /e/OS. Pour la bureautique, Microsoft Office peut être remplacé par LibreOffice, tandis que Google Drive peut laisser place à Nextcloud pour le stockage et la synchronisation de fichiers. Côté messagerie, WhatsApp peut être remplacé par Signal, et Slack par Mattermost pour le travail en équipe. Pour la navigation web, Chrome peut être remplacé par Firefox, et Teams par Jitsi en visioconférence. Les réseaux sociaux disposent aussi de leurs équivalents libres : X (Twitter) peut être remplacé par Mastodon, Instagram par PixelFed, YouTube par PeerTube et Meetup par Mobilizon. Il est bon de savoir que ces réseaux sociaux libres sont fédérés, c’est-à-dire décentralisés et interopérables, ce qui limite la dépendance à un seul acteur.
Le mouvement du libre s’inscrit ainsi dans le bien commun numérique : il regroupe des savoirs, des logiciels et des données ouverts, respectueux des droits humains et alignés avec la transition écologique. Des projets comme Wikipédia ou OpenStreetMap montrent qu’il est possible de produire, ensemble, des services utiles, robustes et durables… et cela, à l’échelle mondiale.
Pour commencer, il n’est pas nécessaire de tout changer d’un coup. On peut par exemple modifier un premier maillon en passant à Firefox, en installant LibreOffice ou en créant un compte Signal. La démarche peut aussi consister à se “dégoogliser” (réduire ou supprimer l’usage des services Google pour protéger ses données et sa vie privée) en douceur en testant Nextcloud pour la synchronisation de l’agenda ou des fichiers. D’autres pistes passent par l’exploration d’alternatives grâce à des ressources comme AlternativeTo, qui permet de rechercher des outils équivalents, FramaLibre, qui recense logiciels et services libres, ou encore le Comptoir du Libre, qui partage des retours d’expérience, surtout dans le domaine professionnel. Prolonger la durée de vie des appareils est également une entrée possible : avant de remplacer un ordinateur, il est possible d’essayer Linux, et pour le mobile, de se renseigner sur LineageOS ou /e/OS selon le modèle. Enfin, il peut être précieux de s’entourer en participant à une install party (événement où des participants se réunissent pour installer et configurer des logiciels libres sur leurs ordinateurs) ou en contactant une association locale, comme une Maison du Libre, afin d’être accompagné dans la démarche.
- Présentation générale de l’IA et distinction avec l’IA générative,
- Débat introductif autour de notions philosophiques et sociétales (qu’est-ce que l’intelligence, quels impacts environnementaux, éthiques, sociaux…),
- Mise en contexte de l’entreprise ou de la collectivité pour relier le sujet aux métiers des participants.
- Cas d’usage (adaptés aux métiers et contextes des participants).
- Conséquences (positives et négatives, environnementales, sociales, économiques, éthiques, etc.).
- Conditions de succès (stratégie, organisation, freins au changement, leviers concrets).
Chaque groupe dispose d’un jeu de cartes et de son propre support pour travailler.
Lors de cet atelier-débat animé par Nantes Université, une question volontairement provocatrice était posée : l’intelligence artificielle va-t-elle nous rendre encore plus idiots ? L’échange a permis de croiser des regards très différents, depuis l’histoire des techniques jusqu’aux enjeux sociaux et politiques actuels.
Dès l’introduction, les intervenants ont rappelé que ce type d’inquiétude n’est pas nouveau. Au IVe siècle avant notre ère, Platon rapportait déjà la crainte que l’écriture ne fasse perdre la mémoire en externalisant notre savoir. Bien plus tard, certains observateurs accusaient Google de réduire notre effort intellectuel en mettant toute l’information à portée de clic. Aujourd’hui, les outils génératifs comme ChatGPT, Claude ou d’autres soulèvent la même interrogation : délestés de la recherche, de l’analyse ou de la rédaction, serons-nous encore capables de penser par nous-mêmes ?
Un premier camp a souligné les risques. Selon eux, l’IA réduit à la fois notre « coût cognitif » – l’effort que nous consacrons à une tâche – et notre « bagage cognitif », c’est-à-dire les connaissances que nous mobilisons. En nous habituant à déléguer, nous devenons plus crédules et moins attentifs. Des études ont même montré que les utilisateurs accordent plus de confiance à des réponses fausses quand elles confirment leurs propres intuitions. De plus, les IA peuvent favoriser un biais de disponibilité : nous argumentons sur la base de ce qui est immédiatement accessible, sans recul critique. En fin de compte, cela risque de produire un appauvrissement intellectuel, une mémoire collective construite par des machines qui se copient entre elles et génèrent des contenus standardisés. L’exemple des images « à la manière de Ghibli » devenues virales illustre ce phénomène de répétition et de dégénérescence.
D’autres intervenants ont insisté sur l’aspect politique et social de la question. L’IA n’est pas neutre : derrière ces systèmes se trouvent des entreprises et des logiques économiques qui cherchent avant tout à capter notre attention. De ce point de vue, le danger n’est pas tant la machine que l’usage qu’on en fait et l’écosystème qui la soutient. À force de consulter des réponses toutes faites, on peut perdre l’habitude d’échanger, de confronter nos idées et de construire du savoir collectivement. Or, c’est précisément dans la confrontation, le débat et la mise en commun des connaissances que se construit l’intelligence humaine.
Pour autant, le débat n’était pas unilatéral. Les défenseurs d’une vision plus optimiste ont rappelé que l’IA reste avant tout un outil. Elle calcule, mais ne pense pas, ne juge pas, ne sympathise pas. Elle peut nous soulager de tâches répétitives et nous donner plus de temps pour des activités créatives, réflexives ou sociales. Comme la calculatrice ou le correcteur d’orthographe, elle modifie nos pratiques sans pour autant condamner nos capacités intellectuelles. Tout dépend de la manière dont nous l’intégrons dans nos apprentissages et nos institutions. Certains ont même souligné que, grâce à la traduction automatique et à l’accès facilité à l’information, l’IA pouvait réduire certaines inégalités à l’échelle mondiale en ouvrant des ressources éducatives à des populations qui en étaient privées.
Le débat a aussi abordé la question des inégalités sociales. Plusieurs études montrent que l’automatisation et les systèmes d’IA tendent souvent à accentuer les écarts, en reproduisant des biais sociaux existants ou en pénalisant les plus fragiles. Mais d’autres usages, par exemple dans l’éducation ou la médecine, pourraient au contraire élargir l’accès à la connaissance et améliorer les diagnostics. Tout dépendra donc du cadre dans lequel ces technologies sont utilisées et de la capacité de la société à en fixer les limites.
En conclusion, l’IA est apparue comme un « pharmakon » (technologie qui peut être à la fois bénéfique et problématique, selon son usage ou ses effets) , pour reprendre le mot de Platon : à la fois remède et poison. Elle peut simplifier nos vies, libérer du temps, améliorer l’accès à l’information et ouvrir de nouvelles perspectives créatives. Mais elle peut aussi nous rendre moins vigilants, plus dépendants et fragiliser nos liens sociaux si nous en restons à un usage passif. La véritable question n’est donc pas de savoir si l’IA nous rendra idiots ou intelligents, mais de décider collectivement de la place que nous voulons lui donner. Ce qui est en jeu, c’est notre rapport à l’éducation, à l’esprit critique et au débat public. En d’autres termes, ce n’est pas l’IA qui déterminera notre avenir intellectuel, mais la manière dont nous choisirons de l’utiliser, de la réguler et de la mettre au service du bien commun.
- le gain de temps sur les tâches à faible valeur ajoutée (tâches répétitives, notamment),
- la neutralité et l’objectivité supposée de l’IA (ex. décisions de justice),
- la contraction du temps et de l’espace (ex. coupe de cheveux en libre-service).
- l’impact environnemental (consommation énergétique et en eau),
- les menaces pour la démocratie (désinformation, manipulation, inégalités d’accès),
- la perte de lien social et de capacités cognitives chez les jeunes.
Lors de cette conférence, chercheurs et praticiens des sciences cognitives ont décortiqué un phénomène quotidien : notre rapport quasi fusionnel avec nos téléphones. Nous le consultons en moyenne 150 fois par jour, preuve d’une attirance qui ne doit rien au hasard.
Le rôle de nos sens et du cerveau
Le cerveau travaille avec nos cinq sens, mais la vue occupe une place dominante : environ 70 % de notre activité sensorielle y est consacrée. Le moindre mouvement dans notre champ visuel attire notre attention. Ainsi, lorsqu’un écran s’allume, il capte presque automatiquement notre regard.
À cela s’ajoute l’audition, plus structurée et profonde. Vibrations, sonneries ou notifications viennent renforcer ce réflexe visuel et rendent encore plus difficile la déconnexion.
Habitude et automatisme
Au-delà des sens, la répétition crée une habitude devenue réflexe. Saisir son téléphone est devenu une activité “sous-corticale”, comparable à la conduite : au départ exigeante, elle est peu à peu automatisée par le cerveau. Résultat : nous déverrouillons nos écrans presque sans y penser.
L’économie de l’attention
Les plateformes exploitent ces mécanismes grâce à un design pensé pour retenir le plus longtemps possible notre regard. Notifications, likes, scroll infini… tout est construit pour déclencher un mélange de curiosité et de frustration, semblable au principe des machines à sous.
Cette logique nourrit le FOMO (Fear Of Missing Out) : la peur de rater une information ou un événement pousse à consulter encore plus souvent. Les algorithmes privilégient par ailleurs les contenus qui suscitent des émotions fortes, notamment la colère, car ils génèrent plus d’interactions et donc plus de temps passé en ligne.
Conséquences sur le sommeil et l’attention
Le téléphone perturbe nos cycles naturels : garder son portable allumé près de soi retarde l’endormissement et dégrade la qualité du sommeil. Un manque de repos fragilise ensuite nos capacités d’attention, rendant encore plus difficile la résistance aux sollicitations numériques.
Les chiffres sont parlants : les adolescents passent en moyenne cinq heures par jour devant leurs écrans de loisirs, mais seulement une douzaine de minutes à lire un livre. Et 40 % d’entre eux souffrent déjà d’un déficit de sommeil.
Dépendance et isolement
Cette captation de l’attention peut créer une dépendance comparable à d’autres addictions. Elle est renforcée par la solitude : plus les interactions humaines sont faibles, plus l’écran devient refuge. Le paradoxe est connu : être “seuls ensemble”, côte à côte mais absorbés chacun par son téléphone.
Et demain, avec l’IA ?
Les conférenciers ont rappelé que l’intelligence artificielle ajoute une nouvelle dimension. En proposant des réponses prémâchées, parfois biaisées, elle risque d’amplifier cette délégation de notre attention et de notre jugement.
À l’avenir, il ne s’agira peut-être même plus de regarder un écran, mais de se laisser guider par une voix dans nos écouteurs, toujours disponible et jamais en désaccord. Une perspective qui pose la question du libre arbitre et de la désocialisation.
Comment résister ?
À l’échelle individuelle :
- réduire les notifications ou les regrouper à certains moments de la journée,
- passer l’écran en noir et blanc (gain moyen de 22 minutes d’usage par jour),
- éteindre son portable la nuit et instaurer des moments sans écran.
À l’échelle collective :
- exiger des cadres légaux (RGPD, Digital Services Act, AI Act),
- renforcer l’éducation au numérique et l’esprit critique,
- encourager des alternatives sociales, associatives ou locales qui favorisent la discussion et la convivialité.
Nos téléphones sont conçus pour exploiter nos sens et nos habitudes, au point d’occuper une place centrale dans nos vies. Mais la dépendance n’est pas une fatalité. Prendre du recul, recréer des espaces de lenteur et multiplier les contacts humains sont des antidotes essentiels. Comme le rappelaient les intervenants : “il faut parfois se garer sur le parking pour que le moteur refroidisse.”
LAVAL VIRTUAL – Avril 2025
Lors de cette intervention, Richard Guignon et Sébastien Poivre ont présenté Photon, une solution innovante dédiée aux environnements de formation en réalité virtuelle (VR). Contrairement à des éditeurs de contenus classiques, Photon ne conçoit pas de scénarios à la place des clients, mais leur fournit des outils et des exemples pour leur permettre de développer eux-mêmes leurs supports pédagogiques immersifs.
🧩 Un appui à la création de contenus VR collaboratifs
Photon propose des modèles d’activités (templates) prêts à l’emploi, comme des quiz en 3D, des exercices d’assemblage (via des points d’ancrage), ou des chronomètres pour mesurer la durée d’une tâche. Ces modèles peuvent être utilisés tels quels ou servir de base pour créer des activités sur mesure.
🤝 La collaboration au cœur des dispositifs
Un des points forts de Photon est la gestion de scénarios collaboratifs : plusieurs formateurs et apprenants peuvent interagir en temps réel dans le même environnement. La synchronisation des actions (mouvements, positions des mains, manipulation d’objets…) est assurée par défaut, et des fonctionnalités avancées peuvent être ajoutées manuellement si besoin.
🧭 Suivi individualisé dans un contexte collectif
Même en formation multi-utilisateurs, chaque apprenant reste suivi individuellement : l’interface permet au formateur de savoir en un clin d’œil qui est connecté, prêt à démarrer, en cours d’activité ou a terminé. Cette gestion fine rappelle les tableaux de bord utilisés dans des plateformes comme e·greta-cfa.
🔧 Exemple de scénario : assembler et piloter un drone
Un exemple marquant présenté : une activité où les apprenants construisent collectivement un drone en 3D. Une fois l’assemblage terminé, un seul apprenant prend la main pour effectuer le vol d’essai, illustrant la gestion fine des droits sur les objets dans un environnement partagé.
⚙️ Quelques aspects techniques
Photon s’intègre avec Unity, un moteur de développement pour la VR, bien que le mode éditeur puisse parfois se révéler lent ou instable. La question de l’autorité sur les objets (qui les crée, qui peut les déplacer) est également centrale dans les scénarios multijoueurs.
L’XR (réalité étendue) suscite le plus de satisfaction chez ses utilisateurs lorsqu’elle leur permet de vivre des expériences émotionnellement puissantes, souvent inaccessibles dans la réalité. Plusieurs types de situations se démarquent :
- La proximité avec l’inaccessible : observer une baleine à taille réelle, approcher des éléments lointains ou disparus, comme la charpente de Notre-Dame.
- L’évasion réaliste : vivre une autre vie à travers un film en VR ou un avatar convaincant.
- L’accès à l’invisible : explorer des lieux interdits ou des mécanismes internes (machines, bâtiments, organismes…).
- La connexion humaine : ressentir la présence d’autrui, malgré la distance, par l’intermédiaire de dispositifs XR.
Point commun à toutes ces expériences : le réalisme des émotions générées, qu’il soit visuel, sensoriel ou narratif.
🎭 Le storytelling et le corps comme leviers émotionnels
Pour susciter l’émotion, le storytelling reste l’outil le plus direct : plonger l’utilisateur dans un récit engageant l’aide à s’immerger dans l’expérience. Mais lorsque le récit est limité ou absent, c’est le corps qui devient un vecteur émotionnel puissant : respiration, gestes, déplacements, interactions tactiles…
Par exemple, le simple fait de devoir se défendre dans un combat VR peut rendre la chute qui suit bien plus intense que si elle survenait sans contexte. Cette implication physique permet de renforcer le sentiment de présence… à condition que le confort du matériel suive (certains équipements comme les backpacks peuvent nuire à la liberté de mouvement).
🤝 L’émotion au service du collectif
Une critique fréquente de l’XR est son caractère introspectif et isolant. Pourtant, lorsqu’elle suscite des émotions fortes, elle peut aussi renforcer les liens sociaux : un joueur qui sursaute, un autre qui protège le groupe… autant d’interactions émotionnelles qui créent du lien. Ces souvenirs partagés, rares et intenses, deviennent alors des points d’ancrage dans la mémoire collective.
🎉 Créer des expériences sans déranger
L’XR ouvre aussi la voie à des usages inédits dans la vie quotidienne : organiser une fête à distance sans bruit pour le voisinage, ou même créer une soirée entre avatars dans un monde virtuel. L’expérience est différente, mais l’émotion – elle – est bien réelle.
🧠 XR vs Réel : un équilibre à trouver
L’un des défis majeurs de l’XR est de trouver sa place entre amplification et substitution du réel. Aujourd’hui, la vue et l’ouïe sont bien prises en charge, mais le toucher, le goût et l’odorat restent largement absents. Comme le cinéma n’a jamais remplacé la littérature, l’XR ne remplacera pas la réalité, mais pourra offrir des expériences alternatives, marquantes, et parfois profondément transformatrices.
L’intégration de personnages virtuels, qu’ils soient animés par une intelligence artificielle ou non, transforme en profondeur notre manière d’interagir avec les machines. Ces entités incarnées permettent de rendre les échanges plus intuitifs, émotionnels et engageants.
🧠 Du feed-back émotionnel à l’accompagnement personnalisé
Plutôt que de simples messages textuels, un personnage peut exprimer visuellement une émotion – tristesse, encouragement, enthousiasme – pour accompagner une réponse ou corriger une erreur. Cette couche émotionnelle renforce l’engagement utilisateur et favorise l’apprentissage.
💬 Une interface plus accessible et plus naturelle
Les humains ont naturellement tendance à parler plus facilement à un visage qu’à une interface impersonnelle. Un assistant incarné, même virtuel, peut donc favoriser les échanges, notamment dans les environnements en réalité mixte ou augmentée. Cependant, son usage reste plus limité si l’utilisateur doit porter un casque XR uniquement pour accéder à cette interaction.
🧩 Une « coquille humaine » autour de l’IA
Les personnages agissent comme une enveloppe plus rassurante pour l’IA : ils donnent aux utilisateurs l’impression de dialoguer avec une entité bienveillante, compréhensive, voire empathique. Ce ressenti peut réduire les blocages émotionnels, renforcer la confiance et encourager l’exploration de fonctionnalités peu utilisées.
🌍 Dans le métavers, des PNJ pour donner vie aux mondes virtuels
Dans les environnements de type métavers, les personnages IA sont essentiels : ils peuplent les mondes virtuels en attendant l’arrivée des utilisateurs réels, créent de l’animation, et peuvent interagir avec chacun de manière personnalisée.
NANTES DIGITAL WEEK – Septembre 2024
- Aide au recrutement : tri de CV, vérification de références, cartographie des compétences déjà présentes en entreprise, chasseur de têtes en ligne… Ces outils facilitent le travail des services RH, mais engendrent un risque accru de discrimination à l’embauche et de biais lié aux méthodes d’entraînement.
- Chatbots : échange entre les services RH et les salariés. Les chatbots permettent un gain de temps et une facilitation de l’interaction.
- Surveillance de l’activité : prévention des risques professionnels, évaluation de la performance… Au-delà des bénéfices en termes de gain d’efficience dans le travail et dans la sécurité, il faut noter un risque accru de sanctions basées sur les données fournies par l’IA.
- Traduction : les IA de traduction permettent un accès à des postes multilingues pour tous mais engendrent des risques liés à la confidentialité.
- IA génératives de texte : pouvant être utilisées pour tous les types de textes, ces IA représentent un gain de temps mais peuvent conduire à des erreurs, dont des erreurs juridiques aux conséquences potentiellement graves. La vérification humaine ne peut donc pas être considérée comme optionnelle.
- CR de réunion : certaines IA permettent la génération automatique de CR de réunion, ce qui représente un gain de temps et l’évitement d’une activité rébarbative mais il faut être prudent vis-à-vis de l’excès d’informations et de la confidentialité de ces informations.
- Les IA à risque inacceptable : certaines catégories d’IA sont tout simplement interdites comme celles qui mettent en oeuvre une notation sociale, la prédiction de commission d’infractions etc. Ex : IA d’analyse des émotions sur le lieu de travail
- Les IA à haut risque : il s’agit principalement des IA implémentées dans des produits réglementés, comme les jouets par exemple, et d’autres IA particulières : IA de biométrie, de gestion du gaz, du trafic routier, de l’eau, IA portant sur l’éducation, la justice, la répression etc. Ex : IA de tri de CV, IA de surveillance en lien avec la promotion ou la sanction
- Les IA à risque de transparence : il s’agit des IA génératives de contenu et des IA qui interagissent directement avec des êtres humains (chatbots). Pour ces IA, il est obligatoire d’indiquer qu’elles sont des IA et non de vraies personnes. Ex : chatbot avec les salariés
- Les IA sans risque spécifique : il n’y a pas de réglementation qui s’applique à ces IA. Ex : IA de mise en forme de document
- Les IA à usage général : ces IA peuvent s’intégrer dans d’autres groupes mais une réglementation particulière s’y applique, car elles n’ont pas une vocation particulière au départ. Ce sont principalement les fournisseurs qui sont concernés par cette réglementation spécifique.
- d’établir les mesures techniques et organisationnelles appropriées afin de garantir l’utilisation conforme des IA ;
- d’assurer un contrôle humain ;
- d’informer le fournisseur et les autorités en cas de non-conformité ou d’incident grave ;
- de tenir et conserver des journaux ;
- d’informer les représentants du personnel et les salariés concernés ;
- de réaliser une étude d’impact pour certaines catégories de déployeurs : organismes publics, entreprises fournissant des services publics et les établissements de crédit et de prévoyance.
Forum régional Science Société – Avril 2023
- la communication scientifique
- l’enseignement et la formation
- la recherche académique
- la voie économique : théorie signal-prix, impacte les pauvres surtout de manière négative
- la voie d’ingénierie : théorie du rationnement, qui produit du lobbying réactionnaire de la part des entreprises et des plus fortunés, la plupart du temps
- la voie comportementaliste : les nudges
- Comment limiter son propre impact environnemental ?
- Comment promouvoir une transition permettant d’éviter le pire ?
- Comment adapter la civilisation aux crises qu’on ne pourra pas éviter ?
- crise des banlieues -> éducation populaire
- crise terroriste -> inclusion sociale
- crise du Covid-19 -> la science en train de se faire
- crise de la confiance -> sciences citoyennes
- etc.
- choisies ou subies
- de rupture ou continues
- les améliorations (transition choisie et continue)
- les atténuations (transition subie et continue)
- les transformations (transition choisie et de rupture)
- les adaptations (transition subie et de rupture)
- où en sommes-nous ?
- comment aller à l’objectif ?
- où atterrir ?
- Se questionner sur les rôles et les impacts des structures de CSTI
- Comment ne plus contribuer à l’aggravation du problème
- Sortir de l’écogeste et de l’écobilan pour aller vers le systémique
- Promouvoir une culture du désaccord
- Éviter les chambres d’échos mais plutôt se mettre d’accord sur l’objet de ses désaccords
- Critiquer la notion d’esprit critique
- Promouvoir une culture systémique
- Parler d’interdisciplinarité, de transversalité, de complexité
- Aller vers une science post-normale en intégrant faits ET valeurs
- Promouvoir une culture épistémologique
- Mettre en oeuvre une culture de science et une critique de science
- Renforcer les critères sur ce que l’on tient pour vrai
- Devenir des incubateurs de subversivité
Philosophie de l’environnement – Mars 2023
NANTES DIGITAL WEEK – Septembre 2023
-
3 à 4% des émissions de GES mondiales
-
10% de la production mondiale d’électricité (plutôt 15% entre 2025 et 2030)
-
+ de 70 matériaux nécessaires pour fabriquer un smartphone de 200g, représentant 200kg de matière première
-
Le développement durable au service de l’humain, de l’économie et de la planète
-
La convergence numérique/environnement
-
Les référentiels
-
Les parties prenantes
-
La sobriété fonctionnelle
-
L’accessibilité
-
L’efficience technique
-
Le poids de la page
-
Le nombre de requêtes
-
La vitesse d’affichage
-
Le nombre d’éléments du Dom (balises HTML)
-
L’estimation GES
-
La consommation électrique
-
Utile (en termes de besoin réel)
-
Utilisable (en termes pratiques, par rapport aux équipements et à l’ergonomie)
-
Utilisé (en termes de mise en œuvre)
-
Less is more
-
Compatibilité sur du vieux matériel
-
Accessibilité
Intervenants : Intuiti, Conserto
- GES : 3 et 4% à l’échelle mondiale
- Empreinte carbone française : 2,5%
- Consommation EP : 4,2%
- Consommation eau : 0,2%
- Production des terminaux : 70% de l’empreinte numérique
- Auditif : pour écouter des podcasts, par exemple
- Visuel : pour lire un contenu, par exemple
- Moteur : pour naviguer, par exemple
- Cognitif : pour comprendre un contenu complexe, par exemple
- Cadrage stratégique : quelle est l’utilité du projet ? quels sont les besoins des cibles ?
- Connaissance des utilisateurs : pour qui le projet est-il développé ?
- Conception : comment réaliser le projet ? quelles sont les fonctionnalités essentielles ?
- Développement : comment développer le projet ? quel matériel va être utilisé pour développer le projet ?
- Évaluation : quels seront les indicateurs de réussite ?
Cadrage stratégique
Connaissance des utilisateurs
- limiter les ambitions : en répartissant mieux les ressources, on peut faire plus de projets
- image de marque : une marque engagée dans une démarche itérative avec ses cibles sera perçue de manière positive et à l’écoute. Ce qui sera perçu positivement, c’est le lien étroit entre le bénéficiaire et le concepteur
- devenir décroissante : la question n’est pas de faire moins mais de faire mieux. Par exemple, une page en code léger peut avoir la même apparence qu’une page codée « normalement », tout en étant plus légère et moins polluante
- L’information recherchée (la satisfaction, le parcours client, l’utilisation, le trafic etc.)
- Le bon moment (en amont, pendant ou après la conception)
- La cible visée (pour qui est le produit ?)
Conception
- Point de vue UI :
- Adoptez l’approche mobile first (un téléphone portable est beaucoup moins polluant à fabriquer qu’un ordinateur pour la simple raison de son poids)
- Donnez la maîtrise des interactions à l’utilisateur
- Prévoyez des repères de navigation / fil d’Ariane
- Pensez légèreté des pages (contenus, structure)
- Pensez usage du service en faible connexion sur du matériel ancien
- Navigation au clavier (tabulation)
- Liens de transcription des vidéos/audios
- Possibilité de mettre les animations/vidéos en pause
- Optimisez les formulaires à étapes
- Capitalisez sur les fonctionnalités et les composants natifs
- Limitez les slideshows / diaporamas
- Évitez l’usage des vidéos en autoplay
- Évitez l’auto-complétion / l’auto-suggestion
- Limitez les outils tiers au strict nécessaire (carte interactive, chatbot)
- Évitez le scroll infini
- Point de vue DA :
- Imaginez des design simples & épurés
- Limitez la quantité de ressources graphiques (polices, pictos icono etc)
- Alternez images et illustrations
- Préférez les images vectorielles et glyphes
- Adoptez le svg
- Testez les contrastes couleurs (Elama Color contrast analyser/togi.com/color-contrast-checker/apo.contrast-finderorg)
- Interrogez la pertinence des médias de chaque page
- Tenez compte du caractère évolutif du service
- Privilégiez les changements instantanés vs animés (javascript)
- Pensez économie/capitalisation des composants
- Modérez l’usage d’images pleine largeur / immersives
- Bannir les fonds vidéos et la lecture automatique
- Évitez les carrousels en autoplay
- Évitez les GIFs animés
- Point de vue contenu : appliquer au contenu les même exigences
- Rédigez clairement
- De façon concise (utilisez les listes à puces)
- Envisagez le FALC (Facile À Lire et à Comprendre)
- Structurez l’information en titres, sous-titres, citations et textes
- Optimisez le poids, la taille et les formats des images
- Pensez la périodicité des contenus
- Décrivez le contenu dans la métadonnée pour optimiser le SEO
- Formez les équipes de contribution et de production
- Ne justifiez pas les textes
- Ne densifiez pas trop les pages, pensez aération des contenus (interlignage, blancs tournants, marges entre paragraphes)
Développement
- Éco index : extension permettant de mesurer (note de A à F) la consommation du site.
- Frugrr : mesure de l’accessibilité du site + de la sobriété de la conception + de l’impact environnemental (comme GreenTrackr) [fonctionne avec un système de seuil]
- Regarder comment est produite l’électricité utilisée pour le serveur
- S’assurer d’un PUE le plus proche de 1 possible
Évaluation
- Bien acheter :
- dimensionner son équipement
- acheter ou récupérer des équipements d’occasion
- louer quand c’est possible
- acheter en observant des critères environnementaux
- Bien utiliser :
- allonger la durée de vie
- privilégier le wifi car il consomme 40x moins que la 4G
- réduire la résolution des vidéos consultées
- privilégier l’audio quand la vidéo n’est pas nécessaire
- désactiver la lecture automatique des vidéos
- débrancher sa box quand on ne s’en sert pas
- Bien se séparer :
- donner ou vendre son équipement
- recycler son équipement en le triant correctement
- Frédérique Krupa
- Alexandre Agossah
- Olivier Dermanez
- Léa Genais
- la propriété intellectuelle : un enjeu qui est en train de se résoudre au tribunal
- la génération d’image : la personne ne l’a pas créée donc, elle ne peut pas protéger la génération.
- augmenter la productivité
- améliorer la qualité
- accélérer l’innovation
- Maintien des compétences
- Risque de violation de copyright
- Risque sur les hallucinations (les erreurs générées par l’IA)
- Risque sur la propriété intellectuelle
- Dépendance technologique (Comment s’assurer que nous ne sommes pas dépendants de l’outil ?)
- Maître Carole COUSON, avocate au barreau de Nantes – spécialisée en propriété intellectuelle
- Maître Delphine GANOOTE-MARY, avocate au barreau de Nantes
- Frédéric Maupomé – écrivain, scénariste
- Le prompt ne peut pas être protégé par le droit d’auteur car il s’agit d’une production trop insuffisante. De plus, il existe maintenant des IA capables de générer du prompt dans une seconde IA afin de générer du contenu, c’est le cas de la nouvelle version de Dall•e qui inclut ChatGPT pour réaliser de nouvelles images.
- Aurélie Beaupel – déléguée PDL femme du numérique pour nuseum + membre du board La French Technique Vendée
- Rémi Ferrand – représentant de talents du numérique
- Marianne Allanic – membre du CA – femme digital ouest + dirigeante Altena
- Autonomie Stratégique : L’IA permet aux entreprises de développer des avantages concurrentiels en améliorant leur efficacité opérationnelle, en optimisant la gestion de leurs ressources, et en automatisant des processus complexes.
- Confiance Accordée à des Solutions Éthiques : Les entreprises peuvent utiliser l’IA pour renforcer la confiance de leurs clients et partenaires en adoptant des pratiques éthiques et transparentes dans leur prise de décision.
- Aide pour le Bien Commun : L’IA peut être employée pour résoudre des problèmes sociaux et environnementaux complexes, en contribuant au bien commun. Elle peut être utilisée pour améliorer la santé publique, la gestion des ressources naturelles et bien plus encore.
- Responsabilité Sociale d’Entreprise (RSE) : L’IA permet aux entreprises de surveiller et de rapporter en temps réel leur impact social et environnemental, renforçant ainsi leur engagement en matière de RSE.
- Prévention des Risques : L’IA offre la possibilité de prévoir et de gérer les risques, que ce soit dans la chaîne d’approvisionnement, la sécurité des données ou la gestion de crise.
- Réduction de l’Emprunte Carbone : En optimisant les processus et en proposant des solutions éco-responsables, l’IA peut contribuer à réduire l’empreinte carbone des entreprises, répondant ainsi aux enjeux environnementaux actuels.
Considérations générales
Ce que l’IA fait aux femmes : les biais
- Une première étude montre que, dans les logiciels de reconnaissance de genre (femmes ou hommes sur une photo), il y a plus d’erreurs pour reconnaître les femmes et les personnes racisées, le pire étant les femmes racisées qui ne sont pas reconnues comme femmes au moins 1 fois sur 4. Ce problème tient essentiellement au manque de diversité de la base de données utilisée au départ.
- Une autre étude montre que, si une IA doit faire une description de 2 députés américains qui ont le même poste, les adjectifs utilisés pour les hommes vont faire référence à leur travail et à leurs qualités intellectuelles, alors que pour les femmes, les adjectifs vont plutôt être relatifs au physique et aux qualités familiales.
- Une recherche montre également que dans les 500 plus grandes entreprises américaines, ce sont à 99% des IA qui sélectionnent les candidats qui seront reçus ou non en entretien. En observant le pattern de recrutement de certaines entreprises (dont Amazon), les dirigeants ont découvert que certaines IA excluaient à tous les coups les femmes, qui n’étaient donc jamais reçues.
- X intègre une IA qui permet de redimensionner les images avant qu’on ne clique dessus quand elles sont trop grandes. Une étude a montré que l’IA mettait au centre et en plein écran les visages blancs mais pas les visages de couleur. Il en va de même pour les IA qui créent des fonds sur les visioconférences, qui reconnaissent moins bien les visages de couleur.
- Légiférer de manière pertinente sur l’IA
- Surveiller et faire valider par des tiers les IA à risque
- Demander à vérifier les bases de données qui sont les sources des modèles prédictifs
- Vérifier que ce qui est mis en opensource n’est pas dévoyé ou le contrôler
- Créer de nouveaux métiers pour tous les points précédents, dans une perspective pluridisciplinaire et de diversité intersectionnelle
- Vulgariser la technique
- Christian Guellérin – Directeur général de l’École de design Nantes Atlantique (dessiner les usages de demain)
- Emmanuelle Roux – Dirigeante de Chaudron.io, administratrice MedNum, coopérative dédiée à une société numérique inclusive
- Florence Sedes – Vice-Présidente d’Université, Professeure des universités, chercheure à l’IRIT, à l’université Toulouse 3 Paul Sabatier