Diverses technologies et méthodes accompagnent les savoir-faire et les compétences pour faire avancer la recherche. De l’exploitation de propriétés quantiques à la construction de réalités virtuellement augmentées en passant par la reconstitution de statistiques sur un lointain passé, zoom sur quelques-unes d’entre elles…
À l’échelle de l’atome, les lois de la mécanique classique laissent place à celles, parfois difficilement concevables, de la mécanique quantique. L’effet tunnel est l’une de ces propriétés quantiques, exploitée pour donner naissance à un microscope révolutionnaire. Le microscope à effet tunnel est composé d’une pointe extrêmement fine, positionnée à un nanomètre de distance d’une surface conductrice. À cette distance infime d’un millionième de millimètre, les électrons d’un atome de cette surface sont susceptibles d’être captés par l’un des atomes constituant la pointe du microscope, créant ainsi un courant tunnel entre les deux atomes.
En maintenant constante l’intensité de ce courant, la pointe du microscope se stabilise à un nanomètre de l’échantillon, ce qui lui permet de balayer sa surface à une distance toujours égale, pour en établir un relevé topographique à l’échelle atomique. La pointe elle-même a une dérive thermique quasi nulle, de l’ordre de 5 picomètres par heure (pm = 10-12 m) quand la dimension d’un atome est de 300 pm. Et lorsque le microscope à effet tunnel travaille à très basse température (-263 °C), la matière est figée, il devient non seulement possible de l’observer, mais aussi d’exercer sur elle un contrôle actif.
Cet équipement s’est récemment ajouté au parc machines de la plateforme SURFACE de l’Institut FEMTO-ST à Montbéliard, donnant une nouvelle impulsion aux recherches qui y sont menées dans le domaine de la caractérisation et de l’élaboration des couches minces. « Le microscope offre la possibilité de travailler sur un atome ou une liaison atomique, parce qu’ils restent immobiles pendant des heures, voire des jours », explique Frank Palmino, physicien, enseignant-chercheur à l’université de Franche-Comté, et directeur de la plateforme. « Et l’utilisation de l’effet tunnel donne la latitude voulue pour provoquer des réactions chimiques, en injectant des électrons à une énergie précise dans une molécule, exactement là où on le souhaite », complète le chimiste Frédéric Chérioux, directeur de recherche CNRS.
Une nouvelle étape pour les chercheurs, précurseurs de l’auto-assemblage de molécules sur silicium dès les années 2010. Un projet en cours visant à comprendre les mécanismes de formation de l’ammoniac illustre les capacités du microscope : l’injection d’un électron entre deux atomes d’une molécule d’azote fragilise leur liaison, donnant la possibilité d’insérer des atomes d’hydrogène entre ceux d’azote : des liaisons se cassent, de nouvelles se créent, donnant naissance à des molécules d’ammoniac (NH3). Au-delà de la démonstration de principe, ce travail de recherche est nécessaire pour envisager des alternatives crédibles aux méthodes actuelles de production d’ammoniac, qui nécessitent de fortes température et pression, et représentent environ 2 % de la consommation d’énergie mondiale.
L’impact environnemental est une préoccupation des chercheurs dans leurs travaux comme pour leurs équipements ; ce critère fait partie intégrante du cahier des charges de leurs investissements à l’institut depuis près de dix ans. Le microscope à effet tunnel de la plateforme SURFACE ne fait pas exception : c’est en circuit fermé qu’est assurée la circulation de l’hélium nécessaire pour obtenir et conserver sa très basse température, afin de limiter la consommation de ce gaz rare et coûteux. Le microscope à effet tunnel est un équipement représentant un investissement de 600 K€, financé par l’Agence nationale de la recherche (ANR), la Région Bourgogne - Franche-Comté et le Pays de Montbéliard agglomération (PMA).
Au XVIIe siècle, Newton montrait que la lumière blanche du soleil se décompose en différentes couleurs dès lors qu’elle passe à travers un prisme. Chacune de ces couleurs correspond à une longueur d’onde particulière, dont l’ensemble forme le spectre visible. Ce spectre visible à nos yeux n’est qu’une petite partie du spectre électromagnétique, qui recense les longueurs d’onde de l’ensemble des rayonnements électromagnétiques : ondes lumineuses, ondes radioélectriques, rayons X, rayons gamma… La spectroscopie est l’étude de ces rayonnements qui, émis ou absorbés par une substance, constituent en quelque sorte son empreinte digitale. Plus précisément, la spectroscopie vibrationnelle s’intéresse aux vibrations de liaisons atomiques, elle comprend la spectroscopie Raman et la spectroscopie d’absorption infrarouge.
Benjamin Brunel est enseignant-chercheur en électronique à l’ISIFC / Institut FEMTO-ST, où il mène des recherches visant à appliquer les techniques spectroscopiques au domaine de la santé, et plus précisément au diagnostic des cancers. Ses investigations portent sur les vésicules extracellulaires, des particules de 30 nm à 1 µm produites par les cellules, et qui assurent la communication entre elles. Présentes dans les biofluides tels que le sang, les vésicules extracellulaires, pour certaines, portent la signature moléculaire de cancers : « Utiliser la spectroscopie pour identifier les marqueurs de la maladie sur ces particules, à partir de prélèvements sanguins, est un moyen pour aider à établir un diagnostic. »
La spectroscopie est un exercice complexe, d’autant plus à l’échelle de la molécule, et fournit un nombre considérable de données. Une seule mesure en spectroscopie fournit 1 300 variables pour caractériser un échantillon de vésicule extracellulaire. Et des centaines de mesures sont réalisées pour ce même échantillon, afin de pouvoir prendre en compte son hétérogénéité ! Si l’on ne peut réellement parler ici de big data, le volume impressionnant des données, et plus encore leur complexité, nécessite de recourir au machine learning. Cet outil de l’intelligence artificielle donne la possibilité d’élaborer un modèle statistique à partir des données de patients atteints ou non de cancer, et d’identifier les corrélations qui intéresseront le diagnostic. Il permet de travailler sur le millier de variables différentes produites dans un spectre, multipliées par la cinquantaine de patients concernés par l’étude. « L’objectif est de produire, à partir de telles données, des modèles prédictifs qui serviront au dépistage de la maladie dans le futur. »
Le recours à la spectroscopie est envisagé dans le but d’apporter un outil de caractérisation fine, complémentaire aux méthodes d’investigation existantes. Dans une recherche menée avec des chercheurs en biologie de l’université de Rennes, Benjamin Brunel étudie la toxicité de composés tels que les hydrocarbures sur les cellules du foie. « Il s’agit dans un premier temps de regarder si ces particules toxiques ont un effet sur les vésicules extracellulaires, et ensuite de déterminer si la spectroscopie est à même de déceler cet impact. » Bien des champs d’investigation nouveaux semblent se dessiner pour cette technique éprouvée de longue date, dans d’autres domaines.
La tourbière de Frasne est l’une des quatre tourbières du réseau SNO tourbières1 labellisé par le CNRS. Sur une grande superficie (293 ha), elle présente de multiples visages, telle sa partie boisée où la tourbe s’accumule depuis environ 8 000 ans. Plus récente avec quelque 2 000 ans d’âge, la « tourbière active » marécageuse est celle investie par les chercheurs depuis 2008 ; elle affiche un taux d’instrumentation réputé parmi les plus importants au monde pour ce type d’écosystèmes.
Les tourbières font l’objet d’une surveillance particulière car le carbone, prisonnier de plusieurs mètres de tourbe depuis des millénaires, est susceptible de se libérer sous le coup du réchauffement climatique. Pour anticiper les évolutions à venir, la problématique demande à être documentée sur le long terme. Une tour à flux installée sur le site en 2018 apporte des indications nouvelles, d’une finesse inégalée. Les capteurs dont elle est équipée assurent la mesure à haute fréquence des échanges de gaz à effet de serre entre l’écosystème et l’atmosphère. L’enregistrement des données de concentrations, de vitesse et de direction du vent, vingt fois par seconde, donne la possibilité de mieux appréhender les processus à l’œuvre dans un système constamment changeant.
« Les tourbières fonctionnent comme des réacteurs biogéochimiques, dont les flux de matière varient essentiellement en fonction de la météo. L’activité photosynthétique des sphaignes, cette mousse qui compose la partie vivante à la surface de la tourbière, se modifie en quelques minutes en fonction de la couverture nuageuse, de la température ou de l’humidité de l’air, explique Guillaume Bertrand, enseignant-chercheur en hydrogéologie au laboratoire Chrono-environnement / université de Franche-Comté. La finesse temporelle des mesures autorise la reconstitution, sur une journée, une saison ou une année, des flux circulant entre les sols, l’eau et l’air ». Ce « bijou de technologie », comme le qualifie le scientifique, accumule des données que des algorithmes traitent ensuite pour les rendre intelligibles sous forme de flux de gaz.
Pour l’année 2021, l’analyse des flux fait état d’un bilan en demi-teintes : la tourbière de Frasne a absorbé 208,9 g/m² de carbone sous forme de CO₂ ; elle a émis 23,4 g/m² de carbone sous forme de méthane (CH₄). Le méthane a un pouvoir réchauffant environ 28 fois supérieur à celui du CO₂, mais sa durée de vie dans l’atmosphère est beaucoup plus courte. Pour pouvoir établir des comparaisons, les scientifiques estiment le pouvoir réchauffant des gaz à effet de serre sur 100 ans, en calculant des équivalences : ici, le méthane émis a un pouvoir réchauffant équivalent CO₂ de 252 g/m² sur 100 ans. Conclusion : la tourbière confirme son rôle de puits de carbone, avec l’absorption de 208,9 g de CO₂ au m² pour l’année 2021, mais elle a tendance à contribuer au réchauffement climatique, avec l’émission de l’équivalent de 252 g de CO2 au m².
Guillaume Bertrand met en garde contre des conclusions trop hâtives que pourrait susciter la comparaison, prise de façon isolée. « On parle de pouvoir réchauffant sur 100 ans ! Et on sait que ce bilan va varier selon les années considérées, en fonction des conditions hydrométéorologiques. En outre, il ne faut pas oublier que les tourbières ont contribué au refroidissement climatique de l’Holocène, cette période géologique qui correspond aux 12 000 dernières années, et dans laquelle nous vivons toujours ; considérer le fonctionnement des tourbières uniquement à l’échelle d’une vie humaine n’aurait pas de sens. » Les tourbières représentent seulement 3 % de la surface continentale, mais contiennent 30 % du carbone organique des sols. Un intérêt de premier plan, sans compter les qualités écologiques qui la caractérisent par ailleurs.
C’est avec une résolution également très fine, mais cette fois dans une dimension spatiale, que des drones captent les flux de gaz à effet de serre. « La tourbière est constituée d’une mosaïque de zones qui jouent différemment sur la dynamique du carbone, explique Guillaume Bertrand. Le recours aux drones permet de localiser celles qui émettent ou absorbent le carbone, sous forme de CO₂ ou de CH₄ ». Fin juin, pendant une semaine, des chercheurs de huit universités se sont réunis à Frasne pour éprouver leurs méthodes et équipements scientifiques, et mettre en commun leurs données. Entre autres expériences, les drones mis au point par des chercheurs de l’université de Reims, équipés de caméras mesurant les concentrations de gaz à la surface des sols, font leurs essais sur le site.
Parallèlement, une sorte de cloche en plexiglas est utilisée successivement en différents points au sol par Robin Calisti, doctorant d’Edward Mitchell au laboratoire de biodiversité du sol de l’université de Neuchâtel. La cloche est reliée à un spectromètre laser mesurant l’évolution des concentrations dans celle-ci : les mesures effectuées depuis le sol sur quelques dizaines de cm² pourront être comparées à celles prises par les drones. Une fois leur fiabilité éprouvée, ces appareils de nouvelle génération, grâce à leur capacité à survoler de vastes surfaces, permettront l’enregistrement de données à grande échelle.
Affubler quelqu’un pris en photo sur son téléphone portable d’un chapeau, d’un gros nez ou d’une bulle de conversation façon bande dessinée, c’est dans sa version la plus simple de la réalité augmentée, qui consiste à ajouter du virtuel au réel. Le mélange d’images de synthèse et de vraies images, ou leur superposition via des écrans semi-transparents sont les techniques employées pour créer l’illusion. La réalité augmentée peut aussi être plus immersive, permettant le déplacement de la main, voire du corps, dans un univers à demi-réel ; les casques de réalité augmentée permettent de cartographier un environnement en 3D pour pouvoir ajouter un élément virtuel exactement à l’endroit voulu.
Le groupe Imagerie de la HE-Arc Ingénierie est spécialisé dans la réalité virtuelle et la réalité augmentée, et déploie dans ce dernier domaine, depuis une quinzaine d’années, des solutions pour des applications très diverses. Il s’agit par exemple d’inscrire des textes sur des objets en pierre usés par le temps, ou d’intégrer des morceaux manquants à un vase ancien brisé, pour le « recoller » et lui redonner sa splendeur d’origine ; de faire visualiser et actionner leur membre disparu à des personnes amputées d’une jambe, de façon à ce qu’elles puissent effectuer des exercices qui leur permettent de combattre leurs « douleurs fantômes » ; de démontrer les capacités d’une machine sur un salon industriel sans qu’elle émette le moindre déchet, la machine étant bien réelle et opérationnelle, mais sa production relevant du domaine de l’image.
La maintenance industrielle est l’un des axes actuellement privilégiés par l’équipe ; le MicroLeanLab de la Haute Ecole Arc s’avère dans cette optique être un terrain d’investigation privilégié pour la recherche : « Les caractéristiques des machines disposées dans les différentes cases de la micro-usine sont assez homogènes, et il est facile d’accéder aux informations qui nous sont utiles », explique Didier Rizzotti, directeur-adjoint de la HE-Arc Ingénierie, et responsable du groupe imagerie. L’équipe s’attaque aussi à la « réalité mixte », qui dans un savant méli-mélo, ajoute cette fois du réel au virtuel. Dans un projet de design sensoriel qui vient de commencer, il ne s’agit plus seulement de créer des illusions pour les yeux, mais de faire appel au sens du toucher : « Lorsqu’on touche un élément virtuel, on a une sensation tactile réelle au bout des doigts ».
Ce tour de force, à défaut de s’apparenter à un tour de magie, s’explique par le positionnement d’un échantillon réel de matière sous des éléments virtuels, là où la personne va toucher l’objet : à l’endroit, par exemple, où une pièce de velours virtuelle est ajoutée à l’image d’un rideau de théâtre déchiré, pour donner l’impression qu’il est réparé, on pourra réellement en sentir la texture sous les doigts… Les échantillons proviennent d’une matériauthèque constituée tout exprès et faite de bois, de textiles, de plastiques et autres textures en tous genres. « Cette recherche est menée avec une équipe de Fribourg et avec nos collègues en conception produits centrée utilisateurs. Elle permettra à ces derniers d’intégrer le toucher au test d’un produit lors de sa phase de conception, une dimension supplémentaire pour gagner en énergie, en coût ou encore en temps de prototypage. »
Vaisselle en argent et collection de papillons n’ont a priori pas grand-chose à voir… Mais les spécimens que les spécialistes en conservation-restauration examinent à la HE-Arc ont des points communs : le XIXe siècle pour origine, et une structure de surface présentant des informations difficiles à déceler.
Celles-ci sont cependant encore visibles, malgré l’usure ou la dégradation, pour l’imagerie par transformation de réflectance (Reflectance Transformation Imaging - RTI), une technique photographique assistée par ordinateur, née dans les années 2000. Le principe ? Une caméra fixe saisit plusieurs clichés d’un objet, lui aussi statique, selon différents éclairages ; un logiciel agrège ensuite toutes les informations enregistrées par la caméra pour créer une image virtuelle, synthèse de toutes les autres. La méthode du dôme est une variante de la RTI, adoptée par l’équipe de la HE-Arc pour effectuer ses tests, grâce à l’utilisation d’un appareil commercial Broncolor. La caméra, placée en haut d’une demi-sphère rigide de 50 cm de diamètre, capte une image de l’objet en contrebas à chaque fois que s’allume l’une des 48 sources lumineuses disposées sur la surface intérieure du dôme. La compilation et le traitement informatique des 48 clichés font apparaître sur l’image « finale » des informations partiellement effacées, voire insoupçonnables, que les différents angles de lumière ont donné l’opportunité de saisir. « Il est à nouveau possible de lire à la surface de l’objet. La brillance de l’argent par exemple, qui est gênante, est biaisée par la lumière et atténuée grâce au traitement informatique des images », expliquent Laura Brambilla, professeure à la HE-Arc, et Alexandra Lefebvre, conservatrice-restauratrice des patrimoines métallique et technique, qui collabore à ce projet. Sur la vaisselle ancienne apparaissent des traces d’usage générées par un emploi quotidien, ou des inscriptions, des poinçons, qu’un nettoyage tout aussi fréquent a au contraire partiellement effacés…
À l’époque où la vaisselle en argent prenait place sur les grandes tables, la lépidochromie était à la mode. Cette technique, qui consistait à « décalquer » sur du papier les ailes des papillons, était pratiquée par des amateurs éclairés. En caractérisant la structure des ailes sur les planches des collectionneurs, la RTI révèle les minuscules écailles qui les composent, témoignant que les planches sont bien réalisées par lépidochromie, et non peintes à l’aquarelle comme on pourrait le penser de prime abord.
Les collections de vaisselle en argent du XIXe siècle proviennent du Musée historique de Lausanne ; les planches de lépidochromie de celui du Muzoo de la Chaux-de-Fonds, où elles ont été fortuitement découvertes en 2018. Les collections de papillons réalisées selon cette technique oubliée restent rares ; certaines se trouveraient dans les musées d’histoire naturelle de Nancy, de Paris et de Besançon (Citadelle), où des investigations par RTI pourraient être proposées par les spécialistes de la HE-Arc pour en établir leur facture de façon sûre.
Enseignant-chercheur en conservation-restauration à la HE-Arc, Christian Degrigny supervise le projet RTI, comme il en dirige d’autres depuis des années. Parmi eux, la mise au point d’instruments d’analyse est une option prise pour pouvoir répondre aux premières problématiques posées par une recherche patrimoniale, en toute autonomie. « Les équipements commerciaux coûtent cher et sont rapidement obsolètes, nécessitent de la maintenance et des mises à jour sur lesquelles nous n’avons aucun contrôle. Bâtir nos propres outils est une solution pour assurer leur développement en interne, pour réduire les investissements, tout en proposant des services intéressants à l’ensemble des acteurs du domaine. »
MiCorr, Pleco et Discovery Mat sont trois outils d’analyse issus des recherches menées à la HE-Arc Conservation-restauration, et qui sont aujourd’hui diffusés auprès des professionnels. La participation de ces derniers est requise pour rendre ces équipements plus efficaces et plus pertinents. La plateforme MiCorr, typiquement, donne la possibilité d’établir un diagnostic d’altération pour des objets métalliques, un préambule pour comprendre le matériau et l’objet qui se cachent sous la corrosion, et opérer les bons choix quant à leur conservation. Réaliser ce bilan demande à établir des comparaisons, qui ne peuvent avoir du sens et un plein intérêt que si la base de données est suffisamment solide. « Les professionnels plébiscitent la mise à disposition d’outils comme MiCorr, qui est accessible sur le net, gratuitement. Mais ils ont du mal à dégager du temps pour compléter la base de données avec leurs informations. Or ce sont des outils participatifs, qui, pour être pertinents, en appellent à l’adhésion de chacun », explique Christian Degrigny.
Accepter de se plier à l’exercice représente un véritable enjeu pour disposer d’outils fiables, utiles, garantissant à l’ensemble de la profession un travail de qualité, réalisé en complète autonomie. Pour aider à la diffusion et à la promotion des solutions développées par son équipe, le chercheur pilote actuellement le projet européen Innovators Grant Endless Metal, qui bénéficie d’un soutien financier de l’association COST.
Sait-on que le séisme qui a secoué le Poitou en juin dernier, pour avoir marqué l’opinion comme un événement exceptionnel, s’inscrit en réalité dans une longue série chronologique ? Que les inondations de la Seine de juin 2016, qui ont détruit les équipements installés sur les quais pour le championnat d’Europe de football, ont connu bien des antécédents ?… Que le paludisme a sévi en France, et ce jusqu’au début de la Première Guerre mondiale dans le Nord ?… Des exemples de cet acabit, l’historien Emmanuel Garnier peut en citer d’autres, en France ou ailleurs dans le monde.
Directeur de recherche CNRS au laboratoire Chrono-environnement, spécialiste du climat et des catastrophes naturelles, Emmanuel Garnier peut surtout retracer des évolutions climatiques au fil de l’histoire et élaborer des séries statistiques à partir des informations qu’il glane. La documentation est son outil de base : contrairement à d’autres disciplines, la recherche en histoire demande peu de moyens technologiques, hormis dans certains cas le recours à des calculs complexes. Mais c’est un travail de fourmi, qui entraîne l’historien de documents écrits en témoignages picturaux, de la consultation d’archives au recensement de repères sur le terrain.
Menée de cette manière sur le temps long, la recherche en histoire apporte matière et recul à d’autres champs disciplinaires travaillant sur un pas de temps plus court. « Le passé donne à voir la façon dont les populations s’adaptaient aux changements ou aux événements climatiques majeurs, et dont nous pourrions nous inspirer pour faire face aux enjeux environnementaux actuels ; il est aussi une source d’informations permettant, par exemple, d’éprouver les solutions que proposent aujourd’hui les urbanistes pour l’aménagement des territoires. »
Les années 1750 représentent une période charnière pour les investigations historiques. Avant cette date, il s’agit de reconstituer des séries de données à partir d’informations disparates et qui ont réussi à traverser les siècles, tableaux religieux décrivant des catastrophes, repères de crues toujours visibles, décisions municipales consignées dans des registres… : le croisement et l’analyse de ces sources éclectiques permettent l’interprétation. Depuis la fin du Moyen Âge, par exemple, subsiste une foule d’informations à propos de l’influence du climat sur la végétation.
« Dans le domaine viticole, ce sont les municipalités qui autorisaient les vendanges, elles se basaient pour cela sur les données de température et de maturité des grains, qu’elles enregistraient. » À noter qu’à Besançon, en 1816, les vendanges n’avaient été permises qu’en novembre : en fin d’été, les températures avaient chuté durablement, en même temps que les pluies s’étaient multipliées de façon anormale. Le rapprochement des informations historiques a permis d’établir que ces conditions plus que défavorables étaient dues à l’explosion d’un volcan en Indonésie, qui avait envoyé des nuages de cendres jusqu’à la Comté.
La reconstitution de données sur le long terme suppose dans la plupart des cas des échanges avec d’autres disciplines, comme la climatologie, l’agronomie, la géologie… « Pour établir des séries de températures et faire ressortir des anomalies climatiques, il est essentiel de soustraire les dates correspondant à des particularités qui sont le fait de l’homme, et non de la météo ; c’est par exemple un changement de cépage dans les vignobles, une information dont disposent les agronomes. »
La fin du XVIIIe siècle marque une rupture pour la recherche historique. La création des États modernes s’accompagne notamment du développement du corps des ingénieurs, qui ont besoin de données pour travailler ; en France, des services météorologiques sont mis en place par Napoléon III dans chaque département : les séries de données existent désormais, et peuvent compléter celles reconstituées sur les siècles précédents.