L'auscultation géotechnique à l'aube de l'intelligence artificielle
- Ennéade

- Aug 4, 2020
- 12 min read
De la simple observation visuelle jusqu’au suivi submillimétrique en temps réel, l’auscultation géotechnique donne accès à un flux d’information hétérogène acquis le plus généralement par l’instrumentation de portions de l’ouvrage. Elle requiert des connaissances techniques très variées, une analyse fine et une grande prise de recul compte tenu de l’exposition à de nombreux facteurs extérieurs pouvant impacter la fiabilité des mesures. De ce fait, elle représente un investissement conséquent.
L’auscultation géotechnique mise en œuvre est essentiellement proportionnelle à la sophistication du projet étudié, en termes d’envergure, de complexité technique, ainsi qu'à la sensibilité de son environnement.
La précision des mesures réalisées comparée à l’ampleur dimensionnelle du projet provoque généralement une grande appréhension chez le mandataire. Une erreur de mesure par exemple, aura un impact très important sur le dépouillement final et sur son interprétation. L’ensemble des acteurs redoute ainsi un chantier interrompu sans raison valable. Certains d'entre eux en viennent ainsi à discréditer l'instrumentation de l’ouvrage en construction en l’associant à un frein pour le chantier.
Après avoir étudié l'aspect sécuritaire, profitable à l'intégrité physique du personnel d’une part, et d’autre part, matérielle du chantier en général, nous nous pencherons sur l'impact indirect que l'instrumentation géotechnique peut avoir sur les méthodologies d'exécution.
Les problématiques soulevées nous mèneront à envisager le potentiel de l’intelligence artificielle dans le cadre du suivi observationnel.
1. Auscultation et méthode observationnelle
Fonctionnement général
Les méthodes d’auscultation sont essentiellement déterminées préalablement à l'exécution du chantier.
On définit effectivement :
- La “ZIG” (Zone d’Influence Géotechnique)
- les techniques et/ou instruments mis en œuvre,
- les procédés précis (méthodologies)
- les fréquences des diverses interventions
Ce cadre pourra par ailleurs être modifié - le plus souvent renforcé ou complété - en cas de nécessité, ou réaménagé progressivement avant d’en décider l’arrêt.
Il existe une grande variété de techniques que l’on peut classer en deux grandes catégories :
In situ où l’on trouve toutes les méthodes dites "en forage", à savoir par exemple l'inclinométrie dont nous vous parlions dans l'article précédent, mais aussi la piézométrie (mesure des niveaux d’eau), l’extensométrie, les mesures de charges et bien d’autres.
Ex situ où l'on trouve toutes les techniques d’observations menées via une instrumentation non intrusive comme la topographie, l’altimétrie, la débitmétrie, la pluviométrie, ...
Il est crucial pour la validité des mesures qu’elles soient réalisées dans des conditions similaires, selon un mode opératoire très précis.
En revanche, ce dernier peut varier d’un instrument à un autre. Pour la topographie par exemple, les manipulations préalables à chaque mesure peuvent varier selon l’accessibilité de la zone, mais devront être identiques pour chaque intervention.
Pour améliorer la précision de chaque mesure, il est généralement recommandé de conserver le même capteur au long de l’étude, et donc du chantier. Dans cette optique il peut être recommandé de réaliser des mesures zéro avec deux instruments afin de pallier un éventuel changement d'instrument (perte, casse, maintenance…).
Idéalement, il est également recommandé qu’un même opérateur réalise toutes les mesures sur un même instrument si l'on juge que ces mesures peuvent être biaisées (le cas des jauges saugnac est le plus évident, mais ce biais existe également pour l'inclinométrie).
Enfin, il est de tout évidence préférable que la fréquence des mesures soit la plus élevée possible, et que les différentes mesures soient réalisées simultanément.
La méthode observationnelle

La méthode observationnelle, ou dimensionnement interactif, constitue une approche originale permettant d'adapter et d'optimiser la conception des ouvrages géotechniques en fonction des observations (auscultations) réalisées sur leur comportement lors de leur construction.
Ainsi, certains paramètres du chantier pourront être modifiés à l’avancement si et seulement si l'analyse réalisée à l'issue des observations, puis des calculs, l’autorise.
Comment savoir quand modifier le design ?
C’est un des objectifs de la note de méthode observationnelle, rédigée en amont du chantier. L’auteur de cette note, en accord avec les parties prenantes du projet et conformément au CCTP et aux les calculs réalisés, choisi les seuils d’alerte et d’arrêt propre à chaque instrument utilisé, représentant respectivement les valeurs au-delà desquelles il faut :
S’alerter vis-à-vis du dimensionnement
Arrêter les travaux (temporairement) en attente d’une solution validée par l’ensemble des acteurs
Même si le choix d’un seuil d’alerte et d’arrêt correspondant au déplacement maximal autorisé pour une structure vis-à-vis de ses avoisinants est une approche couramment retenue, elle ne permet pas une bonne anticipation du comportement attendu de l’ouvrage au cours de sa construction. En effet, le déplacement de l’ouvrage peut être supérieur à celui du modèle de calcul dès la première passe de terrassement sans que le seuil d’alerte – calé sur les déplacements maximums - ne soit atteint. Lorsque le seuil d’alerte est atteint en cours de chantier, la prise de conscience est tardive.
C’est dans l’esprit d’améliorer l’anticipation d’un comportement « anormal » au niveau de l’ouvrage que l’on retrouve une approche plus progressive, Celle-ci consiste à rendre les « seuils » évolutifs en les calquant sur les déplacements du modèle de calcul afin de permettre une meilleure anticipation. Cette approche, plus complexe, donne par exemple des seuils correspondants à chaque passe de terrassement et permet ainsi de mettre en évidence plus rapidement et plus précisément les éventuelles anomalies dont des courbes aux tendances différentes sont le reflet.
C’est dans cette seconde approche que la méthode observationnelle peut être idéalement menée.
2. Bénéfices liés à l’application de méthode observationnelle
Lorsqu’elle est correctement réalisée, la méthode observationnelle apporte de nombreux bénéfices, allant au-delà d’une connaissance plus fine du projet. Bien qu’il impacte de nombreux aspects du projet, il en ressort trois catégories principales de bénéfices :
Sécurité et responsabilité
Comme annoncé précédemment, le premier bénéfice d’une connaissance précise de l’ouvrage est le climat sécuritaire qui l'accompagne. En phase de construction, elle permet d’éviter et/ou de prévenir les incidents mineurs comme les incidents majeurs.
Voici un exemple de ce que peut engendrer un défaut de conception couplé, de toute évidence, à une mauvaise auscultation géotechnique :
Cet aspect sécuritaire permet aussi, de façon non exhaustive :
De renforcer les conditions de travail des ouvriers,
De sécuriser les infrastructures riveraines,
De prodiguer un certain confort d’esprit à l’ensemble des parties prenantes du projet
Ce confort d’esprit est accentué par le transfert de responsabilité. En confiant l’analyse observationnelle d’un chantier à un tiers, l’entreprise qui en était initialement en charge pourra se décharger des éventuels attributs légaux et assurantiels d'éléments mal maîtrisés.
Economique
En comparant les résultats des auscultations aux valeurs issues des modèles théoriques, on détermine si le chantier présente un comportement "anormal". En appliquant la méthode observationnelle, on accepte de remodeler l'ouvrage en conséquence.
Par exemple, si les déplacements et efforts semblent minimes vis à vis de ceux envisagés par les calculs théoriques, on peut imaginer qu'un sur-dimensionnement a eu lieu. Il peut donc être opportun de recalculer les éléments non exécutés afin de les optimiser.
À l'inverse, de trop forts déplacements pourraient être le fruit d'un sous-dimensionnement pour lequel à minima les éléments non exécutés pourraient être repensés, voire même l'ensemble du design, dans la mesure du possible.
Cadre de recherche scientifique
La mise en œuvre de la méthode observationnelle sur un chantier peut être intégrée dans un cadre de travaux de recherche et développement. La mise en œuvre de cette méthode implique une standardisation et une centralisation des informations récoltées. Celles-ci peut permettre la création d’une base de données, digne du Big data :
Complétant les données géologiques
Testant et améliorant les théories géotechniques
3. Limites et exigences
Qualité, Manipulation et interopérabilité des données
On notera que les logiciels communément utilisés (type Plaxis) ne traitent pas nativement les données temporelles. Pour permettre une analyse fiable vis à vis des mouvements théoriques, un traitement doit être exécuté de façon systématique permettant de croiser les données en fonction du paramètre variable utilisé lors des calculs.

Par ailleurs une analyse doit être menée afin de juger de la concordance, de la qualité et de la fiabilité des données récoltées afin de s’assurer de leurs représentativités vis à vis de la réalité du terrain. Dans ce cadre, des corrections peuvent être réalisées ; nous reviendrons sur ces corrections au sein d’un prochain article.
Automatisme et performance
A la lumière de l’ensemble des points précédemment abordés, on remarque qu’il existe un fonctionnement idéal pour lequel l’ensemble des opérations est exécuté en continu. Cette démarche fait appel à une automatisation totale des calculs, traitements et validations ; celle-ci semble impossible à ce jour mais une approche semi-automatique est parfois appliquée.
Afin de minimiser le retard de l’action sur l’observation il convient de mettre en œuvre l’ensemble des moyens permettant une circulation rapide et fiable des informations récoltées en optimisant selon une liste non-exhaustive :
Standardisation, centralisation et traçabilité des données
Dématérialisation (afin d’éviter les lenteurs liées au reporting)
Automatisation des rendus et des alertes
Interopérabilité avec l’ensemble des logiciels utilisés
Redondance, problème d’échelle, densité de données
Les données issues des différents instruments redondants viendront, suivant leur concordance, caractériser le phénomène en jeu ainsi qu'assurer la certitude de l'analyste.
En effet, le problème d’échelle repose sur le fait que chacune des mesures est étudiée indépendamment. Le principe fondamental de la méthode observationnelle est de croiser une quantité de données suffisante, issue de différents moyens d’auscultation, ce qui permet, dans le cas d’anomalie mesurée sur une zone réduite, de la confirmer ou de l'infirmier via l’analyse d’autres paramètres portés sur la même zone.
En toute logique, il apparaît indispensable de posséder un modèle de calcul en trois dimensions afin de permettre une comparaison de l’ensemble des mesures en tout point de celui-ci.
Par ailleurs, le recalcul concerné doit être mené par un acteur connaissant les paramètres “encore modifiables” et, si possible et a minima, en accord avec :
Les ouvrages déjà exécutés
Le matériel disponible sur site
A ce stade, comparer pour un même point les paramètres théoriques aux paramètres mesurés constituerait une erreur grave. On retiendra que cette comparaison ne doit pas être effectuée aveuglément, certaines règles doivent être respectées :
Les données doivent être comparées à dates égales
Les données relatives doivent être comparées aux données absolues avec précaution
A titre d’exemple, on retiendra que contrairement aux données inclinométriques, les données topographiques sont obtenues via des cibles ajoutées à l’avancement. La déformée inclinométrique pourra ainsi être, pour la phase concernée, comparée à la déformée théorique (à condition que la date de la mesure zéro s'y prête) tandis que les déplacements topographiques devront être manipulés plus finement.

Dans l'idéal, il convient donc, plutôt que de se limiter aux valeurs, de superposer un nombre satisfaisant de courbes représentative du comportement de la zone étudiée.
Au-delà du problème d’échelle évoqué précédemment, un autre problème peut survenir lors de la confrontation des données réelles aux données théoriques. En effet, les données théoriques sont calculées de façon continue, que ce soit dans l’espace ou dans le temps, tandis que les données réelles sont toutes ponctuelles.
Une solution évidente est d'interpoler et extrapoler les mesures afin de pouvoir comparer deux entités équivalentes, à condition néanmoins que ces opérations soient licites.
On peut effectivement songer au cas extrême où un phénomène ponctuel pourrait :
Être, à tort, généralisé sur une zone
Passer inaperçu
Il y a donc un réel travail de l’analyste portant sur la certitude qu’il offre aux conclusions tirées.
Impartialité
Une problématique majeure de la méthode observationnelle réside dans le fait qu’elle puisse être mise en œuvre par l’entreprise en charge, en tout ou partie, des mesures. Si cette configuration semble opportune à la rapidité de l’analyse, il reste paradoxal d’attribuer des erreurs à un travail réalisé par une même entité devenant juge et partie des mesures réalisées.
Devant l’ampleur des enjeux liés à la méthode, et compte tenu du nombre important d’automatisations nécessaires, il semble indispensable dans ce cas d’engager des contrôles externes.
Il est donc crucial de réfléchir à la délimitation des missions suivantes : l’établissement de la note observationnelle, la pose des instruments, la réalisation des mesures ainsi que le traitement. Il en est de même concernant l’analyse des mesures et les calculs qui en découlent.
Temps et coûts
Il semblerait dérisoire à ce stade d’envisager des optimisations qui ne soient pas à la mesure des travaux réalisés. Par exemple, il semblerait effectivement hors de question de proposer à l’entreprise de raccourcir de quelques centimètres des tirants de plusieurs dizaines de mètres. Bien qu’il puisse s’agir d’une optimisation au sens physique du terme, celle-ci ne serait vraisemblablement pas rentable et desservirait la méthode. Un seuil d’adoption doit être fixé, pour définir une optimisation financièrement pertinente.
La mise en œuvre d’une solution ne doit pas être plus onéreuse que l’économie qu’elle permet de réaliser, de même que le temps nécessaire à la mise en œuvre de cette optimisation ne doit pas impacter négativement le planning du chantier.
Pour ce faire l’ensemble des coûts et temps doit être listé et inclure de façon non-exhaustive :
Analyse et proposition technique
Calculs géotechniques
Éventuels calculs structure
Validations techniques
Afin d’encourager l’application de la méthode observationnelle, il semble envisageable que son coût final soit fonction du gain qu’elle a su proposer pendant sa mise en œuvre. Cette démarche pourrait inciter, d’une part, les acteurs du chantier à investir dans cette démarche, et d’autre part, les entreprises en charge de cette méthode à développer les processus nécessaires à l’efficacité de celle-ci.
4. L’Intelligence Artificielle au service de la méthode observationnelle
Le suivi observationnel constitue malheureusement un sujet de discorde. Son coût élevé ainsi que les problèmes rencontrés pouvant altérer radicalement les conclusions laissent encore sceptiques beaucoup d’acteurs, percevant celle-ci comme un coût perdu n’étant autre qu’une sonnette d'alarme intempestive nuisant à la bonne progression du chantier.
Bien que la pratique d’une telle méthode soulève de nombreuses interrogations, la vision d’investissement progresse grâce, entre autres, au cadre normatif, et celle-ci a prouvé son efficacité et sa rentabilité à Monaco au travers de projets pour lesquels :
Un incident a été évité et anticipé à temps
Un gain de temps et de matériel a été réalisé
L’ensemble des problèmes énoncées dans le présent article prennent globalement racine en l'imperfection humaine : erreur d’opérateurs, mais aussi d’impartialité. De même, des erreurs peuvent naître si le flux de données devient trop conséquent pour l'analyste.
L’utilisation d’intelligence artificielle semble donc tout indiquée et permettrait, éventuellement, d'en réduire les coûts tout en augmentant la fiabilité de l'analyse.
Le CFMS a dernièrement réalisé un congrès portant sur l’utilisation du big data au sein de l’activité géotechnique en général. A notre grand regret, malgré la qualité et la richesse des interventions, les sujets liés à la méthode observationnelle n’ont pas été abordés.
A l’aube d’une utilisation systématique de l’intelligence artificielle, on peut l'imaginer appliquée de façon transverse à l'analyse menée par le géotechnicien vis à vis des données issues des systèmes d'auscultations ainsi que des études menées en amont de la construction.
Travaux préliminaires : flux entrant
La mise en oeuvre des points indispensables à l’exploitation des données doit être menée (cf. Automatisme et performance).
Une base de données doit être créée, standardisée, aisément accessible et libre.
Afin de permettre une analyse fine, deux possibilités, "non-incompatibles", s’offrent :
Inclure l’ensemble des données précédemment traitées
Inclure les données de nouveaux chantiers
Le moteur de calcul devra apprendre de l’ensemble des données collectées mais cette base de données ne prendra de sens que si elle est suffisamment enrichie, à minima nationalement.
La base de données doit acquérir un maximum de paramètres. Ne se limitant pas aux mesures, celle-ci doit contenir une quantité d’information a priori indigeste pour l'être humain mais admissible aujourd’hui ou demain par la machine :
La géométrie du chantier
Les sondages et leurs enregistrements de paramètres
Les données météorologiques
Les matériaux utilisés
Les enregistrements de paramètres de foration des tirants
Des enregistrements vidéo/timelapse du chantier
etc.
La livraison de ces données pourrait paraître trop complexe à l’heure actuelle mais pourrait être assurée par des instruments et “pipelines de données” non généralisés sur chantier de nos jours. Il est par ailleurs plus qu’envisageable que ces données soient collectées et utilisées pour des besoins autres que la méthode observationnelle elle-même, par exemple dès la définition de la stratigraphie comme l’a montré le CFMS.
Setup
L’IA apprendra progressivement d’elle-même, au travers des données renseignées et de la résolution des calculs géotechniques. Provisoirement, c’est à dire tant que la quantité de données ne suffira pas, celle-ci doit être munie d’au moins un moteur de calcul 3D type Plaxis.
Le modèle doit être évidemment capable, en plus d’assurer la stabilité d’une paroi, d’appliquer les normes en vigueur afin de réaliser l’ensemble des calculs susceptibles d’affecter le design de la construction.
Celui-ci doit par ailleurs être en mesure de réaliser des interpolations, extrapolations, corrections et alertes visant à “dialoguer” avec les acteurs du chantier.
Enfin, celle-ci doit être pourvue d’une « malléabilité » permettant aux acteurs du chantier d’agir non-conformément à ses propositions.
Transition
Des sujets limités peuvent d’ores et déjà être traités via application de l’IA pour les différents instruments par exemple :
Interpolations temporelles et spatiales
Prévisions (algorithmes prédictifs)
Néanmoins la transition vers l’application générale de l’intelligence artificielle dans le cadre de la méthode observationnelle sera progressive.
Il est nécessaire d’accepter dès à présent l'existence d’une phase durant laquelle l’outil, dans sa mise en fonctionnement, sera inutile, voire coûteux.
Il s’en suivra une période plus prospère où l’outil pourra faire ses preuves en tant qu’outil d’aide à la décision.
A cette période succédera une évolution en semi-autonomie, pendant laquelle l’outil sera globalement fiable mais, comme il a été prouvé pour la voiture autonome, des erreurs que l’analyse humaine auraient évitées seront commises.
Enfin, on peut imaginer qu’il se dirigera vers un outil parfait dans lequel nous pourrons placer une confiance aveugle.
Cette transition, hétérogène, est impossible à planifier et s’appuiera vraisemblablement sur des outils d’auscultation que nous n’imaginons pas de nos jours.
Cadre de recherche et développement
A court terme, on peut imaginer que l’enrichissement des données couplé à l'intelligence artificielle puisse permettre d’enrichir les calculs géotechniques et le choix des méthodes.
L’ensemble des données serait donc interprété avec davantage de finesse et permettrait d’offrir le pilotage de chantier idéal au sens du dimensionnement interactif, ne laissant de doutes ni envers les causes des phénomènes naissants ni envers les actions à mettre en œuvre. Ce domaine, neuf et vaste, pourrait permettre d’enrichir la science géotechnique, et de mettre un terme à des querelles théoriques fondamentales.
Conclusion générale
Si à l’heure actuelle la question était posée :
Le chantier est-il réellement prêt à mettre en œuvre l’IA ?
La réponse serait assurément “non”. Il est envisageable que nous pensions ici à un chantier 3.0 alors que sa version 2.0, le chantier “numérisé”, ne soit pas totalement atteinte.
Paradoxalement, il ne s’agit pas aujourd’hui d’envisager de mener ce travail dans sa globalité mais de l’initier, au travers du stockage de données centralisé et standardisé. En ce point, l’amélioration de la méthode observationnelle constitue non seulement l’un des premiers maillons mais aussi l'un des moteurs afin de permettre à chacun des acteurs du chantier de bénéficier des données collectées.


Comments