Informations

L'infrarouge de faible puissance utilisé pour suivre les mouvements oculaires à long terme pourrait-il avoir des effets ?

L'infrarouge de faible puissance utilisé pour suivre les mouvements oculaires à long terme pourrait-il avoir des effets ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Fondamentalement, regarder dans les LED infrarouges et une caméra avec un filtre passe-bande infrarouge pour suivre les mouvements des yeux ; mes préoccupations sont de savoir s'il y aurait des effets négatifs potentiels à long terme à l'éclairage constant de l'œil avec des infrarouges de faible puissance ? AIT A


J'aurais dit que l'IR est sans danger, mais certaines études ont suggéré le contraire.

Il s'agit d'une vague étude sur les yeux de lapin :

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3116568/

https://academic.oup.com/annweh/article-abstract/35/1/1/170395

Il peut donc y avoir une limite d'exposition dosimétrique que vous devez viser. Les LED sont très contrôlables. Je suis étonné qu'ils parlent de cataractes avec une longueur d'onde chimiquement douce et non ionisante comme l'IR, car nous obtenons l'IR toute la journée du soleil. Si vous contrôlez les niveaux pour qu'ils soient inférieurs à une journée ensoleillée, vous constaterez peut-être que vous pouvez utiliser l'équivalent d'une heure d'exposition au soleil pour exécuter de nombreuses heures de suivi oculaire. les chiffres sont une question de recherche.


Les vagues de chaleur sont probablement des ondes infrarouges. Nous les avons tout le temps autour de nous (avec une grande intensité) tout le temps. Un infrarouge de faible intensité provenant d'une LED ne causera aucun problème, même à long terme. Nos yeux ont évolué pour résister à des intensités bien plus élevées (c'est-à-dire autour d'une température de 45°C). Donc, pas besoin de s'inquiéter.

Mais comme l'eau est perdue à cause des vagues de chaleur, permettez au sujet de cligner des yeux fréquemment.


Surveillance des volcans

80 km, se séparent, glissent les uns sur les autres ou entrent en collision au-dessus de l'intérieur chaud et visqueux de la Terre. Les volcans ont tendance à se former là où les plaques entrent en collision ou s'écartent (Fig. 2), mais peuvent également se développer au milieu d'une plaque, comme les volcans hawaïens (Fig. 3).
Sur les plus de 1 500 volcans dans le monde qui auraient été actifs au cours des 10 000 dernières années, 169 se trouvent aux États-Unis et dans ses territoires (Ewert et al., 2005) (voir Fig. 4). Au printemps 2007, deux de ces volcans, le Kīlauea et le mont St. Helens, sont en éruption, tandis que plusieurs autres, dont le Mauna Loa, Fourpeaked, Korovin, Veniaminof et Anatahan, présentent un ou plusieurs signes d'agitation, tels que des tremblements de terre anormaux, déformation de la surface du volcan, ou changements de volume et de composition des émissions de gaz volcaniques, qui pourraient prédire le début d'une autre éruption.

Figure 1. Carte du monde montrant l'emplacement des volcans, dont beaucoup entourent la bordure du Pacifique et le long des limites d'autres plaques tectoniques. Image reproduite avec l'aimable autorisation du Global Volcanism Program de la Smithsonian Institution (http://www.volcano.si.edu/world/find_regions.cfm.) Pour une carte plus détaillée des volcans, des tremblements de terre, des cratères d'impact et des plaques tectoniques, voir Simkin et al. (2006). Image préparée par Paul Kimberly, Smithsonian Institution Global Volcanism Program.

Figure 2. Coupe transversale schématique de la tectonique des plaques de Simkin et al. (2006( montrant différents types de limites de plaques. Image préparée par Jose F Vigil et Robert I. Tilling. Les volcans, en raison de leur géologie et de leur typographie, présentent des paysages évocateurs et abritent divers écosystèmes, dont beaucoup sont délicats et uniques. Les éruptions volcaniques peuvent effacer des paysages et menacer des vies, des écosystèmes et des biens. Par exemple, l'éruption du mont St. Helens en 1980, bien que relativement modeste à l'échelle des événements volcaniques potentiels aux États-Unis, a libéré une énergie équivalente à une explosion de 24 mégatonnes, dévaster les forêts et anéantir la faune, dont près de 7 000 gros gibiers, sur plus de 600 km 2 , tuant 57 personnes et infligeant plus d'un milliard de dollars de dommages à l'économie, à l'agriculture, aux entreprises et aux structures locales. et les ressources écologiques que nous associons aux volcans sont également capables de détruire ces ressources en quelques minutes.
La plupart des volcans sont capables d'éruptions qui constituent des menaces importantes pour les paysages naturels, les vies, les écosystèmes et les biens, mais heureusement, les éruptions sont généralement précédées de semaines ou de mois d'agitation croissante, permettant de prévoir les éruptions si les volcans sont correctement instrumentés et les données sont interprétées. par des équipes d'experts dans les domaines de la géologie, de la sismologie, de la géodésie et de la géochimie des volcans.

Figure 3. Vue schématique en coupe le long de la chaîne d'îles hawaïennes d'après Simkin et al. (2006) montrant le panache mantellique inféré qui a soutenu le hotspot hawaïen sur la plaque Pacifique dominante.

Les âges géologiques du plus ancien volcan de chaque île sont progressivement plus anciens vers le nord-ouest, ce qui correspond au modèle de point chaud pour l'origine de la chaîne Hawaiian Ridge-Emperor Seamount. Préparé par Joel E. Robinson.

Aux États-Unis, le Robert T. Stafford Disaster Relief and Emergency Assistance Act exige que le U.S. Geological Survey (USGS) émette des avertissements en temps opportun des catastrophes géologiques potentielles à la population touchée et aux autorités civiles. Grâce au mandat de cette loi, l'USGS a la responsabilité principale de surveiller l'activité volcanique aux États-Unis. L'USGS maintient des réseaux de surveillance composés d'un grand nombre et d'une grande variété d'instruments de surveillance afin de collecter les données nécessaires pour prévoir le comportement volcanique et émettre des avertissements et des informations pour réduire les pertes de vies humaines, de biens et l'impact économique des dangers liés aux volcans. Bien que les données obtenues à partir de ces réseaux de surveillance contribuent à la recherche fondamentale et à la compréhension scientifique des volcans, la principale justification du déploiement d'instruments est la sécurité publique et la réduction des catastrophes.
Dans ce chapitre, nous discuterons des principaux signes vitaux associés aux éruptions volcaniques, expliquerons les méthodes pour les surveiller et donnerons une étude de cas. Les signes vitaux décrits comprennent l'activité sismique, la déformation du sol, les émissions de gaz, les panaches de gaz, l'activité hydrologique et l'instabilité des pentes. Les méthodes de surveillance vont des méthodes bien établies aux dernières innovations qui devraient devenir courantes dans les prochaines années.

Figure 4. Carte montrant les emplacements des volcans aux États-Unis, classés par niveau de menace tel que déterminé par le US Geological Survey National Volcano Early Warning System. Style et fréquence d'éruption

Les volcans individuels font éclater différentes combinaisons de coulées de lave, de coulées pyroclastiques et de téphras (cendres et éjecta fragmentaire plus grossier). Sur certains volcans, les glissements de terrain, les coulées de débris et les inondations sont aussi dangereux, voire plus dangereux, que les éruptions volcaniques elles-mêmes. Les coulées de débris sont des mélanges de boue, de roches, de rochers et d'eau qui se déplacent à des vitesses allant de dizaines à 100 km/h. Les coulées de débris très mobiles provenant d'un volcan sont également appelées lahars. L'évaluation des événements éruptifs et dangereux probables (style, taille et fréquence de l'événement) sur des volcans individuels est réalisée en construisant des cartes géologiques et en effectuant des évaluations des risques.
Les facteurs qui influencent les styles d'éruption sont : les diverses températures et compositions chimiques des magmas qui alimentent un volcan les vitesses auxquelles le magma atteint la surface et des facteurs locaux, tels que la présence de failles ou de fractures qui peuvent servir de voies faciles pour que le magma atteigne le surface, ou qui permettent aux gaz volcaniques de s'échapper du magma de manière non explosive. Ces facteurs de contrôle sont généralement inconnus ou insuffisamment compris à l'avance pour aider à développer des évaluations détaillées des dangers ou des prévisions d'éruption. Au lieu de cela, la cartographie géologique et les enquêtes associées sont utilisées pour examiner, documenter et quantifier l'activité passée d'un volcan. Dans ces investigations, des caractéristiques clés sont identifiées qui distinguent des gisements particuliers les uns des autres, et les relations qui se chevauchent entre les gisements révèlent les séquences d'événements. Le traçage de gisements individuels à travers le paysage permet aux géologues de déterminer la taille des événements passés et ainsi d'estimer les régions susceptibles d'être affectées par des événements similaires à l'avenir. Les géologues collectent des échantillons adaptés à la datation par diverses techniques de laboratoire. Ensemble, les informations sur les types d'événements (éruptions, glissements de terrain, coulées de débris), leurs magnitudes et leurs fréquences sont combinées pour donner une histoire pour un volcan. Des caractéristiques inattendues sont généralement rencontrées lors de la détermination de cette histoire volcanique, et des études détaillées de ces caractéristiques font progresser la compréhension des processus volcaniques généraux, permettant des stratégies de surveillance mieux conçues et des prévisions plus précises du comportement futur.
Les événements volcaniques sont probabilistes, c'est-à-dire que le temps entre les éruptions, les effondrements de flancs, les coulées de débris ou les inondations peut être plus court ou plus long que la moyenne, et les intervalles de temps peuvent être décrits par des distributions de probabilité (Nathenson, 2001). L'approche la plus simple consiste à diviser le nombre d'événements connus par le temps total englobé pour arriver à un intervalle de récurrence moyen, mais cette approche présente des inconvénients importants. Certains volcans sont connus pour subir un comportement épisodique, où plusieurs événements se produisent étroitement espacés dans le temps, puis aucun événement ne se produit pendant un intervalle de temps beaucoup plus long que la moyenne. Le regroupement d'événements est probablement typique de tous les volcans dans une certaine mesure, et sous-tend l'intuition qu'il est plus dangereux d'approcher un volcan qui est entré en éruption récemment que d'approcher un volcan qui n'est pas entré en éruption depuis longtemps. De plus, la probabilité d'un événement est couplée d'une certaine manière avec l'ampleur de l'événement, avec des éruptions plus petites, des coulées de débris, des glissements de terrain ou des inondations qui se produisent plus fréquemment que les plus grandes. Les données mondiales montrent que de longues périodes de calme précèdent généralement les éruptions les plus explosives et dangereuses. Par exemple, sur les 16 plus grandes éruptions explosives des XIXe et XXe siècles, 12 provenaient de volcans sans éruption historique connue auparavant (Simkin et Siebert, 1994). La cartographie géologique et les enquêtes sur le terrain associées, associées à la datation de l'âge, fournissent les informations nécessaires aux estimations de probabilité qui relient le style, l'ampleur et la fréquence des événements.

Risques volcaniques

Les risques liés aux dangers d'un volcan s'étendent généralement bien au-delà du sommet d'un volcan. Par exemple, les fonds de vallée jusqu'à 80 km au-delà du sommet du mont Rainier risquent d'être inondés par des coulées de boue générées loin sur ses flancs à l'intérieur du parc national du mont Rainier. Plus de 150 000 personnes vivent dans ces zones à risque d'inondation et les principales lignes de vie des transports les traversent (Driedger et Scott, 2002). Les coulées de lave du volcan Mauna Loa actuellement agité à Hawai'i peuvent atteindre la côte très développée de Kona en aussi peu que deux heures. Les dommages potentiels que ces dangers peuvent causer, en termes de pertes de vie et de perturbations pour la société et l'économie dont elle dépend, sont des considérations sérieuses pour les collectivités situées en aval.
Les nuages ​​de cendres en suspension dans l'air représentent un grave danger pour les aéronefs. Les moteurs d'avions à réaction sont tombés en panne après avoir traversé des nuages ​​​​dérivant de cendres même finement dispersées à un demi-continent des volcans qui les ont créés. De gros nuages ​​de fines particules de cendres volcaniques sont transportés par les vents sur des centaines à des milliers de kilomètres au-delà de leur source volcanique (Fig. 5). Les particules de cendres volcaniques sont des fragments anguleux et abrasifs de roches, de minéraux et de verre volcanique de la taille du sable et du limon et ont la dureté d'une lame de couteau de poche (Kenedi et al., 2000 Neal et al., 1997). Ces particules abrasent les aubes de turbine et les surfaces d'attaque des aéronefs, provoquent une défaillance de l'électronique, et fondent et fusionnent dans les moteurs, provoquant une perte de puissance catastrophique et complète.
Les cendres volcaniques sont extrêmement abrasives. La respiration prolongée de cendres provoque une irritation et une infection du nez, de la gorge et des yeux chez les humains et les animaux. Un essoufflement, des maux de gorge et une bronchite peuvent survenir (extrait de http://volcanoes.usgs.gov/ash/ citant Blong, 1984). Des couches de cendres de seulement quelques millimètres d'épaisseur retarderont la croissance des plantes et, si elles sont ingérées, peuvent rendre malades ou tuer les animaux, en particulier les bovins et autres ruminants domestiques et sauvages. Des chutes de cendres plus épaisses peuvent étouffer les personnes, les plantes et les animaux. Les chutes de cendres peuvent également endommager les moteurs à combustion interne, provoquer l'effondrement des toits et la défaillance des réseaux de communication et briser les lignes électriques. Des pierres suffisamment grosses pour blesser gravement ou tuer des personnes, des plantes et des animaux peuvent être éjectées jusqu'à quelques kilomètres d'un volcan explosif. Les vents ou même les véhicules qui passent peuvent remuer les cendres dans l'air (Kenedi et al., 2000).

Figure 5. Image des types d'aléas volcaniques. De Myers et Brantley (1995). Les périodes de troubles volcaniques, même celles qui ne conduisent pas à des éruptions, déclencheront probablement des interventions d'urgence pouvant entraîner des fermetures de zones et des évacuations de communautés. Les volcans agités défient les fonctionnaires parce que les troubles créent une incertitude quant à la durée de l'agitation, sa fin, sa gravité, qui en sera affecté et même si une éruption se produira. Toutes ces incertitudes ont un impact psychologique et économique majeur dans les zones autour d'un volcan. L'incertitude entraîne une demande intense d'informations précises et faisant autorité. Les autorités civiles ont besoin d'informations pour assurer la sécurité publique, les propriétaires d'entreprises utilisent les informations pour prendre des décisions commerciales et les médias d'information recherchent toutes les informations qu'ils peuvent obtenir à tout moment. Il n'est pas facile de satisfaire toutes ces demandes d'informations précises et à jour.

Niveaux de menace des volcans et surveillance des volcans

La menace volcanique est une combinaison de phénomènes naturels destructeurs qu'un volcan est capable de produire (risque volcanique) et les personnes, les biens et les infrastructures menacés par ces phénomènes (exposition). Faire correspondre le niveau de surveillance requis d'un volcan à son niveau de menace offre la plus grande sécurité pour la plupart des personnes et des infrastructures à risque, et il distribue le plus efficacement possible les fonds et le temps des scientifiques. Faire correspondre la surveillance requise au niveau de menace est devenu possible en 2005 lorsque l'USGS a quantifié le risque volcanique, l'exposition au risque et les niveaux de menace pour les 169 volcans géologiquement actifs aux États-Unis et dans ses territoires (Ewert et al., 2005).
Sur la base de son score de menace numérique, chaque volcan a été classé dans l'une des cinq catégories de menace : très élevée, élevée, modérée, faible et très faible. Cinquante-cinq des volcans du pays sont définis comme une menace très élevée ou élevée : cela représente près d'un tiers de tous les volcans américains potentiellement actifs. Étant donné que de nombreux volcans n'ont pas été étudiés ou sont incomplètement étudiés, les scores de menace augmenteront probablement à mesure que les études futures découvriront une activité ou des troubles éruptifs antérieurs inconnus, et à mesure que la population et les infrastructures à risque augmenteront.
Afin de fournir un avertissement adéquat, les volcans présentant des niveaux de menace élevés ou très élevés nécessitent une surveillance détaillée intense en temps réel 24 heures sur 24. Les signaux de leurs instruments de surveillance doivent être transmis en temps réel à un observatoire volcanique régional afin que les volcanologues puissent diagnostiquer rapidement la signification des changements les plus subtils. En règle générale, les volcans appartenant à ces deux catégories de menaces nécessiteront au moins 12 à 20 stations sismiques permanentes à moins de 20 km de l'évent volcanique principal, y compris plusieurs stations très proches des levés de déformation de routine de l'évent et enregistrant en continu le système de positionnement global permanent ( Les stations GPS) fréquentent les mesures aériennes et terrestres des gaz volcaniques et des instruments le long des vallées fluviales, sensibles aux sons uniques des coulées de boue qui passent, qui déclenchent des alarmes pour avertir les personnes en aval. Les volcans à menace modérée nécessiteront une surveillance en temps réel pour détecter les signaux pré-éruptifs faibles au fur et à mesure qu'ils se produisent. Une couverture typique nécessitera six stations sismiques à moins de 20 km d'un volcan, dont trois à quatre en hauteur sur son flanc, au moins six stations d'enregistrement en continu, des stations GPS permanentes à proximité, des mesures de gaz peu fréquentes selon le cas pour chaque volcan et des détecteurs de coulée de boue le long de la rivière vallées (Ewert et al., 2005).
Bien sûr, si les troubles devaient commencer ou s'intensifier, ou si les données de surveillance suggéraient qu'un volcan donné pourrait se diriger vers une éruption, la surveillance devrait être augmentée aussi rapidement que possible pour obtenir des données actuelles précises. En réponse à l'inquiétude croissante, une plus grande variété de phénomènes volcaniques devrait être surveillée. De nouveaux types d'instruments devraient être installés, les réseaux d'instruments existants devraient être augmentés en reconfigurant les instruments existants et en en ajoutant de nouveaux, et les réseaux de transmission de données devraient être renforcés, le tout pour permettre aux vulcanologues d'interpréter les troubles volcaniques et de prévoir les conséquences probables. autour de l'horloge.
Les volcans à faible menace et à très faible menace, en revanche, nécessitent un niveau de surveillance inférieur. Pour ces volcans, comme pour tous les volcans, des données de base sismiques, de déformation, de gaz et hydrologiques doivent être établies, après quoi les volcans à faible menace ne nécessitent qu'une surveillance suffisante pour détecter une activité anormale en temps quasi réel. Les volcans à très faible menace nécessiteraient encore moins de surveillance.
Parce que les ressources étaient insuffisantes pour instrumenter et surveiller tous les volcans potentiellement actifs à un niveau adéquat jusqu'à tout récemment, la surveillance des volcans par l'USGS a été effectuée de manière réactive, c'est-à-dire qu'une surveillance adéquate n'a pas été mise en place tant qu'une certaine forme de troubles n'a pas été observée à la surface de la Terre. . Par conséquent, les signaux précurseurs sont passés inaperçus et l'intervalle entre les premiers signes de troubles observés et une crise volcanique était souvent court.
Ainsi, les autorités civiles, les citoyens, les entreprises et les scientifiques ont été contraints de jouer un jeu dangereux de « rattrapage » avec les volcans. Les autorités ont fait des heures supplémentaires pour mettre en place des mesures de protection civile avant que les troubles ne dégénèrent à des niveaux dangereux, tandis que les volcanologues se sont efforcés d'augmenter l'instrumentation et d'installer des réseaux de communication améliorés, souvent à grands frais et dangereux pour eux-mêmes.
La détermination quantitative du niveau de menace spécifique pour chaque volcan américain permettrait à l'USGS de répartir les ressources afin que les volcans les plus menaçants puissent être surveillés 24 heures sur 24 bien avant qu'ils ne montrent des signes de troubles. Cette approche proactive de la surveillance, si elle était mise en œuvre, permettrait aux vulcanologues d'envoyer des informations fiables aux communautés à risque dès le début de l'agitation, leur donnant ainsi le maximum de temps pour activer les plans d'intervention et d'atténuation. La surveillance proactive par l'USGS donne aux vulcanologues le maximum de temps pour augmenter la surveillance si cela s'avérait nécessaire. Même si tous les volcans agités n'entrent pas en éruption, une surveillance proactive est toujours nécessaire pour minimiser soit la réaction excessive, qui coûte de l'argent, soit la sous-réaction, qui peut coûter des vies. Cependant, le principal obstacle à la mise en œuvre d'une surveillance proactive aux États-Unis et dans le monde est de trouver les ressources nécessaires pour payer les équipements et les scientifiques nécessaires.
La surveillance proactive offre de nombreux avantages pratiques par rapport à la surveillance réactive. Surveillance:
• Minimise le risque d'éruptions surprises.
• Augmente le temps de mise en œuvre des mesures de protection civile avant que les troubles ne s'intensifient et qu'une crise volcanique ne s'aggrave.
• Permet l'installation sûre d'instruments et de réseaux de communication sur des sites pré-planifiés de manière ordonnée. La plupart des volcans très menacés et très menacés aux États-Unis sont des sommets imposants recouverts de neige et de glaciers qui sont inaccessibles sauf pendant une courte saison estivale, alors que l'apparition de l'agitation volcanique peut se produire en toute saison. L'installation et la maintenance des équipements en été maximisent la probabilité que les sites préférés soient exempts de neige, assurent une sécurité maximale pour les volcanologues et le personnel de soutien, et donnent suffisamment de temps pour tester les instruments et les réseaux de communication.
• Augmente la sécurité des plus de 80 000 passagers aériens par jour qui voyagent sur les routes aériennes très fréquentées le long des arcs volcaniques des Cascades et des Aléoutiennes. Lorsqu'elle sera pleinement mise en œuvre, la surveillance proactive de ces volcans en arc permettra aux volcanologues d'informer la Federal Aviation Administration (FAA) dans les cinq minutes suivant une éruption explosive majeure, permettant aux avions de changer de cap rapidement pour éviter les nuages ​​de cendres.
• Améliore la précision et l'opportunité des futurs avertissements. Au cours des 25 dernières années, la compréhension des processus volcaniques de base s'est considérablement améliorée, en partie grâce aux données obtenues grâce à la surveillance à long terme des volcans. Les données de surveillance aident les volcanologues à formuler et à tester des modèles de fonctionnement des volcans. De meilleurs modèles, à leur tour, améliorent la surveillance des volcans, identifient les méthodes de surveillance les plus efficaces et suggèrent de nouvelles techniques de surveillance.
• Ajoute une crédibilité scientifique aux désignations par les gestionnaires des terres des zones sûres qui peuvent rester ouvertes aux visiteurs, dans certains cas même pendant qu'un volcan continue d'entrer en éruption. Après 18 ans de relative tranquillité, le mont St. Helens s'est réveillé fin 2004 lorsque des essaims de petits tremblements de terre ont été détectés par l'USGS, alertant les volcanologues de la présence de magma sous le volcan. Le service forestier américain a fermé tout accès à la montagne. Au cours de l'année suivante, une série de dômes de lave ont été extrudés épisodiquement dans le cratère du volcan, accompagnés d'explosions et de chutes de pierres (Schilling et al., 2006). Cependant, à la mi-2006, la surveillance de l'USGS a indiqué un ralentissement de la croissance du dôme, une baisse des taux d'émission de gaz volcanique et la fin des explosions explosives dont les effets s'étendent au-delà du cratère. Bien que le dôme actuel ait continué de croître au rythme d'environ une charge de camion à benne basculante par minute, ce qui a rendu le cratère hors limites pendant un certain temps, les volcanologues de l'USGS ont pu fournir des conseils aux responsables du US Forest Service, leur permettant de rouvrir les sentiers vers le sommet à la mi-2006. Un système Web permettant d'obtenir des permis d'escalade aide à assurer la sécurité des visiteurs et permet une notification rapide en cas de changement d'activité volcanique (U.S. Forest Service, [2007–]).

Les volcans agités et en éruption créent des défis de gestion

Les volcans agités et en éruption créent des problèmes à court et à long terme pour les gestionnaires des terres et les autorités civiles. Décider de la meilleure façon de protéger la sécurité humaine tout en maintenant l'accès et en poursuivant la vie quotidienne, même si l'agitation persiste, pose les défis les plus à court terme. Décider où reconstruire les installations endommagées et détruites et comment gérer les ressources naturelles détruites et endommagées crée des défis à plus long terme. Quelques exemples réels de problèmes et de réponses aux troubles volcaniques illustrent les défis auxquels les gestionnaires des terres et les autorités civiles sont potentiellement confrontés. (Pour plus d'exemples et plus de détails, voir le compte rendu quotidien des événements et des réactions précédant l'éruption cataclysmique du volcan du mont St. Helens le 18 mai 1980 à Klimasauskas, 2001.)

Volcans agités et en éruption :
Attirer des spectateurs naïfs inconscients des dangers des volcans, mais néanmoins désireux de voir l'activité de près. Le 1er avril 1980, six semaines avant l'éruption cataclysmique du mont St. Helens agité, deux comtés proches du volcan ont demandé de l'aide à la Garde nationale de leur État. Les comtés avaient maintenu six barrages routiers 24 heures sur 24 pendant seulement quatre jours avant de se rendre compte qu'ils étaient incapables d'empêcher les gens d'entrer dans les zones de danger officiellement désignées. Un porte-parole de la FAA a estimé que jusqu'à 100 avions se trouvaient dans la zone de vol contrôlé autour du volcan le même jour. De nombreux avions ont intentionnellement maintenu le silence radio pour échapper vraisemblablement à la détection (Klimasauskas, 2001). Une étude sur des randonneurs en pleine nature dans le parc national des volcans d'Hawai'i qui ont ignoré les principaux panneaux d'avertissement du National Park Service (NPS) et tenté d'atteindre des coulées de lave actives a révélé que 77% souffraient de déshydratation, plus de la moitié sont revenus avec des éraflures et des écorchures, et 6% souffrait de fractures. « De nombreux randonneurs étaient des touristes inexpérimentés prêts à ignorer les panneaux d'avertissement et à pénétrer dans des zones à haut risque » (Heggie et Heggie, 2004). Plusieurs randonneurs sont même décédés (Johnson et al., 2000). Takahashi et al. (2003, photos 44, 45 et 55) montrent la rencontre spectaculaire de la lave en fusion avec l'océan qui pousse les visiteurs du parc à ignorer les avertissements.
Exiger la désignation de zones d'accès restreint et d'exclusion totale, ce qui nécessite à son tour l'affichage de panneaux, la diffusion des restrictions au public et l'augmentation du personnel chargé de l'application de la loi pour garantir que le public est à l'abri du danger. Les limites des zones fermées doivent être ajustées au fur et à mesure que les troubles volcaniques augmentent et diminuent, parfois pour des raisons autres que la sécurité publique. Le 8 avril 1980, à Mount St. Helens, « les autorités ont déplacé le barrage routier de la State Route 503 de Jack's Store vers le canal Swift à l'est de Cougar après que des commerçants locaux eurent menacé de les poursuivre en justice pour perte d'activité » (Klimasauskas, 2001). Cette action a rapproché la limite de la zone réglementée du volcan. Le 10 avril 1980, le coût déclaré du maintien des barrages routiers à proximité du mont St. Helens était de 9 000 $ par jour. Pour économiser de l'argent, le US Forest Service a fermé son centre de presse et a cloué au sol ses deux avions d'observation. Le 15 avril 1980, un comté a fermé certains de ses barrages routiers en invoquant « les dépenses, le harcèlement public et le schéma stable des explosions du volcan » (Klimasauskas, 2001). L'éruption cataclysmique du mont St. Helens s'est produite 34 jours plus tard. Ces types de problèmes peuvent être atténués. Par exemple, une étroite collaboration entre les scientifiques de l'USGS qui surveillent les volcans hawaïens et le personnel du parc national des volcans d'Hawai'i permet au NPS de publier des informations régulièrement mises à jour sur les zones sûres et dangereuses sur le site Web du parc (http://www. nps.gov/ havo/zones_fermées.htm).
Affecte les plantes, les animaux (même les insectes) et les humains. Dans les cas extrêmes, les cendres volcaniques augmentent la morbidité et la mortalité des plantes et des animaux à court terme. La lave, les cendres et autres matériaux éruptifs sont stériles lorsqu'ils sont déposés pour la première fois. Ce n'est qu'après altération qu'ils deviennent les sols volcaniques riches et productifs généralement associés aux volcans. À court terme, les cendres volcaniques ont un effet délétère sur les plantes et les animaux. Par exemple, les pins poussant sur des cendres volcaniques récemment déposées poussent plus lentement et sont plus courts que les mêmes espèces poussant sur des sols voisins non affectés (Ishii et al., 2003). Les cendres peuvent également obstruer les cours d'eau et augmenter leur acidité à des niveaux mortels pour les poissons et les plantes aquatiques. Le 2 avril 1980, « les exploitants d'une écloserie à quelque 5 milles du mont St. Helens ont signalé une diminution du pH de 6,8 à 5,8 causée par le lessivage des cours d'eau de cendres volcaniques en amont. À un pH de 5,0, le poisson mourrait, alors les responsables de l'écloserie ont décidé de relâcher le saumon lorsque le pH est tombé à 5,5” (Klimasauskas, 2001). Les ruminants sont vulnérables à l'empoisonnement chimique lorsqu'ils paissent dans des zones où des cendres volcaniques sont tombées et à la famine dans les zones couvertes de vastes dépôts de cendres (Blong, 1984). Même les insectes sont affectés par les chutes de cendres, le nombre de certaines espèces est considérablement réduit tandis que d'autres, libérées des insectes prédateurs, deviennent des ravageurs (Fuentes, 1975). Voir aussi Brosnan (2000) pour l'effet d'un volcan sur la vie végétale.
Créer un stress sur les agences de gestion des terres et d'application de la loi et leur personnel pour répondre aux demandes d'informations du public. Les informations demandées ne sont pas nécessairement pertinentes à la situation d'urgence, et les contacts de citoyens en colère sont fréquents. Le 31 mars 1980, des journaux locaux ont rapporté que les appels aux bureaux du US Forest Service au sujet de l'agitation du mont St. Helens comprenaient des appels de « citoyens frustrés qui ne pouvaient pas accéder à leurs cabanes dans des zones fermées alors que les membres de la presse avaient été autorisés à entrer… » à « » les joueurs demandant le nombre d'explosions au cours des 24 heures précédentes, à ceux qui imputent l'agitation du volcan à la profanation des tombes indiennes dans la région » (Klimasauskas, 2001).
Exiger des décisions sous pression sur le moment de déménager ou de fermer des installations et des entreprises, de déplacer des équipements portables de valeur et de déplacer des personnes travaillant et vivant dans des zones nouvellement restreintes. Les délocalisations et les fermetures, ou simplement leur possibilité incertaine, peuvent entraîner des changements importants dans le fonctionnement des entreprises et des agences gouvernementales. Ces changements affectent généralement l'activité économique locale, ce qui génère des pressions pour éviter les pertes économiques en retardant des décisions ou en annulant des décisions déjà prises.

Conclusion

Une variété de signaux précurseurs sont générés par les nombreux processus qui se produisent lorsque la roche en fusion (magma) se fraie un chemin à travers des kilomètres de la croûte terrestre avant l'éruption à la surface. Beaucoup de ces signaux sont extrêmement subtils et complexes et nécessitent par conséquent des réseaux coûteux d'instruments sensibles à détecter et des scientifiques ayant des années d'expérience à interpréter. Les sections du reste de ce chapitre décrivent les différentes techniques principales utilisées par l'USGS pour détecter, quantifier et interpréter chaque type de signal. D'une manière ou d'une autre, chaque technique suit les types, les magnitudes et les emplacements des soulèvements et des affaissements sismiques de la surface du sol ou des changements de chaleur, d'eau et de gaz émis par les volcans. Étant donné que les techniques mesurent différents processus qui se produisent pendant l'ascension du magma, une surveillance efficace nécessite l'application simultanée de nombreuses techniques pour évaluer les développements en temps quasi réel d'un volcan.
Tout comme les médecins surveillent les risques potentiels pour la santé des patients en étudiant leurs antécédents médicaux et en interprétant les résultats des tests de laboratoire au fil du temps, les vulcanologues apprennent également la possibilité et l'ampleur d'une future activité volcanique en étudiant l'activité historique d'un volcan et en mesurant et en évaluant les signaux qu'il génère depuis de nombreuses années. Les médecins et les vulcanologues savent tous deux qu'une surveillance de routine au fil du temps est le meilleur moyen de détecter tôt les problèmes potentiels futurs, lorsqu'ils sont le plus facilement traités. Alors que les patients peuvent se rendre dans les laboratoires pour des tests, les vulcanologues ne peuvent évaluer l'état des volcans sur le terrain qu'en plaçant des instruments de surveillance sur eux et à proximité. Idéalement, des réseaux complets d'instruments de surveillance sont mis en place alors que les volcans potentiellement actifs sont encore calmes. En manquant les premiers signaux d'agitation, les volcanologues risquent de perdre les premières données critiques nécessaires pour établir des tendances « de base » et estimer avec précision la taille d'une éruption possible. Par exemple, lorsque le mont St. Helens s'est réveillé en 2004, des instruments de surveillance supplémentaires n'ont pas pu être installés assez rapidement pour capter les signaux initiaux du volcan. Cela a empêché une détermination sûre du volume de magma pénétré sous le volcan (Ewert et al., 2005), ce qui à son tour a ajouté une erreur significative aux estimations de la taille des éruptions potentielles.
Pour des mises à jour sur l'activité des volcans américains au cours des sept derniers jours, voir http://volcanoes.usgs.gov/vhpfeed.php.

FACTEURS DE STRESS/CHANGEMENT POSSIBLE

Les méthodes de surveillance des volcans sont conçues pour détecter et mesurer les signaux causés par le mouvement du magma sous un volcan. La montée du magma va généralement (1) déclencher des essaims de tremblements de terre et d'autres types d'événements sismiques (2) provoquer une déformation (gonflement ou affaissement) du sommet ou des flancs d'un volcan et (3) conduire à la libération de gaz volcaniques du sol et des évents. En surveillant les changements d'état d'un volcan, les scientifiques sont parfois capables d'anticiper une éruption de plusieurs jours à plusieurs semaines à l'avance et de détecter à distance l'occurrence de certains événements connexes comme les éruptions explosives et les lahars (Guffanti et al., 2001). (Voir le tableau 1 pour un résumé des signes vitaux du volcan et des méthodes de surveillance.)

DESCRIPTIONS DE LA SURVEILLANCE DES SIGNES VITAUX

Signe vital 1. Activité sismique

introduction
Le mouvement du magma et des fluides associés dans les volcans se produit souvent avec une activité sismique concomitante et mesurable (sismicité). Aux volcans agités, l'évolution de l'activité sismique précède généralement, mais pas toujours, les éruptions. Les perturbations sismiques les plus courantes sont les tremblements de terre en réponse aux changements de stress causés par le mouvement du magma sous un volcan.
Lorsque le magma pénètre rapidement dans la roche environnante, la roche se brise brusquement, provoquant un séisme dont le signal est similaire à celui d'un séisme le long d'une faille tectonique (Fig. 6A). Ce type de séisme est appelé séisme volcano-tectonique (VT). Les signatures des séismes VT sont caractérisées par des débuts d'onde clairs et souvent impulsifs ou abrupts et contiennent de l'énergie sur une large gamme de fréquences sismiques.
Un deuxième type de tremblement de terre associé aux zones volcaniques est le résultat direct du magma ou d'autres fluides circulant dans des conduits dans des zones volcaniques ou hydrothermales actives (Fig. 6B). Les variations de pression dans le magma en écoulement ou les fluides hydrothermaux forcent les fissures à travers lesquelles ces fluides se déplacent à vibrer. Par rapport aux séismes VT, ces séismes apparaissent avec une fréquence d'oscillation dominante et inférieure et sont appelés séismes de longue période (LP) (par exemple, Lahr et al., 1994 Harlow et al., 1996).
En plus des tremblements de terre volcaniques, des oscillations du sol continues ou soutenues sont souvent observées sur des volcans agités. Ceci est appelé tremblement volcanique et est étroitement lié aux tremblements de terre LP. Le tremblement peut être considéré comme une vibration de fissure soutenue entraînée par le magma en mouvement (Fig. 6B et des parties de 6C). Les explosions à l'évent d'un volcan ou à faible profondeur sous l'évent créent le quatrième type de séismes volcaniques courants. Assez naturellement, ceux-ci sont appelés tremblements de terre d'explosion. La figure 6D montre un enregistrement d'un petit événement explosif au mont Pinatubo qui n'a duré que quelques minutes. Cependant, les séquences de tremblements de terre d'explosion peuvent durer des heures comme lors de l'éruption cataclysmique du mont St. Helens en 1980. Les tremblements de terre d'explosion sont généralement accompagnés d'une éjection forcée de vapeur, de gaz volcaniques, de cendres et de fragments de lave dans diverses proportions.
Pour plus d'informations sur les méthodes de surveillance sismique, voir Braile (ce volume).

Niveau 3, Méthode 1 : Surveillance sismique
Les éruptions volcaniques sont presque toujours précédées d'une sismicité croissante, et les indicateurs les plus fiables d'une éruption imminente sont les tremblements de terre peu profonds et les tremblements (par exemple, Chouet, 1996). En règle générale, les troubles volcaniques commencent profondément sous un volcan et progressent vers des profondeurs moins profondes à mesure que le temps de l'éruption approche. L'objet de la surveillance sismique sur les volcans est d'enregistrer et de surveiller les tremblements de terre et les secousses qui accompagnent les volcans
troubles. Les réseaux sismographiques enregistrent les signaux émis par les sources sismiques volcaniques, puis les spécialistes analysent et interprètent ces signaux et leurs schémas.
Les sismologues utilisent les données sismiques d'un réseau de sismomètres pour localiser l'hypocentre d'un tremblement de terre (le point directement sous la surface de la Terre où commence la rupture d'une faille) et son épicentre (le point de la surface de la Terre directement au-dessus de l'hypocentre). La sismicité peut être détectée à de plus grandes distances et à partir de sources plus profondes que d'autres signes de troubles volcaniques. Par conséquent, la surveillance sismique fournit généralement les premiers signaux de troubles volcaniques. L'évolution des modèles d'hypocentres et d'épicentres aide les scientifiques à déduire si le magma se déplace verticalement ou latéralement. Le catalogage des événements en tant que VT ou LP permet de distinguer les origines des failles tectoniques et des tremblements de terre de magma en mouvement.

Réseaux sismographiques
Des réseaux efficaces de surveillance des volcans s'étendent du centre volcanique ou de l'évent actif vers l'extérieur jusqu'à des distances de 20 km. Pour déterminer avec précision des profondeurs de source particulièrement faibles, plusieurs stations de surveillance sismique du réseau doivent se trouver à quelques kilomètres de l'évent. Pour localiser avec précision les épicentres et les hypocentres, les stations doivent être réparties uniformément autour d'un volcan à différentes distances de l'évent. Les meilleures pratiques nécessitent 10 à 20 stations sismographiques autour de chaque volcan potentiellement dangereux aux États-Unis.
Chaque station de surveillance d'un réseau est équipée d'un sismomètre, d'une électronique pour amplifier et convertir les signaux de transmission, de composants de télémétrie, de batteries et de panneaux solaires pour alimenter la station. Le sismomètre est enterré à 1 ou 2 m sous la surface du sol. L'électronique et les composants de puissance de la station sont installés dans de petits boîtiers hors sol. L'antenne de transmission et le panneau solaire, s'ils ne sont pas installés au sommet du boîtier de la station, sont installés sur un mât court. Les stations sont conçues pour minimiser l'impact de l'installation et de l'exploitation de la station dans les régions éloignées ou sauvages.

Figure 6. Exemples de signatures d'événements sismiques observés au mont Pinatubo aux Philippines, tels qu'interprétés et reproduits à partir de la figure 3 de Harlow et al. (1996). (A) Séisme de longue période (LP) et séisme volcano-tectonique (VT). (B) Tremor consistant en des séismes LP rapprochés. (D) Signal d'éruption explosive. La séquence temporelle sur chaque enregistrement sismographique va du haut à gauche au bas à droite des graduations régulièrement espacées le long de chaque trace à des intervalles d'une minute.

Le sismomètre enregistre les mouvements du sol et convertit les mouvements en signaux électriques. Les signaux convertis sont télémesurés sous forme analogique ou numérique vers un observatoire volcanique voisin. En général, les stations analogiques coûtent moins cher à acheter et à installer, consomment moins d'énergie et transmettent leurs signaux sur de plus longues distances que les stations numériques. Les stations numériques fournissent des données de meilleure qualité et donc des enregistrements plus précis des secousses sismiques. Une fois installées, elles sont plus simples à entretenir que les stations analogiques. De nombreux réseaux sismographiques utilisent des combinaisons de stations analogiques et numériques. Une station analogique coûte de 7 000 $ à 10 000 $, tandis qu'une station numérique coûte 15 000 $ à 20 000 $ (tous les montants ici sont en $ US). À l'avenir, il est probable que les avantages en termes de performances des stations numériques deviendront plus importants que les différences de coûts. Par conséquent, la proportion de stations sismiques numériques dans les réseaux de surveillance des volcans augmentera probablement.

Traitement des données sismiques
Les données télémétriques des stations sur le terrain à un observatoire volcanique sont collectées sur des systèmes informatiques personnalisés qui permettent une analyse en temps réel et en temps quasi réel des flux de données sismiques et l'affichage en temps quasi réel des produits d'analyse sismique. Les produits d'analyse importants comprennent les emplacements des épicentres et des hypocentres, les magnitudes des tremblements de terre et l'amplitude sismique continue et les affichages spectraux. L'analyse et l'affichage des données en temps réel facilitent grandement la prévision des éruptions à court terme et l'évaluation évolutive des dangers.Les membres du personnel de l'Observatoire examinent de manière interactive les produits d'analyse pour vérifier les résultats et entrer des informations supplémentaires qui décrivent plus complètement les événements. Un système informatique doté de ces capacités se compose de plusieurs postes de travail et coûte plusieurs dizaines de milliers de dollars. Les ordinateurs stockent et archivent également les données. Des progiciels pour l'acquisition et l'analyse de données sismiques sont disponibles dans le commerce. Alternativement, des progiciels similaires ont été développés, sont maintenus et mis à disposition par l'U.S. Geological Survey.

Discussion
Alors qu'une sismicité accrue précède généralement les éruptions volcaniques, le temps écoulé entre les premiers tremblements de terre et une éruption varie considérablement. Un nombre croissant de séismes volcano-tectoniques peut se produire des mois voire des années avant une éruption. Cependant, tous les volcans de plus en plus agités n'entrent pas en éruption, l'activité sismique peut croître et décroître sans éruption pendant de longues périodes.
Les processus volcaniques sont complexes et variables, et produisent donc plusieurs types, modèles et nombres de tremblements de terre (par exemple, Chouet, 2003). L'absence des premiers signaux sismiques cruciaux d'un volcan entrave la capacité des scientifiques à prévoir avec précision les événements. La protection des personnes et des biens nécessite l'installation de réseaux de surveillance sismique sur les volcans potentiellement dangereux pour mesurer la sismicité de base et surveiller les augmentations suggestives de la sismicité, bien avant le début des troubles ou avant que des signes évidents de troubles importants ne soient remarqués à la surface de la Terre.
La surveillance sismique de base des signaux sismiques des tremblements de terre à proximité d'un volcan ainsi que de l'autre côté du globe lorsqu'ils traversent un volcan permet aux scientifiques de détecter les débuts de troubles et de déterminer les emplacements des failles et les accumulations possibles de magma. Les scientifiques des volcans utilisent ces connaissances pour améliorer leur évaluation de la probabilité d'éruption d'un volcan, du volume de magma en éruption et de l'emplacement des zones dangereuses.

Signe vital 2. Déformation du sol

introduction
Lorsque le magma se déplace sous un volcan, il se crée de l'espace en déplaçant la surface de la Terre. Quantifier les caractéristiques de cette déformation dans l'espace et dans le temps peut donner des informations importantes sur la profondeur, le changement de volume et la géométrie des réservoirs de magma sous le sol. Par exemple, lorsque le magma s'accumule sous un volcan, peut-être en prélude à une éruption, la surface sus-jacente gonflera comme un ballon. De même, après l'éruption du magma, ou lorsque le magma s'écoule vers des niveaux plus profonds ou se déplace latéralement sous le sol vers d'autres endroits, la surface se dégonfle en réponse à cette suppression du volume. Une explication plus détaillée est disponible sur http://hvo.wr.usgs.gov/howwork/subsidence/inflate_deflate.html. Les déplacements de la surface de la Terre peuvent être mesurés par diverses méthodes, y compris les technologies terrestres et spatiales. Chaque méthode présente des avantages et des inconvénients. Par conséquent, la surveillance de la déformation ne doit pas reposer sur une seule technique, mais doit plutôt intégrer autant de méthodes que possible. L'utilisation simultanée de plusieurs méthodes différentes offre les meilleures chances de reconnaître les déplacements de surface d'un volcan et de fournir des informations sur la probabilité et le moment d'une éruption.

Figure 7. Les repères sont cimentés dans le sol et fournissent des points connus qui peuvent être arpentés année après année. (A) repère de disque en laiton typique,

10cm de diamètre. La croix au centre du triangle est le point central de la marque et sert de point de référence pour les études de déformation.

(B) Parfois, des épingles moins visibles, seulement

2 cm de diamètre et avec poinçon central en haut, servent de repères. Ceux-ci sont plus difficiles à voir et moins susceptibles d'être volés.

Technologies de pointe
Bien que plusieurs méthodes classiques de surveillance de la déformation des volcans aient été remplacées par des méthodes plus récentes en raison des progrès technologiques, ces anciennes méthodes de surveillance peuvent toujours être utiles sur certains volcans. Ces méthodes classiques incluent la mesure de distance électronique (EDM) et la triangulation. Les deux méthodes nécessitent des points au sol localisés avec précision comme références pour les mesures. Appelés repères, ces points sont fréquents, notamment au sommet des collines et des sommets montagneux. Les repères sont généralement des disques en laiton ou en aluminium (Fig. 7A) avec des marques de centrage (souvent une croix ou une fossette), mais peuvent aussi être des épingles moins évidentes (Fig. 7B) ou des formes ciselées dans la roche. Il est important que ces marques ne soient pas perturbées, car elles sont utilisées pour des relevés répétés au fil du temps. Si les marques sont détruites ou déplacées, elles ne peuvent pas être réoccupées et les capacités de surveillance de la déformation du volcan sont diminuées.

Niveau 3, Méthode 1 : Mesure de distance électronique (EDM)
L'EDM mesure la distance entre deux points en plaçant un laser sur un repère en un point, en le pointant vers un réseau de réflecteurs sur un repère en un deuxième point (peut-être jusqu'à des dizaines de kilomètres), en mesurant le temps de trajet d'une impulsion laser entre les deux repères, puis en convertissant le temps en distance. Les distances mesurées sont précises à quelques centimètres près. L'EDM nécessite au moins deux personnes, une au laser et une au site du réflecteur. Étant donné que les variations des conditions atmosphériques sont la principale source d'erreur dans l'EDM, les mesures de température et de pression atmosphérique aux deux extrémités et le long de la trajectoire du laser via l'avion sont recommandées. Des mesures répétées entre une paire de sites montrent comment la distance change au fil du temps. Le site Web http://volcanoes.usgs.gov/activity/methods/deformation/index.php fournit une explication plus détaillée sous l'onglet EDM.
Les réseaux de mesures de longueur de ligne EDM étaient à la pointe de la technologie pour déterminer la déformation des volcans dans les années 1960-1980. Parce que l'EDM est maintenant obsolète, l'équipement EDM est difficile à acheter. Les instruments peuvent coûter 20 000 $ à 30 000 $, selon le modèle. Les réflecteurs coûtent plus de 100 $ chacun.

Niveau 3, Méthode 2 : Triangulation
La triangulation utilise des instruments d'arpentage précis pour mesurer les angles horizontaux d'un triangle dont les sommets sont des repères pouvant être distants de plusieurs dizaines de kilomètres les uns des autres. Les changements dans les angles au fil du temps sont utilisés pour déterminer la déformation horizontale de la surface de la Terre. Des mesures d'angle vertical, par exemple, de la base d'une colline ou d'une montagne à son sommet, peuvent également être prises pour déterminer les changements d'élévation au fil du temps. La triangulation nécessite un investissement de temps important pour relativement peu de données (des mesures répétées de chacun des sommets du triangle sont nécessaires). L'instrument utilisé pour collecter les mesures d'angle est un théodolite, qui peut coûter jusqu'à 20 000 $.
Bien que l'EDM et la triangulation aient été autrefois des méthodes importantes de surveillance de la déformation, le système de positionnement global (GPS) les a largement remplacés. Le GPS fournit de meilleures données que la plupart des méthodes classiques de surveillance de la déformation tout en nécessitant moins de temps et de personnel (bien qu'une formation plus spécialisée et des routines informatiques avancées soient nécessaires). Pourtant, tous les réseaux de surveillance des volcans aux États-Unis ont été créés à l'origine à l'aide de l'EDM. En comparant les relevés EDM passés avec les mesures récentes utilisant le GPS, il est possible de déterminer les changements de longueur de ligne ou d'angle depuis le moment de la mesure précédente, ce qui peut être très utile pour déterminer la déformation à long terme d'un volcan donné. Cette pratique continue également la série chronologique des données de déformation, permettant une reconnaissance plus facile des signaux anormaux. Par exemple, un réseau EDM a été établi à Lassen Peak dans le parc national volcanique de Lassen en 1981. Les résultats InSAR analysés en 2004 suggèrent que le volcan s'affaisse.

1,5 cm par an. Pour obtenir des mesures au sol indépendantes, le réseau EDM a été réoccupé par le GPS la même année. Les résultats ont confirmé l'affaissement et suggéré que la déformation se produit depuis au moins les années 1980.
Les mesures d'EDM et de triangulation nécessitent des lignes de visée claires entre la station de l'instrument et les emplacements cibles. Ainsi, les repères d'EDM et de triangulation ont tendance à se situer au sommet des collines ou des montagnes, qui sont souvent difficiles et coûteuses d'accès. Dans ces cas, il est sage d'abandonner ces sites et d'établir de nouvelles stations GPS à des endroits plus accessibles. Cela réduira le besoin d'accès par hélicoptère, diminuant à la fois les dépenses et le caractère intrusif de la surveillance de la déformation.

Niveau 3, Méthode 3 : Nivellement
Une autre technique d'arpentage classique est le nivellement, une méthode qui mesure les élévations verticales des repères. Contrairement à l'EDM et à la triangulation, cependant, le nivellement est encore régulièrement utilisé aujourd'hui. Des levés de nivellement répétés le long d'une série de repères peuvent déterminer les changements d'altitude au fil du temps avec une précision inférieure au millimètre. Aucune autre méthode, à l'exception peut-être du GPS continu, n'est aussi sensible à la déformation verticale.
Le nivellement est effectué à l'aide d'une paire de tiges graduées avec précision en invar (un métal à faible coefficient de dilatation thermique), généralement de 2 à 3 m de haut, et d'un « pistolet » de nivellement (un viseur conçu pour prendre des lectures sur les tiges). Le pistolet est positionné entre les deux tiges et équilibré avec précision, et les graduations sur chaque tige sont lues en regardant à travers le viseur du pistolet (Fig. 8). La différence entre les lectures des tiges détermine la différence d'élévation entre les deux tiges. Une fois la lecture terminée et enregistrée, une tige dépasse l'autre, le pistolet est repositionné et la mesure est répétée. En poursuivant ces mesures le long d'un transect entre repères, il est possible de déterminer les élévations relatives d'un réseau de repères. Au fil du temps, des relevés de nivellement répétés montrent comment les élévations de référence changent, peut-être en raison de l'activité magmatique sous la surface.

Figure 8. Equipe de nivellement travaillant dans le parc national des volcans d'Hawai'i. Les relevés de nivellement nécessitent quatre à six personnes : une personne pour actionner le pistolet de nivellement, deux personnes pour tenir les tiges et une à trois personnes pour soutenir le relevé en trouvant des points de repère, en collectant des lectures de température, en enregistrant des mesures et en dirigeant la circulation (la plupart des lignes de nivellement sont situés le long des routes). Une équipe de nivellement expérimentée peut généralement lever 5 à 7 km par jour, selon la topographie et la précision souhaitée. L'équipement de nivellement peut nécessiter une lecture et un enregistrement par l'opérateur du pistolet et un assistant, ou peut être enregistré numériquement. Dans ce dernier cas, les tiges de nivellement portent des codes-barres au lieu de graduations numériques. Le pistolet lit le code-barres et détermine la différence d'élévation entre les emplacements des tiges, en enregistrant la mesure sur une carte mémoire.
Un pistolet de mise à niveau coûte environ 3 000 $. Les tiges de mise à niveau coûtent environ 1 000 $ chacune pour un modèle numérique (code à barres) ou optique (gradué). L'équipement auxiliaire, y compris les sondes de température, les trépieds et les panneaux de signalisation, pourrait coûter jusqu'à 1 000 $. Étant donné que l'échelle à tige doit être aussi précise que possible, un réétalonnage est recommandé tous les 2 à 4 ans (en fonction de la précision et de la fréquence d'utilisation souhaitées). L'étalonnage des tiges ne peut être effectué que par un laboratoire universitaire du Québec et coûte environ 1 000 $.
Le nivellement est encore utilisé sur de nombreux volcans dans le monde. Par exemple, dans le parc national des volcans d'Hawai'i, les relevés de nivellement annuels sont une méthode de surveillance importante et informative car leur grande précision a montré des changements dans l'ampleur et la direction de la déformation verticale du volcan Kīlauea. Depuis le début de l'éruption du Pu'u'Ō'ō en 1983 jusqu'en 2003, le sommet du volcan s'est affaissé jusqu'à 1,5 m. Cependant, le schéma de déplacement s'est transformé en soulèvement à la fin de 2003, indiquant peut-être une augmentation de l'apport de magma au volcan qui pourrait être un précurseur de futurs changements dans l'activité éruptive. En fait, le soulèvement s'est poursuivi jusqu'en 2007, lorsque de nouveaux évents éruptifs ont éclaté sur la zone du rift est, entraînant un changement majeur dans le style éruptif du volcan Kīlauea. Les relevés de nivellement ont également aidé
caractérisent les troubles volcaniques dans le parc national de Yellowstone, où des changements similaires du soulèvement à l'affaissement, que l'on pense être liés à la circulation souterraine des fluides hydrothermaux, ont été observés sur de courtes périodes (1 à 2 ans).
Les applications les plus utiles du nivellement sont sur des volcans relativement plats qui sont bien couverts par les routes. En raison du grand engagement de temps et de personnel requis par le procédé, le nivellement sur une topographie extrême ou un terrain accidenté, qui nécessite une quantité excessive de temps, ne justifie généralement pas le coût. Pour cette raison, le nivellement est un excellent outil pour surveiller les volcans comme la caldeira de Yellowstone, mais pas optimal pour une utilisation dans les stratovolcans (volcans coniques escarpés construits par l'éruption de coulées de lave visqueuses, de tephra et de coulées pyroclastiques) comme le mont Rainier.

Niveau 3, Méthode 4 : Inclinaison
L'inclinaison du sol est utilisée pour surveiller la déformation des volcans depuis près de 100 ans. Thomas A. Jaggar, fondateur de l'Observatoire du volcan hawaïen, a utilisé pour la première fois l'inclinaison pour surveiller l'activité volcanique à Kīlauea, Hawai'i, en 1912. Depuis lors, l'instrumentation et les techniques de mesure de l'inclinaison ont évolué au fil de plusieurs itérations. La méthode la plus économique et la plus moderne utilise des inclinomètres installés dans des trous de forage peu profonds.
Un inclinomètre de forage est analogue à un niveau de charpentier. L'instrument est un cylindre de 0,6 à 1 m de long (Fig. 9) et rempli d'un fluide électrolytique contenant une bulle. Les électrodes détectent le mouvement de la bulle lorsque l'instrument s'incline. En plaçant l'inclinomètre dans un forage rempli de sable dans le substratum rocheux,

2 m de profondeur (qui couple efficacement l'instrument à la Terre), l'inclinaison de la surface du sol peut être mesurée. À l'aide d'un réseau d'inclinomètres, les sources d'inflation ou de déflation des volcans actifs peuvent être identifiées. Plus d'informations et des exemples sont disponibles sur http://volcanoes.usgs.gov/activity/methods/deformation/index.php dans l'onglet d'inclinaison.

Figure 9. Installation de l'inclinomètre de forage dans le parc national des volcans d'Hawai'i. L'instrument est abaissé par son câble dans un trou tubé. Les panneaux solaires, le mât de télémétrie et le boîtier électronique ont été installés à droite. Les données d'inclinaison peuvent être stockées sur le site de l'instrument dans un enregistreur de données et téléchargées périodiquement, mais il est bien plus pratique de télémesurer les données, idéalement en temps réel, vers un observatoire volcanique. Le traitement et l'interprétation des données d'inclinaison sont triviaux, car les tensions émises par l'instrument se traduisent directement en amplitude et en direction de l'inclinaison du sol via un simple facteur d'étalonnage. La simplicité des données et du traitement rend les inclinomètres attrayants en tant qu'instruments de surveillance, mais notez que les inclinomètres n'enregistrent pas les déplacements, seulement l'inclinaison. De plus, les instruments sont assez sensibles aux changements environnementaux, y compris les fluctuations de température entre le jour et la nuit, les changements de pression atmosphérique et les précipitations. Ainsi, les sites d'inclinomètres devraient être équipés de pluviomètres, de thermomètres et de baromètres afin que les données brutes d'inclinaison puissent être interprétées en fonction des facteurs environnementaux.
Un inclinomètre coûte environ 8 000 $, mais beaucoup d'équipements supplémentaires sont nécessaires pour faire fonctionner une station d'inclinomètre à télémesure. Un enregistreur de données et des radios (qui peuvent télémesurer à la fois l'inclinaison et les données environnementales) pour le site et une station de réception ont coûté 6 000 supplémentaires, et une perceuse portable (des centaines à quelques milliers de dollars) est nécessaire pour faire le trou de forage. Des piles et des panneaux solaires, au coût de 1 000 $, sont nécessaires pour maintenir l'instrument opérationnel, et les capteurs environnementaux (thermomètre, baromètre et pluviomètre) peuvent coûter quelques centaines de dollars.
Le meilleur exemple d'inclinaison en tant que méthode de surveillance des volcans est fourni par l'Observatoire des volcans hawaïens. Dans le parc national des volcans d'Hawai'i, près de 20 inclinomètres de forage surveillent les volcans Kīlauea et Mauna Loa. Chaque instrument prend une lecture une fois par minute, qui est immédiatement télémétrique à l'observatoire du volcan hawaïen. Ces mesures d'inclinaison en temps quasi réel fournissent régulièrement des avertissements à court terme de changements dans l'activité volcanique, comme les nouvelles intrusions magmatiques en 1997 et 1999 et les épisodes épisodiques de déflation/inflation de 2008 au sommet du Kīlauea qui ont duré des heures à deux jours. Aucune autre technique actuellement utilisée ne peut détecter une telle activité lorsqu'elle se produit.

Niveau 3, Méthode 5 : Système de positionnement global (GPS)
À la fin des années 1980, le système de positionnement global (GPS) est devenu une méthode viable pour mesurer la déformation de la surface de la Terre, remplaçant progressivement l'EDM et la triangulation. Le principal avantage du GPS par rapport à toutes les autres méthodes de surveillance de la déformation est la capacité de mesurer simultanément les déplacements horizontaux et verticaux avec une précision de quelques millimètres.
Le GPS est utilisé dans l'un des deux modes suivants : continu et levé. Le GPS continu utilise un récepteur GPS et une antenne installés en permanence (Fig. 10A) à un endroit pour suivre le mouvement de cette station au fil du temps. L'avantage du GPS continu est que les changements dans l'amplitude et la direction du déplacement sont bien résolus. Cependant, la station ne peut pas être déplacée ainsi, aucune variation dans les modèles de déformation spatiale ne peut être identifiée. En mode levé, une antenne GPS sur un trépied (Fig. 10B) est placée sur une référence pendant une courte période (par exemple, deux jours) tandis que la position de la station est enregistrée en continu. L'installation GPS est ensuite déplacée vers d'autres sites selon les besoins. L'occupation répétée des mêmes repères fournit des informations sur la façon dont les points levés dans une région se sont déplacés, mais la résolution temporelle sera médiocre.

Figure 10. Méthodes de surveillance du système de positionnement global (GPS). (A) Cette installation GPS continue dans le parc national des volcans d'Hawai'i se compose d'une antenne (disque blanc sur le socle à gauche), de panneaux solaires, d'un boîtier électronique (sous les panneaux solaires) et d'un mât de télémétrie.

(B) Un site GPS d'enquête, avec une antenne GPS et un trépied installés sur un repère. La boîte en bas à droite contient le récepteur GPS et la batterie.

Les deux méthodes de surveillance GPS nécessitent une vue dégagée du ciel. Les obstacles tels que les bâtiments et la végétation obscurcissent les signaux satellites et entraînent une mauvaise qualité de mesure. De plus, les mesures GPS à court terme ont tendance à être contaminées par les trajets multiples (signaux satellites qui ne parcourent pas de lignes directes entre le satellite et l'antenne de réception). Il est important de collecter autant de données que possible pour faire la moyenne de ces effets. Les sites d'enquête doivent enregistrer les données pendant au moins six à huit heures par jour. Ce n'est pas un problème pour les installations continues, qui enregistrent des données 24 heures sur 24.
Les positions GPS sont calculées à l'aide de logiciels de traitement généralement fournis gratuitement par des instituts de recherche tels que la National Aeronautics and Space Administration (NASA) et le Massachusetts Institute of Technology. Le logiciel est hautement spécialisé et nécessite une expérience et une formation substantielles pour être utilisé correctement. Un récepteur GPS et une antenne coûtent environ 4 000 $. Les sites GPS continus nécessitent des piles, des panneaux solaires et une télémétrie radio, pour un coût d'environ 3 000 $ par site. Pour l'équipement qui fonctionne en mode sondage, seuls des trépieds et des piles sont nécessaires (environ 500 $), en plus du récepteur et de l'antenne.
Le GPS est l'outil ultime pour mesurer les déplacements tridimensionnels, il n'est donc pas surprenant que le GPS soit actuellement la méthode dominante pour la surveillance de la déformation des volcans.Dans le parc national des volcans d'Hawai'i, plus de 50 stations GPS en continu sont complétées par plus de 100 sites occupés pendant quelques jours chacun lors de campagnes GPS annuelles ou événementielles. Cette combinaison de méthodes offre la meilleure résolution temporelle et spatiale possible des schémas de déformation associés au volcanisme actif. levés GPS de

40 sites, à proximité du Mauna Loa complétés par trois stations continues, ont d'abord détecté l'inflation du volcan Mauna Loa, Hawai'i, en 2002. En réponse à cette activité, le réseau GPS continu a été étendu par

20 autres sites dans les trois années suivantes. Les nouvelles stations continues offrent une meilleure résolution des déplacements de surface au fil du temps, ce qui se traduira par des prévisions plus fiables de l'activité future du Mauna Loa.

Niveau 3, Méthode 6 : Photographie aérienne/Détection et télémétrie de la lumière (LIDAR)
Des relevés de détection et de télémétrie par la lumière (LIDAR) et des photographies aériennes sont utilisés sur des volcans agités pour quantifier les zones connaissant une grande déformation de surface. Les deux techniques sont également utilisées lors des éruptions volcaniques pour quantifier le volume de matériau extrudé tel que les coulées de lave, les dômes volcaniques, etc. Les relevés LIDAR et la photographie aérienne sont utilisés pour construire des modèles numériques d'élévation (MNE) de la surface du sol. Les volcanologues utilisent les MNT des levés successifs pour calculer le changement de volume entre les levés. Par exemple, lors de l'éruption du mont St. Helens de 2004 à 2008, une série chronologique de MNT a fourni la seule mesure fiable du volume de lave ainsi que de son taux d'extrusion. Le suivi du volume et du taux d'extrusion aide les volcanologues à prévoir combien de temps une éruption pourrait durer et le volume total de lave qui pourrait être produit.
La photographie aérienne est la méthode la plus basique et la moins chère utilisée pour construire des DEM. Il s'agit d'une technologie mature utilisée depuis des décennies. Une paire de photos verticales légèrement superposées est prise depuis un avion. Un stéréoscope ou un logiciel informatique spécialisé est ensuite utilisé pour créer une carte topographique de la surface du sol, à partir de laquelle un MNT est généré. Au cours de la période précédant l'éruption du 18 mai 1980 du mont St. Helens, les DEM ont corroboré l'augmentation rapide du taux d'inflation sur le flanc nord du volcan, conduisant à la reconnaissance que le côté nord du volcan était instable avant l'effondrement a eu lieu le 18 Mai 1980.
Le LIDAR est similaire au radar, mais utilise des fréquences de lumière beaucoup plus élevées (généralement ultraviolet, visible ou infrarouge) pour surveiller l'altitude de la surface du sol. La lumière, émise par un laser monté sur un avion, est réfléchie par la surface du sol, et le temps de trajet est mesuré par un télescope optique monté dans le même avion. Le temps de trajet de la lumière est converti en distance (analogue à l'EDM), à partir de laquelle un DEM précis à quelques centimètres près est construit. Les relevés LIDAR nécessitent une localisation précise de l'avion, une station GPS de référence au sol doit donc être disponible dans la zone de relevé. Un logiciel hautement spécialisé et une formation approfondie des opérateurs sont nécessaires pour traiter les résultats LIDAR. Par conséquent, la plupart des enquêtes LIDAR sont réalisées par des entreprises privées.
Généralement, le moindre coût de la photographie aérienne en fait la méthode de choix pour la surveillance des volcans. Un vol pour collecter des photographies aériennes peut coûter entre 1 000 et 5 000 dollars, alors que les vols LIDAR coûtent des dizaines de milliers de dollars. Les données LIDAR nécessitent également plusieurs semaines de traitement, alors que, selon le niveau de précision souhaité, la photographie aérienne peut être convertie en un DEM en quelques jours. Cependant, la plus grande précision du LIDAR le rend idéal pour localiser des caractéristiques subtiles de faible relief à la surface du sol, telles que des failles avec un décalage de surface mineur. Dans les premières semaines qui ont suivi le début d'une activité éruptive renouvelée au mont St. Helens fin 2004, le LIDAR et la photographie aérienne ont été utilisés pour construire des DEM, qui ont fourni des données importantes sur la croissance du dôme de lave dans le cratère du volcan. Cependant, le coût élevé du LIDAR a obligé les études DEM à être entièrement réalisées par photographie aérienne dans les deux mois suivant le début de l'éruption.

Niveau 3, Méthode 7 : InSAR
L'utilisation du radar interférométrique à synthèse d'ouverture (InSAR) est décrite en détail dans la section Techniques de surveillance des volcans émergents ci-dessous. Bien que l'InSAR évolue rapidement, les facteurs limitatifs incluent la disponibilité des satellites, les distorsions dues aux effets atmosphériques et la nécessité d'intervalles relativement longs entre les mesures afin que la déformation soit évidente au-dessus des limites de détection. Cependant, InSAR est efficace pour mesurer la déformation à grande échelle et à long terme sur de vastes zones où d'autres méthodes seraient d'un coût prohibitif, et c'est une bonne technique pour la prospection de la déformation là où elle n'a pas été identifiée auparavant, et comme précurseur à long terme pour activité volcanique potentielle, comme illustré au volcan South Sister (voir la section Techniques de surveillance des volcans émergents). À quelques exceptions près, InSAR n'est pas encore un outil opérationnel pour la plupart des volcans qui montrent des troubles importants, menacent d'entrer en éruption ou sont en fait en éruption, car les images InSAR répétées d'un volcan donné ne peuvent être capturées qu'à des intervalles d'environ un mois lorsque le satellite est au-dessus de la tête, empêchant le suivi des changements à court terme.
La télédétection par satellite, décrite dans la section des techniques émergentes de ce chapitre, peut également être utilisée pour surveiller la déformation de la surface. Les véhicules aériens sans pilote (UAV), également décrits dans la section sur les techniques émergentes, sont appropriés dans les zones difficiles ou dangereuses d'accès pour surveiller les changements dans les dômes de lave actifs, les coulées de lave et les évents, tels que la croissance et l'effondrement d'une nouvelle lave dôme.

Sommaire
Des combinaisons de méthodes de surveillance permettent une surveillance complète de l'évolution spatiale et temporelle de la déformation d'un volcan, seule une combinaison de méthodes peut compenser les faiblesses d'une seule méthode. De toute évidence, diverses méthodes et instruments utilisés pour surveiller la déformation des volcans actifs présentent des avantages et des inconvénients. Pour cette raison, des stratégies de surveillance efficaces utilisent un mélange de méthodes continues et d'enquête. Par exemple, dans le parc national des volcans d'Hawai'i, l'observatoire des volcans hawaïens de l'US Geological Survey utilise 20 inclinomètres de forage, plus de 50 récepteurs GPS continus, plus de 100 sites GPS d'enquête et des données InSAR provenant de plusieurs satellites différents pour surveiller la déformation à Kīlauea et Volcans du Mauna Loa. La même combinaison de méthodes est utilisée au mont St. Helens, où la photographie aérienne est également utilisée pour créer des DEM et suivre le volume et le taux de lave en éruption au fil du temps.

Signe vital 3. Émission de gaz au niveau du sol

introduction
Le gaz volcanique est naturellement libéré des volcans actifs et de nombreux volcans inactifs. La vapeur d'eau est généralement le gaz volcanique le plus abondant, suivi du dioxyde de carbone (CO2) et le dioxyde de soufre (SO2). D'autres gaz volcaniques courants sont le sulfure d'hydrogène (H2S), le chlorure d'hydrogène (HCl), le fluorure d'hydrogène (HF), le monoxyde de carbone (CO) et l'hydrogène (H2), ainsi que de nombreux autres gaz et isotopes à l'état de traces ainsi que des métaux volatils. Les concentrations de ces gaz peuvent varier considérablement d'un volcan à l'autre. La majorité des zones volcaniques potentiellement actives sont caractérisées par une ou plusieurs fumerolles à basse température et un système hydrothermal assez bien développé. Les grands systèmes volcaniques, tels que Yellowstone, ont de nombreux évents et fumerolles libérant des gaz volcaniques dans l'air sur une vaste zone géographique. Certains systèmes volcaniques actifs, tels que le Kīlauea à Hawai'i, possèdent une variété d'évents de gaz et de fumerolles dont la température peut atteindre plusieurs centaines de degrés.
Les gaz volcaniques peuvent être nocifs pour les humains, les animaux, les plantes et les biens. Habituellement, les dangers, qui peuvent aller de mineurs à mortels, sont limités aux zones entourant immédiatement les cheminées volcaniques et les fumerolles. Cependant, les gaz plus lourds que l'air tels que le CO2 peuvent s'accumuler dans les dépressions topographiques sur les flancs des volcans et présenter un danger pour la santé et la sécurité humaines. Gaz acides, tels que le SO2, lorsqu'il est présent en abondance, peut se combiner avec l'eau dans l'atmosphère pour produire des pluies acides localisées sous le vent des cheminées volcaniques.
La roche en fusion, ou magma, sous les volcans contient des gaz abondants qui sont la force motrice des éruptions. Les volcans deviennent agités lorsque le magma commence à se déplacer de la profondeur vers la surface de la Terre. Au fur et à mesure que le magma se déplace dans des zones moins profondes sous le volcan, il rencontre des conditions de pression plus basses qui permettent à davantage de gaz de s'échapper dans les fractures et les fissures. Certains de ces gaz sont finalement rejetés à la surface par des fumerolles chaudes, des évents actifs ou des surfaces de sol poreuses où ils, s'ils sont mesurés, peuvent fournir des informations précieuses sur les processus en cours ci-dessous. La montée du magma chauffe également la masse rocheuse sous le volcan et finit par faire bouillir l'eau des systèmes hydrothermaux peu profonds sous le volcan, libérant des gaz supplémentaires. Le personnel de gestion des terres peut contribuer de manière significative à identifier les premiers signes de troubles volcaniques en notant et en signalant l'apparition de nouvelles fumerolles, l'apparition soudaine d'une odeur d'"œuf pourri", une augmentation de la température des fumerolles ou l'apparition d'un nouveau sol chaud, inexpliqué la mort d'animaux et l'apparition d'une végétation anormale et la mortalité des arbres.
Une variété de méthodes au sol pour mesurer les gaz volcaniques comprend: l'échantillonnage direct des gaz des fumerolles suivi d'une analyse en laboratoire, la mesure d'un ou plusieurs gaz dans une fumerolle avec des instruments portables, l'établissement de stations de surveillance des gaz à long terme dans les cheminées volcaniques et la conduite du sol -enquêtes sur les effluents gazeux. Chaque méthode est discutée ci-dessous. Tous sont bien adaptés à l'évaluation à long terme des conditions volcaniques. Une stratégie impliquant des mesures instrumentales sur site couplées à une analyse en laboratoire d'échantillons de gaz de fumerolles peut être particulièrement efficace pour la surveillance géochimique des volcans.

Niveau 3, Méthode 1 : Échantillonnage direct de gaz et d'isotopes par fumerolles
L'échantillonnage direct des gaz est idéal pour la surveillance à long terme des systèmes volcaniques car il produit une analyse chimique détaillée des fumerolles et des évents spécifiques. Les échantillons de gaz volcaniques sont généralement collectés en insérant un tube chimiquement inerte et durable dans une fumerolle chaude. Après avoir laissé le tube chauffer jusqu'à ce que la condensation dans le tube atteigne l'équilibre avec les gaz qui s'échappent, une bouteille d'échantillon sous vide spécialement conçue ou une bouteille d'échantillon à circulation est fixée au tube de collecte. Une fois l'échantillon prélevé, il est envoyé à un laboratoire d'analyse pour analyse par chromatographie ionique et gazeuse et par les méthodes traditionnelles de chimie humide. Vous trouverez plus d'informations sur : http://volcanoes.usgs.gov/activity/methods/gas/sample.php. Les kits d'échantillonnage de gaz de terrain coûtent moins de 1 000 $, tandis que les instruments d'analyse de laboratoire pour effectuer ce type d'analyse de gaz coûtent environ 30 000 $ chacun.
En règle générale, la gamme complète des principaux gaz volcaniques dans l'échantillon peut être déterminée, y compris l'eau, le CO2, DONC2, H2S, HCl, HF, CO et H2, d'autres gaz tels que l'azote (N2), l'oxygène (O2), l'hélium (He) et le néon (Ne), s'ils sont présents, ainsi que d'autres gaz à l'état de traces. La température des fumerolles joue un rôle important dans la détermination de la qualité et de l'utilité des échantillons directs. Plus la température est élevée, mieux l'échantillon reflétera les conditions du magma fournissant le gaz.
L'échantillonnage direct de gaz des fumerolles n'est pas bien adapté pour surveiller des conditions changeant rapidement, car les analyses de laboratoire prennent souvent des jours ou des semaines. Cependant, des analyses détaillées de la composition du gaz fournissent souvent des informations essentielles pour évaluer les risques volcaniques et construire des modèles qui donnent un aperçu de l'état du magma à la profondeur d'où proviennent les gaz.
Les isotopes distinguent de manière unique les sources de gaz volcanique. Bien que les récipients de collecte d'échantillons puissent être légèrement différents, la procédure et le coût sont généralement similaires pour la collecte d'échantillons de gaz à partir de fumerolles pour l'analyse isotopique. Les isotopes des éléments légers, tels que l'hydrogène, le carbone, l'azote et l'oxygène, ainsi que ceux des gaz rares, tels que l'hélium, peuvent donner un aperçu de l'origine du gaz volcanique et du degré de dilution par les gaz atmosphériques. En particulier, des rapports plus élevés des isotopes de l'hélium (3 He/ 4 He) impliquent des gaz provenant de sources plus profondes. Les isotopes sont analysés avec des spectromètres de masse, des instruments de laboratoire sophistiqués pouvant coûter jusqu'à 300 000 $.

Niveau 3, Méthode 2 : Mesures instrumentales sur site
Un instrument portable, tel qu'un chromatographe en phase gazeuse (un instrument analytique qui sépare des mélanges de gaz ou de liquide en composants mesurables) ou un spectromètre (un instrument optique conçu pour mesurer des gaz à des longueurs d'onde de lumière spécifiques) peut mesurer un ou plusieurs gaz directement à partir du évent ou fumerolle. Un tube d'échantillonnage est couplé directement à la source de gaz et le gaz est dirigé vers le port d'échantillonnage de l'instrument, éliminant ainsi le besoin de prélever un échantillon et de le transporter vers un laboratoire. Les instruments portables peuvent être configurés pour effectuer des mesures sur plusieurs heures et ont l'avantage de produire des résultats tout de suite, mais ils ne mesurent souvent que quelques-uns des gaz volcaniques d'intérêt. Le coût des chromatographes et spectromètres portables de terrain varie de 5 000 $ à 25 000 $.
Une nouvelle technique importante pour mesurer les gaz volcaniques est la spectroscopie infrarouge à transformée de Fourier (OP-FTS). Un spectromètre infrarouge à transformée de Fourier (FTIR), un type spécial de spectromètre infrarouge avec un ensemble de miroir mobile et un télescope optique, est monté sur un trépied et dirigé à travers un panache de gaz émergeant d'une fumerolle ou d'un évent volcanique. Une grande lampe peut être positionnée sur le côté opposé du panache de gaz pour fournir une source d'énergie infrarouge à l'instrument. Dans d'autres cas, des roches chaudes ou même le soleil peuvent être utilisés comme source de lumière. Le FTIR permet d'analyser rapidement plusieurs gaz simultanément et a l'avantage, comme les instruments décrits ci-dessus, de produire des résultats immédiatement. Le coût d'un système FTIR sur le terrain est d'environ 100 000 $.
Certains événements d'émission de gaz sont relativement brefs et seraient manqués par un échantillonnage occasionnel de fumerolles ou le déploiement à court terme d'instruments sur site. Ainsi, des stations de surveillance continue des gaz sont souvent déployées pour identifier les événements de dégazage de courte durée ainsi que les changements à long terme. Ceux-ci consistent généralement en un ou plusieurs capteurs de gaz chimiques ou optiques qui mesurent les concentrations de gaz au niveau ou à proximité d'une fumerolle. Semblables aux stations de surveillance sismique ou GPS, les stations de surveillance des gaz se composent d'un boîtier de station et de batteries pour alimenter les capteurs et l'équipement de collecte de données, et coûtent entre 3 000 et 10 000 $ chacune. Leurs données sont généralement télémesurées par radio ou par satellite vers une installation hors site, ou elles peuvent être enregistrées sur place par un enregistreur de données.
Pendant les troubles volcaniques, lorsque le magma ascensionnel commence à chauffer le sous-sol du volcan, mesurant le SO2 est particulièrement important, car des quantités croissantes de SO2 gaz sont souvent le diagnostic d'une accélération des troubles. Ainsi, l'établissement d'un réseau de stations de surveillance Flyspec télémétriques pour les mesures de gaz en continu devrait toujours être envisagé une fois que les troubles volcaniques sont identifiés. Flyspec, parfois appelé mini-DOAS (spectromètre d'absorption optique différentielle) est un petit spectromètre ultraviolet qui mesure le SO2 dans l'air. Lorsqu'il est utilisé dans le cadre d'une station de surveillance de gaz fixe, le Flyspec peut être configuré pour balayer la masse d'air sous le vent d'un évent volcanique ou d'un champ de fumerolles. Couplé aux données de vent d'une station météorologique, le Flyspec peut produire une mesure fiable du SO2 taux d'émission ou flux. Les données Flyspec peuvent être télémesurées par liaison radio ou satellite. Les stations de surveillance télémétriques Flyspec coûtent entre 10 000 $ et 15 000 $ chacune, selon le type de télémétrie et si des liaisons de répéteur sont nécessaires.

Niveau 3, Méthode 3 : Mesures de l'efflux du sol
Les relevés de mesure de l'efflux dans le sol sont généralement effectués dans des zones où les gaz volcaniques, généralement le CO2, remontent des profondeurs à travers des failles et des fractures et se déversent dans la couche de sol juste sous la surface du sol. Depuis CO2 est plus lourd que l'air, il peut s'accumuler dans des endroits bas ou dans des espaces confinés ou s'écouler vers le bas sous forme de courant de densité, présentant un danger important pour tous ceux qui pénètrent dans ces zones. En 1990, un garde forestier du US Forest Service dans la forêt nationale d'Inyo est entré dans une cabane couverte de neige dans une telle zone et a vécu une quasi-asphyxie. Des enquêtes ultérieures ont révélé des concentrations potentiellement mortelles de CO2 à proximité nécessitant la fermeture d'un terrain de camping à proximité. Les rencontres mortelles avec le CO2 volcanique incluent du gaz qui a coulé sur une pente raide et à travers une route, tuant environ 150 personnes qui fuyaient une éruption à Dieng (Indonésie) en 1979, et des rejets soudains de CO2-gaz riche de
Les lacs Monoun et Nyos au Cameroun qui ont tué environ 40 et 1 700 personnes, respectivement, en 1984 et 1986.
Les zones de rejet de gaz du sol peuvent être chaudes ou froides et sont souvent caractérisées par la mortalité de la végétation et des arbres. Étant donné que les gaz peuvent s'échapper du sol sur une vaste zone, une petite chambre d'accumulation de sol couplée à un spectromètre infrarouge et à un ordinateur portable est généralement utilisée pour collecter et mesurer le gaz sur des dizaines à des centaines de sites distincts. Ces mesures sont utilisées pour construire une carte du CO du sol2 anomalie pour déterminer un flux de gaz total. Pour plus de détails, voir http://volcanoes.usgs.gov/activity/methods/gas/soil.php. Le coût de l'instrumentation de l'efflux du sol sur le terrain varie de 5 000 $ à 20 000 $. Les relevés de terrain sont généralement menés par une équipe de scientifiques sur plusieurs jours et répétés une à plusieurs fois par an pendant plusieurs années pour évaluer la dynamique des rejets de gaz en profondeur.
Les mesures d'efflux dans le sol sont également utiles pour rechercher des failles ou d'autres zones où le gaz volcanique fuit à la surface. Il peut parfois être approprié d'installer des stations de surveillance automatisées des efflux dans le sol dans les zones de rejet de gaz du sol pour surveiller les variations à court terme (horaires) du dégazage. Les stations de surveillance automatisées coûtent environ 20 000 $ chacune.
La télédétection par satellite, décrite dans la section sur les techniques émergentes de ce chapitre, peut également être utilisée pour surveiller les émissions thermiques et les nuages ​​de cendres et de gaz volcaniques.

Signe vital 4. Émission de panaches de gaz et de nuages ​​de cendres

introduction
Les émissions de gaz et de cendres sont surveillées par trois techniques décrites dans cette section, ainsi que par télédétection par satellite, comme décrit dans la section ci-dessous (Techniques de surveillance utilisées pour de nombreux signes vitaux). Les méthodes 1 et 2 sont utilisées pour surveiller respectivement le dioxyde de soufre et le dioxyde de carbone dans les panaches volcaniques. Les deux gaz sont des indicateurs importants de l'activité magmatique. La méthode 3 décrit comment les nuages ​​de cendres volcaniques peuvent être surveillés et suivis, généralement en combinaison avec la télédétection par satellite. En raison de l'importance d'empêcher les aéronefs d'entrer dans les nuages ​​volcaniques, un processus international coordonné multi-agences a été développé pour suivre les nuages ​​de cendres en temps réel et communiquer des informations clés aux intérêts de l'aviation.
La vitesse à laquelle un volcan libère des gaz dans l'atmosphère est liée au volume de magma dans son système de réservoir de magma. En mesurant les variations du taux d'émission, généralement en tonnes métriques par jour (103 kg/j), de gaz clés tels que le dioxyde de soufre (SO2) et le dioxyde de carbone (CO2), il est possible de déduire des changements qui peuvent se produire dans le réservoir de magma d'un volcan et si le magma pourrait se déplacer vers la surface. Bien qu'il soit parfois possible de mesurer SO2 décharge du sol, elle est mesurée de la manière la plus précise et la plus sûre à partir d'une plate-forme aéroportée. CO précis2 les mesures de taux d'émission nécessitent une plate-forme aéroportée. Voir http://volcanoes.usgs.gov/About/What/Monitor/Gas/plumes.html pour plus d'informations et d'illustrations sur les méthodes décrites dans ce signe vital.
Un panache de gaz typique, qu'il soit exhalé par une petite source telle qu'une fumerolle ou rejeté de force par une grande source telle qu'un évent volcanique en éruption, s'élève à la hauteur où sa densité atteint l'équilibre avec l'atmosphère. La partie supérieure du nuage peut être cisaillée et emportée par le vent. Le taux d'émission de gaz peut être déterminé en mesurant la quantité d'un gaz spécifique dans le panache sous le vent et la vitesse du vent.
Les émissions de dioxyde de soufre des volcans inactifs vont normalement d'une valeur inférieure aux limites de détection des instruments à quelques centaines de tonnes métriques par jour. Parce que SO2 peut réagir avec l'eau et être perdu sous forme de phase gazeuse, il n'est parfois pas présent dans les volcans au repos jusqu'à ce que les troubles commencent. Dans les deux cas, il est important de mesurer SO2 et Cie2 pendant les périodes d'inactivité pour établir des lignes de base à comparer avec des mesures futures en cas de troubles.

Niveau 3, Méthode 1 : Mesures du spectromètre de corrélation (COSPEC) et du mini-spectromètre UV (Flyspec)
L'importance de rechercher le SO2 dans les panaches volcaniques ne peut pas être surestimée. Quand donc2 apparaît dans le panache pendant les troubles volcaniques, c'est l'indicateur définitif d'une source de magma peu profonde, démontrant un chauffage suffisant de l'édifice volcanique pour établir des passages secs de la profondeur à la surface dans lesquels SO2 n'est plus éliminé par des réactions avec les eaux souterraines ou un système hydrothermal. SO très élevé et soutenu2 les taux d'émission impliquent que le magma a pénétré à un niveau élevé sous le volcan et indiquent la possibilité distincte d'une éruption.
Le COSPEC (ou spectromètre de corrélation) est utilisé depuis plus de trois décennies pour mesurer le SO2 taux d'émission de divers volcans à travers le monde. Conçu à l'origine pour mesurer les polluants industriels, le COSPEC mesure la quantité de lumière ultraviolette absorbée par le SO2 molécules dans un panache volcanique utilisant la lumière du soleil dispersée comme source lumineuse. L'instrument est calibré en comparant toutes les mesures à un ou plusieurs SO connus2 étalons montés dans l'instrument. Le COSPEC est un instrument optique avec un télescope orienté vers le haut, il est donc généralement monté dans un avion avec le télescope dépassant d'une fenêtre. En règle générale, 3 à 6 traversées sont effectuées sous le panache à angle droit par rapport à sa direction de déplacement, pour déterminer le SO moyen2 concentration le long d'une section verticale du panache. La vitesse du vent est déterminée pendant le vol par GPS. A partir de ces mesures, un taux d'émission très précis peut être calculé. Un COSPEC coûte environ 80 000 $ pour l'instrument et quelques centaines de dollars pour une plaque de montage sur mesure qui est unique à chaque type d'avion.
Le Flyspec, parfois appelé mini-DOAS (spectromètre d'absorption optique différentielle), mesure également le SO2 dans la gamme de la lumière ultraviolette. Cependant, l'instrument Flyspec est considérablement plus petit et plus léger que le COSPEC et peut être utilisé via le port USB d'un ordinateur portable standard. Il peut être installé dans un hélicoptère ou un avion à voilure fixe et volé sous le panache en utilisant la même stratégie de mesure que le COSPEC. Selon la configuration et s'il s'agit d'un modèle commercial ou non, un Flyspec coûtera de 5 000 $ à 12 000 $.
Les coûts de vol pour une mesure de gaz aéroportée typique sont généralement de 1 000 à 3 000 $, mais les vols simples dans des systèmes volcaniques avec des sources de gaz largement distribuées, comme Yellowstone, coûteront 5 000 $ ou plus. Les intervalles entre les vols de mesure de gaz de base sur un volcan inactif peuvent être de un à trois ans. Sur les volcans en proie à des troubles, les vols peuvent être effectués tous les un à trois mois, et lorsque les troubles sont intenses, ils peuvent être nécessaires aussi souvent qu'une fois par jour ou par semaine.

Niveau 3, Méthode 2 : LI-COR
Le dioxyde de carbone est l'une des espèces de gaz les plus importantes pour la prévision de l'activité éruptive, car il peut fournir la première indication géochimique du début de l'agitation dans un système volcanique. En raison de sa faible solubilité, le CO2 est libéré du magma très tôt lors de son ascension vers la surface. Ainsi une transition de CO2 des quantités de base à des niveaux nettement plus élevés indique que le magma est probablement impliqué et en mouvement depuis la profondeur. Une nouvelle augmentation du CO2 à des taux d'émission encore plus élevés, cela signifie que le magma pénètre à un niveau élevé sous le volcan. Il n'y a pas d'alternative fiable aux avions pour mesurer avec précision le CO2 taux d'émission. L'accès des aéronefs aux volcans agités est absolument essentiel pour surveiller de manière adéquate et sûre les émissions de gaz.
Le LI-COR est un petit spectromètre infrarouge qui est récemment devenu la norme pour déterminer le CO2 taux d'émission dans les panaches volcaniques. Le LI-COR échantillonne l'air et les gaz volcaniques à travers un tube connecté au port d'échantillonnage extérieur d'un hélicoptère ou d'un avion bimoteur à voilure fixe, il peut analyser le CO2 dans le flux d'air échantillon à raison d'une mesure par seconde. Contrairement au COSPEC et au Flyspec qui volent sous le panache, le LI-COR doit traverser le panache en traversant à différentes altitudes perpendiculaires à la direction de dérive, jusqu'à ce qu'une section transversale verticale entière du panache soit analysée. A partir de ces données et d'une vitesse du vent déterminée par GPS, un taux d'émission de CO2 peut être déterminé.
Étant donné que le LI-COR sera généralement utilisé avec un COSPEC ou Flyspec, les coûts de vol de l'avion et la fréquence des mesures seront les mêmes que ceux décrits ci-dessus pour COSPEC et Flyspec.

Niveau 3, Méthode 3 : Radar Doppler
Le radar Doppler surveille l'apparition des nuages ​​volcaniques et suit leurs mouvements, contrairement aux méthodes décrites ci-dessus, qui surveillent différents composants chimiques au sein d'un nuage volcanique. Ainsi, le radar Doppler est utilisé pour aider à décider quand les zones dangereuses doivent être fermées aux personnes au sol ou aux avions.
La détection d'éruption est une tâche facile lorsqu'un volcan entre en éruption par beau temps, pendant les heures de clarté et/ou à la vue des observateurs, mais il est difficile pour les éruptions de nuit, par mauvais temps et/ou dans des régions éloignées. Pour les éruptions explosives, comme celles qui pourraient se produire à Lassen Peak, Crater Lake, Mount Rainier et les volcans d'Alaska, ces handicaps peuvent être surmontés avec des systèmes radar Doppler conçus pour surveiller la météo. Le radar météorologique détecte les cendres en suspension dans l'air de la même manière qu'il détecte la pluie ou la neige, bien qu'il ne puisse pas faire la distinction entre les cendres et les nuages ​​météorologiques.
Les systèmes radar Doppler produisent des cartes qui montrent tout, y compris la pluie, la neige et les cendres volcaniques, qui se déplace et réfléchit le faisceau radar. Les images sont produites à intervalles réguliers et enregistrées sous forme de fichiers informatiques pouvant être visualisés sous forme de séquence accélérée lorsque d'autres données de surveillance indiquent une éventuelle activité volcanique. Par exemple, une sismicité inhabituelle sur un volcan indique que quelque chose s'est produit, peut-être une éruption. Si la séquence d'images radar indique qu'un nuage est soudainement apparu au-dessus du volcan en même temps que la sismicité, alors le nuage a presque certainement été produit par une éruption explosive. Ainsi, les éruptions peuvent être détectées de jour comme de nuit, par beau temps comme par mauvais temps.
Le coût d'acquisition des données radar varie de très faible à extrêmement élevé. Le National Weather Service (NWS) fournit gratuitement sur Internet des données radar Doppler pour la plupart des États-Unis. Cependant, la couverture est limitée ou inexistante dans certaines régions éloignées. Les radars NWS produisent des images à des intervalles de 4, 5, 6 ou 10 minutes, selon les conditions météorologiques. Environ une autre minute s'écoule avant que les images ne deviennent disponibles. Les fournisseurs commerciaux qui traitent et revendent les données radar du NWS augmenteront encore le délai entre l'acquisition et la livraison aux utilisateurs finaux. Si les images sont obtenues à partir de radars NWS, les problèmes de télécommunication sont susceptibles d'être un obstacle, que les images soient obtenues à partir d'Internet, directement à partir de serveurs de données NWS ou d'un fournisseur commercial. De plus, les utilisateurs n'ont aucun contrôle sur le flux de données NWS et doivent se contenter de
ce que proposent les fournisseurs de données. Par conséquent, les utilisateurs doivent travailler avec des intervalles d'images sensiblement plus longs que ce qui est souhaitable, ce qui augmente le temps requis pour la détection des éruptions.
Si un volcan n'est pas couvert par les radars NWS, un système radar autonome devra être acquis et exploité. Une grande antenne parabolique est placée sur un piédestal avec une vue imprenable sur (au moins) le sommet du volcan, généralement à quelques dizaines à 50 km du volcan. L'antenne est généralement montée au sommet d'un bâtiment ou d'une tour afin que les objets à proximité ne bloquent pas le faisceau radar. Les câbles de l'antenne sont connectés à une « boîte noire » électronique à l'intérieur du bâtiment qui contrôle l'antenne et acquiert les données brutes. Un ordinateur personnel traite les données brutes et les affiche sur un moniteur dans divers formats graphiques que les opérateurs formés peuvent facilement interpréter.
L'équipement radar a tendance à être coûteux. Les systèmes les moins chers (et les moins performants) coûtent environ 50 000 $. Des systèmes plus performants coûtent cinq à dix fois plus cher. Les systèmes radar privés nécessitent un entretien et des réparations, et nécessitent du personnel pour les faire fonctionner et les entretenir. Cependant, les systèmes radar peuvent fonctionner avec peu d'attention pendant de longues périodes.
La télédétection par satellite, décrite dans la section sur les techniques émergentes de ce chapitre, peut également être utilisée pour surveiller les nuages ​​de cendres et de gaz volcaniques.

Signe vital 5. Activité hydrologique

introduction
La plupart des volcans sont des caractéristiques physiographiques de grande taille avec une accumulation considérable de neige et des ressources en eaux souterraines appréciables. Les eaux de surface peuvent intercepter et absorber à la fois la chaleur et les constituants chimiques libérés par le magma. En surveillant le rejet de l'eau, sa composition et sa température, les travailleurs peuvent détecter les changements dans le système volcanique qui accompagnent la reprise de l'activité magmatique. La surveillance peut inclure des stations de jaugeage sur des rivières et des ruisseaux, une surveillance en fond de puits d'eau souterraine ou de simples sondes de température (thermistances) placées dans des ruisseaux ou des lacs. Parfois, les changements observés peuvent précéder les signaux géophysiques qui sont les signes dominants d'un volcan en éveil.

Niveau 3, Méthode 1 : Instrumentation des ruisseaux et des puits
Un cours d'eau nécessite une méthode pour mesurer sa profondeur et le volume de son débit. Typiquement, une petite structure en béton qui est reliée hydrauliquement au ruisseau est construite. Cette configuration permet des mesures reproductibles qui ne sont pas affectées par les tempêtes. La transmission de données en temps réel nécessite un système de télémétrie, généralement un émetteur satellite et une source d'alimentation (cellules solaires, batteries ou lignes électriques si disponibles). Des instruments supplémentaires peuvent inclure une station météorologique ou des instruments de mesure de la qualité de l'eau pour mesurer les précipitations, la conductivité ou la turbidité.
Une jauge de cours d'eau mesure le niveau d'une rivière, ou sa profondeur par rapport à une donnée mesurée. Le débit (le volume d'eau passant à un point donné par unité de temps) est également couramment surveillé. En mesurant soigneusement la section transversale d'une rivière et la vitesse de l'eau, on peut calculer une courbe d'évaluation qui relie l'étage aux unités de débit, généralement en pieds cubes (pi 3 ) par seconde. Les courbes de notation sont remesurées plusieurs fois par an par des experts en ressources en eau. Des capteurs supplémentaires peuvent être placés près de la station de jaugeage pour mesurer la température de l'air et de l'eau, la chimie de l'eau ou les précipitations, et ces paramètres peuvent être comparés au débit à travers la station de jaugeage. Des instruments tels que des thermistances, des capteurs de pression et des capteurs chimiques peuvent être placés dans des puits, fournissant des informations sur les conditions dans un aquifère ou un système d'eau souterraine. Les données peuvent être collectées sur un enregistreur de données qui est régulièrement téléchargé ou télémesuré aux scientifiques via des systèmes radio ou satellite. Les informations provenant des puits ou des rivières peuvent être considérées comme des séries chronologiques par rapport à d'autres paramètres de surveillance tels que la sismicité, la déformation ou les observations satellitaires pour voir si les changements de débit ou de chimie de l'eau sont en corrélation avec les changements d'autres phénomènes mesurés.
Les informations provenant des jauges de cours d'eau sont également régulièrement utilisées pour les alertes d'inondation, la gestion de la faune (en particulier la pêche) et la gestion des ressources en eau.
En règle générale, la surveillance hydrologique est effectuée à l'aide d'une jauge de cours d'eau, dont la construction peut coûter 30 000 $ à 40 000 $, plus des dépenses d'exploitation annuelles d'environ 15 000 $. Le prix comprend la transmission complète des données en temps réel (généralement par satellite) et des tests périodiques pour fournir des courbes d'évaluation pour chaque jauge, qui peuvent changer avec le temps. Les systèmes de surveillance de fond de puits coûtent moins cher à entretenir car ils ne nécessitent pas de courbes d'évaluation mises à jour. Les coûts initiaux sont d'environ 5 000 $ pour l'instrumentation permettant de mesurer la température et la profondeur de l'eau sur un puits existant. Le forage de plusieurs nouveaux puits coûte des centaines de milliers à des millions de dollars et n'est que rarement entrepris sur les volcans à des fins de surveillance uniquement. Des thermomètres simples avec des enregistreurs de données dédiés peuvent être placés dans le sol ou dans des cours d'eau pour aussi peu que quelques centaines de dollars. Ils ne sont que rarement télémesurés et collectent plutôt des données en continu pendant un certain nombre de semaines, voire de mois, avant la récupération des données.
Les données sur l'eau sont régulièrement examinées conjointement avec d'autres données de surveillance. Les données sont collectées toutes les 15 minutes sur des jauges de flux typiques. D'autres paramètres peuvent être collectés plus fréquemment. Des systèmes d'alarme peuvent être construits de manière à ce que les concentrations chimiques anormales, les débits ou les changements de pression soient immédiatement transmis au personnel de surveillance.
Les jauges de cours d'eau peuvent devenir peu fiables après de grosses tempêtes, car les tempêtes peuvent modifier la forme du chenal de la rivière et rendre la courbe d'évaluation inexacte. Une nouvelle courbe de tarage doit être déterminée par les équipes de terrain. Les tempêtes, la neige et d'autres conditions environnementales peuvent parfois interférer avec la transmission des données, de sorte que l'enregistrement de la surveillance peut être périodiquement interrompu. Les capteurs de fond peuvent être dégradés par les températures élevées et
conditions de haute pression et peuvent échouer et doivent être remplacés périodiquement. Les thermistances pour la surveillance du sol et des eaux de surface peuvent être vandalisées par des humains ou des animaux et peuvent se dégrader avec le temps en raison de conditions difficiles.
De grands changements de température, de chimie ou de débit qui ne sont apparemment pas liés aux paramètres climatiques peuvent être dus à des changements dans le système volcanique. D'autres études et évaluations sont ensuite entreprises.
Les jauges de flux sont courantes dans le monde développé, mais moins dans le reste du monde. Cependant, toutes les jauges de cours d'eau ne sont pas utiles pour surveiller les volcans, à moins qu'elles ne soient placées avec cet objectif à l'esprit. Une station de jaugeage utilisée expressément pour la surveillance des volcans est située dans le Norris Geyser Basin dans le parc national de Yellowstone (http://waterdata.usgs.gov/mt/nwis/uv?site_no=06036940). Les données en temps réel du puits d'eau Chance, surveillées par l'observatoire de Long Valley, se trouvent à l'adresse http://lvo.wr.usgs.gov/cw3_main.htm.

Signe vital 6. Instabilité de la pente

introduction
Les volcans sont soumis à divers types d'instabilité des pentes, certaines liées aux processus éruptifs, d'autres au relief escarpé et aux pentes instables qui caractérisent de nombreux édifices volcaniques. Cette section traite des coulées de débris, qui sont des mélanges à écoulement rapide de fragments de roche, de boue et d'eau qui prennent naissance sur des pentes abruptes. Connus sous le nom de lahars lorsqu'ils proviennent des volcans, ils font partie des dangers volcaniques les plus destructeurs et les plus persistants. Les lahars menacent des vies et des biens non seulement sur les volcans, mais aussi loin en aval dans les vallées qui drainent les volcans, où ils arrivent soudainement et inondent des fonds de vallée entiers. Les coulées de débris peuvent détruire la végétation et les structures sur leur passage, y compris les ponts et les bâtiments. Leurs dépôts peuvent recouvrir des routes, des aires de loisirs et des voies ferrées, et remplir ou détourner les canaux des cours d'eau, réduisant ainsi leur capacité de charge et leur navigabilité.
Les lahars peuvent être des lahars primaires ou secondaires. Les lahars primaires commencent pendant les éruptions volcaniques, à la suite de matériaux éruptifs chauds qui font fondre la neige et la glace ou rompent des lacs ou d'autres eaux retenues. Les lahars secondaires peuvent se développer à tout moment après les éruptions, à la suite de fortes pluies ou de crues glaciaires qui mobilisent des cendres, des sols érodables ou du till glaciaire. Des crues soudaines ont été enregistrées à partir de quatre glaciers dans le parc national du mont Rainier pendant des périodes de temps exceptionnellement chaud ou pluvieux en été ou au début de l'automne, et ont inondé les routes en aval et les zones de loisirs (Walder et Driedger, 1994a). Contrairement à d'autres risques volcaniques qui ne sont pas nécessairement limités par la topographie, tels que les chutes de cendres et les coulées pyroclastiques, les coulées de débris sont généralement contenues dans les fonds de vallée et suivent des chemins prévisibles le long des canaux des cours d'eau, rendant ainsi l'atténuation des risques pratique grâce à la délimitation des zones d'inondation possibles et -surveillance temporelle des canaux de coulée de débris.
La susceptibilité et les déclencheurs potentiels des coulées de débris peuvent être déterminés pour un volcan et l'activité de déclenchement potentielle surveillée. La présence d'un lac de cratère, d'importantes quantités de neige ou de glace, ou de roches structurellement insalubres, telles que des matériaux physiquement et chimiquement altérés par des gaz et des fluides volcaniques, peuvent être évaluées grâce à des travaux géologiques sur le terrain et à la cartographie. Les études sur le terrain peuvent également révéler des dépôts de coulées de débris provenant d'éruptions précédentes, offrant une perspective sur les dangers locaux et régionaux potentiels. Les dépôts de coulée de débris peuvent parfois s'étendre sur des dizaines de kilomètres d'un volcan.
Pour plus d'informations sur l'instabilité des talus, voir le chapitre sur le suivi des mouvements de talus.

Méthodes sélectionnées pour surveiller le mouvement des pentes
Les éléments ou signes vitaux de la surveillance du mouvement des pentes pertinents pour la surveillance des volcans comprennent (1) la détermination des types de glissements de terrain, (2) la surveillance des déclencheurs et des causes des glissements de terrain, (3) la délimitation des dangers du lahar et (4) la surveillance du lahar en temps réel. Les deux premiers signes vitaux sont traités dans le chapitre sur les pentes. Deux méthodes sont décrites ci-dessous pour surveiller les risques et les mouvements de lahar.

Niveau 3, Méthode 1 : Délimitation des dangers de Lahar
LAHARZ est une méthode rapide, objective et reproductible utilisant un système d'information géographique (SIG) avec des modèles altimétriques numériques (MNT) pour délimiter les zones d'inondation de lahar (Iverson et al., 1998). Le U.S. Geological Survey a développé la méthode pour les volcans où les données, le temps, le financement ou le personnel sont insuffisants pour appliquer les méthodes de cartographie géologique traditionnelles. Les méthodes de cartographie LAHARZ et traditionnelles sont basées sur les mêmes principes : (1) l'inondation par les lahars passés fournit une base pour prédire l'inondation par les futurs lahars (2) les risques de lahar distaux sont confinés aux vallées qui se dirigent sur les flancs du volcan (3) le volume de lahar est largement contrôle l'étendue de l'inondation en aval (4) les lahars volumineux se produisent moins souvent que les petits lahars et (5) personne ne peut prédire la taille du prochain lahar qui descendra un drainage donné.
Le programme SIG LAHARZ est une méthode automatisée qui combine des analyses statistiques des données d'inondation de lahar de neuf volcans pour développer des équations quantitatives qui prédisent la section transversale de la vallée et la zone planimétrique qui seraient inondées par des lahars de différents volumes. La méthode SIG délimite simultanément les zones d'inondation pour une variété de volumes de lahar, décrivant ainsi les gradations du risque d'inondation. Le risque d'inondation est le plus important dans les fonds de vallée à proximité d'un volcan et diminue à mesure que les altitudes au-dessus des fonds de vallée et les distances du volcan augmentent. La représentation automatisée des gradations du risque est l'un des principaux avantages de cette méthodologie SIG. La méthode nécessite un DEM d'une précision et d'une résolution suffisantes combinée à une connaissance pratique des programmes SIG. Le programme LAHARZ est disponible auprès du U.S. Geological Survey Cascades Volcano Observatory.

Niveau 3, Méthode 2 : Surveillance en temps réel des Lahars
La détection en temps réel des lahars à proximité de leurs sources peut fournir des avertissements opportuns aux personnes dans les zones d'inondation délimitées, si des systèmes de communication et des plans d'évacuation adéquats existent. La surveillance continue et automatisée des coulées de débris peut également fournir des informations utiles pour identifier des conditions météorologiques spécifiques qui augmentent la probabilité de lahars déclenchés par les précipitations ou d'inondations glaciaires déclenchées par l'eau de fonte. Les scientifiques de l'U.S. Geological Survey ont développé un système peu coûteux, durable, portable et rapide à installer pour détecter et surveiller en permanence l'arrivée et le passage des coulées de débris et des inondations dans les vallées drainant les volcans (LaHusen, 1996). Ce système automatisé, le moniteur de débit acoustique (AFM), détecte et analyse les vibrations du sol avec une unité compacte à énergie solaire installée à proximité de canaux spécifiques où les lahars peuvent se déplacer. Il utilise un capteur robuste et un microprocesseur sur site pour analyser en continu les signaux de vibration et détecter les coulées de débris et les inondations en fonction de la fréquence, de la composition, de l'amplitude et de la durée du signal de vibration. Un système radio bidirectionnel communique entre chaque unité de détection et une station de base via un réseau radio. Un système AFM est en place pour détecter les lahars à grande échelle qui pourraient se produire au mont Rainier voir http://ic.ucsc.edu/

syschwar/eart3/exercises/Rainier_warning_sys.html.
Chaque station AFM mesure l'amplitude du signal de vibration au sol chaque seconde et envoie des données par radio à la station de base à intervalles réguliers, généralement 15 minutes. Si l'instrument détecte des vibrations qui dépassent une certaine valeur seuil (réglable pour chaque site individuel) pendant plus de 40 secondes, l'AFM transmet des messages d'alerte immédiats. Il continue d'envoyer des données d'alerte à des intervalles d'une minute tant que le signal reste au-dessus du niveau de seuil. Lorsque le signal tombe en dessous du niveau de seuil, l'AFM reprend son fonctionnement normal, transmettant à des intervalles moins fréquents. Le système AFM présente des avantages distincts par rapport aux autres systèmes de détection : (1) le capteur et le microprocesseur sont configurés pour analyser spécifiquement les pics de vibrations généralement produits par les coulées de débris et les inondations, et filtrer d'autres bruits ou tremblements qui pourraient affecter les sismographes normaux (2) les flux sont surveillés à mesure qu'ils s'approchent et s'éloignent des sites surveillés individuels et (3) l'équipement est prêt à détecter immédiatement les flux ultérieurs sans aucune maintenance supplémentaire.
En règle générale, deux ou trois stations AFM sont positionnées dans chaque drainage sélectionné afin que la vitesse du lahar puisse être déterminée à partir des heures d'arrivée entre les stations, ce qui fournit un système robuste et redondant. Un ou plusieurs répéteurs radio au sommet d'une colline peuvent être nécessaires pour relayer les signaux en aval vers une station de base où des actions appropriées peuvent être lancées. Le coût d'installation d'un système de surveillance AFM de base est d'environ 50 000 $ par drainage couvert.

TECHNIQUES DE SURVEILLANCE UTILISÉES POUR DE NOMBREUX SIGNES VITAUX

Méthode 1. Télédétection par satellite

La description
La télédétection par satellite est utile pour surveiller et mesurer une variété de phénomènes volcaniques, y compris les émissions thermiques, les nuages ​​de cendres et de gaz volcaniques et la déformation de la surface. En règle générale, des satellites utilisant des capteurs infrarouges sont utilisés pour détecter et suivre l'activité volcanique, et des capteurs ultraviolets et radar sont utilisés pour mesurer les gaz et les surfaces au sol. De nombreux processus volcaniques émettent de la chaleur. Les processus qui émettent de la chaleur dans le cadre d'une éruption sont appelés sources actives. Les exemples incluent les coulées pyroclastiques, les coulées de lave, les dômes de lave et les fontaines de lave. Les processus qui émettent de la chaleur pendant de longues périodes mais qui n'indiquent normalement pas une éruption imminente sont appelés sources passives. Les exemples incluent les sources chaudes, les geysers, les fumerolles, les fractures et les lacs de cratère.
Pour les phénomènes volcaniques moins explosifs, tels que les coulées de lave et les fontaines de lave, la télédétection par satellite peut aider à l'interprétation des données sismiques, en particulier pour les volcans éloignés ou difficiles d'accès. La télédétection peut déterminer si un type de signal sismique typiquement observé lors d'une éruption (tremblement volcanique) est lié à un processus relativement lent tel que la montée de magma dans un conduit, ou une éruption explosive plus dangereuse. Dans d'autres cas (par exemple, le Kīlauea, l'Etna), la télédétection a été utilisée pour détecter les changements dans le caractère des coulées de lave, du type alimenté par un système de tubes souterrains à un écoulement de surface (Harris et al., 1997a), ainsi que taux d'effusion de lave (Harris et al., 2000). Bien que ce changement dans le caractère de l'écoulement puisse ne pas être apparent dans les données sismiques, il peut signaler une transition dans le type et l'emplacement du danger d'écoulement de lave.
La télédétection thermique des processus actifs a dans certains cas identifié avec succès les précurseurs d'une activité volcanique dangereuse et a aidé à la prévision à court terme (de quelques jours à plusieurs semaines) d'une activité volcanique explosive dangereuse (Schneider et al., 2000 Dehn et al., 2002 Dean et al., 2004). Par exemple, lorsque le magma pénètre dans un dôme de lave, ses flancs peuvent devenir trop raides, entraînant l'effondrement. Cela génère des coulées de blocs chauds et de cendres (flux pyroclastiques) qui peuvent être détectés par imagerie satellitaire. Un grand effondrement de dôme peut déclencher une éruption explosive de plus grand volume car le magma sous-jacent riche en gaz est rapidement dépressurisé, entraînant des colonnes d'éruption et des nuages ​​​​de cendres se déplaçant sur des milliers de kilomètres.
Les éruptions volcaniques explosives peuvent injecter de grands volumes de cendres volcaniques et de gaz dans l'atmosphère, où ils sont dispersés par les vents. Les cendres volcaniques sont un mélange non consolidé de fragments de roche, de cristaux et de verre de la taille de sable ou de poussière, qui présentent un grave danger pour les aéronefs et les machines. De 1973 à 2003, près de 100 rencontres d'avions avec des cendres volcaniques en suspension ont été documentées, dont plusieurs ont presque entraîné la perte de l'avion. Les coûts typiques par rencontre vont de plusieurs dizaines de milliers de dollars à 80 000 000 $ (Marianne Guffanti, U.S. Geological Survey, 2005, communication personnelle). Les nuages ​​de cendres à la dérive (ceux qui se sont détachés de l'évent) sont indétectables par le radar embarqué d'un avion et sont difficiles à voir par faible luminosité et la nuit. La détection et le suivi par satellite des nuages ​​de cendres dérivants, la modélisation des prévisions de dispersion des nuages ​​et la communication rapide des analyses sont utilisés pour atténuer le risque de cendres volcaniques. En plus du danger aérien, la chute de cendres peut se produire à la suite d'une éruption nuageuse. Cela peut aller d'un léger saupoudrage à d'épais dépôts de cendres, même à grande distance du volcan (Houghton et al., 2000). Le suivi et la modélisation par satellite des panaches de cendres aident également à prédire la chute des cendres. Les prévisions et la modélisation des modèles de chute de cendres typiques peuvent aider les gestionnaires à atténuer les effets de la charge de cendres sur la santé humaine et animale, les machines et les structures.
Des gaz volcaniques sont également émis lors d'une éruption explosive, l'eau, le dioxyde de carbone et le dioxyde de soufre étant les plus abondants. Bien que ces gaz ne présentent pas de danger aigu pour les aéronefs, en grande quantité, ils peuvent constituer un danger chronique pour la santé, les infrastructures et l'environnement. Une fois que le dioxyde de soufre est émis dans l'atmosphère, il se combine avec l'eau pour produire un aérosol d'acide sulfurique (sulfate). En grande quantité, ces gouttelettes acides peuvent affecter le climat mondial en reflétant le rayonnement solaire entrant. Les gouttelettes d'acide sulfurique sont très petites, elles peuvent donc rester en suspension dans l'air pendant des mois, voire des années. Les structures ou les aéronefs situés dans des zones contenant des aérosols sulfatés pourraient subir des dommages chroniques, tels que le craquelage des fenêtres en acrylique, la corrosion des supports et des joints en caoutchouc et l'accumulation de dépôts dans les appareils de traitement d'air ou les moteurs. Ces effets sont difficiles à documenter car ils peuvent se produire lentement sur une période de plusieurs années. La télédétection par satellite offre la capacité de détecter et de quantifier les quantités de dioxyde de soufre libérées lors d'une éruption, ainsi que l'aérosol de sulfate qui en résulte. Cela inclut le dégazage non explosif du dioxyde de soufre, qui est surveillé avec succès à Kīlauea depuis des années. Bien que les mesures de gaz au sol soient les plus utiles pour la surveillance de routine, l'analyse par satellite fournit un aperçu synoptique de l'étendue du panache de gaz et aide à visualiser et à mesurer le nuage de brouillard volcanique (« vog ») produit par l'évent, ou par l'entrée de la lave du Kīlauea dans l'océan (Voir Sutton et al., 1997).
La surveillance thermique de routine des sources passives à l'aide de la technologie satellitaire a, dans quelques cas, identifié des précurseurs d'éruption pendant les troubles volcaniques, lorsqu'une augmentation mesurable des émissions thermiques a fourni des preuves d'une intrusion de magma et de la libération subséquente de gaz chauds (Sparks, 2003). Cependant, en pratique, les sources passives sont difficiles à surveiller par satellite car leurs températures sont basses et leurs caractéristiques sont généralement trop petites pour être résolues par les capteurs thermiques disponibles, qui ont typiquement une résolution spatiale de 60 m.

Méthodes de surveillance
La télédétection par satellite peut surveiller l'activité volcanique fréquemment et à un coût faible à modéré Harris et al., 1997b). Une grande partie des données satellitaires sont disponibles en ligne en temps quasi réel, de sorte que dans de nombreux cas, les dépenses n'incluent pas les stations de réception pour les données de liaison descendante. La télédétection par satellite et la surveillance sismique peuvent être combinées de manière symbiotique pour déterminer le type et le danger potentiel d'une éruption de cendres. L'imagerie satellitaire fournit également des informations sur des phénomènes qui ne peuvent être observés d'aucune autre manière, tels que les anomalies thermiques, les émissions de gaz à grand volume et les nuages ​​​​de cendres volcaniques dangereux. Diverses données satellitaires complémentaires (tableau 2) sont disponibles pour faire ces observations. Ces données peuvent généralement être classées comme (1) fréquentes, en temps quasi réel, à faible résolution spatiale, telles que le radiomètre avancé à très haute résolution (AVHRR), le spectroradiomètre imageur à résolution moyenne (MODIS) et les capteurs de satellites environnementaux opérationnels géostationnaires (GOES) ou (2) des images peu fréquentes, non en temps réel et à haute résolution spatiale, telles que les capteurs de satellite de télédétection terrestre (Landsat) et les capteurs ASTER (Advanced Spaceborne Thermal Emission Thermal Reflection Radiometer). L'utilisation combinée des deux types de données satellitaires fournit une méthode robuste pour détecter l'activité volcanique et cartographier les reliefs volcaniques et les dépôts d'éruption.
Certains capteurs satellites mesurent la lumière à des longueurs d'onde non visibles par l'œil humain. Les plus utiles pour surveiller les volcans sont les longueurs d'onde infrarouges, juste plus longues que celles que les humains peuvent voir. La plupart des longueurs d'onde infrarouges sont absorbées par l'atmosphère terrestre, à l'exception de quelques « fenêtres atmosphériques » où l'absorption des rayons infrarouges est minime.
Une fenêtre atmosphérique utile est l'infrarouge à ondes courtes (SWIR) avec des longueurs d'onde comprises entre 3 et 5 microns. SWIR est utilisé pour surveiller les caractéristiques thermiques à haute température telles que la lave ou les coulées pyroclastiques. Plus un objet est chaud, plus il émettra d'énergie et à des longueurs d'onde plus courtes. Par exemple, un objet avec une température de 25 °C, comme la surface de la Terre, a un pic d'émission à une longueur d'onde de

10 microns. Cependant, une caractéristique volcanique avec une température de 800 °C a un pic d'émission à

3 microns. De nombreuses caractéristiques volcaniques ont une taille inférieure au pixel, ce qui signifie qu'elles couvrent une zone inférieure à 1 km de côté pour AVHRR ou MODIS. La température enregistrée par le satellite est un mélange complexe de la
températures d'un composant chaud et froid, et leurs zones respectives. Si plusieurs canaux de données sont disponibles à différentes longueurs d'onde, il est possible de tirer parti de ces relations pour estimer à la fois la température et la surface d'une composante volcanique chaude (Rothery et al., 1988).
Une autre fenêtre atmosphérique utile est l'infrarouge thermique (TIR) ​​avec des longueurs d'onde comprises entre 8 et 14 microns. Les données à ces longueurs d'onde sont utilisées pour détecter les nuages ​​de cendres volcaniques et de dioxyde de soufre. La méthode la plus courante pour distinguer les nuages ​​de cendres volcaniques des nuages ​​météorologiques est la méthode de la «fenêtre divisée». Ici, la différence de température de luminosité (BTD) est comparée entre 2 canaux satellites à des longueurs d'onde de 11 et 12 microns. Les nuages ​​volcaniques semi-transparents ont généralement des BTD négatifs tandis que les nuages ​​météorologiques ont généralement des BTD positifs (Prata, 1989). Bien que de nombreux facteurs affectent l'amplitude du signal BTD, y compris (mais sans s'y limiter) l'opacité des nuages, la quantité, la taille et la distribution des cendres et de l'eau dans le nuage et le contraste de température entre le nuage et la surface de fond, la quantité de cendres volcaniques peut être estimée à partir de données satellitaires à l'aide d'un modèle de transfert radiatif complexe (Wen et Rose, 1994). Une méthode similaire est utilisée pour détecter et mesurer les nuages ​​de dioxyde de soufre provenant soit d'un dégazage passif (à l'aide d'ASTER), soit d'éruptions explosives (à l'aide de MODIS) en utilisant des longueurs d'onde à 7,3 ou 8,6 microns, où il y a une absorption due au dioxyde de soufre (Watson et al ., 2004).
L'analyse et la surveillance des données satellitaires en temps réel nécessitent un accès rapide et fiable à de grandes quantités de données satellitaires. Les ensembles de données utiles comprennent les capteurs AVHRR et GOES sur les satellites météorologiques exploités par la NOAA et MODIS sur les satellites de recherche exploités par la NASA. La réception directe des signaux satellites est la méthode d'acquisition de données la plus fiable, mais aussi la plus coûteuse. Une station de réception satellite coûte entre 50 000 $ et 150 000 $. Une antenne parabolique distincte et le matériel informatique associé sont nécessaires pour chaque flux de données, ce qui augmente les coûts de 25 000 $ à 50 000 $ par antenne parabolique. Les coûts d'installation varient en fonction des besoins en infrastructure et des actifs d'un site particulier et peuvent aller de 5 000 $ à 15 000 $. Un gestionnaire de station dédié exploite les systèmes et archive les données. Les salaires des scientifiques en télédétection et des analystes de données sont des coûts supplémentaires.
Les données satellitaires peuvent également être acquises en ligne auprès d'agences gouvernementales et d'universités pour un coût d'environ 10 000 $ à 20 000 $ par an. Environ 10 000 $ sont également nécessaires pour les logiciels informatiques spécialisés, plus les coûts des postes de travail informatiques et des grands dispositifs de stockage pour stocker les données reçues à un rythme de plusieurs gigaoctets par jour. Un réseau informatique robuste et fiable capable de gérer ce volume de données est également nécessaire.
Les données non en temps réel provenant de satellites tels que Landsat et ASTER sont toujours des alternatives moins coûteuses. Les données de Landsat et d'ASTER peuvent révéler des caractéristiques plus petites (15 à 90 m) que les satellites qui fournissent des données en temps quasi réel (1 km). Par conséquent, les données Landsat et ASTER sont principalement utilisées pour améliorer l'interprétation des données en temps réel décrites ci-dessus. Cette approche présente des avantages par rapport aux données en temps quasi réel, comme un coût inférieur (50 $ à 300 $ par scène couvrant

34 000 km2), une résolution spatiale plus élevée et la capacité de détecter des régions plus petites de température de surface élevée et de mesurer les émissions non éruptives de dioxyde de soufre. De plus, tout le traitement des données est effectué avec des ordinateurs de bureau utilisant des logiciels spécialisés, mais relativement peu coûteux (500 $ à 2 000 $).
Les inconvénients sont la disponibilité limitée des données et la couverture nuageuse. Actuellement, les données Landsat et ASTER ne sont disponibles que tous les 8 à 16 jours. La couverture nuageuse, cependant, est le principal inconvénient. Dans les zones couvertes de nuages, les nuages ​​de cendres volcaniques et de gaz produits par les éruptions explosives ne peuvent être observés qu'une fois qu'ils s'élèvent au-dessus des nuages ​​météorologiques. Toute activité thermique en surface est partiellement ou totalement masquée par la présence de nuages.
En résumé, pour créer un système efficace de surveillance des volcans en temps quasi réel par satellite, l'objectif principal est de répéter les observations à une résolution temporelle adéquate pour correspondre au processus volcanique observé. Les précurseurs à long terme (par exemple, la déformation, le chauffage progressif) nous permettent d'utiliser les ensembles de données à plus haute résolution. Les coulées de lave et les explosions où des changements se produisent à l'échelle de quelques minutes nécessitent la résolution spatiale grossière des satellites en orbite polaire ou géostationnaires fournissant des images toutes les heures.

TECHNIQUES ÉMERGENTES DE SURVEILLANCE DES VOLCANS

introduction

Les techniques de surveillance des volcans évoluent rapidement en raison de l'innovation technologique et de notre compréhension croissante des processus qui provoquent les éruptions. Cette section décrit trois exemples de nouvelles méthodes de surveillance à distance qui sont utilisées pour surveiller les volcans actifs. Le premier utilise des véhicules aériens sans pilote (UAV) pour accéder aux zones dangereuses, le second utilise des mesures répétées de la distance entre un satellite et le sol (InSAR), et le troisième capte les ondes sonores à basse fréquence (infrasons) pour détecter les explosions.
Toutes les méthodes de surveillance plus traditionnelles évoluent également. Par exemple, l'expansion rapide des communications par satellite et de la technologie Internet à faible encombrement entraîne une révolution dans la façon dont les volcans sont surveillés. Actuellement, des images sismiques, gazeuses, de déformation et même visuelles sont surveillées sur des volcans éloignés, certains situés à des milliers de kilomètres des stations de base, à l'aide de communications par satellite et Internet. De plus, de nouveaux accéléromètres à semi-conducteurs à faible coût, un GPS et des systèmes radio locaux sans fil permettent le déploiement rapide par hélicoptère de petits capteurs avec communication de données en temps réel, même dans les cratères de volcans actifs.
La surveillance des gaz volcaniques évolue également rapidement, et de nouveaux instruments, tels que les spectromètres infrarouges à transformée de Fourier (FTIR), sont désormais disponibles, qui peuvent mesurer à distance des espèces de gaz, telles que le chlore, qui n'étaient auparavant détectées qu'à l'aide d'un échantillonnage direct plus dangereux. à partir des zones de ventilation, ces instruments permettent de mieux comprendre le contenu en gaz et l'explosivité potentielle des volcans.

Figure 11. Véhicule aérien sans pilote monté sur la catapulte de lancement pneumatique dans le parking de l'observatoire Johnson Ridge au mont St. Helens, où il a été lancé et récupéré. Niveau 3, Méthode 1 : Véhicules aériens sans pilote (UAV)
Le développement de drones autonomes a permis aux scientifiques d'explorer des anomalies inexplorées dans des endroits difficiles d'accès ou dangereux d'accès. La surveillance des volcans promet de bénéficier du développement des drones. Fin septembre 2004, le mont St. Helens a commencé sa première éruption soutenue depuis 1986, et pour la première fois des drones ont été envoyés dans le cratère d'un volcan en éruption (McGarry, 2005 Patterson et al., 2005).Cette expérience a démontré que de petits avions sans pilote (2,45 m d'envergure) et relativement peu coûteux peuvent être dirigés avec précision à moins d'un kilomètre au-dessus d'un évent volcanique actif et maintenus en poste pendant de longues périodes en utilisant des itinéraires préprogrammés et un vol stabilisé par ordinateur. Les drones ont fourni des données d'imagerie optique et infrarouge en temps réel à une station de base mobile à 10 km du cratère (Figs. 11 et 12). Ces données ont été utilisées pour surveiller les changements visibles et thermiques dans le dôme de lave et l'évent actifs, tels que la croissance et l'effondrement du nouveau dôme de lave, ainsi que l'étendue et la croissance des zones chaudes. Les drones offrent également des avantages potentiels pour une utilisation dans des zones sensibles et dangereuses. Les niveaux de bruit sont généralement inférieurs à ceux des avions pilotés à des altitudes de plus de mille pieds, les petits UAV utilisés au mont St. Helens ne peuvent généralement pas être entendus par-dessus le bruit de fond et le bruit du vent. Étant donné qu'aucun pilote n'est nécessaire et que peu de carburant est utilisé (il existe de nombreuses options de carburant - alcool, essence ou carburants lourds), les risques, les coûts et les impacts environnementaux inférieurs offrent des avantages significatifs par rapport aux autres méthodes de surveillance.
Des UAV avec différentes charges utiles et capacités aéronautiques sont maintenant disponibles ou sont en cours de développement pour un usage civil et gouvernemental. Celles-ci incluent à la fois des configurations à voilure fixe et des giravions, ainsi qu'une gamme de types et de tailles de centrales électriques, de charges utiles et de capacités de portée/durée de vol. En raison du faible coût, de la disponibilité actuelle et de la capacité de lancement à partir d'emplacements petits et éloignés, les types d'UAV à voilure fixe et à giravion plus petits offrent un potentiel considérable pour une surveillance discrète des volcans. Le 2,45 m, l'homme-portable classe d'UAV à voilure fixe utilisé au mont St. Helens a coûté environ 25 000 $ par avion avec un
pilote automatique, radiotélémétrie embarquée et ordinateur de suivi de vol/relais de données. Ces avions sont capables de transporter une charge utile allant jusqu'à 4 kg, mais les modèles plus grands peuvent accueillir des charges utiles allant jusqu'à 10 kg. Le volume de charge utile maximum du plus petit modèle est

10 cm de diamètre × 20 cm de section transversale, tandis que les plus grands modèles ont une dimension de charge utile de

45 × 28 × 12 cm. Comme dans tout aéronef, il existe des compromis entre la vitesse, la charge utile et la durée. Cependant, des durées de 10 à 20 heures à 30 à 60 nœuds de jour comme de nuit, et des portées allant jusqu'à 1 000 km avec des itinéraires préprogrammés et un suivi GPS autonome sont possibles, bien que le relais de données en temps réel soit généralement limité à 30 km de ligne de -distance de vue sans répéteurs radio. Étant donné que ces aéronefs sont sans pilote, dans certaines conditions à haut risque/bénéfice élevé, ils sont considérés comme consommables. Une station de base mobile complète avec radiotélémétrie, contrôleur de vol, acquisition/traitement de données et catapulte de lancement portable (30 kg) coûte environ 85 000 $. Des services d'assistance en vol tels que ceux décrits ci-dessus sont disponibles dans le commerce.
L'utilisation des drones pour la surveillance des volcans est actuellement limitée par la disponibilité de petits capteurs légers. Seules des caméras infrarouges optiques et non calibrées ont été testées au mont St. Helens, bien que plusieurs nouveaux capteurs miniatures soient en cours de développement ou de modification pour l'utilisation d'UAV. Par exemple, les dernières générations de spectromètres légers de dioxyde de soufre (SO2) sont facilement adaptables à l'utilisation d'UAV et fourniront une méthode alternative pour la surveillance des gaz volcaniques. Une autre application standard est l'utilisation de la photographie numérique haute résolution et de l'imagerie stéréo pour documenter, surveiller et mesurer les changements, tels que les caractéristiques des zones de ventilation dangereuses et l'étendue des coulées de lave et d'autres produits éruptifs. L'une des promesses offertes par la surveillance des volcans par UAV est de fournir des observations par mauvais temps, mais c'est aussi l'un des plus grands défis. Actuellement, le suivi GPS et le vol autonome disponibles permettent l'exploitation d'aéronefs UAV par temps nuageux, bien que l'exploitation dans des conditions de givrage puisse être problématique. Un défi technique plus important consiste à développer des capteurs capables de voir à travers les nuages. Les chercheurs testent actuellement un système radar léger basé sur un drone, qui offre des promesses d'observations dans de mauvaises conditions météorologiques.
À ce jour, la plupart des développements et des tests d'UAV ont eu lieu dans l'espace aérien militaire, où les vols civils sont interdits ou étroitement surveillés. L'une des principales préoccupations concernant l'exploitation d'UAV dans l'espace aérien civil est de fournir une séparation entre l'UAV et les aéronefs commerciaux et privés qui opèrent dans la même zone. Les opérations d'UAV au mont St. Helens ont été autorisées en vertu d'un certificat d'autorisation délivré par la FAA à l'exploitant d'UAV pour le vol dans la zone de restriction de vol temporaire entourant le volcan.

Figure 12. Images fixes prises à partir d'une vidéo capturée à partir d'un véhicule aérien sans pilote du nouveau dôme de lave

300 mètres de long. L'image de gauche montre une image améliorée, qui accentue la topographie, donnant ainsi aux volcanologues une idée de la pente du dôme de lave. (La pente détermine la probabilité d'un effondrement, qui pourrait générer des coulées pyroclastiques dangereuses.) L'image de droite est une image infrarouge en niveaux de gris inversés, dans laquelle les nuances plus profondes de gris et de noir représentent un matériau plus chaud.

Cette image montre la zone chaude (noire) en forme de U où la nouvelle lave est extrudée (indiquée par V). Il montre également que les dépôts de cendres récents (A), si proéminents au centre gauche de l'image de gauche, sont relativement froids.

3 cm par an, probablement parce que le magma s'accumulait sous la surface. En conséquence, le U.S. Geological Survey a commencé des levés GPS et de nivellement annuels à South Sister et a installé des instruments GPS et sismiques continus. Désormais, tout signe d'éruption imminente doit être reconnu bien à l'avance. InSAR, cependant, présente quelques inconvénients importants. Dans son état actuel de développement, InSAR n'est pas un outil opérationnel pour surveiller la plupart des volcans montrant des troubles importants, menaçant d'entrer en éruption ou en train d'entrer en éruption. Les limitations actuelles de la disponibilité des satellites et des priorités de tâches créent de longs intervalles entre les acquisitions d'images répétées, ce qui limite le rôle actuel d'InSAR à soutenir la caractérisation à long terme de la déformation, similaire aux mesures en mode levé comme le nivellement ou le levé GPS. Une image InSAR ne peut être prise que lorsqu'un satellite est au-dessus de la tête, généralement en moyenne quelques fois par mois.
Les effets atmosphériques, y compris les tempêtes ou les cellules à fortes concentrations de vapeur d'eau, peuvent également introduire des erreurs dans les mesures InSAR. De telles conditions ne conduisent pas à l'incohérence, mais introduisent plutôt des signaux biaisés dans les données qui peuvent être interprétés à tort comme une déformation. Ainsi, il est important de confirmer les résultats de tout interférogramme unique avec d'autres données, y compris les mesures de déformation terrestre ou d'autres interférogrammes temporellement indépendants.
InSAR n'image que les déplacements de surface qui se produisent dans la même direction que la ligne de visée du radar, qui est généralement inclinée de 15° à 45° par rapport à la verticale. Ainsi, un interférogramme contient une combinaison de composantes de déformation horizontale et verticale. La conversion des mesures InSAR en déplacements horizontaux et verticaux séparés, similaires à ceux fournis par le GPS, nécessite au moins deux interférogrammes qui couvrent la même période et imagent le sol à partir de différents points de l'espace. De telles conditions sont difficiles à satisfaire, il est donc préférable d'utiliser InSAR en combinaison avec d'autres méthodes qui surveillent sans ambiguïté les composantes horizontales, verticales ou les deux de la déformation de surface.
Bien qu'InSAR puisse être moins cher que d'autres méthodes de surveillance pour les volcans éloignés, l'acquisition et l'analyse de données peuvent encore être assez coûteuses. Le traitement des données nécessite un logiciel spécialisé pouvant inclure un logiciel gratuit, qui vient sans support technique et nécessite donc un expert déjà formé à son utilisation, ou un logiciel supporté techniquement, qui peut coûter jusqu'à 30 000 $ et nécessite toujours un opérateur avec une bonne expérience de travail avec les données radar. Les scènes radar coûtent généralement environ 100 $ par trame de 100 km 2 , selon la façon dont elles sont acquises. Depuis 2008, seules les agences spatiales canadienne, européenne et japonaise exploitent des satellites dotés de capacités InSAR, de sorte que toutes les données doivent être achetées auprès de ces organisations.
Les variations des caractéristiques de surface entre les passages du satellite causées par la glace, la neige et la végétation provoquent une panne du signal radar dans certaines zones, empêchant la récupération d'une mesure de déformation. Cette « incohérence » est un problème important sur les volcans couverts de glace et de neige ou végétalisés, comme le mont Rainier, de sorte qu'InSAR n'est pas actuellement un outil de surveillance fiable sur de tels sites. Les futures missions satellitaires et les nouvelles techniques de traitement du signal pourraient réduire ce problème au cours de la prochaine décennie.

Niveau 3, Méthode 3 : Surveillance des Explosions Volcaniques avec Infrasons
De nombreux phénomènes naturels et activités humaines créent des ondes sonores dans l'atmosphère à des fréquences sous-audibles, généralement comprises entre 1 et 25 Hz. Appelé infrasons, il est généré par des sources telles que le vent, les vagues océaniques, l'industrie lourde, les chutes de pierres, les avions, les météores et les explosions. Les ondes infrasoniques peuvent parcourir de longues distances à travers l'atmosphère et, parce que l'atmosphère a une structure relativement simple par rapport à la Terre hétérogène, les ondes infrasoniques sont beaucoup moins déformées par leur voyage à travers l'atmosphère que les ondes sismiques par leur voyage à travers la Terre. Ainsi, les signaux infrasoniques créés par une source volcanique telle qu'une explosion peuvent être beaucoup plus simples, et donc plus faciles à interpréter, lorsqu'ils sont reçus par un capteur infrasonique (tel qu'un microphone ou un microbarographe) que les ondes sismiques générées par la même explosion lorsqu'elles sont reçues à un sismographe. Les explosions en particulier produisent des signaux infrasoniques très caractéristiques, et les capteurs infrasoniques installés autour des volcans actifs se sont avérés utiles pour distinguer les explosions des autres sources sismiques telles que les chutes de pierres, les avalanches et les rafales de vent (Johnson et al., 2003).
Les explosions sont également souvent enregistrées sur les stations sismiques. Par exemple, deux explosions survenues au mont St. Helens en 2005 ont d'abord été détectées par des stations sismiques. Cependant, les sismographes peuvent être tellement submergés par les ondes sismiques des tremblements de terre locaux que tout tremblement de terre produit par les explosions peut être complètement masqué. Au cours des deux premières semaines de l'éruption du mont St. Helens en 2004-2005, l'activité sismique était si intense que les explosions ne pouvaient être détectées que visuellement. Ainsi, un autre avantage clé de la surveillance infrasonique des volcans est que les explosions apparaîtront toujours sur les capteurs infrasoniques lorsque l'activité sismique intense a rendu les stations sismiques pratiquement inutiles pour la détection des explosions.

Que peut-on apprendre
La question la plus importante à laquelle la surveillance infrasonique peut répondre sur un volcan est la suivante : « Des explosions se produisent-elles actuellement ? » Par conséquent, les données des capteurs infrasonores doivent être transmises aux observatoires en temps réel. Le fait d'avoir deux capteurs infrasoniques ou plus sur le même site améliore considérablement la capacité d'évaluer si un signal donné est infrasonique (voyageant à la vitesse du son) ou subsonique (comme les rafales de vent, qui voyagent à une fraction de la vitesse du son).
Les questions secondaires incluent : « Où se trouve la source de l'explosion ? » et peut-être « Quelle est la taille de l'explosion ? » (Bien que, dans certains cas, aucune corrélation directe entre la taille d'un signal infrasonique provenant d'une explosion et la taille d'une explosion n'ait été trouvée [Johnson et al., 2005].) Pour répondre à ces questions secondaires, deux ou plusieurs séries de des réseaux composés chacun d'au moins quatre capteurs infrasoniques sont nécessaires.

Surveillance infrasonique — Mécanique
Les capteurs infrasoniques détectent des changements de pression infimes dans l'atmosphère sur une échelle de temps allant de quelques millisecondes à quelques minutes ou plus et à des fréquences sous-audibles, généralement inférieures à 25 Hz. Les stations infrasoniques peuvent être constituées de capteurs uniques (généralement co-localisés avec un sismomètre, voir Fig. 13) ou de réseaux de capteurs qui, grâce à des techniques d'analyse de réseau, peuvent fournir des informations sur l'emplacement de la source. Les signaux de ces stations sont généralement télémesurés vers un observatoire volcanique où ils sont enregistrés, numérisés, stockés et analysés. Pour la surveillance des volcans, trois à quatre sites infrasoniques sont généralement suffisants pour surveiller de manière adéquate tous les secteurs d'un volcan, mais le nombre réel variera en fonction de la taille et des caractéristiques de chaque volcan. Les capteurs infrasoniques peuvent être placés à des distances de 20 km ou plus d'un volcan, il est donc possible d'installer un tel équipement à proximité d'un volcan agité sans exposer le personnel de terrain à des conditions dangereuses.
Les microphones individuels coûtent entre 1 000 $ et 10 000 $, selon la réduction du bruit et la sensibilité souhaitées. Des équipements supplémentaires, tels que des radios ou des antennes paraboliques pour la transmission de données, ainsi que des batteries et des panneaux solaires pour alimenter le site, coûtent entre 4 000 et 10 000 dollars de plus. Les coûts d'installation totaux vont de 5 000 $ pour un seul microphone télémétrique à plus de 50 000 $ pour un réseau de quatre microphones avec panneaux solaires, batteries, infrastructure et télémétrie satellite associés.

Figure 13. Station typique à microphone unique au mont St. Helens en 2004. Ce site est

2 km au nord-nord-est de l'évent, mais n'a enregistré aucun signal infrasonique lié à l'explosion des deux explosions survenues après son installation. Le microphone est situé à l'intérieur du boîtier métallique.

Le tuyau de trempage s'étendant de la boîte aide à réduire (mais pas à éliminer) le bruit du vent. Photo de Seth Moran (US Geological Survey).

Pour un site télémétrique de faible puissance avec un seul microphone à faible sensibilité, une installation typique comprend : une radio analogique, un boîtier d'équipement (généralement un

boîtier métallique de 0,3 m × 0,3 m × 1 m) avec une seule batterie au plomb de 100 A-heure et un boîtier électronique, un mât d'antenne, une antenne, un panneau solaire, un microphone (emballé dans un tuyau en PVC) et

7 à 10 m de tuyau suintant (pour réduire le bruit du vent). Pour un site avec un réseau de quatre microphones de haute qualité, une installation typique comprendrait une radio ou un modem satellite pour transmettre des données, un boîtier d'équipement un peu plus grand que le site à microphone unique, avec jusqu'à dix batteries de 100 A-heure, et une infrastructure suffisante pour monter plusieurs panneaux solaires et une antenne radio.
Un observatoire auquel sont envoyées les données télémétriques a besoin de son propre récepteur et de ses propres équipements pour traiter et stocker les signaux. Les coûts d'équipement sont à peu près les mêmes que pour un site de capteur infrasonique, moins le coût du capteur. Si le site du capteur infrasonique et l'observatoire ne sont pas en ligne directe, des stations de répéteur supplémentaires seront nécessaires.
L'objectif principal est la détection d'explosion en temps réel. Des analystes formés peuvent examiner les signaux entrants, ou les ordinateurs peuvent envoyer des messages d'alarme automatisés au personnel de garde lorsqu'une explosion est détectée. Cependant, les signaux infrasoniques provenant de microphones uniques peuvent être confondus avec le bruit du vent ou d'autres sources non volcaniques. Le bruit du vent (s'il ne sature pas les capteurs individuels) peut être facilement distingué des vrais signaux infrasoniques en examinant la différence des temps d'arrivée d'un signal donné à deux ou plusieurs capteurs infrasoniques dans un réseau. Étant donné que les rafales de vent se déplacent à la vitesse de l'air, les différences de temps seront beaucoup plus importantes pour les rafales de vent que pour les signaux infrasonores (qui se déplacent à la vitesse du son). Les données provenant de réseaux de quatre capteurs ou plus dans un réseau peuvent être traitées en temps quasi réel pour identifier des phases cohérentes balayant le réseau à partir d'un azimut donné indétectable à l'œil nu. Pour localiser les explosions, au moins deux sites de matrices sont nécessaires. Étant donné que les volcans sont généralement des environnements venteux, plusieurs sites infrasoniques à différents points autour du volcan améliorent les chances qu'un site enregistre une explosion sans bruit de vent.
La surveillance infrasonique n'est pas nécessaire sur les volcans inactifs. Cependant, une cache de capteurs et d'équipements pour les stations infrasonores devrait être maintenue pour faciliter un déploiement rapide lorsqu'un volcan se réveille. Les installations de terrain typiques nécessitent une à trois personnes, tandis que l'entretien périodique des stations de terrain nécessite une ou deux personnes. La surveillance est mieux effectuée dans un observatoire où les données des capteurs infrasoniques peuvent être visualisées simultanément avec les données des sismographes, des caméras à distance, des instruments GPS et d'autres équipements de surveillance. Les meilleurs emplacements pour la plupart des sites de surveillance des infrasons sont hors route, de sorte qu'un accès par hélicoptère est nécessaire au moins toutes les quelques années pour remplacer les batteries lourdes. Des visites d'entretien plus fréquentes sont souvent nécessaires pour les sites de haute altitude.
Les infrasons présentent quelques inconvénients. Le bruit du vent peut masquer complètement les signaux infrasoniques des explosions, la sélection du site est donc essentielle pour atténuer le bruit du vent. Pour des raisons encore inexpliquées, toutes les explosions ne produisent pas d'infrasons (Johnson et al., 2005). Enfin, les infrasons étant produits par les explosions, ils n'ont d'utilité que comme détecteur d'explosion. La méthode ne peut donc pas aider à prévoir les futures explosions ou autres événements volcaniques.

ÉTUDIER LE DESIGN

L'U.S. Geological Survey a la responsabilité principale de la surveillance des volcans aux États-Unis, conformément à la loi Stafford. Ce mandat, et une vaste expérience dans la surveillance des volcans, font de l'USGS l'agence principale pour le développement de conceptions d'étude. Une surveillance efficace des volcans nécessite une expertise et une instrumentation scientifiques spécialisées, ainsi qu'une collecte et une analyse de données à un moment approprié. Le niveau de menace d'un volcan détermine le degré de surveillance nécessaire pour protéger les vies, les biens et les infrastructures de l'activité volcanique.
Les gestionnaires des terres et les autorités civiles responsables de la sécurité publique devraient travailler avec l'USGS pour cibler la surveillance des volcans, fournir l'accès nécessaire aux volcans et à leurs environs et faciliter la mise en place des équipements de surveillance. La surveillance, combinée à des études des dangers et de l'histoire éruptive d'un volcan, peut réduire le risque en avertissant d'une activité imminente, de sa nature et de sa portée potentielles. Les gestionnaires des terres doivent planifier des réponses appropriées aux futures activités volcaniques, afin qu'ils puissent ensuite prendre des mesures opportunes pour protéger la vie et les biens lorsque l'activité est imminente.

Mont Rainier, Washington

Des études géologiques au mont Rainier, Washington, illustrent de nombreuses méthodes de surveillance des volcans. Le volcan est construit presque entièrement de coulées de lave d'andésite et de dacite, avec des dépôts de coulées pyroclastiques subsidiaires, des téphras très clairsemés et un seul dôme de lave connu (Sisson et al., 2001). Ses coulées de lave s'étendent jusqu'à 20 km du sommet et ont des volumes individuels jusqu'à 9 km3. La plupart de ses coulées de lave sont beaucoup plus petites, s'étendant sur 5 à 10 km du sommet, avec des volumes individuels de quelques centièmes à quelques dixièmes de km 3 . Bien que ces coulées de lave aient été trop petites pour atteindre des zones désormais fortement peuplées, elles se trouvent dans une région de glace glaciaire étendue. De futures éruptions similaires de laves mobiles conduiront à la fonte des glaciers, avec pour conséquence des inondations en aval et des coulées de débris capables d'atteindre les zones densément peuplées.
Lorsque des coulées pyroclastiques chaudes ont éclaté du volcan, ces coulées ont généralement traversé des glaciers, où elles ont érodé, entraîné et fondu la glace, transformant les coulées pyroclastiques directement en lahars mobiles.Ce processus est rapide et peu d'avertissements peuvent être donnés pour les coulées de débris créées par des coulées pyroclastiques soudainement éclatées, bien que les évaluations des dangers puissent indiquer des zones d'inondation probables. Les dangers potentiellement associés à ce type d'éruption
sont illustrés par l'éruption du Nevado del Ruíz (Colombie) en 1985, au cours de laquelle une éruption relativement petite a fait fondre de la glace et de la neige dans la zone du sommet, générant des lahars qui ont coulé sur des dizaines de kilomètres dans les vallées des flancs, tuant plus de 22 000 personnes - le quatrième plus grand single de l'histoire -le nombre de morts de l'éruption. De plus, des portions du mont Rainier supérieur ont été transformées en roches relativement faibles et riches en argile sous l'action de la circulation d'eaux acides chaudes (un processus connu sous le nom d'altération hydrothermale) (Fiske, et al., 1963 Crowley et Zimbelman, 1997 Finn et al., 2001). Dans le passé, de vastes zones de roches altérées se sont effondrées, produisant des lahars volumineux et très mobiles. Un de ces effondrements il y a 5600 ans a enlevé le sommet, le noyau et la pente nord-est du volcan, créant la coulée de boue d'Osceola qui sous-tend maintenant une grande partie des basses terres du sud de Puget Sound au sud de Seattle et à l'est de Tacoma (Crandell et Waldron, 1956 Vallance et Scott, 1997) . Un autre effondrement de roche altérée il y a 500 ans, appelé Electron Mudflow, a soudainement enterré la zone maintenant occupée par la ville d'Orting, Washington, (4 000 habitants) avec de la boue, des rochers et du bois abattu de plusieurs mètres à plusieurs dizaines de mètres d'épaisseur ( Crandell, 1971 Scott et al., 1995). Aucun bâtiment conventionnel ne peut résister à un tel lahar. Au cours des 10 000 dernières années, le mont Rainier a produit au moins 60 lahars de différentes tailles, y compris les grands événements susmentionnés avec des dépôts s'étendant dans les basses terres de Puget Sound. Actuellement,

150 000 personnes vivent dans des zones qui ont été balayées par les lahars du mont Rainier ou par les inondations associées induites par les sédiments lahariques (Sisson et al., 2001).
L'évaluation des dangers du mont Rainier est une priorité en raison du potentiel de pertes importantes en vies humaines et en biens dus aux futures éruptions et coulées de débris. La cartographie géologique et les mesures d'âge montrent que le volcan moderne a commencé à se développer

Il y a 500 000 ans au sommet des vestiges profondément érodés d'un ancien (Sisson et al., 2001). La construction du volcan s'est produite au cours de quatre ou peut-être cinq étapes alternées de croissance rapide et modeste. Des stades de croissance rapide bien définis se sont étendus de 500 000 à 420 000 ans et de 280 000 à 180 000 ans. Ces épisodes de croissance rapide ont vu l'assemblage d'un édifice élevé et l'éruption de presque toutes les coulées de lave lointaines et de grand volume. Les stades de croissance rapide étaient également des épisodes d'altération hydrothermale généralisée. Au cours des stades de croissance modestes, l'édifice élevé a été considérablement érodé et peut avoir été réduit en élévation. La production volcanique a été pour la plupart modeste depuis 180 000 ans, mais le taux d'éruption a considérablement augmenté il y a 40 000 ans, construisant une grande partie du mont Rainier supérieur actuel. Cette augmentation du taux d'éruption pourrait marquer le début d'un cinquième stade de croissance rapide, ou il pourrait s'agir d'une fluctuation dans la fourchette typique des stades de croissance modestes.
Les dépôts de téphra holocène du mont Rainier conservent des preuves supplémentaires facilement quantifiables d'éruptions épisodiques. Onze éruptions au cours des 10 000 dernières années ont projeté des cendres, de la pierre ponce, des scories et des roches plus denses assez haut dans l'air pour déposer des couches de téphra distinctives qui peuvent être reconnues sur une vaste zone (Mullineaux, 1974). En plus de ceux-ci, il existe 15 à 25 couches de cendres minces et à grain fin supplémentaires limitées à proximité du volcan. Ces cendres à grains fins sont des produits d'éruptions faiblement explosives, telles que de petites explosions lors de la libération de coulées de lave, ou des cendres à grains fins s'élevant de petites coulées pyroclastiques. Le nombre exact de ces cendres minces est difficile à déterminer car elles sont similaires en apparence et parce qu'elles s'érodent facilement, par conséquent, diverses couches sont manquantes dans une localité ou une autre. Les éruptions qui ont créé ces cendres à grain fin ont été regroupées dans le temps. Par exemple, il existe cinq sous-groupes reconnaissables de cendres minces déposées au cours de la période

2700-2200 ans B.P., suivi de près par une importante éruption de pierre ponce 2200 ans B.P. (J. Vallance et T. Sisson, résultats non publiés). Chaque sous-groupe se compose d'une à peut-être jusqu'à cinq couches de cendres de composition chimique similaire. Chaque sous-groupe représente probablement les dépôts d'une phase éruptive constituée de multiples événements explosifs. Plusieurs lahars, une coulée pyroclastique connue et deux groupes de coulées de lave sont en corrélation avec les dépôts de cendres à grains fins. Au cours de cette période de 500 ans, des phases éruptives importantes ont eu lieu tous les 100 ans, en moyenne, et chaque phase consistait en de multiples événements explosifs. Cette période très active a été précédée d'une période de près de 2000 ans sans dépôts éruptifs connus. Avant cette période de dormance apparente, le volcan était dans une autre période d'éruptions fréquentes qui a commencé peu de temps avant l'effondrement de l'édifice majeur il y a 5600 ans qui a créé la coulée de boue d'Osceola. Cette période éruptive n'a pas été étudiée en détail, mais comprenait l'éruption de pierre ponce et de cendres en même temps que l'effondrement de l'édifice Osceola, ainsi qu'à

Il y a 4700 et 4500 ans (Mullineaux, 1974). Une autre période d'éruptions fréquentes s'est déroulée il y a environ 7600 à 6600 ans, précédée d'une période de dormance, ou seulement de petites éruptions d'une durée proche de 2000 ans (Sisson et al., 2001).
Les périodes éruptives il y a 5600-4500 et 2700-2200 ans ont été dominées par des effusions de lave qui ont presque complètement rempli le cratère laissé par l'effondrement d'Osceola. Des éruptions ultérieures ont eu lieu il y a 1600 et 1100 ans, bien que la dernière ait été très petite. L'éruption d'il y a 1600 ans est déduite principalement des dépôts de lahar, et l'éruption d'il y a 1100 ans était probablement celle d'une coulée pyroclastique qui s'est transformée en lahar (Hoblitt et al., 1998), bien qu'aucun dépôt de coulée pyroclastique primaire ne soit conservé. L'effondrement majeur du flanc il y a 500 ans qui a produit l'Electron Mudflow n'a pas d'éruptions associées connues.
Sur la base des archives historiques, au moins trois douzaines d'inondations glaciaires se sont produites au XXe siècle au mont Rainier. Les crues glaciaires ne sont pas liées à l'activité volcanique du mont Rainier. Les crues glaciaires résultent de la libération soudaine d'eau des glaciers et se forment principalement par temps chaud ou lors de fortes pluies à la fin de l'été ou au début de l'automne, lorsque le manteau neigeux a été réduit par la fonte estivale (Walder et Driedger, 1994b). En l'absence de couverture neigeuse, l'eau de fonte ou les précipitations se déplacent rapidement sur et à travers les glaciers. L'eau jaillit ou monte du terminus glaciaire, entraînant des sédiments meubles des parois et des berges du canal et peut ainsi se transformer en un lahar à mesure que la marée se déplace vers l'aval. Ces crues soudaines représentent un grave danger pour les installations situées le long des vallées des cours d'eau à proximité du volcan. Des ponts, des routes et des installations pour les visiteurs ont été détruits ou endommagés le

10 reprises depuis 1926.
Le temps nécessaire pour effectuer une cartographie géologique pour comprendre le comportement éruptif passé d'un volcan ou d'un système volcanique dépend des détails nécessaires pour comprendre le système, ainsi que de la taille et des problèmes logistiques d'une zone particulière. Dans une zone relativement plate traversée par de nombreuses routes, la cartographie de 150 km 2 pourrait être réalisée en quelques semaines. Le temps de bureau pour compiler la carte dans un système d'information géographique (SIG), préparer les roches pour l'analyse chimique et effectuer la datation de l'âge nécessiterait encore quelques semaines. Ces temps de travail réels sont étalés sur quelques années, car le processus de cartographie géologique est itératif entre le travail sur le terrain, au bureau et en laboratoire, et la cartographie est fréquemment effectuée sur de nombreux quadrangles constituant la zone d'intérêt. La durée nominale de la cartographie géologique peut être multipliée par plusieurs à mesure que la complexité de la géologie augmente ou que l'accès devient difficile en raison du nombre réduit de routes, d'un terrain escarpé ou de contraintes liées à la nature sauvage. Le mont Rainier, par exemple, nécessite des compétences techniques en alpinisme pour travailler en toute sécurité. Dans certaines zones, l'utilisation d'hélicoptères peut atténuer les problèmes d'accès, mais cela n'est pas toujours possible dans toutes les zones protégées. La cartographie géologique exige que des échantillons de roche soient prélevés pour une analyse chimique et une étude pétrographique. Pendant les éruptions, la cartographie des coulées de lave et de l'extrusion du dôme peut être réalisée par photographie aérienne et/ou imagerie LIDAR avec les résultats mis dans un SIG, mais les résultats peuvent prendre quelques semaines. De courtes coulées de lave actives peuvent être cartographiées en marchant au contact d'une unité GPS et les coordonnées sont mises dans un SIG. Des coulées de lave actives plus longues peuvent être cartographiées avec une unité GPS dans un hélicoptère, et les deux méthodes se sont avérées très efficaces pour l'éruption en cours dans le parc national des volcans d'Hawai'i.

RÉFÉRENCES CITÉES

Blong, R.J., 1984, Risques volcaniques : un ouvrage de référence sur les effets des éruptions : Sidney, Australie, Academic Press, 424 p.

Braile, L.W., 2009, ce volume, Surveillance sismique, dans Young, R., et Norby, L., Surveillance géologique : Boulder, Colorado, Société géologique d'Amérique, doi : 10.1130/2009.monitoring(10).

Brosnan, DM, 2000, Impacts écologiques du volcan de Montserrat : compte rendu illustré de ses effets sur la vie terrestre et marine : Sustainable Ecosystems Institute, Portland, Oregon (disponible uniquement sur le Web à l'adresse http://www.sei.org/impacts .html consulté le 4 février 2009).

Chouet, B.A., 1996, Nouvelles méthodes et tendances futures de la surveillance sismologique des volcans, dans Scarpa, R., et Tilling, R.I., éd., Monitoring and Mitigation of Volcanic Hazards: Berlin, Springer-Verlag, p. 23-88.

Chouet, B.A., 2003, Sismologie volcanique : Géophysique pure et appliquée, v. 160, p. 739-788, doi : 10.1007/PL00012556.

Crandell, D.R., 1971, Lahars postglaciaires du volcan Mount Rainier, Washington : U.S. Geological Survey Professional Paper 677, 75 p.

Crandell, D.R., et Waldron, H.H., 1956, Une récente coulée de boue volcanique de dimensions exceptionnelles du mont Rainier, Washington : American Journal of Science, v. 254, p. 349-362.

Crowley, J.K., et Zimbelman, D.R., 1997, Cartographie des roches altérées hydrothermiquement sur le mont Rainier, Washington, avec les données du spectromètre d'imagerie visible/infrarouge aéroporté (AVIRIS) : Géologie, v. 25, p. 559-562, doi: 10.1130/0091-7613(1997)025<0559:MHAROM>2.3.CO2.

Dean, KG, Dehn, J., Papp, KR, Smith, S., Izbekov, P., Peterson, R., Kearney, C., et Steffke, A., 2004, Observations satellitaires intégrées de l'éruption du mont 2001 Cleveland, Alaska : Journal of Volcanology and Geothermal Research, v. 135, p. 51-74, doi:10.1016/j.jvolgeores.2003.12.013.

Dehn, J., Dean, K.G., Engle, K. et Izbekov, P., 2002, Précurseurs thermiques dans les images satellites de l'éruption de 1999 du volcan Shishaldin : Bulletin of Volcanology, v. 64, p. 525-534, doi : 10.1007/s00445-002-0227-0.

Driedger, C.L., et Scott, K.M., 2002, Mount Rainier—Apprendre à vivre avec le risque volcanique : fiche d'information de l'U.S. Geological Survey 034-02, 4 p. (disponible uniquement sur le Web à l'adresse http://www.fs.fed.us/gpnf/mshnvm/education/teachers-corner/library/documents/fs065-97-mt-rainier.pdf#search=%22%22volcano% 20hazards%22%20%22Mount%20Rainier%22%22 consulté le 4 février 2009).

Ewert, JW, Guffanti, M., et Murray, TL, 2005, Une évaluation de la menace volcanique et des capacités de surveillance aux États-Unis : Cadre pour un système national d'alerte précoce des volcans : US Geological Survey Open-File Report 2005-1164, 62 p. (http://pubs.usgs.gov/of/2005/1164/ consulté le 6 février 2009).

Finn, C.A., Sisson, T.W., et Deszcz-Pan, M., 2001, Mesures aérogéophysiques des zones hydrothermales sujettes à l'effondrement au volcan du mont Rainier : Nature, v. 409, p. 600-603, doi : 10.1038/35054533.

Fiske, R.S., Hopson, C.A., et Waters, A.C., 1963, Geology of Mount Rainier National Park, Washington : U.S. Geological Survey Professional Paper 444, 93 p.

Fuentes, W.A., 1975, Effectos de cenizas del volcán Irazu [Costa Rica] en varios insectos : Revista Biología Tropicál, v. 2, p. 165-175. (Résumé en anglais disponible sur le Web à http://www.ncbi.nlm.nih.gov/entrez/query.fcgi?cmd=Retrieve&db=pubmed&dopt=Abstract&list_uids=1224020&query_hl=5&itool=pubmed_DocSum. Consulté le 4 février 2009.)

Guffanti, MG, Brantley, SR, et McClelland, L., eds., 2001, Volcanism in National Parks : Summary of the Workshop Convened by the US Geological Survey and National Park Service, 26-29 septembre 2000, Redding, Californie : États-Unis Rapport à dossier ouvert de la Commission géologique 01–435. (Disponible uniquement sur le Web à l'adresse http://geopubs.wr.usgs.gov/open-fi le/of01-435/ofr01-435_report.html consulté le 5 février 2009.)

Harlow, DH, Power, JA, Laguerta, EP, Ambubuyog, G., White, RA et Hoblitt, RP, 1996, Precursory seismicity and Forecasting of the June 15, 1991, éruption of Mount Pinatubo, in Newhall, CG, and Punongbayan, RS, éd., Fire and Mud: Eruptions and Lahars of Mount Pinatubo, Philippines, p. 285-305, http://pubs.usgs.gov/pinatubo/harlow/index.html (consulté le 4 février 2009).

Harris, AJL, Keszthelyi, L., Flynn, LP, Mouginis-Mark, PJ, Thornber, C., Kauahikaua, J., Sherrod, D., Trusdell, F., Sawyer, MW et Flament, P., 1997a , Chronologie de l'éruption de l'épisode 54 au volcan Kilauea, Hawai'i, à partir des données satellitaires GOES-9 : Geophysical Research Letters, v. 24, p. 3281–3284, doi : 10.1029/97GL03165.

Harris, AJL, Butterworth, AL, Carlton, RW, Downey, I., Miller, P., Navarro, P. et Rothery, DA, 1997b, Surveillance des volcans à faible coût depuis l'espace : études de cas de l'Etna, Krafl a, Cerro Negro, Fogo, Lascar et Erebus : Bulletin de Volcanologie, v. 59, p. 49-64, doi : 10.1007/s004450050174.

Harris, AJL, Murray, JB, Aries, SE, Davies, MA, Flynn, LP, Wooster, MJ, Wright, R. et Rothery, DA, 2000, Tendances du taux d'effusion à Etna et Krafla et leurs implications pour les mécanismes éruptifs : Journal of Volcanology and Geothermal Research, v. 102, p. 237-270, doi : 10.1016/S0377-0273(00)00190-6.

Heggie, T.W. et Heggie, T.M., 2004, Voir la lave en toute sécurité : une épidémiologie des blessures et des maladies des randonneurs dans le parc national des volcans d'Hawai : Wilderness & Environmental Medicine, v. 15, p. 77–81, http://www.wemjournal.org/pdfserv/i1080-6032-015-02-0077.pdf (consulté le 4 février 2009).

Helz, RL, 2005, Monitoring ground deformation from space: US Geological Survey Fact Sheet 2005–3025, 4 p., http://pubs.usgs.gov/fs/2005/3025/2005-3025.pdf (consulté le 4 février 2009).

Hoblitt, RP, Walder, JS, Driedger, CL, Scott, KM, Pringle, PT, et Vallance, JW, 1998, Volcano hazards from Mount Rainier, Washington, Revised 1998: US Geological Survey Open-File Report 98-428, 11 p., 2 planches, échelle 1:100 000, 1:400 000.

Houghton, BF, Wilson, CJN et Pyle, DM, 2000, Dépôts de chutes pyroclastiques, dans Sigurdsson, H., Houghton, B., McNutt, SR, Rymer, H., et Stix, J., eds., Encyclopedia of Volcans, New York, Academic Press, p. 555-570.

Ishii, H., Ooishi, M., Maruyama, Y. et Koike, T., 2003, Acclimatation de la morphologie des pousses et des aiguilles et de la photosynthèse de deux espèces de Picea aux différences de disponibilité des nutriments du sol : Tree Physiology, v. 7, p . 453-461.


1. Introduction

La stimulation à basse fréquence, comprenant l'électricité, le son, le champ magnétique, la lumière et le laser, est largement utilisée dans différents domaines de la médecine [1]. L'activité EEG peut être affectée par différentes modalités de stimulation, non seulement l'électrostimulation [2], le son et la lumière (visuelle) [3], mais aussi la stimulation magnétique [4]. La lumière stroboscopique rouge peut provoquer une accumulation rapide et puissante de rythmes alpha dans le cortex occipital [5]. La stimulation par photostimulation à fréquence variable créée à partir de diodes électroluminescentes rouges (LED) a entraîné une forte influence des rythmes alpha des sujets par différentes fréquences de stimulation [6]. En ce qui concerne le laser, il n'y avait que quelques rapports sur les changements EEG à la stimulation laser. Litscher et al. ont constaté que la vitesse du flux sanguin cérébral et les amplitudes des oscillations cérébrales à 40 % 02009 Hz peuvent être améliorées en stimulant soit les yeux avec une lumière rouge, soit les points d'acupuncture avec un laser ainsi qu'une acupuncture à l'aiguille [7]. Cependant, les modifications de l'EEG à la stimulation somatique avec un laser de faible intensité (LLL) n'ont pas été rapportées.

LLL a été appliqué à la médecine clinique depuis longtemps. La biostimulation LLL a été proposée pour la première fois en 1969 par un scientifique hongrois, le professeur Mester, puis la thérapie LLL est devenue populaire dans le monde entier après 1970 [8]. Il y avait de nombreuses applications cliniques avec la thérapie LLL, par exemple pour améliorer les soins postopératoires dans les chirurgies des nerfs périphériques [9] et pour augmenter la résistance à la traction de la plaie [10]. LLL a également été utilisé pour soulager une variété de douleurs chroniques [11�].

L'utilisation combinée de l'EEG et de l'image par résonance magnétique fonctionnelle (IRMf) a été proposée comme un outil efficace pour étudier la dynamique cérébrale avec une résolution temporelle et spatiale élevée [14]. Dans l'analyse spatiale de l'IRMf cérébrale, l'activité cérébrale affectée par la stimulation du point d'acupuncture Yongquan (KI1) au dos du pied des sujets a été validée dans notre étude précédente [15]. Le but de la présente étude était d'étudier les activités EEG affectées par la stimulation d'un stimulateur à réseau laser proche infrarouge (LAS) fonctionnant à 10 & 02009 Hz en analyse temporelle (EEG). Le LAS a été appliqué pour stimuler la paume, puis la variation des activités EEG avant, pendant et après l'irradiation laser a été analysée.


Fond

Thérapie infrarouge de bas niveau

La thérapie infrarouge de bas niveau, ou thérapie par énergie infrarouge monochromatique (MIRE), est un type de laser à faible énergie qui utilise la lumière dans le spectre infrarouge. La thérapie MIRE implique l'utilisation d'appareils qui fournissent une énergie lumineuse non visible à une seule longueur d'onde à partir de l'extrémité rouge du spectre lumineux via des coussinets flexibles appliqués sur la peau. Chaque pad contient 60 diodes émettrices d'infrarouges. On pense que la thérapie MIRE stimule la libération d'oxyde nitrique de l'hémoglobine du sang, ce qui dilate les vaisseaux sanguins, réduisant ainsi l'enflure et augmentant la circulation. MIRE a été proposé pour le traitement d'affections telles que la neuropathie périphérique, la gestion de la douleur et la cicatrisation des plaies. Un exemple d'appareil MIRE comprend, sans toutefois s'y limiter, le système de thérapie anodyne.

Le système de thérapie anodine est un type de thérapie infrarouge de bas niveau, développé par Integrated Systems Physiology Inc. (Aurora, CO), qui a été promu pour augmenter la cicatrisation des plaies, pour inverser les symptômes de la neuropathie périphérique chez les personnes atteintes de diabète, et pour traiter le lymphœdème. Le fabricant déclare que le système de thérapie Anodyne augmente la circulation et réduit la douleur en augmentant la libération d'oxyde nitrique.

Plusieurs méta-analyses ont examiné les preuves soutenant l'utilisation de lasers de faible intensité (froids), y compris les lasers infrarouges de faible intensité, pour le traitement des plaies chroniques non cicatrisantes. Ces méta-analyses sont unanimes à conclure qu'il n'y a pas suffisamment de preuves pour soutenir le laser de faible intensité dans le traitement des ulcères veineux chroniques ou d'autres plaies chroniques non cicatrisantes.

Il n'y a aucune preuve que la luminothérapie infrarouge est plus efficace que d'autres modalités thermiques dans le soulagement symptomatique de la douleur musculo-squelettique.Glasgow (2001) a rendu compte des résultats d'un essai clinique contrôlé randomisé de thérapie infrarouge de faible intensité chez 24 sujets souffrant de douleurs musculaires induites expérimentalement et n'a trouvé aucune différence significative entre les groupes de traitement et de placebo.

Il n'y a pas d'études publiées sur l'efficacité de la thérapie infrarouge de faible intensité pour le traitement de la neuropathie diabétique périphérique. Les séries de cas présentées par le fabricant du système Anodyne sur son site Web n'ont pas été publiées dans une revue médicale à comité de lecture.

Enfin, il n'y a aucune preuve dans la littérature médicale publiée à comité de lecture sur l'efficacité de la thérapie infrarouge pour le traitement du lymphœdème. L'Office canadien de coordination de l'évaluation des technologies de la santé (2002) a constaté qu'« il existe peu de preuves d'essais cliniques contrôlés de haute qualité pour ces thérapies ».

Dans une étude randomisée contrôlée par placebo, Leonard et al (2004) ont examiné si les traitements avec le système de thérapie anodine (ATS) réduiraient la douleur et/ou amélioreraient la sensation diminuée en raison de la neuropathie périphérique diabétique (NPD). Les tests impliquaient l'utilisation du monofilament Semmes Weinstein (SWM) de 5,07 et 6,65 et d'un instrument modifié de dépistage de la neuropathie du Michigan (MNSI). Vingt-sept patients, dont 9 insensibles au 6,65 SWM et 18 sensibles à ce filament mais insensibles au 5,07 SWM, ont été étudiés. Chaque membre inférieur a été traité pendant 2 semaines avec un ATS fictif ou actif, puis les deux ont reçu des traitements actifs pendant 2 semaines supplémentaires. Le groupe de 18 patients qui pouvaient sentir le SWM de 6,65 mais qui étaient insensibles au SWM de 5,07 au départ a obtenu une diminution significative du nombre de sites insensibles après 6 et 12 traitements actifs (p < 0,02 et 0,001). Les traitements fictifs n'ont pas amélioré la sensibilité à la SWM, mais les traitements actifs ultérieurs l'ont fait (p < 0,002). Les mesures MNSI des symptômes neuropathiques ont diminué de manière significative (de 4,7 à 3,1 p & lt 0,001). La douleur rapportée sur l'échelle visuelle analogique (EVA) à 10 points a diminué progressivement de 4,2 à l'entrée à 3,2 après 6 traitements et à 2,3 après 12 traitements (tous deux p < 0,03). À l'entrée, 90 % des sujets ont signalé des troubles substantiels de l'équilibre après le traitement, ce chiffre est passé à 17 %. Cependant, parmi le groupe de 9 patients présentant une déficience sensorielle plus importante mesurée par l'insensibilité au SWM de 6,65 au départ, les améliorations de la sensation, des symptômes neuropathiques et de la réduction de la douleur n'étaient pas significatives. Les auteurs ont conclu que les traitements ATS amélioraient la sensation dans les pieds des sujets atteints de DPN, amélioraient l'équilibre et réduisaient la douleur.

Il y a quelques inconvénients dans cette étude. Ils comprennent la petite taille de l'étude et le fait qu'elle impliquait un seul groupe d'investigateurs, plaidant pour la nécessité de répliquer cette étude. Il n'y a pas non plus d'informations sur la durabilité des améliorations. De plus, bien que les résultats soient encourageants, des tests sensoriels quantitatifs plus discrets seraient utiles pour déterminer le degré exact d'amélioration sensorielle ressentie après l'administration de traitements ATS.

Bhardwaj et al (2005) ont déclaré qu'une compréhension évolutive des interactions laser-tissu impliquant les porphyrines produites par Propionibacterium acnes, et le développement de lasers infrarouges non ablatifs pour cibler les glandes sébacées, a conduit au développement d'un nombre croissant de laser, de lumière et des appareils à radiofréquence pour l'acné. Utilisés en monothérapie ou en combinaison, ces dispositifs sont prometteurs en tant que méthode pour éliminer l'acné de manière pratique et non invasive, bien qu'il reste un besoin évident de données à long terme et d'études randomisées et en aveugle.

Chow et Barnsley (2005) ont examiné l'efficacité de la thérapie au laser de faible intensité (LLLT) dans le traitement de la cervicalgie en examinant systématiquement la littérature. Une recherche dans les bases de données bibliographiques informatisées couvrant la médecine, la physiothérapie, les soins paramédicaux, la médecine complémentaire et les sciences biologiques a été entreprise depuis la date de création jusqu'en février 2004 pour les essais contrôlés randomisés (ECR) de la LLLT pour la cervicalgie. Une liste complète de termes de recherche a été appliquée et des critères d'inclusion explicites ont été élaborés a priori. Au total, 20 études ont été identifiées, dont 5 répondaient aux critères d'inclusion. Des effets positifs significatifs ont été signalés dans 4 des 5 essais dans lesquels des longueurs d'onde infrarouges (lambda = 780, 810 à 830, 904, 1 064 nm) ont été utilisées. L'hétérogénéité des mesures des résultats, des rapports sur les résultats, des doses et des paramètres laser a empêché une méta-analyse formelle. Les tailles d'effet n'ont pu être calculées que pour 2 des études. Les auteurs ont conclu que cette revue fournit des preuves limitées d'un ECR sur l'utilisation du laser infrarouge pour le traitement de la cervicalgie aiguë (n = 71) et de la cervicalgie chronique de 4 ECR (n = 202). Ils ont noté que des études plus importantes sont nécessaires pour confirmer les résultats positifs et déterminer les paramètres laser, les sites et les modes d'application les plus efficaces.

  1. groupe A -- [les 3 premières heures passées 3 fois par semaine pendant 3 semaines dans un poêle en faïence chauffé (« période de poêle ») et après 2 semaines sans traitement, ce groupe a été observé pendant 3 semaines supplémentaires (« période de contrôle »)] et
  2. groupe B (attribué en premier à la période de contrôle et à la période de poêle suivant la période sans traitement).

Les évaluations comprenaient l'EVA pour la douleur générale, la douleur dans les mains et la fonction globale de la main, la force de préhension, le Moberg Picking-up Test (MPUT), l'Australian/Canadian Osteoarthritis Hand Index (AUSCAN) et la Medical Outcomes Study (MOS) Enquête abrégée sur l'état de santé en 36 items (SF-36). Au total, 14 patients (31 %) se sont améliorés à l'EVA pour la douleur générale à la fin de la période du poêle en faïence par rapport à 10 patients (22 %) au cours de la période de contrôle (p = 0,314, test du chi2). Le domaine de la douleur AUSCAN a montré une amélioration significative après la période du poêle en faïence (p = 0,034). D'autres paramètres de douleur analysés (EVA pour la douleur dans les mains et la douleur corporelle SF-36) ont montré une amélioration modérée mais non significative (p = 0,682 et p = 0,237, respectivement) par rapport à la période de contrôle. Les auteurs ont conclu que cette étude n'a pas prouvé les effets positifs de l'exposition au poêle en faïence, bien que l'amélioration numérique de toutes les mesures de la douleur suggère certains effets positifs possibles sur ce symptôme d'arthrose des mains.

Lampl et ses collègues (2007) ont évalué l'innocuité et l'efficacité du système laser NeuroThera pour améliorer les résultats à 90 jours chez les patients ayant subi un AVC ischémique traités dans les 24 heures suivant le début de l'AVC. L'approche thérapeutique du système laser NeuroThera implique l'utilisation de la technologie laser infrarouge et a montré des effets bénéfiques dans des modèles animaux d'AVC ischémique. Au total, 120 patients ayant subi un AVC ischémique ont été randomisés dans un rapport 2:1 (n = 79 patients dans le groupe de traitement actif et n = 41 dans le groupe témoin placebo). Seuls les patients dont la gravité initiale de l'AVC était mesurée par les scores de l'échelle NIHSS (National Institutes of Health Stroke Scale) de 7 à 22 ont été inclus. Les patients ayant reçu un activateur tissulaire du plasminogène ont été exclus. Les mesures des résultats étaient les scores des patients sur le NIHSS, l'échelle de Rankin modifiée (mRS), l'indice de Barthel et l'échelle de résultat de Glasgow à 90 jours après le traitement. Le critère de jugement principal était le succès du traitement, documenté par le NIHSS. Cela a été défini comme une récupération complète au jour 90 (NIHSS 0 à 1), ou une diminution du score NIHSS d'au moins 9 points (jour 90 par rapport à la ligne de base), et a été testé comme une mesure binaire (bNIH). Les mesures de résultats secondaires comprenaient le mRS, l'indice de Barthel et l'échelle de résultats de Glasgow. Les analyses statistiques primaires ont été réalisées avec le test de classement de Cochran-Mantel-Haenszel, stratifié par score NIHSS de base ou par temps de traitement pour le bNIH et le mRS. Des analyses de régression logistique ont été menées pour confirmer les résultats. Le temps moyen jusqu'au traitement était supérieur à 16 heures (temps médian jusqu'au traitement de 18 heures pour les actifs et de 17 heures pour les témoins). Le délai de traitement variait de 2 à 24 heures. Plus de patients (70 %) dans le groupe de traitement actif ont eu des résultats positifs que les témoins (51 %), comme mesuré prospectivement sur le bNIH (p = 0,035 stratifié par gravité et délai de traitement p = 0,048 stratifié uniquement par gravité). De même, plus de patients (59 %) ont obtenu des résultats positifs que les témoins (44 %), mesurés à 90 jours sous la forme d'un score binaire mRS de 0 à 2 (p = 0,034 stratifié par gravité et délai de traitement p = 0,043 stratifié uniquement par gravité ). En outre, plus de patients dans le groupe de traitement actif ont eu des résultats positifs que les témoins, tels que mesurés par le changement du score NIHSS moyen de la ligne de base à 90 jours (p = 0,021 stratifié par le temps jusqu'au traitement) et le score mRS complet ("shift in Rankin") (p = 0,020 stratifié par gravité et délai de traitement p = 0,026 stratifié uniquement par gravité). L'odds ratio de prévalence pour la bNIH était de 1,40 (intervalle de confiance [IC] à 95 % : 1,01 à 1,93) et pour la mRS binaire était de 1,38 (IC à 95 % : 1,03 à 1,83), en contrôlant la gravité de base. Des résultats similaires ont été obtenus pour l'indice de Barthel et l'échelle de résultats de Glasgow. Les taux de mortalité et les événements indésirables graves (EIG) ne différaient pas significativement (8,9 % et 25,3 % pour les actifs, 9,8 % et 36,6 % pour le contrôle, respectivement, pour la mortalité et les EIG). Les auteurs ont conclu que l'étude NEST-1 indiquait que la thérapie au laser infrarouge a montré une sécurité et une efficacité initiales pour le traitement de l'AVC ischémique chez l'homme lorsqu'elle est initiée dans les 24 heures suivant le début de l'AVC. Ils ont déclaré qu'un essai de confirmation à plus grande échelle pour démontrer l'innocuité et l'efficacité est justifié.

Un mémorandum de décision des Centers for Medicare et Medicaid Services (2006) a conclu qu'« il existe des preuves suffisantes pour conclure que l'utilisation d'appareils infrarouges n'est pas raisonnable et nécessaire pour le traitement des bénéficiaires de Medicare pour la neuropathie sensorielle périphérique diabétique et non diabétique, plaies et ulcères, et affections similaires, y compris les symptômes tels que la douleur résultant de ces affections ».

Soixante patients (120 membres) ont terminé l'étude. Des unités anodynes ont été utilisées à la maison chaque jour pendant 40 minutes pendant 90 jours. Vitesses de conduction nerveuse, VPT, monofilaments de Semmes-Weinstein (SWM) (monofilaments de 4, 10, 26 et 60 g), l'instrument de dépistage de la neuropathie du Michigan (MNSI), une échelle de douleur visuelle analogique de 10 cm et un des instruments de qualité de vie spécifiques à la neuropathie ont été mesurés. Une conception ANOVA multiple à mesures répétées imbriquées a été utilisée. Deux sites (gros orteil et 5e métatarsien) ont été testés sur les pieds gauche et droit de chaque patient, donc deux pieds ont été nichés dans chaque patient et deux sites ont été nichés dans chaque pied. Pour analyser les scores SWM ordinaux, une analyse factorielle non paramétrique pour les données longitudinales a été utilisée. Il n'y avait pas de différences significatives dans les mesures de la qualité de vie, du MNSI, du VPT, du SWM ou des vitesses de conduction nerveuse dans les groupes de traitement actifs ou fictifs (p > 0,05). Les auteurs ont conclu que la thérapie Anodyne MIRE n'était pas plus efficace que la thérapie fictive dans le traitement de la neuropathie sensorielle chez les personnes atteintes de diabète.

Dans une étude clinique contrôlée, à double insu et randomisée, Franzen-Korzendorfer et al (2008) ont examiné l'effet de l'énergie infrarouge monochromatique sur les mesures transcutanées d'oxygène et la sensation protectrice chez les patients diabétiques et une perte de sensation protectrice. Un total de 18 adultes (12 hommes, 6 femmes, âge moyen de 65 ± 13 ans, fourchette de 39 à 86 ans) atteints de diabète et d'une perte de sensation protectrice ont été recrutés à l'aide de méthodes d'échantillonnage de commodité. Tous les patients ont servi de leur propre contrôle. Des tests avant et après traitement ont évalué la sensation, la douleur et les mesures d'oxygène transcutané sur 2 sites/pied. Les sujets ont subi une série de traitements énergétiques infrarouges monochromatiques de 30 minutes (1 traitement actif du pied, 1 pied simulé). L'énergie infrarouge monochromatique a été fournie au niveau d'énergie prédéfini par le fabricant de 1,5 J/cm(2)/min à une longueur d'onde de 890 nm. Les unités fictives n'ont fourni aucune énergie. Les scores ont été analysés à l'aide de tests t appariés et du coefficient de corrélation de Pearson. Aucune différence significative n'a été observée entre les traitements actifs et fictifs pour les valeurs d'oxygène transcutané, la douleur ou la sensation. Les pieds traités à l'énergie infrarouge monochromatique actifs et fictifs avaient une sensation significativement améliorée par rapport aux scores de base pré-test (p < 0,05). Aucune relation statistique n'a été trouvée entre l'oxygène transcutané et la sensation. Les auteurs ont conclu que ces résultats n'ont démontré aucun effet du traitement énergétique infrarouge monochromatique sur les mesures transcutanées d'oxygène, la douleur ou la sensation chez les adultes atteints de diabète et de perte de sensation protectrice.

Ko et Berbrayer (2002) ont déterminé l'efficacité des gants imprégnés de céramique dans le traitement du syndrome de Raynaud. Au total, 93 patients répondaient aux critères « Pal » du syndrome de Raynaud. Une période de traitement de 3 mois avec utilisation de gants imprégnés de céramique a été adoptée. Les critères d'évaluation principaux comprenaient les cotes d'évaluation de la douleur et les incapacités du journal du questionnaire DASH (bras, épaule, main) sur la force de préhension de Jamar et le test de Purdue sur la dextérité de la main. Les critères d'évaluation secondaires étaient les mesures infrarouges de la température de la peau. Chez 60 participants disposant de données complètes, des améliorations ont été notées dans l'évaluation VAS (p = 0,001), le score DASH (p = 0,001), la force de préhension de Jamar (p = 0,002), la température infrarouge du bout des doigts de la peau (p = 0,003), la dextérité de la main Purdue test (p = 0,0001) et l'échelle de Likert (p = 0,001) avec des gants en céramique sur les gants en coton placebo. Les auteurs ont conclu que les gants "thermoflow" imprégnés de céramique ont un effet cliniquement important dans le syndrome de Raynaud. Les résultats de cette étude doivent être validés par des études bien conçues avec un plus grand nombre de patients et des suivis plus longs.

  1. le(s) mécanisme(s) d'action et les implications de la pénétration n'ont pas été traités en profondeur,
  2. la large gamme d'intensités de traitement, de longueurs d'onde et d'appareils qui ont été évalués rend les comparaisons difficiles, et
  3. un paradigme consensuel pour le traitement n'a pas encore émergé.

En outre, le manque de résultats positifs constants dans les ECR, peut-être en raison de schémas thérapeutiques sous-optimaux, a contribué au scepticisme. Ces chercheurs ont fourni un résumé équilibré des résultats décrits dans la littérature concernant les modalités de traitement et l'efficacité de la R/NIR-IT pour les blessures et les maladies du SNC. Ils ont abordé les questions importantes de spécification des paramètres de traitement, de pénétration de l'irradiation R/NIR dans les tissus et mécanismes du SNC, et ont fourni les détails nécessaires pour démontrer le potentiel de R/NIR-IT pour le traitement de la dégénérescence rétinienne, des dommages aux voies de la substance blanche du SNC, aux accidents vasculaires cérébraux et à la maladie de Parkinson.

Vujosevic et al (2013) ont passé en revue les effets métaboliques les plus importants et les données d'innocuité clinique du laser à diode micropulsée (D-MPL) sous le seuil dans l'œdème maculaire diabétique (OMD). Le traitement MPL n'endommage pas la rétine et est sélectivement absorbé par l'épithélium pigmentaire rétinien (EPR). Le laser diode Micropulse stimule la sécrétion de différentes cytokines protectrices par le RPE. Aucune tache laser visible sur la rétine n'a été notée sur aucune modalité d'image du fond d'œil dans différentes études, et il n'y a eu aucun changement de l'intégrité de la rétine externe. La sensibilité rétinienne centrale (RS) moyenne a augmenté dans le groupe D-MPL par rapport au groupe de photocoagulation standard de l'étude de traitement précoce de la rétinopathie diabétique (ETDRS). Les auteurs ont conclu que la MPL est une nouvelle option de traitement prometteuse dans le DME, avec des longueurs d'onde infrarouges et jaunes utilisant le cycle de service moins agressif (5 %) et des paramètres de puissance fixes.

La directive du Work Loss Data Institute sur « Low back -- lumbar & thoracic (aigu & chronic)" (2013) a noté que la thérapie infrarouge est l'une des interventions/procédures envisagées, mais non recommandées.

Les lignes directrices fondées sur des preuves pour le traitement chiropratique des adultes souffrant de douleurs au cou (Bryans et al, 2014) ont déclaré que « sur la base des résultats incohérents de 3 études à faible risque de biais, il n'y a pas suffisamment de preuves pour soutenir une recommandation d'utilisation du laser infrarouge (830 nm) dans le traitement des cervicalgies chroniques ».

Choi et al (2016) ont noté que le maintien d'un accès vasculaire fonctionnel et d'une douleur minimale à l'aiguille sont des objectifs importants pour obtenir une dialyse adéquate et améliorer la qualité de vie des patients hémodialysés (HD). La thérapie par infrarouge lointain peut améliorer la fonction endothéliale et augmenter le débit sanguin d'accès (Qa) et la perméabilité chez les patients MH. Ces chercheurs ont évalué les effets de la thérapie FIR sur l'AQ et la perméabilité, et la douleur due à l'aiguille chez les patients MH. Cet essai clinique prospectif a inclus 25 patients ambulatoires qui ont maintenu une HD avec une fistule artério-veineuse. Les 25 autres patients ont été appariés en tant que témoins avec l'âge, le sexe et le diabète. La thérapie FIR a été administrée pendant 40 minutes pendant la HD 3 fois/semaine et s'est poursuivie pendant 12 mois. Le Qa a été mesuré par la méthode de dilution par ultrasons, tandis que la douleur a été mesurée par une échelle d'évaluation numérique au départ, puis une fois par mois. Un patient a été transféré dans un autre établissement et 7 patients ont arrêté la thérapie FIR en raison d'une augmentation de la température corporelle et de l'inconfort. La thérapie par infrarouge lointain a amélioré le score de douleur à l'aiguille de 4 à 2 après 1 an La thérapie FIR a augmenté le Qa de 3 mois et a maintenu ce changement jusqu'à 1 an, tandis que les patients témoins ont montré une diminution du Qa. La perméabilité non assistée à 1 an avec la thérapie FIR n'était pas significativement différente de celle du contrôle. Les auteurs ont conclu que la thérapie FIR améliorait la douleur de l'aiguilletage. De plus, ils ont déclaré que bien que la thérapie FIR ait amélioré le Qa, la perméabilité sans assistance n'était pas différente par rapport au contrôle. Ils ont déclaré qu'une étude plus vaste et multicentrique est nécessaire pour évaluer l'effet de la thérapie FIR.

Coagulation infrarouge pour le traitement des hémorroïdes

La coagulation infrarouge est l'une des nombreuses thérapies ambulatoires non chirurgicales dans le traitement des hémorroïdes. Linares et al (2001) ont examiné l'efficacité de la ligature élastique (RBL) et de la photocoagulation infrarouge (IRC) dans le traitement des hémorroïdes internes chez 358 patients avec un total de 817 hémorroïdes. Il y avait une période de suivi de 36 mois. Deux cent quatre vingt quinze des 358 patients ont été traités par RBL (82,4 %), ce traitement étant efficace chez 98 % des patients après 180 jours et très bon après 36 mois. Il y a eu 6/295 rechutes à 36 mois (2 %). Toutes les complications mineures et majeures ont été observées au cours des 15 premiers jours de traitement : ténesme rectal chez 96/295 patients (32,5%), douleur anale légère chez 115/295 (38,9%), hémorragie spontanément résolutive et légère après le décollement du bandes chez 30/295 (10 %), et fébricule chez un patient. Soixante-trois des 358 patients ont été traités par IRC (17,6 %). Dans ce groupe, des rechutes ont été observées chez 6/63 patients (9,5 %) à 36 mois, tous avec des hémorroïdes de grade III nécessitant un traitement complémentaire par RBL. Toutes les complications (inhérentes à la technique) ont été observées dans les premiers jours : douleurs anales légères chez 40/63 patients (63,4 %) et saignements légers chez 1/63 (1,6 %). Le traitement par RBL ou IRC dépendait du nombre d'hémorroïdes et du grade hémorroïdaire. Aucune différence significative n'a été trouvée concernant l'efficacité entre RBL et IRC pour le traitement des hémorroïdes de grade I-II, tandis que RBL était plus efficace pour les hémorroïdes de grade III et IV (p < 0.05).Les auteurs ont conclu que RBL et IRC devraient être considérés comme un bon traitement pour tous les grades d'hémorroïdes, en raison de son efficacité, de son rapport coût-bénéfice et de sa faible morbidité à court et à long terme.

Dans une étude randomisée, Gupta (2003) a comparé la coagulation infrarouge et la ligature à l'élastique dans le traitement de patients présentant des stades précoces d'hémorroïdes. Cent patients présentant des hémorragies hémorragiques du deuxième degré ont été randomisés prospectivement pour recevoir soit une ligature élastique (n = 54) soit une coagulation infrarouge (n = 46). Les paramètres mesurés comprenaient l'inconfort et la douleur postopératoires, le délai de retour au travail, le soulagement de l'incidence des saignements et le taux de récidive. Les douleurs postopératoires au cours de la première semaine étaient plus intenses dans le groupe ligature élastique (2 à 5 versus 0 à 3 sur une EVA). La douleur post-défécation était plus intense avec la ligature par bande, tout comme le ténesme rectal (p = 0,0059). Les patients du groupe coagulation infrarouge ont repris leurs fonctions plus tôt (2 contre 4 jours, p = 0,03), mais avaient également un taux de récidive ou d'échec plus élevé (p = 0,03). Les auteurs ont conclu que la ligature par bande, bien que plus efficace pour contrôler les symptômes et éliminer les hémorroïdes, est associée à plus de douleur et d'inconfort pour le patient. Comme la coagulation infrarouge peut être répétée de manière pratique en cas de récidive, elle pourrait être considérée comme une procédure alternative appropriée pour le traitement des hémorroïdes à un stade précoce.

L'examen technique de l'American Gastroenterological Association sur le diagnostic et le traitement des hémorroïdes (Madoff et Fleshman, 2004) a déclaré que les hémorroïdes du 1er et du 2e degré (c'est-à-dire les hémorroïdes de grade I et II) peuvent être traitées avec des thérapies non opératoires telles que la photocoagulation infrarouge . La chirurgie est généralement réservée aux personnes qui ont de grosses hémorroïdes du 3e degré ou du 4e degré, des hémorroïdes incarcérées de manière aiguë et thrombosées, des hémorroïdes avec une composante externe étendue et symptomatique, ou des personnes qui ont subi un traitement moins agressif avec de mauvais résultats.

Onychomycose

Nenoff et al (2014) ont noté que depuis 2010, la Food and Drug Administration (FDA) a approuvé les systèmes laser capables de produire une « augmentation temporaire des ongles clairs » chez les patients atteints d'onychomycose. L'éradication des champignons est probablement médiée par la chaleur dans les systèmes laser infrarouge, leur efficacité a été confirmée par thermographie, histologie et en microscopie électronique. Une autre approche pour décontaminer l'organe de l'ongle consiste à perturber les champignons et les spores par des applications d'impulsions q-switchées. Récemment, des combinaisons spécifiques de longueurs d'onde ont été testées pour leur capacité à perturber le potentiel transmembranaire mitochondrial à des températures physiologiques en générant de l'ATP et des ROS. Alors que des taux de clairance cliniquement extrêmement élevés d'environ 87,5 à 95,8 % ont été rapportés, les investigations in vitro n'ont pas confirmé la clairance. La variété des systèmes et des paramètres conseillés empêche une évaluation systématique. Les recommandations pour des protocoles de traitement sûrs et pratiques, des éléments de consentement éclairé et une combinaison avec des options de traitement conventionnelles sont tous des domaines de travail actif. Les auteurs ont conclu qu'il existe actuellement un manque de données concernant l'efficacité à long terme de la thérapie au laser des protocoles de traitement certifiés contre l'onychomycose.

Une revue UpToDate sur « Onychomycosis » (Goldstein, 2015) indique que « La luminothérapie/laser - Bien que le grenat d'aluminium et d'yttrium dopé au néodyme (Nd:YAG) et les lasers à diodes aient émergé comme options de traitement pour l'onychomycose, les données sur l'efficacité de ces interventions sont limitées et les mécanismes d'action et les schémas thérapeutiques optimaux pour ces traitements restent flous. Jusqu'à ce que des données plus solides soutenant l'efficacité de la thérapie au laser pour l'onychomycose soient disponibles, nous ne pouvons pas recommander l'utilisation systématique de cette modalité. Le soutien de l'efficacité de ces dispositifs laser est principalement limité à des études non contrôlées qui documentent une amélioration clinique dans des proportions variables de patients. Un petit essai randomisé a révélé une amélioration de l'onychomycose suite à l'utilisation d'une diode laser proche infrarouge à double longueur d'onde. En revanche, un essai randomisé dans lequel 27 patients atteints d'onychomycose impliquant 125 ongles ont été assignés au hasard à deux traitements avec un laser Nd:YAG à 1 064 nm (17 patients) ou aucun traitement (10 patients) n'a pas trouvé de différence statistique dans la proportion de patients présentant une clairance mycologique de tous les ongles affectés après trois mois. De plus, une tendance non significative à une plus grande clairance proximale du clou dans le groupe de traitement actif détectée à 3 mois s'est dissipée à 12 mois. Il est à noter que les réponses n'ont pas pu être évaluées chez 5 des 17 patients du groupe de traitement au laser en raison de l'absence de retour pour le suivi. Une étude plus approfondie avec des essais randomisés comparant les dispositifs laser à un placebo et à d'autres traitements de l'onychomycose, ainsi que des études de suivi à long terme seront utiles pour clarifier l'efficacité, les mécanismes, les schémas thérapeutiques optimaux et les indications de la thérapie au laser ».

Escarres

Le National Pressure Ulcer Advisory Panel, le European Pressure Ulcer Advisory Panel et la directive de pratique clinique de la Pan Pacific Pressure Injury Alliance sur le « Traitement des ulcères de pression » (2014) ont déclaré que « En raison de l'insuffisance actuelle des preuves pour soutenir ou réfuter l'utilisation de la thérapie infrarouge dans le traitement des escarres, la thérapie infrarouge n'est pas recommandée pour une utilisation de routine à l'heure actuelle ».

Autres indications

Shui et ses collègues (2015) ont noté que la thérapie physique (physiothérapie), une thérapie de médecine complémentaire et alternative, a été largement appliquée dans le diagnostic et le traitement de diverses maladies et défauts. De plus en plus de preuves suggèrent que les rayons infrarouges lointains (FIR) pratiques et non invasifs, un type vital de physiothérapie, améliorent la santé des patients atteints de maladies cardiovasculaires, de diabète sucré et de maladie rénale chronique. Néanmoins, les mécanismes moléculaires par lesquels les fonctions FIR restent insaisissables. Ces chercheurs ont examiné et résumé les résultats d'enquêtes antérieures et élaboré les mécanismes moléculaires de la thérapie FIR dans divers types de maladies. Les auteurs ont conclu que la thérapie FIR peut être étroitement liée à l'augmentation de l'expression de l'oxyde nitrique synthase endothéliale ainsi qu'à la production d'oxyde nitrique et peut moduler les profils de certains miARN circulants. pas d'effets indésirables.

Troubles de la conscience

Werner et al (2016) ont déclaré qu'afin de promouvoir la vigilance et la conscience chez les patients atteints de troubles graves de la conscience (DOC), la stimulation frontale au laser proche infrarouge (N-LT) ou la thérapie par ondes de choc focalisées transcrâniennes (F-SWT) pourrait être une option. . L'étude a comparé les deux techniques chez des patients atteints de COD chronique sévère. Un total de 16 patients DOC ont été répartis en 2 groupes (A et B). Une ligne de base de 3 semaines a suivi soit une N-LT frontale (0,1 mJ/mm2, 10 min par session), 5 fois par semaine pendant 4 semaines (groupe A), soit une F-SWT (0,1 mJ/mm2 , 4000 stimuli par séance) 3 fois par semaine pendant 4 semaines (groupe B). La variable principale était la Coma Recovery Scale révisée (r-CRS, 0-23), évaluée en aveugle. Les deux groupes se sont améliorés dans le r-CRS au fil du temps, mais n'ont révélé aucune différence entre les groupes. Un patient du groupe B a eu une crise focale au cours de la 3e semaine de traitement. 1 patient présentant un mutisme akinétique s'est le plus amélioré et 3 patients présentant une hypoxie globale ne se sont pas améliorés du tout. Les auteurs ont conclu que les deux options pourraient être une option pour augmenter la vigilance et la sensibilisation des patients chroniques DOC. Un mutisme akinétique semble être une hypoxie cérébrale positive et sévère, un prédicteur négatif, les crises d'épilepsie sont un effet secondaire indésirable potentiel. L'auteur a déclaré que davantage d'études cliniques sont nécessaires.

Trouble affectif saisonnier

Dans une revue Cochrane, Nussbaumer et al (2015) ont évalué l'innocuité et l'efficacité de la luminothérapie (par rapport à l'absence de traitement, à d'autres types de luminothérapie, aux antidépresseurs de 2e génération, à la mélatonine, à l'agomélatine, aux thérapies psychologiques, aux interventions liées au mode de vie et aux générateurs d'ions négatifs. ) dans la prévention des troubles affectifs saisonniers (TAS) et l'amélioration des résultats centrés sur le patient chez les adultes ayant des antécédents de TAS. Une recherche dans le registre spécialisé du groupe de revue Cochrane sur la dépression, l'anxiété et la névrose (CCDANCTR) a inclus toutes les années jusqu'au 11 août 2015. Le CCDANCTR contenait des rapports d'ECR pertinents dérivés d'Embase (de 1974 à ce jour), de Medline (de 1950 à ce jour) , PsycINFO (de 1967 à ce jour) et le Registre central Cochrane des sentiers contrôlés (CENTRAL). De plus, ces chercheurs ont effectué des recherches dans le Cumulative Index to Nursing and Allied Health Literature (CINAHL), Web of Knowledge, la Cochrane Library et la Allied and Complementary Medicine Database (AMED) (jusqu'au 26 mai 2014). Ces chercheurs ont également effectué une recherche dans la littérature grise et effectué une recherche manuelle dans les références bibliographiques de toutes les études incluses et des articles de revue pertinents. Pour plus d'efficacité, les auteurs ont inclus des ECR sur des adultes ayant des antécédents de TAS de type hivernal qui ne présentaient aucun symptôme au début de l'étude. Pour les événements indésirables, les auteurs avaient également l'intention d'inclure des études non randomisées. Ils avaient l'intention d'inclure des études comparant tout type de luminothérapie (p. , l'agomélatine, les changements de mode de vie, les générateurs d'ions négatifs ou une autre des luminothérapies susmentionnées. Les auteurs prévoyaient également d'inclure des études qui examinaient la luminothérapie en association avec une intervention de comparaison et la comparaient à la même intervention de comparaison en monothérapie. Deux auteurs de la revue ont examiné les résumés et les publications en texte intégral par rapport aux critères d'inclusion. Deux auteurs de la revue ont indépendamment extrait les données et évalué le risque de biais des études incluses. Ces chercheurs ont identifié 2 986 citations après déduplication des résultats de recherche. Ils ont exclu 2 895 enregistrements lors de l'examen des titres et des résumés. Ils ont évalué 91 articles en texte intégral à inclure dans la revue, mais seule 1 étude fournissant des données provenant de 46 personnes répondait aux critères d'éligibilité. L'ECR inclus présentait des limites méthodologiques. Ces chercheurs l'ont évalué comme présentant un risque élevé de biais de performance et de détection en raison de l'absence de mise en aveugle, et comme présentant un risque élevé de biais d'attrition parce que les auteurs de l'étude n'ont pas signalé les raisons des abandons et n'ont pas intégré les données des abandons dans l'analyse. . L'ECR inclus comparait l'utilisation préventive de la lumière blanche brillante (2 500 lux via les visières), de la lumière infrarouge (0,18 lux via les visières) et de l'absence de traitement lumineux. Dans l'ensemble, les deux formes de luminothérapie préventive ont réduit numériquement l'incidence du TAS par rapport à l'absence de luminothérapie. Au total, 43 % (6/14) des participants du groupe lumière vive ont développé un TAS, ainsi que 33 % (5/15) dans le groupe lumière infrarouge et 67 % (6/9) dans le groupe sans traitement. La luminothérapie réduisait le risque d'incidence du TAS de 36 %, cependant, l'IC à 95 % était très large et incluait à la fois les tailles d'effet possibles en faveur de la luminothérapie et celles en faveur de l'absence de luminothérapie (rapport de risque (RR) 0,64, 95 % IC : 0,30 à 1,38). La lumière infrarouge a réduit le risque de TAS de 50 % par rapport à l'absence de luminothérapie, mais dans ce cas également, l'IC était trop large pour permettre des estimations précises de l'ampleur de l'effet (RR 0,50, IC à 95 % 0,21 à 1,17). La comparaison des deux formes de luminothérapie préventive l'une par rapport à l'autre a donné des taux d'incidence d'épisodes dépressifs similaires dans les deux groupes (RR 1,29, IC à 95 % : 0,50 à 3,28). La qualité des preuves pour tous les critères de jugement était très faible. Les raisons de la dégradation de la qualité des preuves comprenaient le risque élevé de biais de l'étude incluse, l'imprécision et d'autres limitations, telles que l'auto-évaluation des résultats, le manque de vérification de la conformité tout au long de la durée de l'étude et la notification insuffisante des caractéristiques des participants. Les enquêteurs n'ont fourni aucune information sur les événements indésirables. Ces chercheurs n'ont pu trouver aucune étude comparant la luminothérapie à d'autres interventions d'intérêt telles que l'AGS, les thérapies psychologiques, la mélatonine ou l'agomélatine. Les auteurs ont conclu que les preuves sur la luminothérapie comme traitement préventif pour les patients ayant des antécédents de TAS sont limitées. Les limitations méthodologiques et la petite taille de l'échantillon de la seule étude disponible ont empêché les auteurs de la revue de conclure sur les effets de la luminothérapie pour le TAS.

Nussbaumer-Streit et ses collègues (2019) ont noté que le TAS est un schéma saisonnier d'épisodes dépressifs majeurs récurrents qui se produisent le plus souvent en automne ou en hiver et qui disparaissent au printemps. La prévalence du TAS varie de 1,5 % à 9 %, selon la latitude. L'aspect saisonnier prévisible du TAS offre une opportunité prometteuse pour la prévention. Cette revue - 1 des 4 revues sur l'efficacité et l'innocuité des interventions pour prévenir le TAS - s'est concentrée sur la luminothérapie en tant qu'intervention préventive. La luminothérapie est une thérapie non pharmacologique qui expose les personnes à la lumière artificielle dont le mode d'administration et la forme de lumière varient. Ces chercheurs ont examiné l'innocuité et l'efficacité de la luminothérapie (par rapport à l'absence de traitement, à d'autres types de luminothérapie, aux antidépresseurs de 2e génération, à la mélatonine, à l'agomélatine, aux thérapies psychologiques, aux interventions liées au mode de vie et aux générateurs d'ions négatifs) dans la prévention du TAS et l'amélioration du patient -Résultats centrés chez les adultes ayant des antécédents de TAS. Ils ont effectué des recherches dans Ovid Medline (1950- ), Embase (1974- ), PsycINFO (1967- ) et le registre Cochrane des essais contrôlés (CENTRAL) jusqu'au 19 juin 2018. Une recherche antérieure dans ces bases de données a été effectuée via le Cochrane. Registre des essais contrôlés sur les troubles mentaux courants (CCMD-CTR) (toutes les années jusqu'au 11 août 2015). En outre, ces chercheurs ont effectué des recherches dans le Cumulative Index to Nursing and Allied Health Literature, Web of Science, la Cochrane Library, la Allied and Complementary Medicine Database et les registres d'essais internationaux (jusqu'au 19 juin 2018). Ils ont également effectué une recherche dans la littérature grise et effectué une recherche manuelle dans les références bibliographiques des études incluses et des articles de revue pertinents. Pour l'efficacité, ces chercheurs ont inclus des ECR sur des adultes ayant des antécédents de TAS de type hivernal qui étaient asymptomatiques au début de l'étude. Pour les EI, ces chercheurs avaient également l'intention d'inclure des études non randomisées. Ces chercheurs avaient l'intention d'inclure des études comparant tout type de luminothérapie (p. , l'agomélatine, les changements de mode de vie, les générateurs d'ions négatifs ou une autre des luminothérapies susmentionnées. Ils prévoyaient également d'inclure des études qui examinaient la luminothérapie en combinaison avec une intervention de comparaison. Deux auteurs de la revue ont passé au crible les résumés et les publications en texte intégral, ont extrait les données de manière indépendante et évalué le risque de biais des études incluses. Ils ont identifié 3 745 citations après déduplication des résultats de recherche, excluant 3 619 enregistrements lors de l'examen des titres et des résumés. Ces chercheurs ont évalué 126 articles en texte intégral à inclure dans la revue, mais seule 1 étude fournissant des données provenant de 46 personnes répondait aux critères d'éligibilité. L'ECR inclus présentait des limites méthodologiques. Ces chercheurs l'ont évalué comme présentant un risque élevé de biais de performance et de détection en raison de l'absence de mise en aveugle, et comme présentant un risque élevé de biais d'attrition parce que les auteurs de l'étude n'ont pas signalé les raisons des abandons et n'ont pas intégré les données des abandons dans l'analyse. . L'ECR inclus a comparé l'utilisation préventive de la lumière blanche brillante (2 500 lux via les visières), de la lumière IR (0,18 lux via les visières) et de l'absence de traitement lumineux. Dans l'ensemble, la lumière blanche et la luminothérapie IR ont réduit numériquement l'incidence du TAS par rapport à l'absence de luminothérapie. Au total, 43 % (6/14) des sujets du groupe lumière vive ont développé un TAS, ainsi que 33 % (5/15) dans le groupe lumière infrarouge et 67 % (6/9) dans le groupe non traité. La luminothérapie réduisait le risque d'incidence du TAS de 36 %, cependant, l'IC à 95 % était très large et incluait à la fois les tailles d'effet possibles en faveur de la luminothérapie et celles en faveur de l'absence de luminothérapie (RR 0,64, IC à 95 % : 0,30 à 1,38 23 sujets, preuves de très faible qualité). La lumière infrarouge a réduit le risque de TAS de 50 % par rapport à l'absence de luminothérapie, mais l'IC était également trop large pour permettre des estimations précises de la taille de l'effet (RR 0,50, IC à 95 % : 0,21 à 1,17 24 sujets, preuves de très faible qualité) . La comparaison des deux formes de luminothérapie préventive l'une par rapport à l'autre a donné des taux d'incidence d'épisodes dépressifs similaires dans les deux groupes (RR 1,29, IC à 95 % : 0,50 à 3,28 29 sujets, preuves de très faible qualité). Les raisons de la dégradation de la qualité des preuves comprenaient un risque élevé de biais de l'étude incluse, l'imprécision et d'autres limitations, telles que l'auto-évaluation des résultats, le manque de vérification de la conformité tout au long de la durée de l'étude et la notification insuffisante des caractéristiques des sujets. Les enquêteurs n'ont fourni aucune information sur les EI. Ils n'ont trouvé aucune étude comparant la luminothérapie à d'autres interventions d'intérêt telles que les antidépresseurs de 2e génération, les thérapies psychologiques, la mélatonine ou l'agomélatine. Les auteurs ont conclu que les preuves sur la luminothérapie comme traitement préventif pour les personnes ayant des antécédents de TAS étaient limitées. Les limitations méthodologiques et la petite taille de l'échantillon de la seule étude disponible ont empêché les auteurs de la revue de conclure sur les effets de la luminothérapie pour le TAS. Ces chercheurs ont déclaré qu'étant donné que les preuves comparatives de la luminothérapie par rapport à d'autres options préventives étaient limitées, la décision pour ou contre le lancement d'un traitement préventif du TAS et le traitement sélectionné devraient être fortement basés sur les préférences des patients.

Cancer

Tsai et Hamblin (2017) ont noté que le rayonnement IR est un rayonnement électromagnétique avec des longueurs d'onde comprises entre 760 et 100 000 nm, tandis que la thérapie LLLT ou photobiomodulation (PBM) utilise généralement la lumière aux longueurs d'onde rouges et proches de l'IR (100 à 600 nm) pour moduler l'activité biologique. De nombreux facteurs, conditions et paramètres influencent les effets thérapeutiques de l'IR, notamment la fluence, l'irradiance, le moment et la répétition du traitement, la pulsation et la longueur d'onde. De plus en plus de preuves suggèrent que l'IR peut avoir des effets de photo-stimulation et de PBM, bénéficiant particulièrement à la stimulation neurale, à la cicatrisation des plaies et au traitement du cancer. Les cellules nerveuses répondent particulièrement bien à l'IR, qui a été proposée pour une gamme d'applications de neuro-stimulation et de neuro-modulation, et les progrès récents en matière de stimulation et de régénération neuronales ont été discutés dans cette revue.

Hou et ses collègues (2017) ont déclaré que le théranostic basé sur les nanoparticules s'est développé rapidement au cours de la dernière décennie et a été largement utilisé dans le diagnostic et le traitement du cancer du foie, du cancer du sein et d'autres tumeurs. Cependant, pour les cancers de la peau, les études sont limitées. Ces chercheurs ont réussi à synthétiser une nanoparticule théranostique en râpant IR820 sur la surface d'oxyde de fer magnétique recouvert de chitosane, IR820-CS-Fe3O4, montrant une excellente capacité d'imagerie par résonance magnétique (IRM) et des effets cytotoxiques contre le mélanome sous irradiation avec un proche infrarouge ( Laser NIR (808 nm) in vitro.De plus, une bonne stabilité jusqu'à 8 jours et une cytotoxicité négligeable ont été observées, ces caractéristiques sont importantes pour les applications biomédicales des nanoparticules. Les auteurs ont conclu qu'ils fournissaient une plate-forme théranostique nouvelle et potentielle pour le traitement et la détection du mélanome.

Zhang et ses collègues (2017) ont noté que bien que le cancer du sein triple négatif (TNBC) représente un faible pourcentage de tous les cancers du sein, à ce jour, le TNBC est l'un des types de cancer du sein les plus difficiles pour la recherche fondamentale et clinique, car les patients TNBC présentent un risque élevé de rechute, survie globale (SG) plus courte et options thérapeutiques limitées après la fin de la chimiothérapie conventionnelle par rapport aux patients avec d'autres sous-types de BC. Le récepteur du facteur de croissance épidermique (EGFR) est une cible prometteuse pour le traitement du TNBC. Bien que la thérapie photothermique NIR (NIR-PTT) utilisant des nanotiges d'or conjuguées à des anticorps anti-EGFR (anti-EGFR-GNs), ait suscité un intérêt considérable pour le traitement TNBC non invasif et ciblé via une activation de la voie apoptotique, il n'est pas clair si le NIR-PTT combiné anti-EGFR-GNs module l'induction de l'autophagie contribuant à la mort cellulaire. Ces chercheurs ont examiné la mort cellulaire autophagique dans des cellules TNBC en culture et des tumeurs de xénogreffe de souris au cours d'un NIR-PTT combiné avec des anti-EGFR-GNs. Ils ont découvert que la cytotoxicité induite par le NIR-PTT combiné anti-EGFR-GNs était récupérée par un traitement avec un inhibiteur de l'autophagie, la 3-méthyladénine (3-MA). Le NIR-PTT combiné aux anti-EGFR-GNs a induit des niveaux remarquables d'activité de l'autophagie, comme en témoignent un grand nombre de vésicules autophagiques et une augmentation significative des protéines spécifiques de l'autophagie chaîne légère 3 (LC3), p62, beclin-1 associée aux microtubules , et le gène5 lié à l'autophagie (Atg5), accompagnant l'inhibition de la voie de signalisation AKT-mTOR responsable de l'induction de l'autophagie. De plus, dans les tumeurs de xénogreffe de souris, le NIR-PTT combiné anti-EGFR-GNs a également augmenté les niveaux de LC3 et de beclin-1. Les auteurs ont conclu que ces résultats, pour la première fois, ont démontré que les anti-EGFR-GNs combinés NIR-PTT induisaient remarquablement l'autophagie conduisant à la mort des cellules cancéreuses ciblées par l'EGFR.

Xu et ses collaborateurs (2017) ont déclaré que si l'immunothérapie est devenue un paradigme très prometteur pour le traitement du cancer (par exemple, le cancer colorectal) ces dernières années, il est depuis longtemps reconnu que la thérapie photodynamique (PDT) a la capacité de déclencher des réponses immunitaires anti-tumorales. . Cependant, la PDT conventionnelle déclenchée par la lumière visible a une profondeur de pénétration limitée, et ses réponses immunitaires générées peuvent ne pas être assez robustes pour éliminer les tumeurs. Les nanoparticules à conversion ascendante (UCNP) sont chargées simultanément de chlore e6 (Ce6), un photosensibilisateur, et d'imiquimod (R837), un agoniste du récepteur-7 Toll-like. Les nanoparticules multitâches UCNP-Ce6-R837 obtenues sous irradiation NIR avec une profondeur de pénétration tissulaire améliorée permettraient une destruction photodynamique efficace des tumeurs pour générer un pool d'antigènes associés aux tumeurs, qui, en présence de ces nanoparticules contenant du R837 comme adjuvant, sont capable de promouvoir de fortes réponses immunitaires anti-tumorales. Plus important encore, la PDT avec UCNP-Ce6-R837 en combinaison avec le blocage du point de contrôle cytotoxique T-lymphocyte-associated protein 4 (CTLA-4) a non seulement montré une excellente efficacité pour éliminer les tumeurs exposées au laser NIR, mais a également entraîné une forte anti- immunités tumorales pour inhiber la croissance de tumeurs distantes laissées après le traitement par PDT. De plus, une telle stratégie d'immunothérapie anticancéreuse a une fonction de mémoire immunitaire à long terme pour protéger les souris traitées d'un nouveau défi des cellules tumorales. Les auteurs ont conclu que ces résultats présentaient une stratégie de PDT immunostimulante basée sur l'UCNP en combinaison avec le blocage du point de contrôle CTLA-4 pour détruire efficacement les tumeurs primaires sous exposition à la lumière, inhiber les tumeurs distantes qui peuvent difficilement être atteintes par la lumière et empêcher la réapparition de la tumeur via le effet mémoire immunitaire.

Migraine

  1. dans le groupe témoin (groupe A, 22 cas au total), la nimodipine a été utilisée dans le traitement de la migraine chronique pendant 2 mois
  2. dans le groupe luminothérapie polarisée infrarouge (groupe B, 22 cas au total), la lumière polarisée infrarouge a été adoptée dans le traitement de la migraine chronique pendant 50 à 60 jours
  3. dans le groupe de traitement à la toxine botulique (groupe C, 24 cas au total), la toxine botulique de type A guidée par échographie et hyponome a été injectée dans les muscles frontaux, temporaux et occipitaux dans le traitement de la migraine chronique et
  4. dans le groupe de traitement conjoint (groupe D, 23 cas au total), l'injection de toxine botulique de type A guidée par ultrasons et hyponome dans le groupe C et la lumière polarisée infrarouge dans le groupe B ont toutes deux été utilisées ici dans le traitement de la migraine chronique.

La thérapie par la lumière polarisée infrarouge a duré de 50 à 60 jours et la durée de l'étude a duré 6 mois. L'enquête inclurait les conditions des patients souffrant de migraine chronique 3 mois avant le traitement et à 1, 3 et 6 mois après le traitement. Les patients ont été invités à remplir le MIDAS (questionnaire d'évaluation du handicap migraineux) et ont été classés sur l'échelle d'évaluation de la qualité de vie (QOL), afin que les chercheurs puissent comparer la fréquence des crises, la durée des crises, la gravité des crises, l'utilisation de analgésiques et leur guérison de la migraine chronique, puis observer leurs effets indésirables. Au total 11 cas ont abandonné pendant le traitement, 3 cas dans le groupe A, 2 cas dans le groupe B, 4 cas dans le groupe C et 2 cas dans le groupe D. A 1, 3 et 6 mois après le traitement, les scores MIDAS dans le groupe A, B, C et D étaient significativement plus faibles qu'avant le traitement. Par conséquent, les différences étaient statistiquement significatives (p < 0,01). Les scores de l'échelle d'évaluation de la qualité de vie étaient significativement plus élevés que les scores avant le traitement, de sorte que la différence était statistiquement significative (p < 0.01). Les scores MIDAS et les scores de l'échelle d'évaluation de la qualité de vie dans le groupe D ont été comparés à ceux des groupes A, B et C respectivement, et les différences étaient statistiquement significatives (p < 0.05) 2 patients ont été enregistrés avec des étourdissements, et les étourdissements ont disparu après 2 semaines sans aucun traitement. Les rides du front et les pattes d'oie de 21 patients ont diminué ou ont disparu à des degrés divers après l'injection. Les auteurs ont conclu que la combinaison d'une injection de toxine botulique de type A guidée par ultrasons et hyponome et d'une lumière polarisée infrarouge dans le traitement de la migraine chronique a démontré un effet clinique significatif. De plus, ils ont déclaré que d'autres études dans de grands échantillons et multi-centres sont nécessaires dans l'application clinique. Il s'agissait d'une petite étude (n = 23 dans le groupe de traitement conjoint avec 2 abandons) et ses résultats ont été confondus par l'utilisation combinée du Botox et de la thérapie infrarouge.

En outre, les revues UpToDate sur « Migraine chronique » (Garza et Schwedt, 2018), « Traitement aigu de la migraine chez l'adulte » (Bajwa et Smith, 2018a) et « Traitement préventif de la migraine chez l'adulte » (Bajwa et Smith, 2018b) ne pas mentionner l'infrarouge comme option thérapeutique.

Neuropathie périphérique non diabétique

Miriutova et al (2002) ont rapporté les résultats de 73 patients atteints de myéloradiculopathie ischémique par compression ayant reçu un traitement comprenant un rayonnement laser infrarouge sur les champs paravertébraux, les points moteurs des nerfs affectés et les points biologiquement actifs Y63, Y67, YB34, YB42, YB43, E34, E42 (1,0 à 5,0 mW/cm2 5- et 5 000 Hz), électrostimulation des points nerveux moteurs et innervés par ceux-ci par des impulsions doubles carrées avec un écart fixe de 5 ms. Les auteurs ont conclu que la thérapie au laser infrarouge à impulsion soulageait le syndrome douloureux et stimulait les processus de réparation dans les structures nerveuses affectées. Une autre stimulation électrique modifiée a activé une croissance régénérative des fibres nerveuses, une réinnervation des muscles des membres. Il s'agissait d'une étude non contrôlée.

Foto et al (2007) ont comparé la précision, la fiabilité et les caractéristiques essentielles de 9 thermomètres infrarouges portables disponibles dans le commerce utilisés pour gérer le pied neuropathique. Les thermomètres ont été comparés à l'aide de 2 sources de contrôle de température simulant des conditions physiologiques trouvées dans une clinique de soins des pieds. Avec chaque source de contrôle réglée indépendamment, des plages de différence de température de 0 degré, 2 degrés, 4 degrés et 6 degrés C ont été échantillonnées au hasard et analysées pour chaque thermomètre par 2 testeurs. L'ordre des tests a été attribué au hasard pour les testeurs et les instruments. Il y avait des différences dans le changement de température moyenne entre les thermomètres (p < 0,001) et entre les testeurs (p = 0,0247). Les différences de variation de température moyenne entre les instruments (moins de 0,5 degré C), bien que faibles, pourraient affecter l'interprétation de la température cutanée si les comparaisons de température étaient effectuées à l'aide de 2 instruments différents. La différence de changement de température entre les testeurs (0,06 degrés C) n'était pas assez importante pour affecter les décisions en pratique clinique. Le temps de réponse de l'instrument, le rapport distance/point, le diamètre du capteur, la résolution d'affichage, l'émissivité et le coût ont été comparés. Les auteurs ont conclu que les thermomètres infrarouges à faible coût et à usage général utilisés dans cette étude présentaient une bonne précision, fiabilité et performance et étaient appropriés pour une utilisation dans une clinique de soins des pieds. Cette étude n'a fourni aucune donnée pour étayer l'efficacité de ces dispositifs dans le traitement de la neuropathie périphérique.

Schencking et al (2008) ont rapporté le cas d'une patiente de 67 ans qui souffrait d'une radiculopathie persistante et aigüe (L5/S1 à droite) due à des métastases de cancer du sein (pT1bL0N1R1G2M1/RE osseux 95 %, PR 95 % , Her2-new-score 3+) dans la colonne lombaire. Les traitements traditionnels n'avaient pas réussi à produire des effets thérapeutiques suffisants. Ces chercheurs ont effectué 6 séances d'hyperthermie du corps entier à l'infrarouge A filtré à l'eau à l'aide d'un système commercial (Iratherm 1000 Von Ardenne Institute for Applied Medical Research, Dresde, Allemagne). La longueur d'onde était de 600 à 1 300 nm, la température centrale du corps visée était de 38,5 degrés C. L'intensité de la douleur a été évaluée par une échelle visuelle analogique (EVA). L'intensité de la douleur (EVA) a diminué de 9 (initial) à 3 points après les 3 premières séances de traitement. Le patient était totalement indolore après 6 séances. Aucun effet secondaire n'a été observé. Au suivi après 3 et 24 semaines, le patient était toujours indolore. Les auteurs ont conclu que l'hyperthermie infrarouge-A du corps entier pourrait être une procédure thérapeutique efficace avec des effets secondaires rares pour la douleur neuropathique induite par la tumeur. Cependant, son utilisation doit être étudiée plus avant dans le cadre d'essais cliniques contrôlés.

Ataxie spinocérébelleuse

Liu et ses collègues (2019) ont noté que l'ataxie spinocérébelleuse de type 3 (SCA3) est une maladie neurodégénérative poly-glutamine résultant du mauvais repliement et de l'accumulation d'une protéine pathogène, provoquant un dysfonctionnement cérébelleux, et cette maladie n'a actuellement aucun traitement efficace. Le rayonnement infrarouge lointain (FIR) s'est avéré protéger la viabilité des cellules SCA3 en empêchant l'agrégation de la protéine ataxine-3 mutante et en favorisant l'autophagie. Cependant, ce traitement possible manque encore de preuves in vivo. Ces chercheurs ont examiné l'effet de la thérapie FIR sur SCA3 in-vivo en utilisant un modèle de souris sur 28 semaines. Les souris témoins portaient un allèle sain de type sauvage ATXN3 qui avait un tractus poly-glutamine avec 15 répétitions CAG (15Q), tandis que les souris transgéniques SCA3 possédaient un allèle avec un tract poly-glutamine pathologique avec 84 répétitions CAG (84Q) étendues. Les résultats ont montré que les souris 84Q SCA3 présentaient une coordination motrice, des capacités d'équilibre et des performances de marche altérées, ainsi que la perte associée de cellules de Purkinje dans le cervelet, par rapport aux témoins 15Q normaux, néanmoins, le traitement FIR était suffisant pour prévenir ces défauts. Le FIR a considérablement amélioré les performances en termes de zone de contact maximale, de longueur de foulée et de support de base dans les pattes avant, les pattes arrière ou les deux. De plus, le traitement FIR a soutenu la survie des cellules de Purkinje dans le cervelet et favorisé l'autophagie, comme en témoigne l'induction de marqueurs autophagiques, LC3II et Beclin-1, concomitante à la réduction de l'accumulation de p62 et d'ataxine-3 dans les cellules de Purkinje cérébelleuses, ce qui pourrait contribuer en partie au mécanisme de sauvetage. Les auteurs ont conclu que ces résultats ont révélé que le FIR conférait des effets thérapeutiques dans un modèle animal transgénique SCA3 et avait donc un potentiel considérable pour une utilisation clinique future.

Lésion cérébrale traumatique

Yao et ses collègues (2018) ont déclaré que les lésions cérébrales traumatiques (TCC) sont devenues un problème de santé et socio-économique majeur affectant les jeunes et le personnel militaire. De nombreux patients atteints de TCC ont subi les séquelles d'une lésion cérébrale appelée déficience cognitive, qui ont réduit les fonctions d'attention, de mémoire de travail, de motivation et d'exécution. Ces dernières années, la thérapie laser transcrânienne dans le proche infrarouge (tNiRLT) en tant que thérapie possible s'est progressivement appliquée dans le traitement des troubles cognitifs post-TCC. Dans la présente revue, les mécanismes biologiques du tNiRLT transcrânien pour le TBI sont synthétisés principalement sur la base de l'impact photonique sur le TBI chronique léger. Divers événements moléculaires passionnants peuvent se produire au cours de la procédure, tels que la stimulation de la production d'ATP, le flux sanguin cérébral régional (CBF), le point d'acupuncture, la neurogenèse et la synaptogenèse, la réduction des anti-inflammatoires existait également. Certaines expérimentations animales et études cliniques du tNiRLT pour le TBI ont été décrites. Plusieurs laboratoires ont montré que le tNiRLT est efficace non seulement pour améliorer les fonctions neurologiques, mais également pour augmenter la mémoire et la capacité d'apprentissage dans le modèle de TBI des rongeurs. Dans un rapport de cas de 2 patients et une série de 11 cas, les fonctions cognitives ont été améliorées. L'efficacité sur les effets cognitifs et émotionnels a également été observée dans une étude clinique contrôlée en double aveugle. Les auteurs ont conclu que plusieurs essais randomisés, parallèles, en double aveugle et contrôlés par simulation sont en cours, visant à évaluer l'efficacité de la tLED sur les fonctions cognitives et l'état neuropsychiatrique chez les participants atteints de TCC. Ainsi, le tNiRLT est une méthode prometteuse appliquée aux troubles cognitifs après un traumatisme crânien.

Dans une étude de série de cas, Hipskind et ses collègues (2019) ont examiné les résultats de l'application d'une thérapie par la lumière rouge/proche infrarouge à l'aide de diodes électroluminescentes (DEL) pulsées avec 3 fréquences différentes transcrâniennes pour traiter un TBI chez les vétérans militaires. Un total de 12 sujets symptomatiques diagnostiqués avec un TBI chronique de plus de 18 mois après un traumatisme ont reçu une thérapie PBM transcrânienne pulsée (tPBMT) à l'aide de 2 électrodes de thérapie en néoprène contenant 220 LED infrarouges et 180 LED rouges, générant une puissance de sortie de 3,3 W et un densité de puissance moyenne de 6,4 mW/cm2 pendant 20 minutes, trois fois par semaine pendant 6 semaines. Les mesures des résultats comprenaient des scores de tests neuropsychologiques standardisés et des mesures qualitatives et quantitatives de tomodensitométrie par émission de photons (SPECT) du débit sanguin cérébral régional (rCBF). Le tPBMT pulsé a significativement amélioré les scores neuropsychologiques dans 6 des 15 sous-échelles (40,0% p < 0,05 bilatéral). L'analyse SPECT a montré une augmentation de la rCBF chez 8 des 12 (66,7 %) sujets de l'étude. L'analyse quantitative SPECT a révélé une augmentation significative de la rCBF dans ce sous-groupe de sujets de l'étude et une différence significative entre le nombre de rayons gamma/cc avant et après le traitement [t = 3,77, df = 7, p = 0,007, IC à 95 % : 95 543,21 à 21 931,82]. Les auteurs ont noté qu'il s'agissait de la première étude à rapporter une analyse SPECT quantitative de la rCBF dans les régions d'intérêt après tPBMT pulsé avec des LED dans le TBI. Ils ont conclu que le tPBMT pulsé utilisant des LED était prometteur pour améliorer la fonction cognitive et le rCBF plusieurs années après le TBI. De plus, des études contrôlées plus importantes sont nécessaires.

Les auteurs ont conclu que les limites de cette étude incluaient l'utilisation d'un petit échantillon volontaire (n = 12) sans groupe témoin ou de traitement fictif pour la comparaison. Il s'agissait d'une conception de série de cas dans laquelle tous les sujets ont reçu le même traitement et la mise en aveugle des sujets et des cliniciens administrant le traitement n'a pas été effectuée. Le biais inconscient de l'expérimentateur et les effets placebo doivent être contrôlés dans les études futures. D'autres formes d'évaluations neuropsychologiques n'ont pas été utilisées en raison de contraintes budgétaires, de personnel et de temps, introduisant des effets potentiels sur la pratique. Une troisième limitation était la possibilité que la régression vers la moyenne puisse expliquer en partie les résultats des analyses SPECT quantitatives en raison du seuil des critères de sélection de z inférieur ou égal à 1,00. Théoriquement, la suppression des critères de sélection résoudrait ce problème, cependant, il s'agit de l'un des meilleurs identificateurs de pratique pour la diminution de la rCBF associée au TBI. Une autre limitation possible était la reproductibilité de la SPECT, bien que la recherche ait montré que la reproductibilité de la SPECT se situait entre ± 1,3 % et 5 %.

Régénération osseuse

Tani et ses collègues (2018) ont noté que le PBM a été utilisé à des fins de régénération osseuse dans différents domaines de la médecine et de la dentisterie, mais des résultats contradictoires exigent un regard sceptique quant à ses avantages potentiels. Dans une étude in vitro, ces chercheurs ont comparé le potentiel PBM par des lasers à diodes rouges (635 ± 5 nm) ou proche infrarouge (NIR, 808 ± 10 nm) et des diodes électroluminescentes violet-bleu (405 ± 5 nm) fonctionnant en une onde continue avec une densité d'énergie de 0,4 J/cm², sur la viabilité, la prolifération, l'adhésion et la différenciation ostéogénique des ostéoblastes humains et des cellules stromales mésenchymateuses (hMSC). Les traitements PBM n'ont pas altéré la viabilité (tests PI/Syto16 et MTS). Les analyses d'immunofluorescence confocale et de RT-PCR ont indiqué que les PBM rouges sur les deux types de cellules augmentaient les amas riches en vinculine, l'expression des marqueurs ostéogéniques (Runx-2, phosphatase alcaline, ostéopontine) et le dépôt de structure de nodules osseux minéralisés et sur les hMSC induisaient la formation de fibres de stress et régule à la hausse l'expression du marqueur de prolifération Ki67. Fait intéressant, les réponses des ostéoblastes à la lumière rouge étaient médiées par l'activation de la signalisation Akt, qui semblait moduler positivement les niveaux d'espèces réactives de l'oxygène. Les cellules irradiées à la lumière bleu violet se comportaient essentiellement comme des cellules non traitées et celles irradiées par NIR présentaient des modifications de l'assemblage du cytosquelette, de l'expression de Runx-2 et du schéma de minéralisation. Les auteurs ont conclu que, bien que dans les limites d'une expérimentation in vitro, cette étude peut suggérer la PBM avec un laser 635 nm comme option efficace potentielle pour promouvoir/améliorer la régénération osseuse.

Trouble temporo-mandibulaire

Sousa et ses collègues (2019) le trouble temporo-mandibulaire (TMD) est considéré comme la principale cause de douleur oro-faciale d'origine non dentaire et un problème de santé publique. La symptomatologie est une douleur musculaire et/ou articulaire, une restriction de l'amplitude de mouvement mandibulaire (ROM) et des modifications du schéma de mouvement mandibulaire. En raison de sa complexité, il existe déjà des traitements utilisant diverses formes de thérapie. La photo-biomodulation à l'aide de sources lumineuses, telles que les lasers de bas niveau ou les diodes électroluminescentes (LED), de différentes longueurs d'onde, sous une forme unique ou combinée, permet d'explorer une ressource thérapeutique supplémentaire. L'objectif de cette étude est d'évaluer les effets de la PBM avec l'utilisation simultanée de LED rouges et infrarouges, sur la douleur, l'amplitude des mouvements mandibulaires et sur l'activité électrique des muscles masticateurs chez les personnes atteintes d'ATM.Un essai clinique randomisé, contrôlé, en double aveugle est proposé, qui impliquera 33 individus (n = 11 par groupe) des deux sexes, âgés de 18 à 45 ans dans 3 groupes : groupe LED groupe placebo et groupe contrôle, soumis à 6 non -des séances consécutives de PBM totalisant 2 semaines de traitement. Les critères de diagnostic de recherche pour les troubles temporomandibulaires-RDC/TMD seront utilisés pour évaluer et déterminer la douleur des sujets TMD sera évaluée à l'aide de l'EVA, la ROM mandibulaire sera déterminée à l'aide d'un pied à coulisse numérique et l'activité électrique de la mastication muscles seront vérifiés par électromyographie (EMG). Une plaque mixte de 18 LED rouges-660 nm et 18 LED infrarouges-850 nm avec une puissance de 3,5 mW par LED, 4,45 mW/cm, exposition radiante de 5,35 J/cm, sera utilisée pour le PBM. La zone irradiée sera de 14,13 cm, et l'énergie de 75,6 J, dans la région de l'ATM et dans les muscles masséter et temporaux bilatéraux. Les sujets de tous les groupes seront réévalués après la première intervention thérapeutique et à la fin du traitement. Les auteurs s'attendent à ce que l'utilisation de PBM avec des LED, infra et rouges, réduise la douleur, améliore la fonction de l'articulation temporo-mandibulaire chez les patients atteints de DTM, et améliore ainsi l'état général du patient.

Coagulation infrarouge pour le traitement de la dysplasie anale

Goldstone et ses collègues (2011) ont déclaré avoir déjà signalé la coagulation infrarouge (IRC) de lésions squameuses intraépithéliales anales de haut grade (HSIL) chez des hommes séropositifs et séronégatifs pour le virus de l'immunodéficience humaine (VIH) ayant des rapports sexuels. avec des hommes (HSH) avec un suivi médian de 1,5 ans. Dans une étude de cohorte rétrospective, ces chercheurs ont déterminé les taux de récidive des HSIL après un suivi à long terme de l'IRC et si les patients ont évolué vers un cancer invasif. Cette étude a été réalisée dans un cadre de pratique en cabinet. Les patients évalués étaient des HSH qui ont subi au moins 1 ablation des HSIL anaux IRC entre 1999 et 2005 avec un suivi supplémentaire d'au moins 1 an. Les principaux critères de jugement mesurés étaient la récurrence des HSIL et la progression vers le carcinome épidermoïde anal (CSC). Au total, 96 HSH ont été inclus (44 séropositifs) avec un suivi médian de 48 et 69 mois chez les HSH séronégatifs et séropositifs 35 % des sujets séropositifs et 31 % des sujets séronégatifs de l'étude initiale. cohorte ont été perdues de vue. Chez les HSH séronégatifs, 32 (62 %) ont eu une récidive en 14 mois en moyenne. Les taux de récidive après les 2e et 3e traitements étaient de 48 % et 57 %. Chez les HSH séropositifs, 40 (91 %) ont eu une récidive en 17 mois en moyenne. Les taux de récidive après les 2e, 3e et 4e IRC étaient de 63 %, 85 % et 47 %. Après la 1ère ablation, les HSH séropositifs étaient 1,9 fois plus susceptibles d'avoir une récidive que les HSH séronégatifs (p = 0,009). Un an après la 1ère ablation, 61 % des HSH séropositifs avaient des HSIL récurrentes contre 38 % des HSH séronégatifs. Un an après la 2e ablation, 49 % des HSH séropositifs avaient des HSIL récurrentes contre 28 % des HSH séronégatifs. Chez les HSH séronégatifs et séropositifs pour le VIH, la probabilité de guérison d'une lésion individuelle après la première ablation était de 80 % et 67 %. La plupart des récidives étaient dues au développement de lésions métachrones survenant chez 82 % et 52 % des sujets séropositifs et séronégatifs après leur 1er traitement IRC. Le nombre moyen de lésions récurrentes pour les HSH séropositifs et séronégatifs n'a jamais été supérieur à 2. Aucun HSH n'a développé de CSC et il n'y a eu aucun EIG. Lors de la dernière visite, 82 % des HSH séropositifs et 90 % des HSH séronégatifs étaient exempts de HSIL. Les auteurs ont conclu que l'ablation de l'IRC était un traitement efficace pour les HSIL et qu'aucun patient n'a évolué vers un cancer. Ces chercheurs ont déclaré que les principaux inconvénients de cette étude étaient sa conception rétrospective, et qu'il s'agissait d'une étude observationnelle avec une perte de suivi significative (35 % de sujets séropositifs et 31 % de sujets séronégatifs de la cohorte d'origine).

Alam et associés (2016) ont noté qu'il existe une ambiguïté concernant la gestion optimale de la néoplasie intraépithéliale anale (AIN) III. Dans une revue systématique, ces chercheurs ont comparé les directives internationales/nationales de la société actuellement disponibles dans la littérature sur la gestion, le traitement et la surveillance de la NIA III. De plus, ils ont examiné la qualité des études utilisées pour compiler les lignes directrices et clarifié la terminologie utilisée dans l'évaluation histologique. Ces chercheurs ont effectué une recherche électronique dans PubMed et Embase en utilisant les termes de recherche « anal intraepithelial neoplasia », « AIN », « anal cancer », « guidelines », « surveillance » et « management ». Des revues de la littérature et des lignes directrices ou des lignes directrices de pratique dans des revues à comité de lecture du 1er janvier 2000 au 31 décembre 2014 évaluant le traitement, la surveillance ou la prise en charge des patients atteints de NIA liée au virus du papillome humain (VPH) ont été incluses. Les lignes directrices identifiées par la recherche ont été évaluées pour la qualité des preuves qui les sous-tendent à l'aide des niveaux de preuve 2011 du Oxford Center for Evidence-based Medicine. La recherche dans la base de données a identifié 5 159 articles et 2 autres directives provenaient des directives officielles de l'organisme. Une fois les critères d'inclusion appliqués, 28 articles en texte intégral ont été examinés, 25 d'entre eux ont été exclus, laissant 3 lignes directrices à inclure dans la revue systématique : celles publiées par l'Association of Coloproctology of Great Britain and Ireland, l'American Society of Colon and Rectal Surgeons et la Société italienne de chirurgie colorectale. Aucune directive n'a été identifiée sur la gestion de l'AIN III des associations et sociétés de virus du papillome humain. Les 3 lignes directrices ont convenu qu'un indice élevé de suspicion clinique était essentiel pour diagnostiquer l'AIN avec une histoire spécifique à la maladie, un examen physique, un toucher rectal (DRE) et une cytologie anale. Il y avait un échange de terminologie de l'AIN de haut grade (HGAIN) (qui incorporait l'AIN II/III) et l'AIN III dans la littérature conduisant à une confusion dans l'utilisation de la thérapie. Le traitement variait de l'immunomodulation et de la PDT à la destruction ciblée des zones de HGAIN/AIN II/III en utilisant l'IRC, l'électrocoagulation, la cryothérapie ou l'excision chirurgicale, mais avec peu de consensus entre les directives. Les recommandations sur les stratégies de surveillance étaient tout aussi discordantes, allant de l'examen physique semestriel à l'anuscopie ± biopsie annuelle. Plus de 50 % des recommandations étaient basées sur des preuves de niveau III ou de niveau IV et nombre d'entre elles ont été compilées à l'aide d'études datant de plus de 10 ans. Les auteurs ont conclu qu'en dépit de la concordance concernant le diagnostic, il y avait une variation significative dans les lignes directrices par rapport aux recommandations sur le traitement et la surveillance des patients avec HGAIN/AIN II/III. Les 3 séries de lignes directrices étaient basées sur des preuves de faible niveau et obsolètes provenant des années 1980 et 1990.

Goldstone et ses collègues (2019) ont noté que l'ablation des HSIL anaux peut réduire l'incidence du cancer invasif. Cependant, il existe peu de données sur l'efficacité du traitement et la régression naturelle sans traitement. Dans une étude randomisée, multicentrique et ouverte, ces chercheurs ont examiné les effets de l'IRC sur les HSIL anales (index HSIL) chez des adultes infectés par le VIH âgés de 27 ans ou plus avec 1 à 3 HSIL anales prouvées par biopsie sans antécédents de HSIL. Les sujets ont été randomisés 1:1 pour l'ablation des HSIL avec IRC (traitement) ou sans traitement (surveillance active [AM]). Les sujets ont été suivis tous les 3 mois par anoscopie à haute résolution. Les sujets du traitement ont subi des biopsies anales des HSIL suspectés, nouveaux ou récurrents. Les sujets AM n'ont subi des biopsies qu'au mois 12. Le critère d'évaluation principal était la clairance complète de l'indice HSIL au mois 12. Ces chercheurs ont randomisé 120 sujets. La clairance complète de l'indice HSIL s'est produite plus fréquemment dans le groupe de traitement que dans le groupe AM (62 % contre 30 % de différence de risque, 32 % IC à 95 % : 13 % à 48 % p < 0,001). Une clairance complète ou partielle (clairance supérieure ou égale à 1 indice HSIL) est survenue plus fréquemment dans le groupe de traitement (82 % contre 47 % de différence de risque, 35 % IC à 95 % : 16 % à 50 % p < 0,001). Le fait d'avoir une seule lésion index, par rapport à 2 à 3 lésions, était significativement associé à une clairance complète (risque relatif, 1,96 IC à 95 % : 1,22 à 3,10). Les effets indésirables les plus courants liés au traitement étaient des douleurs anales légères ou modérées et des saignements. Aucun EIG n'a été jugé lié au traitement ou à la participation à l'étude. Les auteurs ont conclu que l'ablation IRC des HSIL anales entraînait une plus grande clairance des HSIL que l'observation seule.

Les auteurs ont déclaré que cette étude présentait plusieurs inconvénients. Comme mentionné précédemment, davantage de sujets avec 2 ou 3 lésions index ont été randomisés dans le groupe AM, ce qui pourrait affecter les résultats. Il était possible que la différence absolue dans les HSIL ait été surestimée, étant donné qu'au départ, le groupe AM avait plus de HSIL que le groupe de traitement, mais dans le modèle multivariable, le RR de la clairance des HSIL était toujours significatif. Ces chercheurs ont recruté des sujets présentant de petites lésions, ce qui pourrait surestimer la réponse, car les petites lésions peuvent être plus susceptibles que les grandes lésions de se résoudre avec le traitement ou de régresser sans traitement. Ces chercheurs étaient tous assez expérimentés dans le traitement des HSIL et les sujets étaient pour la plupart des hommes blancs, infectés par le VIH avec une maladie limitée, recevant un traitement antirétroviral avec une suppression virale et une reconstitution immunitaire satisfaisantes, ce qui rend les résultats moins généralisables à d'autres prestataires et populations. La force globale de cette étude reposait sur le fait qu'il s'agissait de la première étude prospective, multi-sites et randomisée permettant de déterminer si l'ablation des HSIL était supérieure ou non à l'AM seule pour éliminer les HSIL chez les personnes infectées par le VIH.

Corral et ses collaborateurs (2019) ont déclaré que la néoplasie intraépithéliale anale (AIN) (ou néoplasie intraépithéliale squameuse de bas/haut grade (L/HSIL)) est le précurseur du cancer anal invasif précoce. Différentes options thérapeutiques pour l'ablation locale des lésions localisées ont été rapportées. Dans une revue systématique, ces chercheurs ont analysé l'innocuité et l'efficacité de l'IRC pour le traitement de la dysplasie anale. Ils ont effectué une recherche dans la littérature en 2019 à l'aide de PubMed et Cochrane pour identifier tous les essais éligibles publiés rapportant des données sur le traitement de la dysplasie anale par IRC. Le pourcentage de CSC de l'anus qui s'est développé au cours du suivi et les résultats sur les complications majeures après le traitement étaient les principaux critères de jugement. Un total de 24 articles ont été identifiés parmi lesquels 6 ont été sélectionnés avec un total de 360 ​​patients inclus, avec un âge médian de 41,8 ans 3 études étaient prospectives et 3 rétrospectives, seulement 1 était un essai randomisé. Tous les articles incluaient des hommes, 4 articles incluaient des femmes séropositives et un seul article incluait des hommes non infectés par le VIH. Aucun patient n'a développé de complications majeures après la thérapie IRC. La douleur était le symptôme le plus fréquemment retrouvé après l'intervention dans les différentes séries et une hémorragie légère n'ayant pas nécessité de transfusion était la complication la plus fréquente survenant chez 4 à 78 % des patients. Le suivi médian était compris entre 4,7 et 69 mois. Aucun patient n'a développé de CSC après IRC. Les HSIL récurrentes variaient de 10 à 38 % 2 études ont rapporté des résultats de suivi de patients non traités montrant qu'entre 72 et 93 % d'entre eux avaient une HSIL persistante au dernier suivi et 4,8 % ont développé un CSC. Les auteurs ont conclu que l'IRC était une méthode sûre et efficace pour l'ablation de la dysplasie anale de haut grade qui pourrait aider à prévenir le cancer anal, une surveillance continue est recommandée en raison du risque de récidive.

En outre, une revue UpToDate sur les « lésions intraépithéliales squameuses anales : diagnostic, dépistage, prévention et traitement » (Palefsky et Cranston, 2020) indique que « la coagulation infrarouge, l'hyfrecation, la coagulation au plasma d'argon et l'ablation par radiofréquence -- Pour les lésions qui sont trop grand pour le TCA, la coagulation infrarouge (IRC) au bureau peut être utilisée. Cet appareil est approuvé par la Food and Drug Administration (FDA) des États-Unis pour le traitement des hémorroïdes et des verrues anales. Le traitement consiste en l'application directe d'une impulsion d'irradiation de 1,5 seconde dans la gamme infrarouge à l'épithélium anal dysplasique, ce qui entraîne la destruction des tissus sur une profondeur d'environ 1,5 mm. Le tissu coagulé peut ensuite être débridé à l'aide de pinces à biopsie Tischler. Les complications possibles liées à la procédure comprennent les saignements et les infections immédiats et retardés. L'IRC n'est pas encore approuvé par la FDA pour le traitement du SIL anal. De nombreuses études ont démontré l'innocuité et l'efficacité de l'IRC chez les individus infectés et non infectés par le VIH. Par exemple, dans un essai randomisé en ouvert portant sur 120 adultes infectés par le VIH avec une HSIL anale, la clairance de l'indice complet de la HSIL était plus fréquente dans le groupe de traitement que dans le groupe de surveillance (62 versus 30 %, différence de risque 32 %, 95 % IC 13 à 48 %). Autre exemple, dans une étude rétrospective portant sur 96 hommes, le traitement par IRC a été suivi d'une récidive en 14 mois en moyenne chez 62 % de ceux qui n'étaient pas infectés par le VIH et chez 91 % de ceux qui étaient infectés par le VIH. Bien que de multiples retraitements aient été nécessaires dans la majorité des cas, aucun des hommes n'a évolué vers un carcinome épidermoïde. Il n'y a eu aucun événement indésirable grave ».


Contenu

Dans les années 1800, des études sur les mouvements oculaires ont été réalisées à l'aide d'observations directes. Par exemple, Louis Émile Javal observait en 1879 que la lecture n'implique pas un balayage régulier des yeux le long du texte, comme on le supposait auparavant, mais une série d'arrêts courts (appelés fixations) et de saccades rapides. [1] Cette observation a soulevé des questions importantes sur la lecture, questions qui ont été explorées au cours des années 1900 : Sur quels mots les yeux s'arrêtent-ils ? Pour combien de temps? Quand régressent-ils vers des mots déjà vus ?

Edmund Huey [2] a construit un premier eye tracker, utilisant une sorte de lentille de contact avec un trou pour la pupille. La lentille était reliée à un pointeur en aluminium qui se déplaçait en réponse au mouvement de l'œil. Huey a étudié et quantifié les régressions (seule une faible proportion des saccades sont des régressions), et il a montré que certains mots d'une phrase ne sont pas figés.

Les premiers eye-trackers non intrusifs ont été construits par Guy Thomas Buswell à Chicago, utilisant des faisceaux de lumière qui se réfléchissaient sur l'œil puis les enregistraient sur film. Buswell a fait des études systématiques sur la lecture [3] et la visualisation d'images. [4]

Dans les années 1950, Alfred L. Yarbus [5] a fait d'importantes recherches sur l'oculométrie et son livre de 1967 est souvent cité. Il a montré que la tâche confiée à un sujet a une très grande influence sur le mouvement des yeux du sujet. Il a également écrit sur la relation entre les fixations et l'intérêt :

"Tous les enregistrements montrent de manière concluante que le caractère du mouvement des yeux est soit complètement indépendant, soit très légèrement dépendant du matériau de l'image et de la façon dont elle a été réalisée, à condition qu'elle soit plate ou presque plate." [6] Le modèle cyclique dans l'examen des images "dépend non seulement de ce qui est montré sur l'image, mais aussi du problème auquel l'observateur est confronté et des informations qu'il espère tirer de l'image." [7]

Dans les années 1970, la recherche sur l'oculométrie s'est rapidement développée, en particulier la recherche sur la lecture. Un bon aperçu de la recherche dans cette période est donné par Rayner. [13]

En 1980, Just et Carpenter [14] ont formulé l'influent Hypothèse forte œil-esprit, qu'"il n'y a pas de décalage appréciable entre ce qui est fixé et ce qui est traité". Si cette hypothèse est correcte, alors lorsqu'un sujet regarde un mot ou un objet, il y pense également (processus cognitif) et pendant exactement aussi longtemps que la fixation enregistrée. L'hypothèse est souvent tenue pour acquise par les chercheurs utilisant l'eye-tracking. Cependant, les techniques contingentes au regard offrent une option intéressante pour démêler les attentions manifestes et cachées, pour différencier ce qui est fixé et ce qui est traité.

Au cours des années 1980, l'hypothèse œil-esprit a souvent été remise en question à la lumière de l'attention secrète, [15] [16] l'attention portée à quelque chose que l'on ne regarde pas, ce que les gens font souvent. Si l'attention secrète est courante pendant les enregistrements de suivi oculaire, le trajet de balayage et les schémas de fixation qui en résultent ne montrent souvent pas où notre attention a été, mais seulement où l'œil a regardé, sans indiquer un traitement cognitif.

Les années 1980 ont également vu naître l'utilisation de l'eye-tracking pour répondre aux questions liées à l'interaction homme-machine. Plus précisément, les chercheurs ont étudié comment les utilisateurs recherchent des commandes dans les menus de l'ordinateur. [17] De plus, les ordinateurs ont permis aux chercheurs d'utiliser les résultats de l'oculométrie en temps réel, principalement pour aider les utilisateurs handicapés. [17]

Plus récemment, l'utilisation de l'oculométrie pour étudier comment les utilisateurs interagissent avec différentes interfaces informatiques s'est développée. Les questions spécifiques posées par les chercheurs sont liées à la facilité avec laquelle les différentes interfaces sont pour les utilisateurs. [17] Les résultats de la recherche sur le suivi oculaire peuvent conduire à des changements dans la conception de l'interface. Un autre domaine de recherche récent se concentre sur le développement Web. Cela peut inclure la façon dont les utilisateurs réagissent aux menus déroulants ou où ils concentrent leur attention sur un site Web afin que le développeur sache où placer une publicité. [18]

Selon Hoffman, [19] le consensus actuel est que l'attention visuelle est toujours légèrement (100 à 250 ms) en avant de l'œil. Mais dès que l'attention se déplace vers une nouvelle position, les yeux voudront suivre. [20]

Nous ne pouvons toujours pas déduire des processus cognitifs spécifiques directement à partir d'une fixation sur un objet particulier dans une scène. [21] Par exemple, une fixation sur un visage dans une image peut indiquer une reconnaissance, une sympathie, une aversion, une perplexité, etc. Par conséquent, le suivi oculaire est souvent associé à d'autres méthodologies, telles que les protocoles verbaux introspectifs.

Grâce aux progrès des appareils électroniques portables, les eye trackers portables montés sur la tête peuvent actuellement atteindre d'excellentes performances et sont de plus en plus utilisés dans les applications de recherche et de marché ciblant les paramètres de la vie quotidienne. [22] Ces mêmes progrès ont conduit à une augmentation de l'étude des petits mouvements oculaires qui se produisent lors de la fixation, à la fois en laboratoire et dans des contextes appliqués. [23]

Au 21e siècle, l'utilisation de l'intelligence artificielle (IA) et des réseaux de neurones artificiels est devenue un moyen viable d'effectuer des tâches et des analyses de suivi oculaire. En particulier, le réseau de neurones convolutifs se prête au suivi oculaire, car il est conçu pour des tâches centrées sur l'image. Avec l'IA, les tâches et les études de suivi oculaire peuvent fournir des informations supplémentaires qui n'ont peut-être pas été détectées par les observateurs humains. La pratique de l'apprentissage en profondeur permet également à un réseau de neurones donné de s'améliorer à une tâche donnée lorsqu'il dispose de suffisamment de données d'échantillon. Cela nécessite cependant une quantité relativement importante de données d'entraînement. [24]

Les cas d'utilisation potentiels de l'IA dans le suivi oculaire couvrent un large éventail de sujets allant des applications médicales [25] à la sécurité des conducteurs [24] en passant par la théorie des jeux. [26] Bien que la structure CNN puisse s'adapter relativement bien à la tâche de suivi oculaire, les chercheurs ont la possibilité de construire un réseau neuronal personnalisé adapté à la tâche spécifique à accomplir. Dans ces cas, ces créations internes peuvent surpasser les modèles préexistants pour un réseau de neurones. [27] En ce sens, il reste à voir s'il existe un moyen de déterminer la structure de réseau idéale pour une tâche donnée.

Les eye-trackers mesurent les rotations de l'œil de plusieurs manières, mais ils entrent principalement dans l'une des trois catégories suivantes : (i) mesure du mouvement d'un objet (normalement, une lentille de contact spéciale) attaché à l'œil (ii) optique suivi sans contact direct avec l'œil et (iii) mesure des potentiels électriques à l'aide d'électrodes placées autour des yeux.

Suivi oculaire Modifier

Le premier type utilise une fixation à l'œil, telle qu'une lentille de contact spéciale avec un miroir intégré ou un capteur de champ magnétique, et le mouvement de la fixation est mesuré en supposant qu'il ne glisse pas de manière significative lorsque l'œil tourne. Les mesures avec des lentilles de contact bien ajustées ont fourni des enregistrements extrêmement sensibles des mouvements oculaires, et les bobines de recherche magnétiques sont la méthode de choix pour les chercheurs qui étudient la dynamique et la physiologie sous-jacente des mouvements oculaires. Cette méthode permet de mesurer le mouvement des yeux dans les directions horizontale, verticale et de torsion. [28]

Suivi optique Modifier

La deuxième grande catégorie utilise une méthode optique sans contact pour mesurer le mouvement des yeux. La lumière, généralement infrarouge, est réfléchie par l'œil et détectée par une caméra vidéo ou un autre capteur optique spécialement conçu. Les informations sont ensuite analysées pour extraire la rotation des yeux des changements de reflets. Les eye trackers vidéo utilisent généralement le reflet cornéen (la première image de Purkinje) et le centre de la pupille comme caractéristiques à suivre au fil du temps. Un type d'eye-tracker plus sensible, le double eye tracker Purkinje, [29] utilise les reflets de l'avant de la cornée (première image de Purkinje) et de l'arrière de la lentille (quatrième image de Purkinje) comme caractéristiques à suivre. Une méthode de suivi encore plus sensible consiste à imager des caractéristiques de l'intérieur de l'œil, telles que les vaisseaux sanguins de la rétine, et à suivre ces caractéristiques pendant que l'œil tourne. Les méthodes optiques, en particulier celles basées sur l'enregistrement vidéo, sont largement utilisées pour le suivi du regard et sont privilégiées pour leur caractère non invasif et peu coûteux.

Mesure du potentiel électrique Modifier

La troisième catégorie utilise des potentiels électriques mesurés avec des électrodes placées autour des yeux. Les yeux sont à l'origine d'un champ de potentiel électrique permanent qui peut également être détecté dans l'obscurité totale et si les yeux sont fermés. Il peut être modélisé pour être généré par un dipôle avec son pôle positif au niveau de la cornée et son pôle négatif au niveau de la rétine. Le signal électrique qui peut être dérivé à l'aide de deux paires d'électrodes de contact placées sur la peau autour d'un œil est appelé électrooculogramme (EOG). Si les yeux se déplacent de la position centrale vers la périphérie, la rétine se rapproche d'une électrode tandis que la cornée se rapproche de l'autre. Cette modification de l'orientation du dipôle et par conséquent du champ de potentiel électrique entraîne une modification du signal EOG mesuré. Inversement, en analysant ces changements dans le mouvement des yeux peuvent être suivis. En raison de la discrétisation donnée par la configuration commune des électrodes, deux composantes de mouvement distinctes – une horizontale et une verticale – peuvent être identifiées. Un troisième composant EOG est le canal EOG radial, [30] qui est la moyenne des canaux EOG référencés à une électrode postérieure du cuir chevelu. Ce canal EOG radial est sensible aux potentiels de pointes saccadiques provenant des muscles extra-oculaires au début des saccades et permet une détection fiable même des saccades miniatures. [31]

En raison des dérives potentielles et des relations variables entre les amplitudes du signal EOG et les tailles des saccades, il est difficile d'utiliser l'EOG pour mesurer le mouvement oculaire lent et détecter la direction du regard. L'EOG est cependant une technique très robuste pour mesurer les mouvements oculaires saccadés associés aux changements de regard et détecter les clignements. Contrairement aux eye-trackers vidéo, l'EOG permet d'enregistrer les mouvements oculaires même les yeux fermés, et peut donc être utilisé dans la recherche sur le sommeil. Il s'agit d'une approche très légère qui, contrairement aux eye-trackers vidéo actuels, ne nécessite que des travaux de très faible puissance de calcul dans différentes conditions d'éclairage et peut être implémentée en tant que système portable intégré et autonome. [32] [33] C'est donc la méthode de choix pour mesurer les mouvements oculaires dans les situations mobiles de la vie quotidienne et les phases REM pendant le sommeil. Le principal inconvénient de l'EOG est sa précision de direction du regard relativement faible par rapport à un tracker vidéo. C'est-à-dire qu'il est difficile de déterminer avec une bonne précision exactement où un sujet regarde, bien que le temps des mouvements oculaires puisse être déterminé.

Les conceptions actuelles les plus largement utilisées sont les eye-trackers vidéo. Une caméra se concentre sur un ou les deux yeux et enregistre le mouvement des yeux lorsque le spectateur regarde une sorte de stimulus. La plupart des eye-trackers modernes utilisent le centre de la pupille et la lumière infrarouge / proche infrarouge non collimatée pour créer des reflets cornéens (CR). Le vecteur entre le centre de la pupille et les reflets cornéens peut être utilisé pour calculer le point de regard sur la surface ou la direction du regard. Une simple procédure d'étalonnage de l'individu est généralement nécessaire avant d'utiliser l'eye tracker. [34]

Deux types généraux de techniques de suivi oculaire infrarouge / proche infrarouge (également appelées lumière active) sont utilisés : la pupille claire et la pupille sombre. Leur différence est basée sur l'emplacement de la source d'éclairage par rapport à l'optique. Si l'éclairage est coaxial avec le chemin optique, l'œil agit comme un rétroréflecteur car la lumière se réfléchit sur la rétine, créant un effet pupillaire brillant similaire à celui des yeux rouges. Si la source d'éclairage est décalée du chemin optique, alors la pupille apparaît sombre car la rétroréflexion de la rétine est dirigée loin de la caméra. [35]

Le suivi des pupilles lumineuses crée un plus grand contraste iris/pupille, permettant un suivi oculaire plus robuste avec toute la pigmentation de l'iris et réduit considérablement les interférences causées par les cils et autres caractéristiques obscurcissantes. [36] Il permet également le suivi dans des conditions d'éclairage allant de l'obscurité totale à très lumineuse.

Une autre méthode, moins utilisée, est connue sous le nom de lumière passive. Il utilise la lumière visible pour éclairer, ce qui peut causer des distractions aux utilisateurs. [35] Un autre défi avec cette méthode est que le contraste de la pupille est inférieur à celui des méthodes de lumière active, par conséquent, le centre de l'iris est utilisé à la place pour calculer le vecteur. [37] Ce calcul doit détecter la limite de l'iris et de la sclérotique blanche (suivi des limbes). Il présente un autre défi pour les mouvements oculaires verticaux en raison de l'obstruction des paupières. [38]

Infrarouge / proche infrarouge : pupille lumineuse.

Infrarouge / proche infrarouge : pupille sombre et reflet cornéen.

Lumière visible : centre de l'iris (rouge), réflexion cornéenne (vert) et vecteur de sortie (bleu).

Les configurations de suivi oculaire varient considérablement : certaines sont montées sur la tête, certaines nécessitent que la tête soit stable (par exemple, avec une mentonnière) et certaines fonctionnent à distance et suivent automatiquement la tête pendant le mouvement. La plupart utilisent une fréquence d'échantillonnage d'au moins 30 Hz. Bien que 50/60 Hz soit plus courant, aujourd'hui, de nombreux eye trackers vidéo fonctionnent à 240, 350 ou même 1000/1250 Hz, vitesses nécessaires pour capturer les mouvements oculaires de fixation ou mesurer correctement la dynamique des saccades.

Les mouvements oculaires sont généralement divisés en fixations et saccades - lorsque le regard fixe s'arrête dans une certaine position et lorsqu'il passe à une autre position, respectivement. La série de fixations et de saccades qui en résulte s'appelle un trajet de balayage. La poursuite en douceur décrit l'œil suivant un objet en mouvement. Les mouvements oculaires de fixation comprennent les microsaccades : de petites saccades involontaires qui se produisent lors de la tentative de fixation. La plupart des informations de l'œil sont rendues disponibles lors d'une fixation ou d'une poursuite en douceur, mais pas lors d'une saccade. [39]

Les scanpaths sont utiles pour analyser l'intention cognitive, l'intérêt et la saillance. D'autres facteurs biologiques (certains aussi simples que le sexe) peuvent également affecter le trajet de balayage. Le suivi oculaire dans l'interaction homme-machine (HCI) étudie généralement le chemin de numérisation à des fins d'utilisation ou en tant que méthode d'entrée dans les affichages contingents au regard, également connus sous le nom d'interfaces basées sur le regard. [40]

L'interprétation des données enregistrées par les différents types d'eye-trackers fait appel à divers logiciels qui les animent ou les représentent visuellement, de sorte que le comportement visuel d'un ou plusieurs utilisateurs peut être restitué graphiquement. La vidéo est généralement codée manuellement pour identifier les AOIs (Area Of Interests) ou récemment à l'aide de l'intelligence artificielle. La présentation graphique est rarement la base des résultats de la recherche, car ils sont limités en termes de ce qui peut être analysé - la recherche reposant sur l'eye-tracking, par exemple, nécessite généralement des mesures quantitatives des événements de mouvement oculaire et de leurs paramètres. Les visualisations suivantes sont les le plus couramment utilisé:

Représentations animées d'un point sur l'interface Cette méthode est utilisée lorsque le comportement visuel est examiné individuellement en indiquant où l'utilisateur a concentré son regard à chaque instant, complété par un petit chemin qui indique les mouvements de saccade précédents, comme on le voit sur l'image.

Représentations statiques du chemin de la saccade Ceci est assez similaire à celui décrit ci-dessus, à la différence qu'il s'agit d'une méthode statique. Un niveau d'expertise plus élevé qu'avec les animés est nécessaire pour interpréter cela.

Cartes thermiques Une représentation statique alternative, utilisée principalement pour l'analyse agglomérée des modèles d'exploration visuelle dans un groupe d'utilisateurs. Dans ces représentations, les zones « chaudes » ou de densité plus élevée désignent les endroits où les utilisateurs ont concentré leur regard (pas leur attention) avec une fréquence plus élevée. Les cartes thermiques sont la technique de visualisation la plus connue pour les études de suivi oculaire. [41]

Cartes des zones aveugles ou cartes de mise au point Cette méthode est une version simplifiée des Heat maps où les zones les moins fréquentées visuellement par les utilisateurs sont affichées clairement, permettant ainsi une meilleure compréhension des informations les plus pertinentes, c'est-à-dire que l'on est informé des zones qui n'ont pas été vues par les utilisateurs.

Cartes de saillance Semblable aux cartes thermiques, une carte de saillance illustre les zones d'intérêt en affichant brillamment les objets qui attirent l'attention sur une toile initialement noire. Plus l'accent est mis sur un objet particulier, plus il apparaîtra lumineux. [42]

Les eye-trackers mesurent nécessairement la rotation de l'œil par rapport à un cadre de référence. Ceci est généralement lié au système de mesure. Ainsi, si le système de mesure est monté sur la tête, comme avec l'EOG ou un système basé sur la vidéo monté sur un casque, alors les angles de l'œil dans la tête sont mesurés. Pour déduire la ligne de visée en coordonnées mondiales, la tête doit être maintenue dans une position constante ou ses mouvements doivent également être suivis. Dans ces cas, la direction de la tête est ajoutée à la direction des yeux dans la tête pour déterminer la direction du regard.

Si le système de mesure est monté sur table, comme avec les bobines de recherche sclérales ou les systèmes de caméras montées sur table (« à distance »), alors les angles de regard sont mesurés directement en coordonnées mondiales. En règle générale, dans ces situations, les mouvements de la tête sont interdits. Par exemple, la position de la tête est fixée à l'aide d'une barre de morsure ou d'un support frontal. Ensuite, un cadre de référence centré sur la tête est identique à un cadre de référence centré sur le monde. Ou familièrement, la position des yeux dans la tête détermine directement la direction du regard.

Certains résultats sont disponibles sur les mouvements oculaires humains dans des conditions naturelles où les mouvements de la tête sont également autorisés. [43] La position relative de l'œil et de la tête, même avec une direction constante du regard, influence l'activité neuronale dans les zones visuelles supérieures. [44]

De nombreuses recherches ont été consacrées à l'étude des mécanismes et de la dynamique de la rotation des yeux, mais le but de l'oculométrie est le plus souvent d'estimer la direction du regard. Les utilisateurs peuvent être intéressés par les caractéristiques d'une image qui attirent l'œil, par exemple. Il est important de réaliser que l'eye-tracker ne fournit pas une direction absolue du regard, mais qu'il ne peut mesurer que les changements de direction du regard. Afin de savoir précisément ce qu'un sujet regarde, une procédure d'étalonnage est nécessaire dans laquelle le sujet regarde un point ou une série de points, tandis que l'eye tracker enregistre la valeur qui correspond à chaque position du regard. (Même les techniques qui suivent les caractéristiques de la rétine ne peuvent pas fournir une direction exacte du regard car il n'y a pas de caractéristique anatomique spécifique qui marque le point exact où l'axe visuel rencontre la rétine, si tant est qu'il existe un tel point unique et stable.) Un point précis et stable. un étalonnage fiable est essentiel pour obtenir des données de mouvement oculaire valides et reproductibles, et cela peut être un défi important pour les sujets non verbaux ou ceux qui ont un regard instable.

Chaque méthode de suivi oculaire présente des avantages et des inconvénients, et le choix d'un système de suivi oculaire dépend de considérations de coût et d'application. Il existe des méthodes hors ligne et des procédures en ligne comme AttentionTracking. Il existe un compromis entre le coût et la sensibilité, les systèmes les plus sensibles coûtant plusieurs dizaines de milliers de dollars et nécessitant une expertise considérable pour fonctionner correctement. Les progrès de la technologie informatique et vidéo ont conduit au développement de systèmes relativement peu coûteux qui sont utiles pour de nombreuses applications et assez faciles à utiliser. [45] L'interprétation des résultats nécessite encore un certain niveau d'expertise, cependant, car un système mal aligné ou mal calibré peut produire des données extrêmement erronées.

Eye-tracking en conduisant une voiture dans une situation difficile Modifier

Les mouvements oculaires de deux groupes de conducteurs ont été filmés avec une caméra frontale spéciale par une équipe de l'Ecole polytechnique fédérale de Suisse : les conducteurs novices et expérimentés ont enregistré leurs mouvements oculaires à l'approche d'un virage d'une route étroite. La série d'images a été condensée à partir des cadres du film d'origine [47] pour montrer 2 fixations oculaires par image pour une meilleure compréhension.

Chacune de ces images fixes correspond à environ 0,5 seconde en temps réel.

La série d'images montre un exemple de fixations oculaires #9 à #14 d'un novice typique et d'un conducteur expérimenté.

La comparaison des images du haut montre que le conducteur expérimenté vérifie la courbe et a même laissé la fixation n ° 9 pour regarder de côté tandis que le conducteur novice doit vérifier la route et estimer sa distance à la voiture garée.

Dans les images du milieu, le conducteur expérimenté se concentre maintenant pleinement sur l'endroit où une voiture venant en sens inverse pourrait être vue. Le conducteur novice concentre son regard sur la voiture garée.

Dans l'image du bas, le novice est occupé à estimer la distance entre le mur gauche et la voiture garée, tandis que le conducteur expérimenté peut utiliser sa vision périphérique pour cela tout en concentrant son regard sur le point dangereux de la courbe : si une voiture y apparaît, il doit céder, i. e. arrêtez-vous à droite au lieu de dépasser la voiture garée. [48]

Des études plus récentes ont également utilisé le suivi oculaire monté sur la tête pour mesurer les mouvements oculaires dans des conditions de conduite réelles. [49] [23]

Suivi oculaire des jeunes et des personnes âgées en marchant Modifier

En marchant, les sujets âgés dépendent davantage de la vision fovéale que les sujets plus jeunes. Leur vitesse de marche est diminuée par un champ visuel limité, probablement causé par une vision périphérique détériorée.

Les sujets plus jeunes utilisent à la fois leur vision centrale et périphérique en marchant. Leur vision périphérique permet un contrôle plus rapide du processus de marche. [50]

Une grande variété de disciplines utilisent des techniques d'eye-tracking, notamment la psychologie des sciences cognitives (notamment la psycholinguistique, le paradigme du monde visuel), l'interaction homme-machine (IHM), les facteurs humains et l'ergonomie, la recherche marketing et la recherche médicale (diagnostic neurologique). [51] Les applications spécifiques incluent le suivi des mouvements oculaires dans la lecture du langage, la lecture de musique, la reconnaissance de l'activité humaine, la perception de la publicité, la pratique de sports, la détection des distractions et l'estimation de la charge cognitive des conducteurs et des pilotes et comme moyen de faire fonctionner des ordinateurs par des personnes avec handicap moteur sévère. [23]

Applications commerciales Modifier

Ces dernières années, la sophistication et l'accessibilité accrues des technologies de suivi oculaire ont suscité un grand intérêt dans le secteur commercial. Les applications incluent la convivialité du Web, la publicité, le parrainage, la conception d'emballages et l'ingénierie automobile. En général, les études commerciales d'oculométrie fonctionnent en présentant un stimulus cible à un échantillon de consommateurs tandis qu'un oculomètre est utilisé pour enregistrer l'activité de l'œil. Des exemples de stimuli cibles peuvent inclure des sites Web des programmes de télévision des événements sportifs des films et des publicités des magazines et des journaux des emballages des étagères des systèmes de consommation (distributeurs automatiques de billets, des systèmes de caisse, des kiosques) et des logiciels. Les données résultantes peuvent être analysées statistiquement et rendues graphiquement pour fournir des preuves de modèles visuels spécifiques. En examinant les fixations, les saccades, la dilatation des pupilles, les clignements et une variété d'autres comportements, les chercheurs peuvent déterminer beaucoup de choses sur l'efficacité d'un support ou d'un produit donné. Alors que certaines entreprises effectuent ce type de recherche en interne, de nombreuses entreprises privées proposent des services de suivi oculaire et d'analyse.

L'utilisabilité du Web est l'un des domaines de la recherche commerciale sur l'eye-tracking. Alors que les techniques d'utilisabilité traditionnelles sont souvent assez puissantes pour fournir des informations sur les modèles de clic et de défilement, l'eye-tracking offre la possibilité d'analyser l'interaction de l'utilisateur entre les clics et le temps qu'un utilisateur passe entre les clics, fournissant ainsi des informations précieuses sur les fonctionnalités les plus accrocheur, dont les caractéristiques prêtent à confusion et qui sont complètement ignorées. Plus précisément, le suivi oculaire peut être utilisé pour évaluer l'efficacité de la recherche, l'image de marque, les publicités en ligne, la convivialité de la navigation, la conception globale et de nombreux autres composants du site. Les analyses peuvent cibler un site prototype ou concurrent en plus du site client principal.

L'eye-tracking est couramment utilisé dans une variété de supports publicitaires différents. Les publicités, les publicités imprimées, les publicités en ligne et les programmes sponsorisés sont tous propices à l'analyse avec la technologie actuelle de suivi oculaire. Un exemple est l'analyse des mouvements oculaires sur les publicités dans les pages jaunes. Une étude s'est concentrée sur les caractéristiques particulières qui ont amené les gens à remarquer une publicité, s'ils ont regardé les publicités dans un ordre particulier et comment les temps de visionnage variaient. L'étude a révélé que la taille, les graphiques, la couleur et la copie des publicités influencent tous l'attention portée aux publicités. Sachant cela, les chercheurs peuvent évaluer en détail la fréquence à laquelle un échantillon de consommateurs se concentre sur le logo, le produit ou la publicité cible. En conséquence, un annonceur peut quantifier le succès d'une campagne donnée en termes d'attention visuelle réelle. [52] Un autre exemple de ceci est une étude qui a révélé que dans une page de résultats de moteur de recherche, les extraits d'auteur recevaient plus d'attention que les publicités payantes ou même le premier résultat organique. [53]

Un autre exemple de recherche commerciale d'eye-tracking vient du domaine du recrutement. Une étude a analysé la façon dont les recruteurs filtrent les profils Linkedin et présente les résultats sous forme de cartes thermiques. [54]

Applications de sécurité Modifier

En 2017, les scientifiques ont construit un réseau de neurones intégrés profonds (DINN) à partir d'un réseau de neurones profonds et d'un réseau de neurones convolutifs.[24] L'objectif était d'utiliser l'apprentissage en profondeur pour examiner les images des conducteurs et déterminer leur niveau de somnolence en "classifiant [ing] les états oculaires". Avec suffisamment d'images, le DINN proposé pourrait idéalement déterminer quand les conducteurs clignent des yeux, à quelle fréquence ils clignent et pendant combien de temps. À partir de là, il pourrait juger à quel point un conducteur donné semble être fatigué, en effectuant efficacement un exercice de suivi oculaire. Le DINN a été formé sur les données de plus de 2 400 sujets et a correctement diagnostiqué leurs états 96% à 99,5 % du temps. La plupart des autres modèles d'intelligence artificielle ont fonctionné à des taux supérieurs à 90 %. [24] Cette technologie pourrait idéalement fournir une autre voie pour la détection de la somnolence du conducteur.

Applications à la théorie des jeux Modifier

Dans une étude de 2019, un réseau neuronal convolutif (CNN) a été construit avec la possibilité d'identifier des pièces d'échecs individuelles de la même manière que d'autres CNN peuvent identifier les traits du visage. [26] Il a ensuite été alimenté par des données d'entrée de suivi oculaire de trente joueurs d'échecs de différents niveaux de compétence. Avec ces données, le CNN a utilisé l'estimation du regard pour déterminer les parties de l'échiquier auxquelles un joueur prêtait une attention particulière. Il a ensuite généré une carte de saillance pour illustrer ces parties du tableau. En fin de compte, le CNN combinerait sa connaissance du plateau et des pièces avec sa carte de saillance pour prédire le prochain mouvement des joueurs. Quel que soit l'ensemble de données d'entraînement sur lequel le système de réseau neuronal a été entraîné, il a prédit le prochain mouvement avec plus de précision que s'il avait sélectionné un mouvement possible au hasard, et les cartes de saillance dessinées pour un joueur et une situation donnés étaient similaires à plus de 54 %. [26]

Technologie d'assistance Modifier

Les personnes atteintes d'une déficience motrice sévère peuvent utiliser le suivi oculaire pour interagir avec les ordinateurs [55] car il est plus rapide que les techniques de balayage à un seul commutateur et son utilisation est intuitive. [56] [57] La ​​déficience motrice causée par la paralysie cérébrale [58] ou la sclérose latérale amyotrophique affecte souvent la parole, et les utilisateurs atteints de déficiences sévères de la parole et de la motricité (SSMI) utilisent un type de logiciel connu sous le nom d'aide à la communication augmentée et alternative (AAC), [59] qui affiche des icônes, des mots et des lettres à l'écran [60] et utilise un logiciel de synthèse vocale pour générer une sortie vocale. [61] Ces derniers temps, les chercheurs ont également exploré le suivi oculaire pour contrôler les bras robotiques [62] et les fauteuils roulants électriques. [63] Le suivi oculaire est également utile pour analyser les modèles de recherche visuelle, [64] détecter la présence de nystagmus et détecter les premiers signes de troubles d'apprentissage en analysant le mouvement du regard pendant la lecture. [65]

Applications aéronautiques Modifier

L'oculométrie a déjà été étudiée pour la sécurité des vols en comparant les trajectoires de balayage et la durée de fixation pour évaluer les progrès des stagiaires pilotes, [66] pour estimer les compétences des pilotes, [67] pour analyser l'attention conjointe de l'équipage et la conscience partagée de la situation. [68] La technologie de suivi oculaire a également été explorée pour interagir avec les systèmes d'affichage montés sur casque [69] et les écrans multifonctionnels [70] dans les avions militaires. Des études ont été menées pour étudier l'utilité de l'eye tracker pour le verrouillage de la cible tête haute et l'acquisition de la cible tête haute dans les systèmes d'affichage montés sur casque (HMDS). [71] Les commentaires des pilotes ont suggéré que même si la technologie est prometteuse, ses composants matériels et logiciels doivent encore être mûris. [ citation requise ] Des recherches sur l'interaction avec des écrans multifonctionnels dans un environnement de simulateur ont montré que le suivi oculaire peut améliorer considérablement les temps de réponse et la charge cognitive perçue par rapport aux systèmes existants. En outre, la recherche a également étudié l'utilisation de mesures de fixation et de réponses pupillaires pour estimer la charge cognitive du pilote. L'estimation de la charge cognitive peut aider à concevoir des cockpits adaptatifs de prochaine génération avec une sécurité de vol améliorée. [72] Le suivi oculaire est également utile pour détecter la fatigue du pilote. [73] [23]

Applications automobiles Modifier

Ces derniers temps, la technologie de suivi oculaire est étudiée dans le domaine automobile de manière passive et active. La National Highway Traffic Safety Administration a mesuré la durée du regard pour entreprendre des tâches secondaires pendant la conduite et l'a utilisée pour promouvoir la sécurité en décourageant l'introduction de dispositifs excessivement distrayants dans les véhicules [74] En plus de la détection de distraction, le suivi oculaire est également utilisé pour interagir avec IVIS. [75] Bien que les recherches initiales [76] aient étudié l'efficacité du système de suivi oculaire pour l'interaction avec le disque dur (affichage tête en bas), les conducteurs devaient toujours quitter la route des yeux tout en effectuant une tâche secondaire. Des études récentes ont examiné l'interaction contrôlée par le regard avec le HUD (Head Up Display) qui élimine la distraction des yeux en dehors de la route. [77] Le suivi oculaire est également utilisé pour surveiller la charge cognitive des conducteurs afin de détecter une distraction potentielle. Bien que les chercheurs [78] aient exploré différentes méthodes pour estimer la charge cognitive des conducteurs à partir de différents paramètres physiologiques, l'utilisation de paramètres oculaires a exploré une nouvelle façon d'utiliser les eye trackers existants pour surveiller la charge cognitive des conducteurs en plus de l'interaction avec IVIS. [79] [80]

Applications de divertissement Modifier

Le jeu vidéo de 2021 Before Your Eyes enregistre et lit le clignotement du joueur et l'utilise comme principal moyen d'interagir avec le jeu. [81] [82]


Reconnaissance des gestes du regard à distance à faible coût en temps réel

Des séquences prédéfinies de mouvements oculaires, ou « gestes du regard », peuvent être effectuées consciemment par des humains et surveillées de manière non invasive à l'aide de la vidéo-oculographie à distance. Les gestes du regard ont un grand potentiel dans l'interaction homme-machine, tant qu'ils peuvent être facilement assimilés par les utilisateurs potentiels, surveillés à l'aide d'un équipement de suivi du regard à faible coût et que des algorithmes d'apprentissage automatique sont capables de distinguer la structure spatio-temporelle des gestes de regard intentionnels de activité de regard typique réalisée au cours d'une HCI standard. Dans ce travail, une évaluation des performances d'un algorithme de reconnaissance de formes bayésienne bio-inspiré connu sous le nom de Hierarchical Temporal Memory (HTM) sur la reconnaissance en temps réel des gestes du regard est réalisée à travers une étude utilisateur. Pour améliorer les performances du HTM traditionnel lors de la reconnaissance en temps réel, une extension de l'algorithme est proposée afin d'adapter le HTM à la structure temporelle des gestes du regard. L'extension se compose d'un nœud supérieur supplémentaire dans la topologie HTM qui stocke et compare des séquences de données d'entrée par alignement de séquences à l'aide de la programmation dynamique. La codification spatio-temporelle d'un geste dans une séquence a pour but de traiter l'évolution temporelle des instances de gestes du regard. Le HTM étendu permet une discrimination fiable des gestes de regard intentionnels de l'interaction du regard humain-machine par ailleurs standard, atteignant une précision de reconnaissance jusqu'à 98 % pour un ensemble de données de 10 catégories de gestes du regard, des vitesses de complétion acceptables et un faible taux de faux positifs pendant le regard standard – interaction avec l'ordinateur. Ces résultats positifs malgré le faible coût du matériel utilisé soutiennent l'idée d'utiliser les gestes du regard comme nouveau paradigme HCI pour les domaines de l'accessibilité et de l'interaction avec les smartphones, les tablettes, les écrans projetés et les ordinateurs de bureau traditionnels.

Résumé graphique

Points forts

► Ce travail présente une extension du paradigme HTM traditionnel afin d'améliorer les performances des HTM dans la reconnaissance en temps réel des gestes saccadés du regard. ► Le HTM étendu adapte les algorithmes HTM aux problèmes où la structure spatio-temporelle des instances se déroule dans le temps. ► Notre système de reconnaissance des gestes du regard est capable de reconnaître de manière robuste les gestes du regard en temps réel. ► Le but d'un tel système est de fournir un canal de communication entre les humains et les ordinateurs, ciblant spécifiquement les utilisateurs handicapés ou les environnements où les canaux d'entrée traditionnels ne sont pas adaptés ou pourraient être augmentés. ► L'approche HTM étendue proposée n'est pas spécifiquement conçue pour traiter spécifiquement les gestes du regard, car elle est très indépendante du matériel et du prétraitement des données d'entrée.


Évaluations

Une évaluation détaillée par un ergothérapeute ou un orthophoniste connaissant les technologies d'assistance et les systèmes de contrôle du regard est nécessaire pour voir si la technologie de contrôle du regard est susceptible d'être la bonne option pour un individu. Si tel est le cas, le thérapeute recommandera un essai de la technologie de contrôle du regard pour déterminer si elle atteindra ses objectifs. Ces objectifs pourraient inclure l'utilisation de la technologie de contrôle du regard pour la communication et la réalisation d'activités quotidiennes à la maison, à l'école, dans la communauté ou au travail. Le thérapeute recommandera ensuite des systèmes et des logiciels adaptés à la personne et l'assistera ensuite à maîtriser l'appareil. Le thérapeute s'assurera également que la personne est positionnée de manière optimale et confortablement assise, et éduquera sa famille, ses soignants, ses enseignants et autres sur la façon d'utiliser le système de contrôle du regard.

Les évaluations suivantes peuvent être utilisées par l'équipe pour évaluer l'utilisation de la technologie de contrôle du regard :

    (IPPA) - mesure si les appareils résolvent les problèmes d'une personne (GAS) - mesure dans quelle mesure les objectifs d'un individu sont atteints

Comment les ondes radio affectent-elles le corps humain ?

Les ondes radio ont des longueurs d'onde plus longues que les ondes infrarouges. Les ondes radio sont une sorte de rayonnement électromagnétique. Dans le spectre électromagnétique, les ondes radio se situent entre les fréquences de 300 GHz à 3 kHz. De plus, les longueurs d'onde respectives vont de 1 millimètre à 100 kilomètres.

Généralement, les ondes radio artificielles sont générées par les experts et sont utilisées pour les communications radio fixes et mobiles, la radiodiffusion, les radars et autres systèmes de navigation, etc. Divers effets des rayonnements électromagnétiques sur le corps humain sont indiqués ci-dessous. Les ondes radio générées par la radio contiennent les fréquences les plus basses du spectre électromagnétique et sont beaucoup plus sûres.

Effets majeurs sur les problèmes de santé généraux :

Généralement, les symptômes de faibles niveaux d'exposition aux champs électromagnétiques sont attribués par le public lui-même à son domicile. Les symptômes observés comprennent des maux de tête, de l'anxiété, du suicide et de la dépression, des nausées, de la fatigue et une perte de libido.

Ionisant

Généralement, les rayons X et les rayons gamma ont tendance à causer de graves dommages à votre corps. L'exposition excessive à ces rayons peut endommager l'ADN et les cellules. Ces rayons peuvent également causer des maladies, des brûlures ou le cancer.

Non ionisant

Les ondes radio non ionisantes n'ont pas assez de protons pour briser les cellules ou endommager l'ADN. Ceux-ci incluent les ondes radio qui sont émises par le téléphone mobile et n'émettent pas de rayonnements à haute énergie et sont probablement sans danger dans une large mesure.

Résultat de la grossesse

Élevée L'exposition aux champs électromagnétiques à plusieurs niveaux environnementaux n'augmente pas le risque d'effets indésirables tels que les avortements spontanés, les malformations, l'insuffisance pondérale à la naissance et les maladies congénitales. Des conditions telles que la prématurité et le faible poids à la naissance chez les enfants des travailleurs ne sont pas scientifiquement prouvées qu'elles sont causées par les expositions sur le terrain.

Cataractes

Les personnes exposées à des niveaux élevés de radiofréquence et de rayonnement micro-ondes souffrent généralement d'irritation générale des yeux et de cataracte. Mais il n'y a aucune preuve que ces effets se produisent à des niveaux rencontrés par le grand public.

Cancer et champs électromagnétiques

Les effets des champs électromagnétiques et leurs preuves de tout effet restent très controversés. Aucune augmentation importante du risque de cancer n'a été observée chez les enfants ou les adultes. Il y a une légère augmentation du risque de leucémie infantile avec l'exposition à des champs magnétiques à basse fréquence à la maison.

De plus, il n'est pas prouvé scientifiquement que ces résultats indiquent une relation de cause à effet entre l'exposition aux champs et la maladie. À des températures très élevées, les ondes RF peuvent chauffer les tissus du corps. Les ondes RF émises par les téléphones portables sont peu susceptibles de provoquer le cancer car ce sont des ondes non ionisantes et ont une très faible tendance à endommager l'ADN.

Dépression et hypersensibilité électromagnétique

Il existe des preuves très mineures pour soutenir l'idée d'hypersensibilité électromagnétique. Il montre que les individus ne présentent pas de réactions cohérentes dans des conditions d'exposition aux champs électromagnétiques correctement contrôlées. Il n'existe aucun mécanisme biologique pour expliquer l'hypersensibilité.

Effet sur le système nerveux

C'est un sujet de discussion active depuis très longtemps que les ondes radio affectent des préparations nerveuses isolées, le système nerveux central, la chimie et l'histologie du cerveau et la barrière hémato-encéphalique. Récemment, les experts ont réalisé une étude sur des préparations cardiaques isolées qui ont fourni des preuves de bradycardie à la suite d'une exposition à des rayonnements RF à des densités de puissance non thermiques.

Problèmes visuels causés par les ondes radio

Depuis plus de 30 ans, le développement de la cataracte est observé à la suite d'une forte exposition de l'œil aux ondes radio. De plus, les champs hyperfréquences CW ont des seuils similaires pour produire des cataractes.

Système endocrinien

Généralement, après la fin de l'exposition aux RF, l'altération des concentrations hormonales est réversible. Les systèmes qui sont importants dans le maintien de l'homéostasie modifient les interactions complexes des systèmes hypothalamique, hypophysaire, surrénalien et thyroïdien.

Système immunitaire

L'effet des ondes radio est signalé dans les systèmes de test Vitro et Vivo. De plus, la transformation des lymphoblastes et des changements dans la réactivité aux mitogènes ont également été remarqués. En général, les champs ELF sinusoïdaux n'ont pas d'effets significatifs sur la compétence immunitaire après exposition in vivo de certains animaux de laboratoire.

Systèmes hématologique et cardiovasculaire

De nombreux scientifiques ont déployé beaucoup d'efforts pour évaluer les effets des niveaux thermogéniques et non thermogéniques de rayonnement RF sur la chimie du sang et la numération des cellules sanguines. Aucune caractéristique sanguine mesurée dans l'étude n'a été modifiée en réponse à une exposition chronique aux RF.

Carcinogenèse animale

Seules quelques études ont prouvé un potentiel cancérigène possible, et d'autres n'ont montré aucun effet. De plus, toutes les études ont été prouvées avec des champs électromagnétiques plus grands que les champs GWEN pertinents. L'interprétation de certains rapports est compliquée par le stress induit thermiquement.

Les ondes électromagnétiques de hautes fréquences peuvent affecter votre corps de manière bien plus défavorable que les ondes de fréquences plus basses. Les ondes non ionisantes ne réussissent généralement pas à endommager l'ADN et les cellules du corps et sont beaucoup plus sûres que les ondes ionisantes.


Type1 : Température

(i) Thermocouple - Ils sont constitués de deux fils (chacun en alliage ou métal homogène différent) qui forment une jonction de mesure en se joignant à une extrémité. Cette jonction de mesure est ouverte aux éléments à mesurer. L'autre extrémité du fil se termine à un dispositif de mesure où une jonction de référence est formée. Le courant circule dans le circuit car la température des deux jonctions est différente. La milli-tension résultante est mesurée pour déterminer la température à la jonction. Le schéma du thermocouple est présenté ci-dessous.

Il existe de nombreuses façons d’intégrer les baies de goji à votre alimentation :

  • Mangez-les crus.
  • Utilisez-les en cuisine.
  • Buvez du jus de fruit de goji.
  • Prenez un supplément de goji.
  • Utilisez-les dans une tisane.

Sources

Base de données complète de médecines naturelles : « Lycium (Goji) : Monographie.

Norme naturelle : "Monographie professionnelle : Goji (Lycium spp.)"

Optométrie et sciences de la vision: « Effets de la baie de Goji sur les caractéristiques maculaires et les niveaux d'antioxydants plasmatiques. »

Le Journal mondial de la santé des hommes: "L'administration d'extraits de Goji (Lycium chinense Mill.) Améliore la fonction érectile dans le modèle de rat âgé."

FoodData Central : « Baies de Goji ».

Médecine oxydative et longévité cellulaire: « Les baies de Goji en tant que médicament antioxydant naturel potentiel : un aperçu de leurs mécanismes d'action moléculaires. »