Informations

Veuillez expliquer cette notation MW autour de 9 MDa

Veuillez expliquer cette notation MW autour de 9 MDa



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je suis un étudiant en sciences informatiques et je lisais sur la structure de la pyruvate déshydrogénase (PDH).

lien vers l'article

L'article mentionne « PDH est un grand complexe (MW environ 9 Mda) consistant en plusieurs copies de trois enzymes."

Qu'est-ce que MW environ 9 Mda dénoter ?

Je ne suis pas un étudiant régulier en biologie mais plutôt un étudiant en ingénierie alors s'il vous plaît essayez de fournir des explications simples.


Le poids moléculaire de l'enzyme PDH est d'environ 9$ imes$10$^6$ gm/mol

Le Dalton (ou unité de masse atomique (amu)) est une unité de masse définie comme 1/12 du poids de l'atome de carbone 12 à l'état fondamental. 1 Da = 1/12 m(12C)

Le nombre d'atomes dans 1 mole est le nombre d'Avogadro (6,023 x 10^23) donc le poids de 1 atome de carbone est = (12/ 6,023 x 10^23 ) g

Cela signifie 1Da (1 amu) = 1/12 x (12/ 6,023 x 10^23 ) g = 1/ 6,023 x 10^23 g qui est g/mole

(1 MOLE = 6,023 x 10^23 )

=> 1 Da = 1g/mole


Nucléotide

Nucléotides sont des molécules organiques constituées d'un nucléoside et d'un phosphate. Ils servent d'unités monomères des polymères d'acide nucléique - l'acide désoxyribonucléique (ADN) et l'acide ribonucléique (ARN), qui sont tous deux des biomolécules essentielles dans toutes les formes de vie sur Terre. Les nucléotides sont obtenus dans l'alimentation et sont également synthétisés à partir de nutriments communs par le foie. [1]

Les nucléotides sont composés de trois molécules sous-unitaires : une nucléobase, un sucre à cinq carbones (ribose ou désoxyribose) et un groupe phosphate constitué d'un à trois phosphates. Les quatre nucléobases de l'ADN sont la guanine, l'adénine, la cytosine et la thymine dans l'ARN, l'uracile est utilisé à la place de la thymine.

Les nucléotides jouent également un rôle central dans le métabolisme à un niveau cellulaire fondamental. Ils fournissent de l'énergie chimique - sous la forme de nucléosides triphosphates, d'adénosine triphosphate (ATP), de guanosine triphosphate (GTP), de cytidine triphosphate (CTP) et d'uridine triphosphate (UTP) - dans toute la cellule pour les nombreuses fonctions cellulaires qui nécessitent de l'énergie, y compris : synthèse des acides aminés, des protéines et de la membrane cellulaire, déplacement de la cellule et des parties cellulaires (à la fois internes et intercellulaires), division cellulaire, etc. [2] De plus, les nucléotides participent à la signalisation cellulaire (guanosine monophosphate cyclique ou cGMP et adénosine monophosphate cyclique ou cAMP) et sont incorporés dans d'importants cofacteurs de réactions enzymatiques (par exemple, coenzyme A, FAD, FMN, NAD et NADP + ).

En biochimie expérimentale, les nucléotides peuvent être radiomarqués à l'aide de radionucléides pour produire des radionucléotides.


Contenu

Les alcènes ayant quatre atomes de carbone ou plus peuvent former divers isomères structuraux. La plupart des alcènes sont également des isomères de cycloalcanes. Les isomères structuraux des alcènes acycliques avec une seule double liaison suivent : [7]

  • C2: éthylène uniquement
  • C3: propylène uniquement
  • C4: 3 isomères : 1-butène, 2-butène et isobutylène
  • C5: 5 isomères : 1-pentène, 2-pentène, 2-méthyl-1-butène, 3-méthyl-1-butène, 2-méthyl-2-butène
  • C6: 13 isomères : 1-hexène, 2-hexène, 3-hexène, méthylpentène (7 isomères), diméthylbutène (3 isomères)
  • C7: 27 isomères (calculés)
  • C12: 2 281 isomères (calculés)
  • C31: 193 706 542 776 isomères (calculés)

Beaucoup de ces molécules présentent une isomérie cis-trans. Il peut également y avoir des carbones chiraux en particulier dans les plus grosses molécules (de C5). Le nombre d'isomères potentiels augmente rapidement avec les atomes de carbone supplémentaires.

Lien Modifier

Une double liaison carbone-carbone est constituée d'une liaison sigma et d'une liaison pi. Cette double liaison est plus forte qu'une simple liaison covalente (611 kJ/mol pour C=C contre 347 kJ/mol pour C-C), [1] mais pas deux fois plus forte. Les doubles liaisons sont plus courtes que les simples liaisons avec une longueur de liaison moyenne de 1,33 (133 pm) contre 1,53 pour une simple liaison C-C typique. [8]

Chaque carbone de la double liaison utilise ses trois orbitales hybrides sp 2 pour former des liaisons sigma avec trois atomes (l'autre carbone et deux atomes d'hydrogène). Les orbitales atomiques 2p non hybridées, qui sont perpendiculaires au plan créé par les axes des trois orbitales hybrides sp², se combinent pour former la liaison pi. Cette liaison se situe en dehors de l'axe principal C-C, avec la moitié de la liaison d'un côté de la molécule et la moitié de l'autre. Avec une force de 65 kcal/mol, la liaison pi est nettement plus faible que la liaison sigma.

La rotation autour de la double liaison carbone-carbone est restreinte car elle entraîne un coût énergétique pour rompre l'alignement des orbitales p sur les deux atomes de carbone. par conséquent cis ou trans les isomères s'interconvertissent si lentement qu'ils peuvent être manipulés librement dans des conditions ambiantes sans isomérisation. Des alcènes plus complexes peuvent être nommés avec le EZ notation pour les molécules avec trois ou quatre substituants différents (groupes latéraux). Par exemple, parmi les isomères du butène, les deux groupes méthyle de (Z)-but-2-ène (alias cis-2-butène) apparaissent du même côté de la double liaison, et dans (E)-but-2-ène (alias trans-2-butène) les groupes méthyle apparaissent sur les côtés opposés. Ces deux isomères du butène ont des propriétés distinctes.

Forme Modifier

Comme prédit par le modèle VSEPR de répulsion des paires d'électrons, la géométrie moléculaire des alcènes comprend des angles de liaison autour de chaque carbone dans une double liaison d'environ 120°. L'angle peut varier en raison de la contrainte stérique introduite par les interactions non liées entre les groupes fonctionnels attachés aux carbones de la double liaison. Par exemple, l'angle de liaison C–C–C dans le propylène est de 123,9°.

Pour les alcènes pontés, la règle de Bredt stipule qu'une double liaison ne peut pas se produire à la tête de pont d'un système d'anneaux pontés à moins que les anneaux soient suffisamment grands. [9] Suivant Fawcett et définissant S comme le nombre total d'atomes sans tête de pont dans les cycles, [10] les systèmes bicycliques nécessitent S ≥ 7 pour la stabilité [9] et les systèmes tricycliques nécessitent S ≥ 11. [11]

De nombreuses propriétés physiques des alcènes et des alcanes sont similaires : ils sont incolores, non polaires et combustibles. L'état physique dépend de la masse moléculaire : comme les hydrocarbures saturés correspondants, les alcènes les plus simples (éthylène, propylène et butène) sont des gaz à température ambiante. Les alcènes linéaires d'environ cinq à seize carbones sont des liquides et les alcènes supérieurs sont des solides cireux. Le point de fusion des solides augmente également avec l'augmentation de la masse moléculaire.

Les alcènes ont généralement des odeurs plus fortes que leurs alcanes correspondants. L'éthylène a une odeur sucrée et de moisi. La liaison de l'ion cuivrique à l'oléfine dans le récepteur olfactif des mammifères MOR244-3 est impliquée dans l'odeur des alcènes (ainsi que des thiols). Les alcènes tendus, en particulier, comme le norbornène et trans-cyclooctène sont connus pour avoir des odeurs fortes et désagréables, un fait cohérent avec les complexes plus forts qu'ils forment avec les ions métalliques, y compris le cuivre. [12]

Les alcènes sont des composés relativement stables, mais sont plus réactifs que les alcanes. La plupart des réactions des alcènes impliquent des ajouts à cette liaison pi, formant de nouvelles liaisons simples. Les alcènes servent de matière première pour l'industrie pétrochimique car ils peuvent participer à une grande variété de réactions, notamment la polymérisation et l'alkylation.

À l'exception de l'éthylène, les alcènes ont deux sites de réactivité : la liaison pi carbone-carbone et la présence de centres CH allyliques. Le premier domine mais le site allylique est important aussi.

Réactions d'addition Modifier

Hydrogénation et hydroéléments associés Modifier

L'hydrogénation des alcènes produit les alcanes correspondants. La réaction est parfois effectuée sous pression et à température élevée. Des catalyseurs métalliques sont presque toujours nécessaires. Les catalyseurs industriels courants sont à base de platine, de nickel et de palladium. Une application à grande échelle est la production de margarine.

Mis à part l'ajout de H-H à travers la double liaison, de nombreux autres H-X peuvent être ajoutés. Ces procédés ont souvent une grande importance commerciale. Un exemple est l'ajout de H-SiR3, c'est-à-dire l'hydrosilylation. Cette réaction est utilisée pour générer des composés organosiliciés. Une autre réaction est l'hydrocyanation, l'ajout de H-CN à travers la double liaison.

Hydratation Modifier

L'hydratation, l'ajout d'eau à travers la double liaison des alcènes, donne des alcools. La réaction est catalysée par l'acide phosphorique ou l'acide sulfurique. Cette réaction est réalisée à l'échelle industrielle pour produire de l'éthanol synthétique.

Halogénation Modifier

Dans l'halogénation électrophile, l'addition de brome ou de chlore élémentaire aux alcènes produit des dibromo- et dichloroalcanes vicinaux (1,2-dihalogénures ou dihalogénures d'éthylène), respectivement. La décoloration d'une solution de brome dans l'eau est un test analytique de la présence d'alcènes :

Des réactions apparentées sont également utilisées comme mesures quantitatives de l'insaturation, exprimées par l'indice de brome et l'indice d'iode d'un composé ou d'un mélange.

Hydrohalogénation Modifier

L'hydrohalogénation est l'addition d'halogénures d'hydrogène, tels que HCl ou HI, à des alcènes pour donner les haloalcanes correspondants :

Si les deux atomes de carbone au niveau de la double liaison sont liés à un nombre différent d'atomes d'hydrogène, l'halogène se trouve préférentiellement au niveau du carbone avec moins de substituants hydrogène. Ce modèle est connu sous le nom de règle de Markovnikov. L'utilisation d'initiateurs de radicaux ou d'autres composés peut conduire au résultat de produit opposé. L'acide bromhydrique en particulier est enclin à se radicaliser en présence de diverses impuretés ou même de l'oxygène atmosphérique, conduisant à l'inversion du résultat de Markovnikov : [13]

Formation d'halohydrine Modifier

Les alcènes réagissent avec l'eau et les halogènes pour former des halohydrines par une réaction d'addition. La régiochimie de Markovnikov et l'anti-stéréochimie se produisent.

Oxydation Modifier

Les alcènes réagissent avec les acides percarboxyliques et même le peroxyde d'hydrogène pour donner des époxydes :

Pour l'éthylène, l'époxydation est conduite à très grande échelle industriellement à l'aide d'oxygène en présence de catalyseurs :

Les alcènes réagissent avec l'ozone, entraînant la scission de la double liaison. Le processus est appelé ozonolyse. Souvent, la procédure de réaction comprend un réducteur doux, tel que le sulfure de diméthyle (SMe2):

Lorsqu'il est traité avec une solution chaude concentrée et acidifiée de KMnO4, les alcènes sont des cétones clivées et/ou des acides carboxyliques. La stoechiométrie de la réaction est sensible aux conditions. Cette réaction et l'ozonolyse peuvent être utilisées pour déterminer la position d'une double liaison dans un alcène inconnu.

L'oxydation peut être arrêtée au niveau du diol vicinal plutôt que le clivage complet de l'alcène en utilisant du tétroxyde d'osmium ou d'autres oxydants :

En présence d'un photosensibilisateur approprié, tel que le bleu de méthylène et la lumière, les alcènes peuvent subir une réaction avec des espèces réactives de l'oxygène générées par le photosensibilisateur, telles que les radicaux hydroxyle, l'oxygène singulet ou l'ion superoxyde. Les réactions du sensibilisateur excité peuvent impliquer un transfert d'électrons ou d'hydrogène, généralement avec un substrat réducteur (réaction de type I) ou une interaction avec l'oxygène (réaction de type II). [14] Ces divers processus et réactions alternatifs peuvent être contrôlés par le choix de conditions de réaction spécifiques, conduisant à une large gamme de produits. Un exemple courant est la [4+2]-cycloaddition d'oxygène singulet avec un diène tel que le cyclopentadiène pour produire un endoperoxyde :

Un autre exemple est la réaction de Schenck ène, dans laquelle l'oxygène singulet réagit avec une structure allylique pour donner un peroxyde d'allyle transposé :

Polymérisation Modifier

Les alcènes terminaux sont des précurseurs de polymères via des processus appelés polymérisation. Certaines polymérisations sont d'une grande importance économique, car elles génèrent comme plastiques le polyéthylène et le polypropylène. Les polymères d'alcène sont généralement appelés polyoléfines bien qu'ils ne contiennent pas d'oléfines. La polymérisation peut se dérouler par divers mécanismes. les diènes conjugués tels que le buta-1,3-diène et l'isoprène (2-méthylbuta-1,3-diène) produisent également des polymères, un exemple étant le caoutchouc naturel.

Complexation du métal Modifier

Les alcènes sont des ligands dans les complexes d'alcènes de métaux de transition. Les deux centres de carbone se lient au métal à l'aide des orbitales C–C pi et pi*. Les mono- et dioléfines sont souvent utilisées comme ligands dans des complexes stables. Le cyclooctadiène et le norbornadiène sont des agents chélatants populaires, et même l'éthylène lui-même est parfois utilisé comme ligand, par exemple dans le sel de Zeise. De plus, les complexes métal-alcène sont des intermédiaires dans de nombreuses réactions catalysées par des métaux, notamment l'hydrogénation, l'hydroformylation et la polymérisation.

Aperçu de la réaction Modifier

Nom de la réaction Produit Commenter
Hydrogénation alcanes addition d'hydrogène
Hydroalcénylation alcènes hydrométallation / insertion / bêta-élimination par catalyseur métallique
Réaction d'addition d'halogène 1,2-dihalogénure addition électrophile d'halogènes
Hydrohalogénation (Markovnikov) haloalcanes ajout d'acides halohydriques
Hydrohalogénation anti-Markovnikov haloalcanes addition médiée par les radicaux libres d'acides halohydriques
Hydroamination amines ajout d'une liaison N-H à travers la double liaison C-C
Hydroformylation aldéhydes procédé industriel, ajout de CO et H2
Hydrocarboxylation et réaction de Koch acide carboxylique procédé industriel, ajout de CO et H2O.
Carboalcoxylation ester procédé industriel, ajout de CO et d'alcool.
alkylation ester procédé industriel : alcène alkylant l'acide carboxylique avec l'acide silicotungstique le catalyseur.
Bishydroxylation nette diols oxydation, réactif : tétroxyde d'osmium, ligand chiral
Woodward cis-hydroxylation diols oxydation, réactifs : iode, acétate d'argent
Ozonolyse aldéhydes ou cétones réactif : ozone
Métathèse des oléfines alcènes deux alcènes se réorganisent pour former deux nouveaux alcènes
Réaction de Diels-Aulne cyclohexènes cycloaddition avec un diène
Réaction de Pauson-Khand cyclopenténones cycloaddition avec un alcyne et du CO
Hydroboration-oxydation alcools réactifs : borane, puis un peroxyde
Oxymercuration-réduction alcools addition électrophile d'acétate mercurique, puis réduction
Réaction de Prins 1,3-diols addition électrophile avec aldéhyde ou cétone
Réaction de Paterno-Büchi oxétanes réaction photochimique avec un aldéhyde ou une cétone
Epoxydation époxyde addition électrophile d'un peroxyde
Cyclopropanation cyclopropanes ajout de carbènes ou de carbénoïdes
Hydroacylation cétones addition oxydante / élimination réductrice par catalyseur métallique
Hydrophosphination phosphines

Méthodes industrielles Modifier

Les alcènes sont produits par craquage d'hydrocarbures. Les matières premières sont principalement des composants de condensats de gaz naturel (principalement de l'éthane et du propane) aux États-Unis et au Moyen-Orient et du naphta en Europe et en Asie. Les alcanes sont brisés à des températures élevées, souvent en présence d'un catalyseur zéolitique, pour produire un mélange d'alcènes principalement aliphatiques et d'alcanes de poids moléculaire inférieur. Le mélange dépend de la charge d'alimentation et de la température, et est séparé par distillation fractionnée. Ceci est principalement utilisé pour la fabrication de petits alcènes (jusqu'à six carbones). [15]

La déshydrogénation catalytique est liée à cela, où un alcane perd de l'hydrogène à haute température pour produire un alcène correspondant. [1] C'est l'inverse de l'hydrogénation catalytique des alcènes.

Ce processus est également connu sous le nom de reformage. Les deux processus sont endothermiques et sont entraînés vers l'alcène à haute température par entropie.

Synthèse catalytique de -alcènes supérieurs (du type RCH=CH2) peut également être obtenu par une réaction de l'éthylène avec le composé organométallique triéthylaluminium en présence de nickel, de cobalt ou de platine.

Réactions d'élimination Modifier

L'une des principales méthodes de synthèse d'alcènes en laboratoire est l'élimination en salle des halogénures d'alkyle, des alcools et des composés similaires. La plus courante est la -élimination via le mécanisme E2 ou E1, [16] mais des -éliminations sont également connues.

Le mécanisme E2 fournit une méthode d'élimination plus fiable que E1 pour la plupart des synthèses d'alcènes. La plupart des éliminations E2 commencent par un halogénure d'alkyle ou un ester d'alkylsulfonate (comme un tosylate ou un triflate). Lorsqu'un halogénure d'alkyle est utilisé, la réaction est appelée déshydrohalogénation. Pour les produits asymétriques, les alcènes les plus substitués (ceux avec moins d'hydrogène attachés au C=C) ont tendance à prédominer (voir la règle de Zaitsev). Deux méthodes courantes de réactions d'élimination sont la déshydrohalogénation des halogénures d'alkyle et la déshydratation des alcools. Un exemple typique est montré ci-dessous notez que si possible, le H est anti au groupe partant, même si cela conduit à la moins stable Z-isomère. [17]

Les alcènes peuvent être synthétisés à partir d'alcools par déshydratation, auquel cas l'eau est perdue via le mécanisme E1. Par exemple, la déshydratation de l'éthanol produit de l'éthylène :

Un alcool peut également être converti en un meilleur groupe partant (par exemple, le xanthate), afin de permettre un plus doux syn-des éliminations telles que l'élimination de Chugaev et l'élimination de Grieco. Les réactions associées incluent les éliminations par les -haloéthers (synthèse d'oléfines Boord) et les esters (pyrolyse des esters).

Les alcènes peuvent être préparés indirectement à partir d'alkylamines. L'amine ou l'ammoniac n'est pas un groupe partant approprié, donc l'amine est d'abord soit alkylée (comme dans l'élimination de Hofmann) soit oxydée en un oxyde d'amine (la réaction de Cope) pour permettre une élimination en douceur. La réaction de Cope est une syn-élimination qui se produit à ou en dessous de 150 °C, par exemple : [18]

L'élimination de Hofmann est inhabituelle en ce que la moins l'alcène substitué (non Zaitsev) est généralement le produit principal.

Les alcènes sont générés à partir des -halosulfones dans la réaction de Ramberg-Bäcklund, via un intermédiaire sulfone à trois chaînons.

Synthèse à partir de composés carbonylés Modifier

Une autre méthode importante pour la synthèse d'alcènes implique la construction d'une nouvelle double liaison carbone-carbone par couplage d'un composé carbonyle (tel qu'un aldéhyde ou une cétone) à un équivalent carbanion. De telles réactions sont parfois appelées oléfinations. La plus connue de ces méthodes est la réaction de Wittig, mais d'autres méthodes apparentées sont connues, notamment la réaction de Horner-Wadsworth-Emmons.

La réaction de Wittig implique la réaction d'un aldéhyde ou d'une cétone avec un réactif de Wittig (ou phosphorane) de type Ph3P=CHR pour produire un alcène et Ph3P=O. Le réactif de Wittig se prépare lui-même facilement à partir de triphénylphosphine et d'un halogénure d'alkyle. La réaction est assez générale et de nombreux groupements fonctionnels sont tolérés, même des esters, comme dans cet exemple : [19]

L'oléfination de Peterson est liée à la réaction de Wittig, qui utilise des réactifs à base de silicium à la place du phosphorane. Cette réaction permet de sélectionner E- ou Z-des produits. Si un E-produit est souhaité, une autre alternative est l'oléfination Julia, qui utilise le carbanion généré à partir d'une phénylsulfone. L'oléfination Takai à base d'un intermédiaire organochrome délivre également des E-produits. Un composé du titane, le réactif de Tebbe, est utile pour la synthèse de composés méthylène dans ce cas, même les esters et les amides réagissent.

Une paire de cétones ou d'aldéhydes peut être désoxygénée pour générer un alcène. Les alcènes symétriques peuvent être préparés à partir d'un seul aldéhyde ou cétone se couplant avec lui-même, en utilisant la réduction du titane métallique (la réaction de McMurry).Si différentes cétones doivent être couplées, une méthode plus compliquée est nécessaire, telle que la réaction de Barton-Kellogg.

Une seule cétone peut également être convertie en alcène correspondant via sa tosylhydrazone, en utilisant du méthoxyde de sodium (la réaction de Bamford-Stevens) ou un alkyllithium (la réaction de Shapiro).

Synthèse à partir d'alcènes Modifier

La formation d'alcènes plus longs via la polymérisation par étapes de plus petits est attrayante, car l'éthylène (le plus petit alcène) est à la fois peu coûteux et facilement disponible, avec des centaines de millions de tonnes produites chaque année. Le procédé Ziegler-Natta permet la formation de très longues chaînes, par exemple celles utilisées pour le polyéthylène. Lorsque des chaînes plus courtes sont recherchées, comme c'est le cas pour la production de tensioactifs, les procédés incorporant une étape de métathèse d'oléfines, tels que le procédé Shell d'oléfines supérieures, sont importants.

La métathèse d'oléfines est également utilisée commercialement pour l'interconversion d'éthylène et de 2-butène en propylène. Des catalyses hétérogènes contenant du rhénium et du molybdène sont utilisées dans ce procédé : [20]

L'hydrovinylation catalysée par un métal de transition est un autre processus important de synthèse d'alcène à partir de l'alcène lui-même. [21] Cela implique l'ajout d'un hydrogène et d'un groupe vinyle (ou un groupe alcényle) à travers une double liaison.

Des alcynes Modifier

La réduction des alcynes est une méthode utile pour la synthèse stéréosélective d'alcènes disubstitués. Si la cis-alcène est souhaité, l'hydrogénation en présence du catalyseur de Lindlar (un catalyseur hétérogène constitué de palladium déposé sur du carbonate de calcium et traité avec diverses formes de plomb) est couramment utilisée, bien que l'hydroboration suivie d'une hydrolyse constitue une approche alternative. La réduction de l'alcyne par le sodium métallique dans l'ammoniac liquide donne le trans-alcène. [22]

Pour la préparation d'alcènes multisubstitués, la carbométallation des alcynes peut donner naissance à une grande variété de dérivés alcènes.

Réarrangements et réactions associées Modifier

Les alcènes peuvent être synthétisés à partir d'autres alcènes via des réactions de réarrangement. Outre la métathèse des oléfines (décrite ci-dessus), de nombreuses réactions péricycliques peuvent être utilisées telles que la réaction ène et le réarrangement Cope.

Dans la réaction de Diels-Alder, un dérivé de cyclohexène est préparé à partir d'un diène et d'un alcène réactif ou déficient en électrons.

Bien que la nomenclature ne soit pas largement suivie, selon l'IUPAC, un alcène est un hydrocarbure acyclique avec une seule double liaison entre les atomes de carbone. [3] Les oléfines comprennent une plus grande collection d'alcènes cycliques et acycliques ainsi que de diènes et de polyènes. [4]

Pour former la racine des noms IUPAC pour les alcènes à chaîne droite, changez le -un- infixe du parent à -fr-. Par exemple, CH3-CH3 est l'alcane éthane. Le nom de CH2=CH2 est donc ethENe.

Pour les alcènes à chaîne droite avec 4 atomes de carbone ou plus, ce nom n'identifie pas complètement le composé. Pour ces cas, et pour les alcènes acycliques ramifiés, les règles suivantes s'appliquent :

  1. Trouvez la plus longue chaîne carbonée de la molécule. Si cette chaîne ne contient pas la double liaison, nommez le composé selon les règles de dénomination des alcanes. Autrement:
  2. Numérotez les carbones de cette chaîne en commençant par l'extrémité la plus proche de la double liaison.
  3. Définir l'emplacement k de la double liaison comme étant le nombre de son premier carbone.
  4. Nommez les groupes latéraux (autres que l'hydrogène) selon les règles appropriées.
  5. Définissez la position de chaque groupe latéral comme le numéro du carbone de la chaîne auquel il est attaché.
  6. Écrivez la position et le nom de chaque groupe latéral.
  7. Ecrire les noms des alcanes de même chaîne en remplaçant le suffixe "-ane" par "k-ene".

La position de la double liaison est souvent insérée avant le nom de la chaîne (par exemple "2-pentène", plutôt qu'avant le suffixe ("pent-2-ène").

Les positions n'ont pas besoin d'être indiquées si elles sont uniques. Notez que la double liaison peut impliquer une numérotation de chaîne différente de celle utilisée pour l'alcane correspondant : (H
3 C)
3 C–CH
2 – CH
3 est "2,2-diméthyl pentane", alors que (H
3 C)
3 C– CH = CH
2 est "3,3-diméthyl 1-pentène".

Des règles plus complexes s'appliquent pour les polyènes et les cycloalcènes. [5]

Cis–trans isomérie Modifier

Si la double liaison d'un mono-ène acyclique n'est pas la première liaison de la chaîne, le nom tel que construit ci-dessus n'identifie toujours pas complètement le composé, en raison de cistrans isomérie. Ensuite, il faut préciser si les deux liaisons simples C-C adjacentes à la double liaison sont du même côté de son plan, ou sur des côtés opposés. Pour les monoalcènes, la configuration est souvent indiquée par les préfixes cis- (du latin "de ce côté de"]] ou trans- ("à travers", "de l'autre côté de") avant le nom, respectivement comme dans cis-2-pentène ou trans-2-butène.

Plus généralement, cistrans l'isomérie existera si chacun des deux carbones de la double liaison a deux atomes ou groupes différents qui lui sont attachés. Compte tenu de ces cas, l'IUPAC recommande la notation plus générale E–Z, au lieu de la cis et trans préfixes. Cette notation considère le groupe avec la priorité CIP la plus élevée dans chacun des deux carbones. Si ces deux groupes sont sur les côtés opposés du plan de la double liaison, la configuration est étiquetée E (de l'allemand s'occuper signifiant "en face") s'ils sont du même côté, il est étiqueté Z (de l'allemand zusammen, "ensemble"). Cet étiquetage peut être enseigné avec mnémonique "Z signifie 'sur ze zame zide'". [23]

Groupes contenant des doubles liaisons C=C Modifier

L'IUPAC reconnaît deux noms pour les groupes hydrocarbonés contenant des doubles liaisons carbone-carbone, le groupe vinyle et le groupe allyle. [5]


Contenu

Historiquement, les simulations utilisées dans différents domaines se sont développées en grande partie de manière indépendante, mais les études du 20e siècle sur la théorie des systèmes et la cybernétique combinées à la diffusion de l'utilisation des ordinateurs dans tous ces domaines ont conduit à une certaine unification et à une vision plus systématique du concept.

Simulation physique fait référence à une simulation dans laquelle des objets physiques sont substitués à la réalité (certains cercles [5] utilisent le terme pour des simulations informatiques modélisant des lois physiques sélectionnées, mais cet article ne le fait pas). Ces objets physiques sont souvent choisis parce qu'ils sont plus petits ou moins chers que l'objet ou le système réel.

Simulation interactive est un type particulier de simulation physique, souvent appelé humain dans la boucle simulation, dans laquelle les simulations physiques incluent des opérateurs humains, comme dans un simulateur de vol, un simulateur de voile ou un simulateur de conduite.

Simulation continue est une simulation basée sur le temps continu, plutôt que sur des pas de temps discrets, utilisant l'intégration numérique d'équations différentielles. [6]

Simulation d'événements discrets étudie les systèmes dont les états ne changent de valeur qu'à des instants discrets. [7] Par exemple, une simulation d'épidémie pourrait modifier le nombre de personnes infectées à des moments où les individus sensibles sont infectés ou lorsque les individus infectés se rétablissent.

Simulation stochastique est une simulation où une variable ou un processus est soumis à des variations aléatoires et est projeté à l'aide de techniques de Monte Carlo à l'aide de nombres pseudo-aléatoires. Ainsi, des essais répliqués avec les mêmes conditions aux limites produiront chacun des résultats différents dans une bande de confiance spécifique. [6]

Simulation déterministe est une simulation qui n'est pas stochastique : ainsi les variables sont régulées par des algorithmes déterministes. Ainsi, les exécutions répliquées à partir des mêmes conditions aux limites produisent toujours des résultats identiques.

Simulation hybride (parfois la Simulation Combinée) correspond à un mix entre la Simulation Continue et la Simulation à Evénements Discrets et conduit à intégrer numériquement les équations différentielles entre deux événements séquentiels pour réduire le nombre de discontinuités. [8]

UNE simulation autonome est une simulation s'exécutant sur un seul poste de travail.

UNE simulation distribuée est celui qui utilise plus d'un ordinateur simultanément, afin de garantir l'accès depuis/vers différentes ressources (par exemple, plusieurs utilisateurs utilisant différents systèmes ou des ensembles de données distribués), un exemple classique est la simulation interactive distribuée (DIS). [9]

Simulation parallèle accélère l'exécution d'une simulation en répartissant simultanément sa charge de travail sur plusieurs processeurs, comme dans le calcul haute performance. [dix]

Simulation interopérable où plusieurs modèles, simulateurs (souvent définis comme fédérés) interagissent localement, distribués sur un réseau, un exemple classique est l'architecture de haut niveau. [11] [12]

Modélisation et simulation en tant que service où la simulation est accessible en tant que service sur le Web. [13]

Modélisation, Simulation interopérable et Serious Games où les approches de jeux sérieux (par exemple, les moteurs de jeu et les méthodes d'engagement) sont intégrées à la simulation interopérable. [14]

Fidélité de la simulation est utilisé pour décrire la précision d'une simulation et à quel point elle imite la contrepartie réelle. La fidélité est généralement classée dans l'une des trois catégories suivantes : faible, moyenne et élevée. Les descriptions spécifiques des niveaux de fidélité sont sujettes à interprétation, mais les généralisations suivantes peuvent être faites :

  • Faible - la simulation minimale requise pour qu'un système réponde pour accepter les entrées et fournir des sorties
  • Moyen – répond automatiquement aux stimuli, avec une précision limitée
  • Élevé - presque impossible à distinguer ou aussi proche que possible du système réel

Les simulations humaines dans la boucle peuvent inclure une simulation informatique en tant que soi-disant environnement synthétique. [17]

Simulation dans l'analyse des défaillances fait référence à la simulation dans laquelle nous créons un environnement/des conditions pour identifier la cause de la défaillance de l'équipement. C'était la méthode la meilleure et la plus rapide pour identifier la cause de la panne.

Une simulation informatique (ou "sim") est une tentative de modéliser une situation réelle ou hypothétique sur un ordinateur afin qu'elle puisse être étudiée pour voir comment le système fonctionne. En changeant les variables dans la simulation, des prédictions peuvent être faites sur le comportement du système. C'est un outil pour étudier virtuellement le comportement du système à l'étude. [1]

La simulation informatique est devenue une partie utile de la modélisation de nombreux systèmes naturels en physique, chimie et biologie, [18] et des systèmes humains en économie et en sciences sociales (par exemple, la sociologie informatique) ainsi qu'en ingénierie pour mieux comprendre le fonctionnement de ces systèmes. . Un bon exemple de l'utilité d'utiliser des ordinateurs pour simuler peut être trouvé dans le domaine de la simulation du trafic réseau. Dans de telles simulations, le comportement du modèle changera à chaque simulation en fonction de l'ensemble de paramètres initiaux supposés pour l'environnement.

Traditionnellement, la modélisation formelle des systèmes s'est faite via un modèle mathématique, qui tente de trouver des solutions analytiques permettant de prédire le comportement du système à partir d'un ensemble de paramètres et de conditions initiales. La simulation informatique est souvent utilisée en complément ou en remplacement des systèmes de modélisation pour lesquels des solutions analytiques simples sous forme fermée ne sont pas possibles. Il existe de nombreux types différents de simulation informatique, la caractéristique commune qu'ils partagent tous est la tentative de générer un échantillon de scénarios représentatifs pour un modèle dans lequel une énumération complète de tous les états possibles serait prohibitive ou impossible.

Plusieurs progiciels existent pour exécuter la modélisation de simulation sur ordinateur (par exemple, simulation Monte Carlo, modélisation stochastique, modélisation multiméthode) qui rend toute la modélisation presque sans effort.

L'utilisation moderne du terme "simulation par ordinateur" peut englober pratiquement n'importe quelle représentation informatique.

Informatique Modifier

En informatique, la simulation a des significations spécialisées : Alan Turing a utilisé le terme « simulation » pour désigner ce qui se passe lorsqu'une machine universelle exécute une table de transition d'état (dans la terminologie moderne, un ordinateur exécute un programme) qui décrit les transitions d'état, les entrées et les sorties d'une machine à états discrets sujet. [19] L'ordinateur simule la machine en question. En conséquence, en informatique théorique, le terme simulation est une relation entre les systèmes de transition d'état, utile dans l'étude de la sémantique opérationnelle.

Moins théoriquement, une application intéressante de la simulation informatique consiste à simuler des ordinateurs à l'aide d'ordinateurs. Dans l'architecture informatique, un type de simulateur, généralement appelé un émulateur, est souvent utilisé pour exécuter un programme qui doit s'exécuter sur un type d'ordinateur peu pratique (par exemple, un ordinateur nouvellement conçu qui n'a pas encore été construit ou un ordinateur obsolète qui n'est plus disponible), ou dans un environnement de test étroitement contrôlé (voir Simulateur d'architecture informatique et Virtualisation de plate-forme). Par exemple, des simulateurs ont été utilisés pour déboguer un microprogramme ou parfois des programmes d'application commerciaux, avant que le programme ne soit téléchargé sur la machine cible. Étant donné que le fonctionnement de l'ordinateur est simulé, toutes les informations sur le fonctionnement de l'ordinateur sont directement disponibles pour le programmeur, et la vitesse et l'exécution de la simulation peuvent être modifiées à volonté.

Les simulateurs peuvent également être utilisés pour interpréter les arbres de défaillances ou tester les conceptions logiques VLSI avant leur construction. La simulation symbolique utilise des variables pour représenter des valeurs inconnues.

Dans le domaine de l'optimisation, les simulations de processus physiques sont souvent utilisées en conjonction avec le calcul évolutif pour optimiser les stratégies de contrôle.

La simulation est largement utilisée à des fins éducatives. [2] Il est utilisé pour les cas où il est trop coûteux ou tout simplement trop dangereux de permettre aux stagiaires d'utiliser le vrai équipement dans le monde réel. Dans de telles situations, ils passeront du temps à apprendre des leçons précieuses dans un environnement virtuel « sûr » tout en vivant une expérience réaliste (ou du moins c'est le but). Souvent, la commodité est de permettre des erreurs lors de la formation pour un système critique pour la sécurité.

Les simulations en éducation sont un peu comme les simulations de formation. Ils se concentrent sur des tâches spécifiques. Le terme « micromonde » est utilisé pour désigner des simulations pédagogiques qui modélisent un concept abstrait plutôt que de simuler un objet ou un environnement réaliste, ou dans certains cas modélisent un environnement du monde réel d'une manière simpliste afin d'aider un apprenant à développer une compréhension de les notions clés. Normalement, un utilisateur peut créer une sorte de construction dans le micromonde qui se comportera d'une manière cohérente avec les concepts modélisés. Seymour Papert a été l'un des premiers à défendre la valeur des micromondes, et l'environnement de programmation Logo développé par Papert est l'un des micromondes les plus connus.

La simulation de gestion de projet est de plus en plus utilisée pour former des étudiants et des professionnels à l'art et à la science de la gestion de projet. L'utilisation de la simulation pour la formation en gestion de projet améliore la rétention de l'apprentissage et améliore le processus d'apprentissage. [20] [21]

Simulations sociales peut être utilisé dans les classes de sciences sociales pour illustrer les processus sociaux et politiques dans les cours d'anthropologie, d'économie, d'histoire, de sciences politiques ou de sociologie, généralement au niveau secondaire ou universitaire. Celles-ci peuvent, par exemple, prendre la forme de simulations civiques, dans lesquelles les participants assument des rôles dans une société simulée, ou de simulations de relations internationales dans lesquelles les participants s'engagent dans des négociations, la formation d'alliances, le commerce, la diplomatie et l'usage de la force. De telles simulations peuvent être basées sur des systèmes politiques fictifs, ou être basées sur des événements actuels ou historiques. Un exemple de ce dernier serait le Barnard College Réagir au passé série de jeux éducatifs historiques. [22] La National Science Foundation a également soutenu la création de jeux de réaction qui traitent de l'enseignement des sciences et des mathématiques. [23] Dans les simulations de médias sociaux, les participants s'entraînent à communiquer avec des critiques et d'autres parties prenantes dans un environnement privé.

Ces dernières années, les simulations sociales ont été de plus en plus utilisées pour la formation du personnel des agences d'aide et de développement. La simulation Carana, par exemple, a d'abord été développée par le Programme des Nations Unies pour le développement, et est maintenant utilisée sous une forme très révisée par la Banque mondiale pour former le personnel à faire face aux pays fragiles et touchés par des conflits. [24]

Les utilisations militaires pour la simulation impliquent souvent des aéronefs ou des véhicules de combat blindés, mais peuvent également cibler l'entraînement aux armes légères et à d'autres systèmes d'armes. Plus précisément, les champs de tir virtuels d'armes à feu sont devenus la norme dans la plupart des processus de formation militaire et il existe une quantité importante de données suggérant qu'il s'agit d'un outil utile pour les professionnels armés. [25]

Les simulations virtuelles représentent une catégorie spécifique de simulation qui utilise un équipement de simulation pour créer un monde simulé pour l'utilisateur. Les simulations virtuelles permettent aux utilisateurs d'interagir avec un monde virtuel. Les mondes virtuels fonctionnent sur des plates-formes de composants logiciels et matériels intégrés. De cette manière, le système peut accepter une entrée de l'utilisateur (par exemple, suivi du corps, reconnaissance vocale/sonore, contrôleurs physiques) et produire une sortie pour l'utilisateur (par exemple, affichage visuel, affichage auditif, affichage haptique). [26] Les simulations virtuelles utilisent les modes d'interaction susmentionnés pour produire un sentiment d'immersion pour l'utilisateur.

Matériel d'entrée de simulation virtuelle Modifier

Il existe une grande variété de matériel d'entrée disponible pour accepter l'entrée de l'utilisateur pour les simulations virtuelles. La liste suivante en décrit brièvement plusieurs :

Suivi du corps: La méthode de capture de mouvement est souvent utilisée pour enregistrer les mouvements de l'utilisateur et traduire les données capturées en entrées pour la simulation virtuelle. Par exemple, si un utilisateur tourne physiquement la tête, le mouvement sera capturé par le matériel de simulation d'une manière ou d'une autre et traduit en un changement de vue correspondant dans la simulation.

    et/ou des gants peuvent être utilisés pour capturer les mouvements des parties du corps des utilisateurs. Les systèmes peuvent avoir des capteurs incorporés à l'intérieur pour détecter les mouvements de différentes parties du corps (par exemple, les doigts). Alternativement, ces systèmes peuvent avoir des dispositifs de suivi extérieurs ou des marques qui peuvent être détectées par des ultrasons externes, des récepteurs optiques ou des capteurs électromagnétiques. Des capteurs inertiels internes sont également disponibles sur certains systèmes. Les unités peuvent transmettre des données sans fil ou via des câbles. peut également être utilisé pour détecter les mouvements oculaires afin que le système puisse déterminer précisément où un utilisateur regarde à un instant donné.

Contrôleurs physiques: Les contrôleurs physiques fournissent des données d'entrée à la simulation uniquement par le biais d'une manipulation directe par l'utilisateur. Dans les simulations virtuelles, le retour tactile des contrôleurs physiques est hautement souhaitable dans un certain nombre d'environnements de simulation.

    peut être utilisé pour capturer la locomotion des utilisateurs lorsqu'ils marchent ou courent.
  • Les instruments de haute fidélité tels que les tableaux de bord dans les cockpits d'avions virtuels offrent aux utilisateurs des commandes réelles pour augmenter le niveau d'immersion. Par exemple, les pilotes peuvent utiliser les commandes réelles du système de positionnement global à partir de l'appareil réel dans un cockpit simulé pour les aider à pratiquer les procédures avec l'appareil réel dans le contexte du système de cockpit intégré.

Reconnaissance vocale/sonore: Cette forme d'interaction peut être utilisée soit pour interagir avec des agents au sein de la simulation (par exemple, des personnes virtuelles) soit pour manipuler des objets dans la simulation (par exemple, des informations). L'interaction vocale augmente vraisemblablement le niveau d'immersion pour l'utilisateur.

  • Les utilisateurs peuvent utiliser des casques avec des microphones à tige, des microphones à revers ou la salle peut être équipée de microphones stratégiquement situés.

Recherches en cours sur les systèmes de saisie des utilisateurs Modifier

La recherche sur les futurs systèmes d'entrée est très prometteuse pour les simulations virtuelles. Des systèmes tels que les interfaces cerveau-ordinateur (BCI) offrent la possibilité d'augmenter encore le niveau d'immersion des utilisateurs de simulation virtuelle. Lee, Keinrath, Scherer, Bischof, Pfurtscheller [27] ont prouvé que des sujets naïfs pouvaient être entraînés à utiliser un BCI pour naviguer dans un appartement virtuel avec une relative facilité. En utilisant le BCI, les auteurs ont constaté que les sujets étaient capables de naviguer librement dans l'environnement virtuel avec un effort relativement minime. Il est possible que ces types de systèmes deviennent des modalités d'entrée standard dans les futurs systèmes de simulation virtuelle.

Matériel de sortie de simulation virtuelle Modifier

Il existe une grande variété de matériel de sortie disponible pour fournir un stimulus aux utilisateurs dans des simulations virtuelles. La liste suivante en décrit brièvement plusieurs :

Affichage visuel: Les affichages visuels fournissent le stimulus visuel à l'utilisateur.

  • Les écrans fixes peuvent varier d'un écran de bureau conventionnel à des écrans enveloppants à 360 degrés en passant par des écrans stéréo tridimensionnels. Les écrans de bureau conventionnels peuvent varier en taille de 15 à 60 pouces (380 à 1 520 mm). Les écrans enveloppants sont généralement utilisés dans ce que l'on appelle un environnement virtuel automatique de grotte (CAVE). Les écrans tridimensionnels stéréo produisent des images tridimensionnelles avec ou sans lunettes spéciales, selon la conception. (HMD) ont de petits écrans qui sont montés sur le casque porté par l'utilisateur. Ces systèmes sont directement connectés à la simulation virtuelle pour offrir à l'utilisateur une expérience plus immersive. Le poids, les taux de mise à jour et le champ de vision sont quelques-unes des variables clés qui différencient les HMD. Naturellement, les HMD plus lourds ne sont pas souhaitables car ils provoquent une fatigue au fil du temps. Si le taux de mise à jour est trop lent, le système est incapable de mettre à jour les affichages assez rapidement pour correspondre à un tour de tête rapide de l'utilisateur. Des taux de mise à jour plus lents ont tendance à provoquer un mal de simulation et à perturber le sentiment d'immersion. Le champ de vision ou l'étendue angulaire du monde qui est vu à un moment donné, le champ de vision peut varier d'un système à l'autre et s'est avéré affecter le sens d'immersion de l'utilisateur.

Affichage sonore: Plusieurs types de systèmes audio existent pour aider l'utilisateur à entendre et à localiser les sons dans l'espace. Un logiciel spécial peut être utilisé pour produire des effets audio 3D audio 3D pour créer l'illusion que les sources sonores sont placées dans un espace tridimensionnel défini autour de l'utilisateur.

  • Des systèmes de haut-parleurs conventionnels fixes peuvent être utilisés pour fournir un son surround double ou multicanal. Cependant, les haut-parleurs externes ne sont pas aussi efficaces que les écouteurs pour produire des effets audio 3D. [26]
  • Les écouteurs conventionnels offrent une alternative portable aux haut-parleurs fixes. Ils ont également l'avantage supplémentaire de masquer le bruit du monde réel et de faciliter des effets sonores audio 3D plus efficaces. [26] [douteux - discuter]

Affichage haptique: Ces écrans offrent une sensation tactile à l'utilisateur (technologie haptique). Ce type de sortie est parfois appelé retour de force.

  • Les écrans tactiles à dalles utilisent différents types d'actionneurs tels que des vessies gonflables, des vibrateurs, des subwoofers basse fréquence, des actionneurs à broche et/ou des thermo-actionneurs pour produire des sensations pour l'utilisateur.
  • Les écrans effecteurs finaux peuvent répondre aux entrées des utilisateurs avec une résistance et une force. [26] Ces systèmes sont souvent utilisés dans les applications médicales pour les chirurgies à distance qui utilisent des instruments robotiques. [28]

Affichage vestibulaire: Ces affichages donnent une impression de mouvement à l'utilisateur (simulateur de mouvement). Ils se manifestent souvent comme des bases de mouvement pour la simulation de véhicules virtuels tels que des simulateurs de conduite ou des simulateurs de vol. Les bases de mouvement sont fixes mais utilisent des actionneurs pour déplacer le simulateur de manière à produire les sensations de tangage, de lacet ou de roulis. Les simulateurs peuvent également se déplacer de manière à produire une sensation d'accélération sur tous les axes (par exemple, la base de mouvement peut produire la sensation de chute).

Les simulateurs médicaux sont de plus en plus développés et déployés pour enseigner les procédures thérapeutiques et diagnostiques ainsi que les concepts médicaux et la prise de décision au personnel des professions de la santé. Des simulateurs ont été développés pour des procédures de formation allant des bases telles que la prise de sang à la chirurgie laparoscopique [29] et aux soins de traumatologie. Ils sont également importants pour aider au prototypage de nouveaux dispositifs [30] pour les problèmes de génie biomédical. Actuellement, les simulateurs sont appliqués à la recherche et au développement d'outils pour de nouvelles thérapies, [31] des traitements [32] et un diagnostic précoce [33] en médecine.

De nombreux simulateurs médicaux impliquent un ordinateur connecté à une simulation plastique de l'anatomie concernée. [ citation requise ] Les simulateurs sophistiqués de ce type utilisent un mannequin grandeur nature qui réagit aux drogues injectées et peut être programmé pour créer des simulations d'urgences mettant la vie en danger. Dans d'autres simulations, les composants visuels de la procédure sont reproduits par des techniques d'infographie, tandis que les composants tactiles sont reproduits par des dispositifs de retour haptique combinés à des routines de simulation physique calculées en réponse aux actions de l'utilisateur. Les simulations médicales de ce type utilisent souvent des tomodensitogrammes ou IRM 3D des données des patients pour améliorer le réalisme. Certaines simulations médicales sont développées pour être largement distribuées (telles que les simulations Web [34] et les simulations procédurales [35] qui peuvent être visualisées via des navigateurs Web standard) et peuvent être utilisées avec des interfaces informatiques standard, telles que le clavier et la souris. .

Une autre application médicale importante d'un simulateur, bien que, peut-être, dénotant une signification légèrement différente de simulateur—est l'utilisation d'un médicament placebo, une formulation qui simule le médicament actif dans les essais d'efficacité du médicament (voir Placebo (origines du terme technique)).

Améliorer la sécurité des patients Modifier

La sécurité des patients est une préoccupation dans l'industrie médicale. On sait que les patients souffrent de blessures et même de décès en raison d'une erreur de gestion et du manque d'utilisation des meilleures normes de soins et de formation. Selon Building a National Agenda for Simulation-Based Medical Education (Eder-Van Hook, Jackie, 2004), « la capacité d'un fournisseur de soins de santé à réagir avec prudence dans une situation inattendue est l'un des facteurs les plus critiques pour créer un résultat positif en médecine d'urgence, qu'elle se produise sur le champ de bataille, sur l'autoroute ou dans la salle d'urgence d'un hôpital." Eder-Van Hook (2004) a également noté que les erreurs médicales tuent jusqu'à 98 000 avec un coût estimé entre 37 et 50 millions de dollars et 17 à 29 milliards de dollars pour les événements indésirables évitables en dollars par an.

La simulation est utilisée pour étudier la sécurité des patients, ainsi que pour former des professionnels de la santé. [36] L'étude de la sécurité des patients et des interventions de sécurité dans les soins de santé est difficile, car il y a un manque de contrôle expérimental (c'est-à-dire la complexité des patients, les variances du système/processus) pour voir si une intervention a fait une différence significative (Groves & Manges, 2017). [37] Un exemple de simulation innovante pour étudier la sécurité des patients provient de la recherche en soins infirmiers. Groves et al. (2016) ont utilisé une simulation haute fidélité pour examiner les comportements infirmiers axés sur la sécurité pendant des périodes telles que le rapport de changement de quart. [36]

Cependant, la valeur des interventions de simulation pour traduire en pratique clinique est encore discutable. [38] Comme l'affirme Nishisaki, "il existe de bonnes preuves que la formation par simulation améliore l'auto-efficacité et la compétence des prestataires et des équipes sur les mannequins. Il existe également de bonnes preuves que la simulation procédurale améliore les performances opérationnelles réelles dans les milieux cliniques." [38] Cependant, il est nécessaire d'avoir des preuves améliorées pour montrer que la formation en gestion des ressources de l'équipage par le biais de la simulation. [38] L'un des plus grands défis est de montrer que la simulation d'équipe améliore les performances opérationnelles de l'équipe au chevet du patient. [39] Bien que les preuves que la formation basée sur la simulation améliore réellement les résultats des patients aient été lentes à s'accumuler, aujourd'hui, la capacité de la simulation à fournir une expérience pratique qui se traduit en salle d'opération ne fait plus aucun doute. [40] [41] [42]

L'un des facteurs les plus importants qui pourraient avoir une incidence sur la capacité d'avoir une formation sur le travail des praticiens au chevet du patient est la capacité de responsabiliser le personnel de première ligne (Stewart, Manges, Ward, 2015). [39] [43] Un autre exemple d'une tentative d'améliorer la sécurité des patients grâce à l'utilisation de simulations de formation est le soin des patients pour fournir un service juste à temps ou/et juste sur place. Cette formation consiste en 20 minutes de formation simulée juste avant que les travailleurs ne se présentent au quart de travail. Une étude a révélé que la formation juste à temps améliorait la transition vers le chevet du patient. La conclusion, telle que rapportée dans les travaux de Nishisaki (2008), était que la formation par simulation améliorait la participation des résidents dans des cas réels, mais ne sacrifiait pas la qualité du service. On pourrait donc émettre l'hypothèse qu'en augmentant le nombre de résidents hautement qualifiés grâce à l'utilisation de la formation par simulation, la formation par simulation augmente en fait la sécurité des patients.

Histoire de la simulation dans les soins de santé Modifier

Les premiers simulateurs médicaux étaient de simples modèles de patients humains. [44]

Depuis l'antiquité, ces représentations en argile et en pierre ont été utilisées pour démontrer les caractéristiques cliniques des états pathologiques et leurs effets sur l'homme. Des modèles ont été trouvés dans de nombreuses cultures et continents. Ces modèles ont été utilisés dans certaines cultures (par exemple, la culture chinoise) comme instrument de « diagnostic », permettant aux femmes de consulter des médecins de sexe masculin tout en maintenant les lois sociales de la pudeur. Les modèles sont utilisés aujourd'hui pour aider les élèves à apprendre l'anatomie du système musculo-squelettique et des organes. [44]

En 2002, la Society for Simulation in Healthcare (SSH) a été formée pour devenir un chef de file des avancées interprofessionnelles internationales dans l'application de la simulation médicale aux soins de santé [45]

Le besoin d'un « mécanisme uniforme pour former, évaluer et certifier les instructeurs de simulation pour la profession de la santé » a été reconnu par McGaghie et al. dans leur examen critique de la recherche en éducation médicale fondée sur la simulation. [46] En 2012, la SSH a piloté deux nouvelles certifications pour offrir une reconnaissance aux éducateurs dans le but de répondre à ce besoin. [47]

Type de modèles Modifier

Modèles actifs Modifier

Les modèles actifs qui tentent de reproduire l'anatomie ou la physiologie vivantes sont des développements récents. Le célèbre mannequin "Harvey" a été développé à l'Université de Miami et est capable de recréer de nombreux résultats physiques de l'examen de cardiologie, y compris la palpation, l'auscultation et l'électrocardiographie. [48]

Modèles interactifs Modifier

Plus récemment, des modèles interactifs ont été développés pour répondre aux actions entreprises par un étudiant ou un médecin. [48] ​​Jusqu'à récemment, ces simulations étaient des programmes informatiques bidimensionnels qui agissaient plus comme un manuel que comme un patient. Les simulations informatiques ont l'avantage de permettre à un étudiant de porter des jugements, mais aussi de faire des erreurs. Le processus d'apprentissage itératif par le biais de l'évaluation, de l'évaluation, de la prise de décision et de la correction des erreurs crée un environnement d'apprentissage beaucoup plus solide que l'enseignement passif.

Simulateurs informatiques Modifier

Les simulateurs ont été proposés comme un outil idéal pour l'évaluation des compétences cliniques des étudiants. [49] Pour les patients, la « cyberthérapie » peut être utilisée pour des séances simulant des expériences traumatisantes, de la peur du vide à l'anxiété sociale. [50]

Les patients programmés et les situations cliniques simulées, y compris les simulations d'exercices de catastrophe, ont été largement utilisés pour l'éducation et l'évaluation. Ces simulations « réalistes » sont coûteuses et manquent de reproductibilité. Un simulateur « 3Di » entièrement fonctionnel serait l'outil le plus spécifique disponible pour l'enseignement et la mesure des compétences cliniques. Des plates-formes de jeu ont été utilisées pour créer ces environnements médicaux virtuels afin de créer une méthode interactive d'apprentissage et d'application des informations dans un contexte clinique. [51] [52]

Les simulations immersives de l'état de la maladie permettent à un médecin ou à un professionnel de la santé de ressentir à quoi ressemble réellement une maladie. À l'aide de capteurs et de transducteurs, des effets symptomatiques peuvent être transmis à un participant, ce qui lui permet de ressentir l'état de la maladie du patient.

Un tel simulateur répond aux objectifs d'un examen objectif et standardisé de compétence clinique. [53] Ce système est supérieur aux examens qui utilisent des « patients standard » car il permet la mesure quantitative de la compétence, ainsi que la reproduction des mêmes résultats objectifs. [54]

La simulation dans le divertissement englobe de nombreuses industries importantes et populaires telles que le cinéma, la télévision, les jeux vidéo (y compris les jeux sérieux) et les manèges dans les parcs à thème. Bien que l'on pense que la simulation moderne a ses racines dans la formation et l'armée, au 20e siècle, elle est également devenue un vecteur pour des entreprises de nature plus hédoniste.

Histoire de la simulation visuelle dans les films et les jeux Modifier

Première histoire (années 1940 et 1950) Modifier

Le premier jeu de simulation a peut-être été créé dès 1947 par Thomas T. Goldsmith Jr. et Estle Ray Mann. C'était un jeu simple qui simulait un missile tiré sur une cible. La courbe du missile et sa vitesse pouvaient être ajustées à l'aide de plusieurs boutons. En 1958, un jeu informatique appelé "Tennis pour deux" a été créé par Willy Higginbotham qui simulait un jeu de tennis entre deux joueurs qui pouvaient tous les deux jouer en même temps à l'aide de commandes manuelles et était affiché sur un oscilloscope. [55] Ce fut l'un des premiers jeux vidéo électroniques à utiliser un affichage graphique.

Années 1970 et début des années 1980 Modifier

Des images générées par ordinateur ont été utilisées dans le film pour simuler des objets dès 1972 dans A Computer Animated Hand, dont certaines parties ont été montrées sur grand écran dans le film Futureworld de 1976. Beaucoup se souviendront du "ordinateur de ciblage" que le jeune Skywalker s'éteint dans le film de 1977 Guerres des étoiles.

Le film Tron (1982) a été le premier film à utiliser des images générées par ordinateur pendant plus de quelques minutes. [56]

Les progrès de la technologie dans les années 1980 ont fait que la simulation 3D est devenue plus largement utilisée et elle a commencé à apparaître dans les films et dans les jeux informatiques tels que celui d'Atari. Zone de bataille (1980) et Acornsoft Élite (1984), l'un des premiers jeux graphiques 3D filaires pour ordinateurs personnels.

L'ère de la cinématographie pré-virtuelle (début des années 1980 aux années 1990) Modifier

Les progrès technologiques des années 1980 ont rendu l'ordinateur plus abordable et plus performant qu'au cours des décennies précédentes, [57] ce qui a facilité l'essor d'ordinateurs tels que les jeux Xbox. Les premières consoles de jeux vidéo lancées dans les années 1970 et au début des années 1980 ont été la proie du crash de l'industrie en 1983, mais en 1985, Nintendo a sorti la Nintendo Entertainment System (NES) qui est devenue l'une des consoles les plus vendues de l'histoire du jeu vidéo. [58] Dans les années 1990, les jeux informatiques sont devenus très populaires avec la sortie de jeux tels que Les Sims et Command & Conquérir et la puissance toujours croissante des ordinateurs de bureau. Aujourd'hui, les jeux de simulation sur ordinateur tels que World of Warcraft sont joués par des millions de personnes à travers le monde.

En 1993, le cinéma parc jurassique est devenu le premier film populaire à utiliser largement des graphiques générés par ordinateur, intégrant les dinosaures simulés de manière presque transparente dans des scènes d'action en direct.

Cet événement a transformé l'industrie cinématographique en 1995, le film Histoire de jouet a été le premier film à n'utiliser que des images générées par ordinateur et, au cours du nouveau millénaire, les graphiques générés par ordinateur étaient le premier choix pour les effets spéciaux dans les films. [59]

Cinématographie virtuelle (début des années 2000-présent) Modifier

L'avènement de la cinématographie virtuelle au début des années 2000 (décennie) a entraîné une explosion de films qui auraient été impossibles à tourner sans elle. Des exemples classiques sont les sosies numériques de Neo, Smith et d'autres personnages dans les suites de Matrix et l'utilisation intensive de caméras physiquement impossibles dans la trilogie Le Seigneur des Anneaux (série de films).

Le terminal de la Pan Am (série télévisée) n'existait plus pendant le tournage de cette série diffusée en 2011-2012, ce qui n'a posé aucun problème car ils l'ont créé en cinématographie virtuelle en utilisant la recherche et la correspondance automatisées des points de vue en conjonction avec la composition de séquences réelles et simulées, qui a été le pain et le beurre de l'artiste de cinéma dans et autour des studios de cinéma depuis le début des années 2000.

L'imagerie de synthèse est « l'application du domaine de l'infographie 3D aux effets spéciaux ». Cette technologie est utilisée pour les effets visuels car ils sont de haute qualité, contrôlables et peuvent créer des effets qui ne seraient pas réalisables avec une autre technologie, que ce soit en raison du coût, des ressources ou de la sécurité. [60] Les graphiques générés par ordinateur peuvent être vus dans de nombreux films d'action réelle aujourd'hui, en particulier ceux du genre action. De plus, l'imagerie générée par ordinateur a presque complètement supplanté l'animation dessinée à la main dans les films pour enfants qui sont de plus en plus générés uniquement par ordinateur. Exemples de films utilisant des images générées par ordinateur : Le monde de nemo, 300 et Homme de fer.

Exemples de simulation de divertissement non cinématographique Modifier

Jeux de simulation Modifier

Les jeux de simulation, par opposition à d'autres genres de jeux vidéo et informatiques, représentent ou simulent un environnement avec précision. De plus, ils représentent les interactions entre les personnages jouables et l'environnement de manière réaliste. Ces types de jeux sont généralement plus complexes en termes de gameplay. [61] Les jeux de simulation sont devenus incroyablement populaires parmi les personnes de tous âges. [62] Les jeux de simulation populaires incluent SimCity et Visite de la PGA de Tiger Woods. Il existe également des jeux de simulation de vol et de conduite.

Manèges dans les parcs à thème Modifier

Les simulateurs sont utilisés pour le divertissement depuis le Link Trainer dans les années 1930. [63] Le premier tour de simulateur moderne à ouvrir dans un parc à thème était Disney's Star Tours en 1987, bientôt suivi de The Funtastic World of Hanna-Barbera d'Universal en 1990, qui était le premier tour entièrement réalisé avec des infographies. [64]

Les manèges sur simulateur sont la progéniture des simulateurs d'entraînement militaires et des simulateurs commerciaux, mais ils sont fondamentalement différents. Alors que les simulateurs d'entraînement militaire réagissent de manière réaliste à l'entrée du stagiaire en temps réel, les simulateurs de conduite ont seulement l'impression de se déplacer de manière réaliste et de se déplacer selon des scripts de mouvement préenregistrés. [64] L'un des premiers tours de simulateur, Star Tours, qui a coûté 32 millions de dollars, utilisait une cabine à mouvement hydraulique. Le mouvement était programmé par un joystick. Les manèges sur simulateur d'aujourd'hui, tels que The Amazing Adventures of Spider-Man, incluent des éléments pour augmenter la quantité d'immersion vécue par les cavaliers tels que : des images 3D, des effets physiques (pulvérisation d'eau ou production d'odeurs) et des mouvements dans un environnement. [65]

La fabrication représente l'une des applications les plus importantes de la simulation. Cette technique représente un outil précieux utilisé par les ingénieurs pour évaluer l'effet de l'investissement en capital dans l'équipement et les installations physiques telles que les usines, les entrepôts et les centres de distribution. La simulation peut être utilisée pour prédire les performances d'un système existant ou prévu et pour comparer des solutions alternatives pour un problème de conception particulier. [66]

Un autre objectif important de la simulation dans les systèmes de fabrication est de quantifier les performances du système.Les mesures courantes des performances du système sont les suivantes : [67]


WikiHows connexes

10 façons efficaces de décrire l'éthique du travail dans un CV (indice : montrez, ne dites pas)


Contenu

Dans un conte bien connu mais probablement apocryphe, Archimède a été chargé de déterminer si l'orfèvre du roi Hiéron détournait de l'or lors de la fabrication d'une couronne d'or dédiée aux dieux et de le remplacer par un autre alliage moins cher. [3] Archimède savait que la couronne de forme irrégulière pouvait être écrasée en un cube dont le volume pouvait être calculé facilement et comparé à la masse mais le roi n'a pas approuvé cela. Déconcerté, Archimède aurait pris un bain d'immersion et observé à partir de la montée de l'eau en entrant qu'il pouvait calculer le volume de la couronne d'or grâce au déplacement de l'eau. Sur cette découverte, il a sauté de son bain et a couru nu dans les rues en criant : « Eurêka ! Eurêka ! (Εύρηκα! Grec "Je l'ai trouvé"). En conséquence, le terme "eureka" est entré dans le langage courant et est utilisé aujourd'hui pour indiquer un moment d'illumination.

L'histoire est apparue sous forme écrite dans Vitruvius' livres d'architecture, deux siècles après qu'elle aurait eu lieu. [4] Certains érudits ont douté de l'exactitude de ce récit, affirmant entre autres que la méthode aurait nécessité des mesures précises qui auraient été difficiles à faire à l'époque. [5] [6]

De l'équation de la densité (?? = m/V), la masse volumique a des unités de masse divisées par le volume. Comme il existe de nombreuses unités de masse et de volume couvrant de nombreuses grandeurs différentes, il existe un grand nombre d'unités de densité de masse utilisées. L'unité SI de kilogramme par mètre cube (kg/m 3 ) et l'unité cgs de gramme par centimètre cube (g/cm 3 ) sont probablement les unités les plus couramment utilisées pour la densité. Un g/cm 3 est égal à 1000 kg/m 3 . Un centimètre cube (abréviation cc) équivaut à un millilitre. Dans l'industrie, d'autres unités de masse et/ou de volume plus grandes ou plus petites sont souvent plus pratiques et les unités usuelles américaines peuvent être utilisées. Voir ci-dessous pour une liste de certaines des unités de densité les plus courantes.

Un certain nombre de techniques ainsi que des normes existent pour la mesure de la densité des matériaux. Ces techniques comprennent l'utilisation d'un hydromètre (une méthode de flottabilité pour les liquides), d'une balance hydrostatique (une méthode de flottabilité pour les liquides et les solides), la méthode du corps immergé (une méthode de flottabilité pour les liquides), le pycnomètre (liquides et solides), le pycnomètre de comparaison d'air ( solides), densitomètre oscillant (liquides), ainsi que verser et tapoter (solides). [7] Cependant, chaque méthode ou technique individuelle mesure différents types de densité (par exemple, densité apparente, densité squelettique, etc.), et il est donc nécessaire de comprendre le type de densité mesuré ainsi que le type de matériau. Dans la question.

Matériaux homogènes

La densité en tous points d'un objet homogène est égale à sa masse totale divisée par son volume total. La masse est normalement mesurée avec une échelle ou une balance, le volume peut être mesuré directement (à partir de la géométrie de l'objet) ou par le déplacement d'un fluide. Pour déterminer la densité d'un liquide ou d'un gaz, un densimètre, un dasymmètre ou un débitmètre Coriolis peuvent être utilisés, respectivement. De même, la pesée hydrostatique utilise le déplacement d'eau dû à un objet immergé pour déterminer la densité de l'objet.

Matériaux hétérogènes

Si le corps n'est pas homogène, alors sa densité varie entre les différentes régions de l'objet. Dans ce cas, la densité autour d'un emplacement donné est déterminée en calculant la densité d'un petit volume autour de cet emplacement. Dans la limite d'un volume infinitésimal la densité d'un objet inhomogène en un point devient : ρ ( r → ) = d m / d V >)=dm/dV> , où d V est un volume élémentaire à la position r . La masse du corps peut alors être exprimée comme

Matériaux non compacts

En pratique, les matériaux en vrac tels que le sucre, le sable ou la neige contiennent des vides. De nombreux matériaux existent dans la nature sous forme de flocons, de pastilles ou de granulés.

Les vides sont des régions qui contiennent autre chose que le matériau considéré. Généralement, le vide est de l'air, mais il peut également s'agir d'un vide, d'un liquide, d'un solide ou d'un gaz ou d'un mélange gazeux différent.

Le volume en vrac d'un matériau, y compris la fraction de vide, est souvent obtenu par une simple mesure (par exemple avec une tasse à mesurer calibrée) ou géométriquement à partir de dimensions connues.

Masse divisée par masse le volume détermine la densité apparente. Ce n'est pas la même chose que la masse volumique volumique.

Pour déterminer la masse volumique volumique, il faut d'abord actualiser le volume de la fraction de vide. Parfois, cela peut être déterminé par un raisonnement géométrique. Pour le compactage de sphères égales, la fraction non vide peut être au plus d'environ 74%. Elle peut également être déterminée empiriquement. Cependant, certains matériaux en vrac, comme le sable, ont une variable fraction de vide qui dépend de la façon dont le matériau est agité ou versé. Il peut être lâche ou compact, avec plus ou moins d'espace d'air selon la manipulation.

En pratique, la fraction de vide n'est pas nécessairement aérienne, ni même gazeuse. Dans le cas du sable, il pourrait s'agir d'eau, ce qui peut être avantageux pour la mesure car la fraction de vide pour le sable saturé en eau - une fois que toutes les bulles d'air sont complètement chassées - est potentiellement plus cohérente que le sable sec mesuré avec un vide d'air.

Dans le cas de matériaux non compacts, il faut également veiller à déterminer la masse de l'échantillon de matériau. Si le matériau est sous pression (généralement la pression de l'air ambiant à la surface de la terre), la détermination de la masse à partir d'un poids d'échantillon mesuré peut devoir tenir compte des effets de flottabilité dus à la densité du constituant du vide, selon la façon dont la mesure a été effectuée. Dans le cas du sable sec, le sable est tellement plus dense que l'air que l'effet de flottabilité est généralement négligé (moins d'une partie sur mille).

Le changement de masse lors du déplacement d'un matériau vide par un autre tout en maintenant un volume constant peut être utilisé pour estimer la fraction de vide, si la différence de densité des deux matériaux vides est connue de manière fiable.

En général, la densité peut être modifiée en changeant la pression ou la température. L'augmentation de la pression augmente toujours la densité d'un matériau. L'augmentation de la température diminue généralement la densité, mais il existe des exceptions notables à cette généralisation. Par exemple, la densité de l'eau augmente entre son point de fusion à 0 °C et 4 °C un comportement similaire est observé dans le silicium à basse température.

L'effet de la pression et de la température sur les densités des liquides et des solides est faible. La compressibilité pour un liquide ou un solide typique est de 10 -6 bar -1 (1 bar = 0,1 MPa) et une expansivité thermique typique est de 10 -5 K -1 . Cela se traduit à peu près par le besoin d'environ dix mille fois la pression atmosphérique pour réduire le volume d'une substance d'un pour cent. (Bien que les pressions nécessaires puissent être environ mille fois plus faibles pour les sols sableux et certaines argiles.) Une expansion de 1 % du volume nécessite généralement une augmentation de la température de l'ordre de milliers de degrés Celsius.

En revanche, la densité des gaz est fortement affectée par la pression. La densité d'un gaz parfait est

M est la masse molaire, P est la pression, R est la constante universelle des gaz, et T est la température absolue. Cela signifie que la densité d'un gaz parfait peut être doublée en doublant la pression ou en réduisant de moitié la température absolue.

Dans le cas d'une dilatation thermique volumique à pression constante et à de petits intervalles de température, la dépendance de la température de la densité est :

La densité d'une solution est la somme des concentrations massiques (massiques) des composants de cette solution.

Concentration massique (massique) de chaque composant donné ρje dans une solution somme à la densité de la solution.

Exprimée en fonction des densités des composants purs du mélange et de leur participation volumique, elle permet la détermination des volumes molaires en excès :

à condition qu'il n'y ait pas d'interaction entre les composants.

Connaissant la relation entre les volumes excédentaires et les coefficients d'activité des composants, on peut déterminer les coefficients d'activité.


Obtenez de vrais résultats sans jamais quitter la maison.

Un tableau blanc partagé vous permet de dessiner, de représenter graphiquement des fonctions, d'écrire des équations complexes et de partager des fichiers. Audio et vidéo si clairs que vous aurez l'impression d'être dans la même pièce. Travaillez dans une variété de langages de programmation avec l'éditeur de code.

Rencontrez l'expert de votre choix, partout au pays, en ligne ou en personne


Comment trouver le nombre de neutrons dans un atome

Cet article a été co-écrit par Bess Ruff, MA. Bess Ruff est doctorante en géographie à la Florida State University. Elle a obtenu sa maîtrise en sciences et gestion de l'environnement de l'Université de Californie à Santa Barbara en 2016. Elle a mené des travaux d'enquête pour des projets de planification spatiale marine dans les Caraïbes et a fourni un soutien à la recherche en tant que chercheur diplômé pour le Sustainable Fisheries Group.

Il y a 12 références citées dans cet article, qui se trouvent en bas de la page.

wikiHow marque un article comme étant approuvé par le lecteur une fois qu'il reçoit suffisamment de commentaires positifs. Dans ce cas, 82 % des lecteurs qui ont voté ont trouvé l'article utile, ce qui lui a valu notre statut d'approbation par les lecteurs.

Cet article a été vu 1 000 905 fois.

Bien que tous les atomes d'un même élément contiennent le même nombre de protons, leur nombre de neutrons peut varier. Savoir combien de neutrons se trouvent dans un atome particulier peut vous aider à déterminer s'il s'agit d'un atome régulier de cet élément ou d'un isotope, qui aura soit plus ou moins de neutrons. [1] X Source de recherche Déterminer le nombre de neutrons dans un atome est assez simple et ne nécessite même aucune expérimentation. Pour calculer le nombre de neutrons dans un atome régulier ou un isotope, il suffit de suivre ces instructions avec un tableau périodique en main.


Parcourir

L'Encyclopédie de philosophie de Stanford organise des universitaires du monde entier en philosophie et disciplines connexes pour créer et maintenir un ouvrage de référence à jour.

Éditeur principal : Edward N. Zalta

Les opérations actuelles sont prises en charge par :

  • Les bureaux du prévôt, du doyen des sciences humaines et des sciences et du doyen de la recherche, Université de Stanford
  • Le fonds des bibliothèques du SEP : contenant les contributions du National Endowment for the Humanities et les cotisations des bibliothèques universitaires et de recherche qui ont adhéré au SEPIA.
  • The John Perry Fund et The SEP Fund : contenant les contributions de donateurs individuels.
  • Le Fonds de la Société des Amis de la SEP : contenant les cotisations des personnes qui se sont affiliées pour obtenir des avantages tels que des versions PDF bien formatées des entrées SEP.

Le SEP tient à remercier le soutien fondateur du National Endowment for the Humanities, de la National Science Foundation, de l'American Philosophical Association/Pacific Division, de l'Association canadienne de philosophie et du Centre de documentation en philosophie. Les efforts de collecte de fonds ont été soutenus par une subvention de la Fondation William et Flora Hewlett.


Veuillez expliquer cette notation MW autour de 9 MDa - Biologie

Stockwell, Alan E. Cooper, Paul A.

L'outil d'analyse multidisciplinaire intégré (IMAT) se compose d'un système exécutif piloté par menu couplé à une base de données relationnelle qui relie les structures commerciales, la dynamique structurelle et les codes de contrôle. Le système graphique IMAT, élément clé du logiciel, fournit une interface commune pour le stockage, la récupération et l'affichage des informations graphiques. Le manuel graphique IMAT montre aux utilisateurs de codes d'analyse commerciaux (MATRIXx, MSC/NASTRAN et I-DEAS) comment utiliser le système graphique IMAT pour obtenir une sortie graphique de haute qualité en utilisant des procédures de traçage familières. Le manuel explique les principales caractéristiques du système graphique IMAT, illustre leur utilisation avec des exemples simples étape par étape et fournit une référence pour les utilisateurs qui souhaitent profiter de la flexibilité du logiciel pour personnaliser leurs propres applications.

Auparavant, une solution hybride analytique-numérique pour le problème général de calcul de l'écoulement transitoire de puits dans des aquifères verticalement hétérogènes a été proposée par l'auteur. La composante radiale de l'écoulement a été traitée analytiquement, tandis que la technique des différences finies n'a été utilisée que pour la composante verticale de l'écoulement. Dans le présent travail, la solution hybride a été modifiée en remplaçant la condition aux limites de gradient uniforme de face de puits (UWG) précédemment supposée de manière à ce que le rabattement reste uniforme le long de la crépine du puits. La solution de rabattement uniforme de la face de puits (UWD) qui en résulte comprend également les effets d'un puits de diamètre fini, d'un stockage de puits de forage et d'une peau mince, tandis que la pénétration partielle et l'hétérogénéité verticale sont prises en charge par la discrétisation unidimensionnelle. Des solutions sont proposées pour les écoulements de puits provoqués par des débits constants, variables et en limaces. Le modèle a été vérifié en comparant les rabattements de puits de forage et les distributions de flux de face de puits avec les solutions numériques publiées. Des différences entre les écoulements de puits UWG et UWD se produiront dans toutes les situations avec des composants d'écoulement verticaux à proximité du puits, ce qui est démontré en considérant : (1) des puits à pénétration partielle dans des aquifères confinés, (2) des puits à pénétration complète dans des aquifères non confinés avec une réponse retardée et ( 3) aquifères stratifiés et systèmes multiaquifères non étanches. La solution présentée peut être un outil puissant pour résoudre de nombreux problèmes hydrauliques de puits, notamment des tests de puits, des tests de débitmètre, des tests de bouchons et des tests de pompage. Un programme informatique pour l'analyse des essais de pompage, basé sur la technique hybride analytique-numérique et les conditions UWG ou UWD, est disponible auprès de l'auteur.

Franks, Bernard J. Phelps, G.G.

Des études hydrologiques de l'aquifère de Floride dans le comté de Duval, en Floride, ont montré qu'un modèle simplifié approprié du système aquifère consiste en une série de sous-aquifères séparés par des lits semi-perméables. Les données de plus de 20 tests d'aquifères ont été réanalysées par la méthode modifiée de Hantush, qui prend en compte les fuites de toutes les unités de confinement. Les valeurs de transmissivité varient de 20 000 à 240 000 pieds carrés par jour. La fuite a été estimée à 2,5x10 à la puissance moins 6 et à 3,3x10 à la puissance moins 5 par jour pour les unités de confinement supérieure et inférieure, respectivement. Des familles de courbes distance-abaissement en régime permanent ont été construites pour trois valeurs de transmissivité représentatives basées sur des prélèvements hypothétiques à partir d'une source ponctuelle allant de 5 à 50 millions de gallons par jour. Les effets transitoires n'ont pas été pris en compte car le système atteint des conditions d'équilibre dans les intervalles de temps considérés. Le rabattement en tout point peut être estimé en additionnant les effets de toute configuration hypothétique des centres de pompage. L'exactitude des paramètres a été vérifiée en comparant les rabattements calculés dans des puits d'observation sélectionnés aux baisses de niveau d'eau mesurées. (Woodard-USGS)

Rose, Brien P. Mesa, Matthew G.

Le rabattement estival du réservoir Beulah, en Oregon, pourrait nuire à la production de poissons et d'invertébrés, limiter les possibilités de pêche sportive et entraver le rétablissement des espèces menacées. Pour évaluer les impacts du rabattement, nous avons échantillonné des poissons et des larves de Chironomidae dans le réservoir de Beulah au printemps de 2006 à 2008. Le réservoir a été réduit à 68 % de la pleine mare en 2006 et au niveau du fil de l'eau en 2007. À partir du printemps 2006 jusqu'au printemps 2007, la capture par unité d'effort (PUE) des verveux a diminué de manière significative pour le naseux [Rhinichthys spp.] et le brochet du nord [Ptychocheilus oregonensis], a augmenté de manière significative pour les drageons [Catastomus spp.] et les mariganes blanches [Pomoxis nigromaculatus], et était similaire pour le méné long [Richardsonius balteatus]. La CPUE des filets maillants a augmenté de manière significative ou est restée similaire selon les genres, et la structure de taille des ménés rouges, des meuniers et des mariganes blanches a changé de manière appréciable. De 2007 à 2008, la CPUE du grand brochet, des ménés longs, des meuniers et des mariganes blanches a diminué considérablement selon l'engin et la structure de taille de la plupart des poissons a changé. Les densités printanières de larves de chironomes dans la colonne d'eau étaient significativement plus élevées en 2006 qu'en 2008, mais les autres comparaisons étaient similaires. Les densités de chironomes benthiques étaient significativement plus faibles dans les substrats fréquemment asséchés par rapport aux zones partiellement ou généralement non asséchées. Les individus des zones fréquemment asséchées étaient significativement plus petits que ceux des autres zones et les densités de chironomes benthiques en 2008 étaient significativement plus faibles que les autres années. Le rabattement estival peut réduire les prises et modifier la structure de taille des poissons et des larves de chironomes dans le réservoir Beulah.

Hauer, Christoph Haimann, Marlene Habersack, Helmut Haun, Stefan Hammer, Andreas Schletterer, Martin

Les réservoirs sont importants dans le contexte d'une demande accrue d'énergie renouvelable et d'eau à des fins d'irrigation et d'eau potable. La gestion des réservoirs est donc une tâche importante. A côté de la faisabilité technique et économique, les facteurs écologiques sont des questions importantes. Ainsi, un concept de surveillance intégrative a été développé et appliqué lors d'un rabattement contrôlé du réservoir de Gepatsch dans les Alpes autrichiennes. Le rabattement contrôlé (décembre 2015 - mars 2016) a été effectué lentement, avec pour conséquence des concentrations modérées de sédiments en suspension (SSC) Rivière de l'auberge. L'eau était libérée par la conduite forcée vers les turbines et directement dans la rivière Inn. Cependant, pour limiter l'impact d'érosion sur les turbines, une seule turbine Twin-Pelton a été actionnée pendant le rabattement contrôlé. Le programme de surveillance lui-même était subdivisé en une surveillance des sédiments dans la conduite forcée pour déterminer la quantité et la composition des sédiments qui ont été évacués à travers la turbine, une surveillance de la turbine elle-même pour quantifier les dommages de la turbine et une surveillance liée aux SSC dans le tronçon de la rivière en aval. Afin de détecter d'éventuels changements, les valeurs de débit et de turbidité mesurées ont été examinées. De plus, la vitesse d'écoulement a été modélisée (1D). L'objectif était de suivre les pics observés concernant leur décalage temporel et de tirer des conclusions sur la capacité de stockage des sédiments fins dans le substrat fluvial. De plus, des dépôts détaillés de sédiments fins sur des bancs de gravier le long de la rivière Inn ont été surveillés et la distribution granulométrique du lit de la rivière a été déterminée. La surveillance a déjà commencé en avril / novembre 2015 dans le but de surveiller et d'analyser la turbidité, la charge en suspension et les dépôts de sédiments fins sur les bancs de gravier le long de la rivière Inn ainsi que son biote (macroinvertébrés et poissons) pour des conditions « non perturbées ». Les SSC ont été mesurées en pré-analyse et lors du rabattement lui-même dans la conduite forcée et dans le canal de sortie avec

Taylor, Nancy L. Randall, Donald P. Bowen, John T. Johnson, Mary M. Roland, Vincent R. Matthews, Christine G. Gates, Raymond L. Skeens, Kristi M. Nolf, Scott R. Hammond, Dana P.

Les capacités d'infographie disponibles au Centre sont présentées et leur utilisation est expliquée. Plus précisément, le manuel identifie et décrit les différents composants logiciels et matériels graphiques, détaille les interfaces entre ces composants et fournit des informations concernant l'utilisation de ces composants au LaRC.

L'utilisation de graphiques quantitatifs dans les journaux nécessite d'atteindre un équilibre entre la précision et l'attention du lecteur. Les représentations statistiques dans les journaux sont dessinées par des graphistes dont la technique clé est la fusion - la combinaison saisissante de deux images visuelles. Cette technique se traduit souvent par des jeux de mots visuels,…

Ce document présente les principes de l'infographie moderne sans s'égarer dans les langages obscurs des mathématiques et de l'informatique. Des illustrations accompagnent les explications claires, étape par étape, qui décrivent comment les ordinateurs dessinent des images. Les 22 chapitres du livre sont organisés en 5 sections. "Partie 1 : L'infographie dans…

Conseil d'État du Dakota du Nord pour l'enseignement professionnel, Bismarck.

Ce guide fournit les bases de base pour développer un cours d'un semestre basé sur le concept de cluster, les communications graphiques. Faisant partie d'un ensemble de six guides pour un programme d'arts industriels au niveau du premier cycle du secondaire, il propose des expériences exploratoires conçues pour (1) développer une conscience et une compréhension du dessin et des arts graphiques…

Le domaine de l'infographie s'ouvre rapidement au graphiste. Il n'est pas nécessaire d'être un expert en programmation pour entrer dans ce monde fascinant. Les capacités du médium sont époustouflantes : effets néon et métallisé, effets plastique translucide et verre transparent, ombrages 3D sensibles, textures illimitées et surtout couleur. Comme pour tout support, l'infographie a ses avantages, tels que la vitesse, la facilité de manipulation des formulaires et une variété de polices de caractères et d'alphabets. Il a également ses limites, telles que le temps d'entrée des données, le délai d'exécution de la sortie finale, et n'étant pas nécessairement le bon support pour le plus » travail à accomplir. Et enfin, ce sont les caractéristiques de gain de temps et d'argent des visuels générés par ordinateur, par opposition aux illustrations originales, qui font de l'infographie une alternative viable. Cet article se concentre sur des parties du système d'infographie utilisé au Laboratoire national de Los Alamos pour fournir des exemples spécifiques.« moins

Il y a eu pas mal de recherches sur les graphiques statistiques et la visualisation, généralement axées sur de nouveaux types de graphiques, de nouveaux logiciels pour créer des graphiques, l'interactivité et des études d'utilisabilité. Notre capacité à interpréter et à utiliser des graphiques statistiques dépend de l'interface entre le graphique lui-même et le cerveau qui le perçoit et l'interprète, et il y a beaucoup moins de recherches sur l'interaction entre le graphique, l'œil, le cerveau et l'esprit qu'il n'est suffisant pour comprendre la nature de ces relations. L'objectif du travail présenté ici est d'explorer davantage l'interaction entre un graphique statique, la traduction de ce graphique du papier à la représentation mentale (le voyage de l'œil au cerveau) et les processus mentaux qui opèrent sur ce graphique une fois qu'il est transféré. dans la mémoire (l'esprit). Comprendre la perception des graphiques statistiques devrait permettre aux chercheurs de créer des graphiques plus efficaces qui produisent moins de distorsions et d'erreurs de visualisation tout en réduisant la charge cognitive nécessaire pour comprendre les informations présentées dans le graphique. Ensemble, ces expériences devraient jeter les bases d'une exploration de la perception des graphiques statistiques . Il y a eu des recherches considérables sur l'exactitude des jugements numériques que les téléspectateurs font à partir des graphiques, et ces études sont utiles, mais il est plus efficace de comprendre comment les erreurs dans ces jugements se produisent afin que la cause première de l'erreur puisse être traitée directement. Comprendre comment le raisonnement visuel est lié à la capacité de porter des jugements à partir de graphiques nous permet d'adapter les graphiques à des publics cibles particuliers. De plus, comprendre la hiérarchie des caractéristiques saillantes dans les graphiques statistiques nous permet de communiquer clairement le message important à partir de données ou de modèles statistiques en construisant des graphiques conçus spécifiquement pour le système perceptif.

Booth, E. Steven, L.I. Bart, D.

Les marais calcaires sont des écosystèmes uniques et souvent isolés de grande valeur pour la conservation dans le monde, car ils fournissent un habitat à de nombreuses espèces végétales et animales rares. Leur identité est inextricablement liée à une dépendance absolue vis-à-vis d'un rejet constant d'eaux souterraines qui sature la surface proche pendant la majeure partie de la saison de croissance, entraînant l'accumulation de carbone sous forme de tourbe ou de tuf et la séquestration de nutriments. Les stress résultant d'une saturation constante et d'une faible disponibilité en nutriments entraînent une grande diversité de plantes indigènes, y compris une très grande richesse en espèces rares par rapport à d'autres écosystèmes. Les diminutions du stress de saturation par la réduction des apports d'eau souterraine (par exemple, du pompage à proximité) peuvent entraîner des pertes de diversité indigène, une diminution de l'abondance des espèces rares et une invasion accrue par des espèces non indigènes. En tant que tels, les écosystèmes fen sont particulièrement sensibles aux changements dans les conditions des eaux souterraines, y compris la réduction des niveaux d'eau due au pompage des eaux souterraines à proximité. Les trajectoires de dégradation sont complexes en raison des rétroactions entre la perte de carbone organique du sol, les modifications des propriétés du sol et l'utilisation de l'eau par les plantes. Nous présentons un modèle d'archétype de marais qui associe un modèle de niche hydrologique à un modèle d'écoulement des eaux souterraines à saturation variable pour prédire les changements dans la composition de la végétation en réponse à différents scénarios de rabattement des eaux souterraines (changement progressif, tendance à la baisse et rabattement périodique pendant les périodes sèches). Le modèle inclut également des rétroactions entre la composition de la végétation, l'utilisation de l'eau par les plantes et les propriétés du sol. Les modèles de niche hydrologique (utilisant l'humidité du sol de surface comme prédicteur) et les relations entre la composition de la végétation, l'utilisation de l'eau par les plantes (via la conductance stomatique et l'indice de surface foliaire) et les propriétés hydrauliques du sol (paramètres de van Genuchten) ont été déterminés sur la base des données recueillies dans six fens. dans le Wisconsin sous divers états de dégradation. Les résultats révèlent une réponse complexe au rabattement et donnent un aperçu d'autres écosystèmes avec des liens entre les

Cook, George E. Sztipanovits, Janos Biegl, Csaba Karsai, Gabor Springfield, James F.

L'objectif de cette recherche était double. Premièrement, les capacités de base de ROBOSIM (système de simulation graphique) ont été améliorées et étendues en tirant parti de la technologie avancée des postes de travail graphiques et des techniques de programmation de l'intelligence artificielle. Deuxièmement, la portée du banc d'essai de simulation graphique a été étendue pour inclure les problèmes généraux de l'automatisation de la Station spatiale. La prise en charge matérielle des graphiques 3D et des performances de traitement élevées rendent la modélisation solide haute résolution, la détection de collision et la simulation de la dynamique structurelle réalisables par calcul. La Station spatiale est un système complexe avec de nombreux sous-systèmes en interaction. La conception et les tests de concepts d'automatisation exigent une modélisation des processus concernés, de leurs interactions et de celle des systèmes de contrôle proposés. Le banc d'essai d'automatisation a été conçu pour faciliter les études sur les concepts d'automatisation de la Station spatiale.

Alaskan RTMA Graphics Cette page affiche Alaskan Réel-Time Mesoscale Analyses et les compare à DISCLAIMER: The Alaskan Réel-L'outil d'analyse à mésoéchelle temporelle est dans sa phase de développement, et il y a beaucoup

Cette présentation comprendra des informations sur la technologie des unités de processeur graphique (GPU), les tâches de la NASA sur les pièces et emballages électroniques (NEPP), la configuration du test, les considérations relatives aux paramètres de test, les leçons apprises, les collaborations, une feuille de route, les partenaires NEPP, les résultats à ce jour et les plans futurs. .

Les objectifs de cette recherche comprennent le soutien à la recherche de la branche Aérothermodynamique en développant des outils de visualisation graphique pour le code de grille adaptatif de la branche et le code de traçage des rayons du champ d'écoulement. La recherche achevée pour la période de rapport comprend le développement d'une interface utilisateur graphique (GUI) et sa mise en œuvre dans le kit d'outils du logiciel d'analyse de champ de flux NAS (FAST), à la fois pour le code de grille adaptatif (SAGE) et le code de traçage des rayons de champ de flux (CISS ).

Barlow, Paul M. Moench, Allen F.

Le programme informatique WTAQ calcule les rabattements hydrauliques dans un aquifère captif ou aquifère résultant du pompage dans un puits de diamètre fini ou infinitésimal. Le programme est basé sur un modèle analytique de l'écoulement des eaux souterraines à symétrie axiale dans un aquifère homogène et anisotrope. Le programme permet le stockage de puits de forage et la peau de puits de forage au puits pompé et une réponse de rabattement retardée à un puits d'observation en incluant ces facteurs, il est possible d'évaluer avec précision le stockage spécifique d'un aquifère de la nappe phréatique dès le début données de rabattement dans les puits d'observation et les piézomètres. Pour les nappes phréatiques, le programme permet un drainage différé ou instantané de la zone non saturée. WTAQ calcule des rabattements théoriques sans dimension ou dimensionnels qui peuvent être utilisés avec des rabattements mesurés aux points d'observation pour estimer les propriétés hydrauliques des aquifères captifs et de la nappe phréatique. Trois exemples de problèmes illustrent l'utilisation de WTAQ pour estimer la conductivité hydraulique horizontale et verticale, le stockage spécifique et le rendement spécifique d'un aquifère de la nappe phréatique par des méthodes de courbe type et par une méthode d'estimation automatique des paramètres.

Christ, John A. Goltz, Mark N.

Les systèmes de pompage et de traitement qui sont installés pour contenir la migration des eaux souterraines contaminées impliquent généralement la mise en place de puits d'extraction perpendiculaires à la direction régionale de l'écoulement des eaux souterraines au bord du gradient descendant d'un panache de contaminants. Ces puits captent l'eau contaminée pour le traitement et l'élimination en surface, empêchant ainsi une nouvelle migration de l'eau contaminée vers le bas. Dans ce travail, examinant des systèmes à deux, trois et quatre puits, nous comparons des configurations de puits parallèles et perpendiculaires à la direction régionale de l'écoulement des eaux souterraines. Nous montrons que l'orientation colinéaire des puits d'extraction, parallèlement à l'écoulement régional, entraîne (1) une plus grande zone d'aquifère influencée par les puits à un débit total donné, (2) une largeur de zone de captage centrale et ultime égale à la configuration perpendiculaire, et (3) plus de flexibilité en ce qui concerne la minimisation du rabattement . Bien que cela ne soit pas adapté à certains scénarios, nous avons constaté que l'orientation des puits d'extraction parallèlement au flux régional le long d'une ligne centrale de panache, par rapport à une configuration perpendiculaire, réduit le rabattement jusqu'à 7 % et minimise la fraction d'eau non contaminée capturée.

Howard, Rebecca J. Wells, Christopher J.

Piscine de navigation Felsenthal ( ?la piscine ?) à Felsenthal National Wildlife Refuge près de Crossett, Ark., a été inondée en continu à une altitude de base de 19,8 m (65,0 ft) niveau moyen de la mer (msl) à partir de la fin de l'automne 1985, lorsque la finale dans un une série d'écluses et de barrages a été construite jusqu'à l'été 1995. Le niveau d'eau dans la piscine a été réduit de 0,3 m (1,0 pi) à partir du 5 juillet 1995, exposant environ 1 591 ha (3 931 acres) de sédiments. Le niveau d'eau réduit a été maintenu jusqu'au 25 octobre de la même année. Un total de 15 transects a été établi le long de la marge de la piscine avant le rabattement, s'étendant perpendiculairement depuis le bord de la piscine jusqu'à 19,5 m (64,0 pi) d'altitude. La composition des espèces végétales et la couverture ont été enregistrées dans six à sept quadrats sur chaque transect. 14 des transects ont également été surveillés trois fois pendant le rabattement et en juin 1996. Le sol près de cinq des transects d'origine a été perturbé deux semaines après le rabattement en raclant le sol surface avec un bulldozer. Des carottes de sol ont été prélevées pour caractériser la matière organique du sol, la classe de texture, la teneur en carbone et en azote, et les concentrations de nutriments végétaux. Des échantillons de sol ont également été prélevés pour identifier les espèces présentes dans la banque de semences avant et pendant le rabattement. Des espèces végétales, dont plusieurs étaient des sources de nourriture de haute qualité pour la sauvagine, ont colonisé la zone de rabattement en quatre semaines. La réponse de la végétation, mesurée par la richesse en espèces, la couverture totale et la couverture des espèces de Cyperus, était souvent plus importante à basse altitude qu'à haute altitude dans la zone de rabattement, cet effet a probablement été intensifié par les faibles précipitations au cours de l'été 1995. Réponse de la végétation sur les transects perturbés a été réduite par rapport à celle des transects non perturbés. Cet effet a été attribué à deux facteurs : (1) l'élimination de la banque de graines existante par la technique de perturbation appliquée et (2) l'incorporation réduite de graines recrutées pendant le rabattement en raison des précipitations estivales inhabituellement faibles. Des études sur les banques de semences ont démontré que plusieurs espèces

Unstad, Kody M. Uden, Daniel R. Allen, Craig R. Chaine, Noelle M. Haak, Danielle M. Kill, Robert A. Pope, Kevin L. Stephen, Bruce J. Wong, Alec

Les mollusques envahissants non indigènes dégradent les écosystèmes aquatiques et provoquent des pertes économiques dans le monde entier. L'exposition prolongée à l'air par le rabattement des plans d'eau est une mesure de gestion utilisée pour le contrôle. En Amérique du Nord, l'escargot chinois mystérieux (Bellamya chinensis) est un escargot aquatique envahissant dont l'aire de répartition est en expansion, mais les méthodes d'éradication de cette espèce ne sont pas bien documentées. Nous avons évalué la capacité de B. chinensis à survivre à différentes durées d'exposition à l'air et observé des réponses comportementales avant, pendant et après les événements de dessiccation. Des spécimens individuels de B. chinensis ont survécu à une exposition à l'air en laboratoire pendant > 9 semaines, et la survie était plus élevée chez les adultes que chez les juvéniles. Plusieurs spécimens de B. chinensis ont répondu à la dessiccation en scellant leurs opercules et/ou en s'enfouissant dans un substrat de boue. Nos résultats indiquent que les rabattements seuls peuvent ne pas être un moyen efficace d'éliminer B. chinensis. Cette étude jette les bases de futures recherches de gestion qui pourraient déterminer l'efficacité des rabattements lorsqu'ils sont combinés à des facteurs tels que les températures extrêmes, la prédation ou les molluscicides.

Une discussion du programme modulaire Mikado est présentée. Mikado a été développé dans le but de créer un outil graphique flexible pour afficher et aider à analyser les résultats des calculs d'écoulement de fluide par éléments finis. Mikado travaille sur des maillages non structurés, avec des éléments de type géométrique mixte, mais offre également la possibilité d'utiliser des maillages structurés. Le programme peut être utilisé à la fois par le menu et la souris (interactif), ou par fichier de commande (batch). Mikado est écrit en FORTRAN, à l'exception de quelques sous-routines dépendantes du système qui sont en C. Il fonctionne actuellement sur les stations de travail de Silicon Graphics et pourrait être facilement porté sur la famille de stations de travail IBM-RISC System/6000.

Krawczyk, Wieslawa Ewa Bartoszewski, Stefan A.

RésuméLes flux de solutés et le rabattement transitoire de dioxyde de carbone dans un petit bassin glaciaire étudié au Svalbard en 2002 sont présentés. Il s'agissait d'une année témoin dans une période de réchauffement climatique important dans l'Arctique. Un débit a été enregistré dans le bassin Scottbreen (10,1 km 2), le fjord Bellsund, entre le 8 juillet et le 10 septembre 2002. Le ruissellement spécifique pour cette période était de 0,784 m, soit 22 % de plus que la moyenne de 1986-2001. Le ruissellement pour l'ensemble de 2002 (c'est-à-dire l'année hydrologique) a été estimé par comparaison avec Bayelva, la seule rivière glaciaire avec des enregistrements plus longs sur le Svalbard. Le ruissellement spécifique pour 2002 était 1.228 m, donnant des flux de solutés crustaux de 69,4 t km -2 an -1 (25,8 m 3 km -2 an -1). Ce taux est le taux de dénudation chimique le plus élevé signalé dans les bassins glaciaires du Svalbard, et il peut être sous-estimé car les flux de solutés plus élevés au début de la saison de fonte n'ont pas été pris en compte. Les flux crustaux à l'automne peuvent également avoir été plus élevés car il est probable que les concentrations d'ions crustaux ont augmenté après l'arrêt de l'enregistrement en septembre. Le taux de dénudation des cations était de 1213 meq + m -2 an -1 et la concentration annuelle moyenne d'ions crustaux qui en était dérivée s'élevait à 981 μeq L -1. Le rabattement transitoire de CO 2 en 2002 était de 5242 kg C km -2 an -1. La majeure partie du dioxyde de carbone a été éliminée dans les eaux d'ablation estivales, la réduction estimée du CO 2 à l'automne n'étant que de 13 % du total. La comparaison avec les flux de solutés crustaux (CSF) calculés à partir de la conductivité spécifique dans les années 1980 et 1990 suggère que les flux antérieurs peuvent avoir été surestimés d'environ 19 %. La comparaison des données antérieures avec les taux de 2002 peut confirmer l'influence du réchauffement climatique sur l'augmentation des taux de dénudation chimique. Il a également été constaté qu'une équation dérivée à l'échelle mondiale reliant la conductivité spécifique aux concentrations de calcaire dissous dans l'eau donnait des estimations des flux de solutés crustaux qui n'étaient que 1,1% de moins que ceux obtenus par des analyses chimiques complètes des eaux et des ions.

Ce document présente une discussion sur le développement d'un ensemble d'outils logiciels pour aider à la construction d'interfaces pour les simulations et les systèmes temps réel. Les présupposés de l'approche de conception d'interface qui a été utilisée sont recensés, les outils sont décrits, et les conclusions tirées de ces expériences de conception d'interface graphique…

Il n'y a pas si longtemps, les bandes dessinées à l'école étaient considérées comme l'ennemi. Les élèves surpris en train de glisser des bandes dessinées entre les pages de manuels volumineux - et moins attrayants - ont probablement été envoyés au directeur. Aujourd'hui, cependant, les bandes dessinées, y compris les classiques tels que "Superman" mais aussi leurs cousins ​​​​généralement plus complexes et nuancés, les romans graphiques, ne sont pas seulement…

Critique des romans graphiques pour jeunes adultes, dont cinq titres de "Les Aventures de Tintin", une série française qui utilise souvent des stéréotypes ethniques et raciaux qui reflètent l'époque à laquelle ils ont été publiés, et "Wolverine", une aventure de personnage de bande dessinée Marvel. (Contient six références.) (LRW)

Grimsrud, Anders Stephenson, Michael B.

La bibliothèque d'affichage graphique raster (RGDL) est un progiciel de sous-programme de haut niveau qui offre les capacités avancées d'affichage graphique raster nécessaires. Le RGDL utilise des routines de code source FORTRAN pour créer des sous-routines suffisamment modulaires pour être utilisées comme des routines autonomes dans un environnement de type boîte noire. Six exemples sont présentés qui enseigneront l'utilisation de RGDL de la manière la plus rapide et la plus complète possible. Les routines de la bibliothèque d'affichage utilisées pour produire des graphiques raster sont présentées par ordre alphabétique, chacune sur une page distincte. Chaque routine appelable par l'utilisateur est décrite par la fonction et les paramètres d'appel. Tous les blocs communs qui sont utilisés dans la bibliothèque d'affichage sont répertoriés et l'utilisation de chaque variable dans chaque bloc commun est discutée. Une référence sur les fichiers d'inclusion qui sont nécessaires pour compiler la bibliothèque d'affichage est contenue. Chaque fichier d'inclusion et son objectif sont répertoriés. La carte des liens pour MOVIE.BYU version 6, un système d'affichage graphique informatique à usage général qui utilise le logiciel RGDL, est également contenue.

NAM Intelligent Init Graphics Cette page affiche la sortie de prévision NAM à 5 km réalisée à partir du "smartinit AVIS DE NON-RESPONSABILITÉ : Le Intelligent L'outil Init est dans sa phase de développement, et il y a beaucoup de travail à faire. La rétroaction est

Dans le cadre d'un partenariat mathématiques-sciences, un professeur de mathématiques à l'université et dix enseignants du primaire ont développé une nouvelle approche de résolution de problèmes mathématiques issue de recherches sur la pédagogie de la lecture et de l'écriture. Plus précisément, la recherche indique que les étudiants qui utilisent des organisateurs graphiques pour organiser leurs idées améliorent leur compréhension…

Minogue, James Wiebe, Eric Madden, Lauren Bedward, John Carter, Mike

Un mode de communication courant dans la classe élémentaire est le cahier de sciences. Dans cet article, les auteurs décrivent les façons dont les « cahiers de sciences graphiquement améliorés » peuvent aider les élèves à s'engager dans une enquête complète et solide. Au cœur de cette approche se trouve une attention délibérée à l'utilisation efficace et efficiente des ressources générées par les étudiants…

L'efficacité du puits diminue avec le temps après le développement et le débit de pompage est fortement réduit à un certain point. Cependant, la diminution rapide de l'efficacité dépend certainement des caractéristiques physiques de l'aquifère, des propriétés chimiques de l'eau souterraine, du colmatage des pores par des matériaux adsorbants/précipitables et de l'utilisation du puits d'eau souterraine. En général, on s'attend à ce qu'un entretien adéquat et continu du puits soit efficace pour prolonger les périodes d'exploitation, car l'exigence de fréquence d'entretien majeur aux puits municipaux placés dans l'aquifère de roche cristalline est connue pour être relativement plus longue. La proportion de puits agricoles (583 748) par rapport au total des puits d'eau souterraine (1 380 715) est de 42,3% en 2011, Corée du Sud. L'utilisation des eaux souterraines représente 1,9 milliard de m3/an, ce qui représente 48,9 % du montant total des ressources en eaux souterraines disponibles. Environ 69 % du total des puits publics agricoles placés dans l'aquifère de roche cristalline se sont écoulés plus de 10 ans après le développement. Dans cette étude, l'augmentation de l'efficacité des puits avant et après la désinfection/le nettoyage des puits d'eaux souterraines agricoles dans les montagnes, les plaines et les aquifères côtiers avec les données du test de rabattement a été évaluée, respectivement. Avec le concept de rendement critique, l'augmentation de la quantité d'eau souterraine disponible a été analysée quantitativement après traitement. D'après les résultats, l'efficacité des puits a augmenté d'environ 1,5 à 4 fois en fonction du taux de pompage lorsque les méthodes de désinfection/nettoyage appropriées ont été appliquées aux puits. De plus, il a montré que le taux de pompage d'environ 4 à 8 % avec le rendement critique du test de rabattement par paliers augmentait et que ces effets étaient les plus élevés dans les puits qui se sont écoulés plus de 10 ans. Par conséquent, il serait conclu que les méthodes de désinfection/nettoyage des puits dans le but d'augmenter l'efficacité sont plus efficaces pour les puits qui ont plus de 10 ans.

Perkins, D.B. Min, J. Jawitz, J.W.

La restauration des zones humides asséchées et drainées dans le bassin du lac Okeechobee, Floride, États-Unis est actuellement à l'étude pour une éventuelle amélioration de l'enrichissement anthropique en phosphore du lac. À ce jour, la plupart des recherches dans ce domaine se sont concentrées sur le rôle biogéochimique de ces zones humides. Ici, nous nous concentrons sur l'hydrologie dynamique de ces systèmes et le contrôle qui en résulte sur le cycle biogéochimique. Quatre terres humides de dépression dans le bassin ont été surveillées pendant environ trois ans pour comprendre l'interaction entre les eaux de surface des terres humides et le système d'eaux souterraines des hautes terres adjacentes. Un modèle couplé hydrologique-biogéochimique a été créé pour évaluer les scénarios de restauration. La détermination de la conductivité hydraulique à l'échelle des terres humides était un aspect important du modèle hydrologique. Sur la base des événements de rabattement naturel observés dans les paires de puits de terres humides et de hautes terres, les conductivités hydrauliques des couches supérieures de sol sableux entourant les terres humides isolées ont été calculées à l'aide de l'équation de Dupuit dans un cadre de bilan hydrique contraint. Les estimations de la conductivité hydraulique basées sur le rabattement de 1,1 à 18,7 m/j (moyenne géométrique de 4,8 m/j) étaient environ trois fois plus élevées que les valeurs basées sur les tests aux limaces (1,5 ± 1,1 m/j), ce qui est cohérent avec les valeurs dépendant de l'échelle. attentes. Le taux net de recharge des eaux souterraines basé sur un modèle dans chaque zone humide de dépression a été prédit sur la base des conductivités hydrauliques estimées, qui correspondaient à 50 à 72 % des précipitations au cours de la même période. Ces écarts semblaient être dus à la différence relative d'élévation du fond du fossé contrôlant le ruissellement de surface ainsi que l'hétérogénéité spatiale de l'aquifère sableux. Les résultats de cette étude ont des implications sur les charges de nutriments dans le lac Okeechobee via les eaux souterraines ainsi que sur les stratégies de surveillance et de gestion de la qualité de l'eau visant à réduire l'exportation de soluté (en particulier P) du bassin versant en amont vers le lac Okeechobee.

Newton, Teresa J. Zigler, Steven J. Gray, Brian R.

Collectivement, ces données suggèrent que les rabattements peuvent influencer la mortalité, les déplacements et le comportement des moules dans l'UMR. Cependant, plus d'informations sur les distributions spatiales et temporelles des moules sont nécessaires pour mieux comprendre l'ampleur de ces effets. Les résultats de cette étude sont utilisés par les gestionnaires de ressources pour mieux évaluer les effets de cet outil de gestion sur les assemblages de moules indigènes.

Cette étude propose une loi de Darcy généralisée en considérant les décalages de phase dans le flux d'eau et le gradient de rabattement pour développer un modèle d'écoulement retardé pour décrire le rabattement induit par le pompage à débit constant (CRP) dans un aquifère captif perméable. Le présent modèle a une formulation mathématique similaire au modèle à double porosité. La solution du domaine de Laplace du modèle avec l'effet du stockage du puits de forage est dérivée par la méthode de transformation de Laplace. La solution dans le domaine temporel pour le cas de la négligence du stockage du puits de forage et du rayon du puits est développée en utilisant la transformée de Laplace et la transformée de Weber. Les résultats de l'analyse de sensibilité basée sur la solution indiquent que le rabattement est très sensible au changement de chacun de la transmissivité et de la storativité. Aussi, une étude de l'effet retard sur le rabattement indique que son influence est significative associée aux temps de retard. La présente solution est également utilisée pour analyser un ensemble de données provenant d'un test CRP mené dans un aquifère fracturé dans le Dakota du Sud, aux États-Unis. Les résultats montrent que la prédiction de cette nouvelle solution en considérant les décalages de phase a un très bon ajustement aux données de terrain, en particulier au début du temps de pompage. De plus, les retards de phase semblent avoir un effet d'échelle comme indiqué dans les résultats. En d'autres termes, le comportement retardé est positivement corrélé à la distance observée dans l'aquifère de Madison.

. 3 Le président 1 2012-01-01 2012-01-01 false Prélèvement en vertu de l'article 552(c)(2) de la loi sur l'assistance à l'étranger de 1961, telle que modifiée, jusqu'à 25 millions de dollars en produits et services de toute agence de le gouvernement des États-Unis pour les groupes libyens, tels que le Conseil national de transition, pour soutenir les efforts visant à protéger les civils et.

Le système d'écoulement des eaux souterraines de la plaine côtière de Virginie se compose d'aquifères étendus et interconnectés. De grands cônes de dépression se conjuguant à l'échelle régionale et provoqués par d'importants prélèvements d'eau se trouvent dans ces aquifères. Les systèmes d'eaux souterraines locaux sont affectés par le pompage régional, en raison des interactions au sein du système d'aquifères. En conséquence, ces systèmes locaux sont affectés par l'écoulement régional des eaux souterraines et par les différences spatiales et temporelles de prélèvements par divers utilisateurs. Un système d'information géographique a été utilisé pour affiner un modèle régional d'écoulement des eaux souterraines autour de centres de prélèvement sélectionnés. Une méthode a été développée dans laquelle des cartes de rabattement simulées par le modèle régional d'écoulement des eaux souterraines et le principe de superposition pourraient être utilisés pour estimer le rabattement sur des sites locaux. La méthode a été appliquée pour créer des cartes de rabattement dans l'aquifère de Brightseat/Upper Potomac pour des périodes de 3, 6, 9 et 12 mois pour Chesapeake, Newport News, Norfolk, Portsmouth, Suffolk et Virginia Beach, Virginie. Les taux de retrait ont été fournis par les localités individuelles et sont restés constants pour chaque période de simulation. Cela fournit une méthode efficace par laquelle les utilisateurs d'eau souterraine locaux individuels peuvent déterminer la quantité de rabattement produite par leurs puits dans un système d'eau souterraine qui est une source d'eau pour de multiples utilisateurs et qui est affecté par les systèmes d'écoulement régionaux.

Morris, John H. Kuchinsky, Allan Ferrin, Thomas E. Pico, Alexander R.

Enhanced Graphics ( http://apps.cytoscape.org/apps/enhanced Graphics ) est une application Cytoscape qui implémente une série de graphiques et graphiques améliorés qui peuvent être ajoutés aux nœuds Cytoscape. Il permet aux utilisateurs et à d'autres développeurs d'applications de créer des diagrammes circulaires, linéaires, à barres et circulaires qui sont pilotés par des colonnes dans la table de nœuds Cytoscape. Les graphiques sont dessinés à l'aide de graphiques vectoriels pour permettre une mise à l'échelle en pleine résolution. PMID : 25285206

Mois : janv. févr. mars avr. mai juin juil. août sept. oct. nov. déc. Jour : 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 premier précédent suivant dernier SMARTINIT Vérification NAM VS NEST Graphics MMB site web Modèle Type : PROD vs PARA DNG Type de tracé : Comparaison cartes Diagrammes de différence Région : CONUS Nest 2,5 km au sud-ouest des États-Unis New York, NY

Ce n'est un secret pour personne que les enfants et les adolescents sont familiarisés avec les romans graphiques (GN) et que les adultes amateurs de bandes dessinées sont vraiment ravis que ce format obtienne la reconnaissance qu'il mérite. Pourtant, il y a tout un tas de lecteurs adultes porteurs d'une carte de bibliothèque qui ne savent pas par où commencer. Des films éclatants tels que "300" et "Spider-Man" et leurs…

La NASA a demandé au début des années 1970 à Dicomed Corporation de développer des capacités de traitement pour enregistrer des images envoyées de Mars par le vaisseau spatial Viking. La société a produit un enregistreur de film qui a augmenté les niveaux d'intensité et la capacité d'enregistrement en couleur. Ce développement a conduit à une base technologique solide résultant en un équipement graphique informatique sophistiqué. Les systèmes Dicomed sont utilisés pour enregistrer les équipements CAD (conception assistée par ordinateur) et CAM (fabrication assistée par ordinateur), pour mettre à jour les cartes et produire des animations générées par ordinateur.

En 1833, John Herschel a publié un compte rendu de sa méthode graphique pour déterminer les orbites des étoiles doubles. Il avait espéré être le premier à déterminer de telles orbites, mais Felix Savary en France et Johann Franz Encke en Allemagne l'ont devancé à l'aide de méthodes analytiques. Herschel était cependant convaincu que sa méthode graphique était bien supérieure aux méthodes analytiques, car elle utilisait le jugement de la main et de l'œil pour corriger les inévitables erreurs d'observation. Les graphiques linéaires du type utilisé par Herschel ne sont devenus courants que dans les années 1830. Herschel a donc introduit une nouvelle méthode. Il a également trouvé le calcul fatigant et a conçu une "machine à roues" pour l'aider. Encke était sceptique quant aux méthodes de Herschel. Il a dit qu'il vivait pour le calcul et que les Anglais seraient de meilleurs astronomes s'ils calculaient plus. Il est difficile de croire que toute la Révolution scientifique du XVIIe siècle s'est déroulée sans graphiques et que seuls quelques exemples sont apparus au XVIIIe siècle. Herschel a promu l'utilisation de graphiques, non seulement en astronomie, mais aussi dans l'étude de la météorologie et du magnétisme terrestre. Parce qu'il était le scientifique le plus éminent d'Angleterre, le plaidoyer de Herschel a considérablement fait progresser les méthodes graphiques.

Bon, Bruce Seraji, Homayoun

Rover Graphical Simulator (RGS) est un ensemble de logiciels qui génère des images du mouvement d'un véhicule d'exploration robotique à roues (rover) sur un terrain comprenant des obstacles et des régions de traversabilité variable. Le rover simulé se déplace de manière autonome, en utilisant les capacités de raisonnement et de prise de décision d'une stratégie de navigation à logique floue pour choisir son chemin d'un état initial à un état final. RGS fournit une interface utilisateur graphique pour le contrôle et la surveillance des simulations. Le mouvement simulé numériquement est représenté sous forme d'étapes discrètes avec un intervalle de temps constant entre les mises à jour. A chaque étape de simulation, un point est placé à l'ancienne position du mobile et un symbole graphique représentant le mobile est redessiné à la nouvelle position mise à jour. L'effet est de laisser une traînée de points représentant le chemin parcouru par le rover, les distances entre les points étant proportionnelles à la vitesse locale. Les obstacles et les régions de faible traversabilité sont représentés par des cercles pleins, avec des zones tampons autour d'eux indiqués par des cercles englobants. Le robot simulé est équipé de capteurs embarqués capables de détecter la traversabilité du terrain régional et les obstacles locaux dans des plages spécifiées. RGS a remporté le NASA Group Achievement Award en 2002.

Rudiger, Hollis Margaret Schliesman, Megan

Les bibliothèques scolaires desservant les enfants et les adolescents d'aujourd'hui devraient s'engager à collecter des romans graphiques dans la mesure où leurs budgets le permettent. Cependant, le terme « roman graphique » suffit à faire taire certains bibliothécaires, sans parler des administrateurs et des parents. Les romans graphiques sont simplement des bandes dessinées. Il peut s'agir d'œuvres de fiction ou…

Ce manuel décrit l'interface graphique CALM TV, un moyen peu coûteux de produire des graphiques de qualité sur un téléviseur ordinaire. Le système permet la sortie de données sous forme graphique et alphanumérique et la saisie de données à partir de l'écran du téléviseur à l'aide d'un crayon optique. Les circuits intégrés requis dans l'interface peuvent être obtenus à partir de la norme…

Des progrès sont signalés concernant l'utilisation d'affichages graphiques contrôlés par ordinateur dans les domaines de la diffusion du rayonnement et de l'hydrodynamique, en général. dynamique ventriculaire. Les progrès se poursuivent sur l'utilisation de l'infographie en architecture. Certains progrès dans les graphiques en demi-teintes sont signalés sans base. évolutions présentées. Des images en perspective en demi-teintes colorées sont utilisées pour représenter des situations à plusieurs variables. Le traitement de forme d'onde non linéaire est

La décision d'ajouter des romans graphiques, et en particulier le style japonais appelé manga, était l'une de celles dont l'auteur a longuement débattu. Dans cet article, l'auteur partage son expérience lorsqu'elle a acheté des romans graphiques et des mangas à ajouter à sa collection de bibliothèque. Elle partage comment les romans graphiques et les mangas ont revitalisé la bibliothèque.

L'EASI (Estimate of Adversary Sequence Interruption) est une technique analytique permettant de mesurer l'efficacité des systèmes de protection physique. EASI Graphics est une extension d'infographie d'EASI qui permet d'effectuer des analyses de sensibilité et de compromis des paramètres d'un système de protection physique. Ce document rend compte de la mise en œuvre d'EASI Graphics et illustre son application par quelques exemples.

Keith, M.K. Wallick, R. Bangs, B.L. Taylor, G. Gordon, G.W. White, J.S. Mangano, J.

Le rabattement du réservoir du lac Fall Creek, en Oregon, abaisse les niveaux du lac pour faciliter le passage en aval des saumons quinnat juvéniles de printemps à travers le barrage de 55 m de haut. Depuis 2011, les rabattements annuels d'automne et d'hiver ont amélioré le passage des poissons, mais l'abaissement temporaire du lac presque jusqu'au lit du cours d'eau a augmenté le transport en aval des rabattements principalement fins et colonisés par de la végétation, comme l'alpiste roseau, augmentant ainsi l'efficacité de piégeage des sédiments fins L'accumulation de sédiments fins dans les zones hors du chenal a réduit la zone d'alevinage disponible pour certaines espèces de salmonidés, mais peut fournir un habitat alternatif convenable pour d'autres espèces aquatiques indigènes telles que les lamproies du Pacifique qui vivent dans des substrats fins pendant plusieurs années. dans l'habitat aquatique hors chenal et les bancs de gravier nu liés aux rabattements sont faibles par rapport aux conditions historiquement dynamiques sur la fourche intermédiaire (actuellement stable). Le ruisseau Fall, historiquement et actuellement stable, a moins de zones hors chenal que la fourche intermédiaire, le remplissage de ces zones a donc des impacts plus importants à l'échelle de la portée sur l'habitat. après le rabattement de 2015 a montré que la plupart des aggradations sur les bancs de gravier à haute altitude et les plaines inondables à basse altitude se sont produites lorsque les débits étaient plus élevés sur Fall Creek (2 000 pi3/s) et Middle Fork (près de

Straková, Petra Anttila, Jani Spetz, Peter Kitunen, Veikko Tapanila, Tarja Laiho, Raija

Il existe de plus en plus de preuves que les changements dans la composition des espèces et la structure des communautés végétales induits par le changement global auront beaucoup plus d'impact sur le cycle du carbone médié par les plantes que n'importe quelle réponse phénotypique. Ces impacts sont largement influencés par des changements dans la qualité de la litière. Il existe peu de documentation de ces changements jusqu'à présent, en raison de l'échelle de temps relativement longue requise pour leur observation directe. Ici, nous examinons les changements dans les apports de litière induits par le rabattement persistant du niveau d'eau dans les sites de tourbières boréales. Les tourbières contiennent une proportion majeure du réservoir de carbone terrestre, et il est donc important de pouvoir prédire leur comportement et leur rôle dans le cycle global du C sous différents facteurs de changement global. Nous avons étudié les effets du rabattement à court terme (environ 4 ans) et à long terme (environ 40 ans) du niveau d'eau persistant (WL) sur la quantité et la qualité chimique des apports de litière végétale aérienne sur trois sites : tourbière, fen oligotrophe et fen mésotrophe. Les paramètres utilisés pour caractériser la qualité de la litière comprenaient diverses substances extractibles, la cellulose, l'holocellulose, la composition de l'hémicellulose (sucres neutres, acides uroniques), la lignine, les produits phénoliques d'oxydation de CuO et les concentrations de C, d'azote (N), de phosphore (P), de potassium. , magnésium, manganèse et calcium. Quatre groupes différents de litière étaient clairement distincts en fonction de leur qualité chimique : les litières foliaires, les graminoïdes, les mousses et les litières ligneuses. Les conditions vierges étaient caractérisées par la sphaigne et la litière de graminoïdes. À la suite d'un rabattement de WL à court terme, les changements dans la qualité et la quantité des apports de litière étaient faibles. Suite à un rabattement à long terme de la WL, les apports totaux de litière ont considérablement augmenté, en raison de l'augmentation des apports de litière d'arbres, et la composition du type de litière a considérablement changé. Ces changements ont entraîné des apports annuels de 1901-2010 kg•ha-1 C, 22-24 kg•ha-1 N, 1,5-2,2 kg•ha-1 P, 967-1235 kg•ha-1 lignine et lignine-like composés et 254-300 kg•ha-1 d'hydrosolubles après WL à long terme

Johnson, Kenneth S. Plant, Joshua N. Dunne, John P. Talley, Lynne D. Sarmiento, Jorge L.

Les cycles annuels des nitrates ont été mesurés dans toutes les eaux pélagiques de l'océan Austral, y compris les régions à couverture glaciaire saisonnière et les zones subtropicales de l'hémisphère sud. Des mesures de nitrates à résolution verticale ont été effectuées à l'aide de capteurs optiques de nitrates à spectrophotomètre ultraviolet in situ (ISUS) et d'analyseur de nitrate ultraviolet submersible (SUNA) déployés sur des flotteurs de profilage. Trente et un flotteurs ont retourné 40 cycles annuels complets. Le profil moyen des nitrates du mois avec le plus haut taux de nitrates en hiver moins le profil moyen du mois avec le plus faible taux de nitrates donne le rabattement annuel de nitrates. Cette quantité a été intégrée à 200 m de profondeur et convertie en carbone en utilisant le ratio de Redfield pour estimer la production communautaire nette annuelle (ANCP) dans tout l'océan Austral au sud de 30°S. Une distribution moyenne zonale bien définie est trouvée avec les valeurs les plus élevées (3-4 mol C m-2 an-1) de 40 à 50°S. Les valeurs les plus faibles se trouvent dans les régions subtropicales et dans la zone de glace saisonnière. La moyenne pondérée par zone était de 2,9 mol C m-2 an-1 pour toutes les régions au sud de 40°S. L'ANCP cumulée au sud de 50°S est de 1,3 Pg C an-1. Cela représente environ 13 % de l'ANCP mondial dans environ 14 % de la superficie océanique mondiale. Résumé en langage clairCe manuscrit rend compte de 40 cycles annuels de nitrate observés par des capteurs chimiques sur des flotteurs de profilage SOCCOM. Le rabattement annuel de la concentration en nitrates par le phytoplancton est utilisé pour évaluer la variabilité spatiale de la production nette annuelle de la communauté dans l'océan Austral. Cet ANCP est un élément clé du cycle global du carbone et il exerce un contrôle important sur le dioxyde de carbone atmosphérique. Nous montrons que les résultats sont cohérents avec notre compréhension antérieure de l'ANCP de l'océan Austral, qui a nécessité des décennies d'observations pour s'accumuler. Les flotteurs de profilage permettent désormais la résolution annuelle de ce processus clé. Les résultats mettent également en évidence la variabilité spatiale de l'ANCP dans l'océan Austral.

Meyer, Patrick E. Jaap, John P.

Le programme de planification d'expériences (ESP) de la NASA, qui a été utilisé pour environ 12 missions Spacelab, est en cours d'amélioration avec l'ajout d'un éditeur de chronologie graphique.Le GTE Clipboard, comme on l'appelle, a été développé pour démontrer une nouvelle technologie qui dirigera le développement du système de planification de la charge utile de la Station spatiale internationale Alpha et soutiendra les missions Spacelab restantes. Le presse-papiers GTE d'ESP est développé en C à l'aide du système X Windows X11R5 du MIT et suit la révision 1.2 du guide de style OSF/Motif.

Blumenthal, Benjamin J. Zhan, Hongbin

Nous avons dérivé une solution analytique calculée rapidement pour le rabattement causé par un puits de forage directionnel partiellement ou entièrement pénétrant (vertical, horizontal ou incliné) via la méthode de la fonction de Green. Le modèle mathématique suppose un aquifère anisotrope, homogène, confiné, en forme de boîte. N'importe quelle dimension de la boîte peut avoir l'une des six conditions aux limites possibles : 1) les deux côtés sans flux 2) un côté sans flux - un côté à tête constante 3) les deux côtés à tête constante 4) un côté sans flux 5) un côté à tête constante 6) conditions aux limites libres. La solution a été optimisée pour un calcul rapide via la Resumation de Poisson, la dérivation des taux de convergence et l'optimisation numérique des techniques d'intégration. Lors de l'application de la méthode de Resummation de Poisson, nous avons pu dériver deux ensembles de solutions avec des taux de convergence inverses, à savoir une série rapidement convergente précoce (solution-A) et une série tardive rapidement convergente (solution-B). À partir de ce travail, nous avons pu relier la méthode de la fonction de Green (solution-B) à la théorie des puits d'image (solution-A). Nous avons ensuite dérivé une équation définissant quand le taux de convergence entre la solution-A et la solution-B est le même, que nous avons appelé le temps de commutation. En utilisant la solution la plus rapidement convergente au moment approprié, nous avons obtenu une convergence rapide à tout moment. Nous avons également montré que l'on peut simplifier chacune des trois séries infinies pour la solution tridimensionnelle à 11 termes tout en conservant une erreur relative maximale inférieure à 10-14.

Gilbert, Matthew E. McElrone, Andrew J.

Dans les systèmes agricoles et naturels, la lumière diffuse peut améliorer la productivité primaire des plantes en raison d'une pénétration plus profonde et d'une plus grande irradiance de l'ensemble de la canopée. Cependant, pour les feuilles individuelles cultivées au soleil de trois espèces, la photosynthèse est en fait moins efficace sous lumière diffuse par rapport à la lumière directe. Malgré son impact potentiel sur la productivité au niveau de la canopée, le mécanisme de cet effet de dépression photosynthétique de la lumière diffuse au niveau des feuilles est inconnu. Ici, nous étudions si la distribution spatiale de l'absorption de la lumière par rapport à la capacité de transport d'électrons dans les feuilles de tournesol (Helianthus annuus) cultivées au soleil et à l'ombre sous-tend sa dépression photosynthétique diffuse précédemment observée. À l'aide d'un nouveau modèle d'échange de gaz à éléments finis en milieu poreux unidimensionnel paramétré avec des profils d'absorption de la lumière, nous avons constaté qu'une pénétration plus faible de la lumière diffuse par rapport à la lumière directe dans le mésophylle des feuilles de tournesol cultivées au soleil entraînait une saturation plus hétérogène de la capacité de transport d'électrons et réduit sa capacité de réduction de la concentration de CO2 dans l'espace aérien intercellulaire et le stroma chloroplastique. Ce découplage entre la disponibilité de la lumière et la capacité photosynthétique sous lumière diffuse est suffisant pour générer une baisse de 11 % de la photosynthèse dans les feuilles cultivées au soleil mais pas à l'ombre, principalement parce que les feuilles minces cultivées à l'ombre distribuent de la même manière la lumière diffuse et directe dans tout le mésophylle. Enfin, nous illustrons comment la dépression photosynthétique de la lumière diffuse pourrait surmonter l'amélioration dans les auvents avec de faibles coefficients d'extinction de lumière et/ou une surface foliaire, pointant vers une nouvelle direction pour les recherches futures. PMID : 28432257

Earles, J Mason Théroux-Rancourt, Guillaume Gilbert, Matthew E McElrone, Andrew J Brodersen, Craig R

Dans les systèmes agricoles et naturels, la lumière diffuse peut améliorer la productivité primaire des plantes en raison d'une pénétration plus profonde et d'une plus grande irradiance de l'ensemble de la canopée. Cependant, pour les feuilles individuelles cultivées au soleil de trois espèces, la photosynthèse est en fait moins efficace sous lumière diffuse par rapport à la lumière directe. Malgré son impact potentiel sur la productivité au niveau de la canopée, le mécanisme de cet effet de dépression photosynthétique de la lumière diffuse au niveau des feuilles est inconnu. Ici, nous étudions si la distribution spatiale de l'absorption de la lumière par rapport à la capacité de transport d'électrons dans les feuilles de tournesol (Helianthus annuus) cultivées au soleil et à l'ombre sous-tend sa dépression photosynthétique diffuse précédemment observée. À l'aide d'un nouveau modèle d'échange de gaz à éléments finis en milieu poreux unidimensionnel paramétré avec des profils d'absorption de la lumière, nous avons constaté qu'une pénétration plus faible de la lumière diffuse par rapport à la lumière directe dans le mésophylle des feuilles de tournesol cultivées au soleil entraînait une saturation plus hétérogène de la capacité de transport d'électrons et réduit sa capacité de réduction de la concentration de CO 2 dans l'espace aérien intercellulaire et le stroma chloroplastique. Ce découplage entre la disponibilité de la lumière et la capacité photosynthétique sous lumière diffuse est suffisant pour générer une baisse de 11 % de la photosynthèse dans les feuilles cultivées au soleil mais pas à l'ombre, principalement parce que les feuilles minces cultivées à l'ombre distribuent de la même manière la lumière diffuse et directe dans tout le mésophylle. Enfin, nous illustrons comment la dépression photosynthétique de la lumière diffuse pourrait surmonter l'amélioration des auvents avec des coefficients d'extinction de lumière et/ou une surface foliaire faibles, pointant vers une nouvelle direction pour les recherches futures. © 2017 Société américaine des biologistes végétaux. Tous les droits sont réservés.

Fransner, Filippa Gustafsson, Erik Tedesco, Letizia Vichi, Marcello Hordoir, Robinson Roquet, Fabien Spilling, Kristian Kuznetsov, Ivan Eilola, Kari Mörth, Carl-Magnus Humborg, Christoph Nycander, Jonas

Les apports élevés de nutriments et de matière organique font des mers côtières des lieux d'échanges intenses de CO2 air-mer. En raison de leur complexité, le rôle des mers côtières dans les échanges mondiaux de CO2 air-mer est cependant encore incertain. Ici, nous étudions le rôle de la flexibilité stoechiométrique du phytoplancton et de la production extracellulaire de COD pour la dynamique saisonnière des nutriments et de la pression partielle de CO2 (pCO2) dans le golfe de Botnie, au nord de la mer Baltique. Un modèle biogéochimique-physique océanique en 3D avec une stoechiométrie phytoplanctonique variable est pour la première fois mis en œuvre dans la zone et validé par rapport aux observations. En simulant la stoechiométrie interne du phytoplancton non redfieldien et une production relativement importante de carbone organique dissous (COD) extracellulaire, le modèle reproduit de manière adéquate les cycles saisonniers observés dans les macronutriments et la pCO2. L'absorption de CO2 atmosphérique est sous-estimée de 50 % si l'on utilise plutôt le ratio de Redfield pour déterminer l'assimilation du carbone, comme dans d'autres modèles de la mer Baltique actuellement utilisés. Le modèle suggère en outre, sur la base du rabattement observé de la pCO2, que les estimations d'observation de la production de carbone organique dans le golfe de Botnie, dérivées de la méthode 14C, peuvent être fortement sous-estimées. Nous concluons que la variabilité stoechiométrique et le découplage du carbone et de l'assimilation des nutriments doivent être pris en compte afin de mieux comprendre le cycle du carbone dans les mers côtières.

Ramos, Gustavo Carrera, Jesus Gómez, Susana Minutti, Carlos Camacho, Rodolfo

L'interprétation des tests de pompage est un art qui implique de traiter le bruit provenant de sources multiples et l'incertitude du modèle conceptuel. L'interprétation est grandement facilitée par les tracés de diagnostic, qui incluent les données de rabattement et leur dérivée par rapport au temps log, appelée dérivée log. Les dérivés logarithmiques sont particulièrement utiles pour compléter la compréhension géologique en aidant à identifier le modèle sous-jacent de l'écoulement des fluides, car ils sont sensibles aux variations subtiles de la réponse au pompage des aquifères et des réservoirs de pétrole. Le principal problème de leur utilisation réside dans le calcul des dérivées log elles-mêmes, qui peuvent afficher des fluctuations lorsque les données sont bruitées. Pour surmonter cette difficulté, nous proposons une approche de régularisation variationnelle basée sur la minimisation d'une fonctionnelle constituée de deux termes : l'un assurant que les log-dérivées calculées honorent les mesures et l'autre pénalisant les fluctuations. La minimisation conduit à une équation différentielle de type diffusion dans les dérivées logarithmiques et à des conditions aux limites appropriées pour l'hydraulique des puits (c'est-à-dire écoulement radial, stockage dans le puits de forage, comportement fractal, etc.). Nous avons résolu cette équation par différences finies. Nous avons testé la méthodologie sur deux exemples synthétiques montrant qu'une solution robuste est obtenue. Nous rapportons également la dérivée log résultante pour un cas réel.

En raison de la demande importante et croissante d'eau souterraine au Texas, les évaluations des impacts du pompage des eaux souterraines jouent un rôle important dans la planification et la gestion de l'eau. Depuis 1951, les districts de conservation des eaux souterraines (GCD) gèrent les aquifères dans une grande partie de l'État. Parmi leurs fonctions, les GCD peuvent réguler l'espacement des nouveaux puits par rapport aux puits existants, mais ils doivent équilibrer la capacité d'un propriétaire foncier à forer un nouveau puits avec les impacts attendus sur les puits existants. Nous avons effectué des études pour trois GCD afin de fournir, sur la base de propriétés hydrauliques représentatives, les impacts attendus de différents espacements de puits et relations de taux de production. Cela a été fait avec l'élément analytique du code de modélisation des eaux souterraines TTIM. Ces évaluations tiennent compte du rabattement causé par un seul puits et du rabattement cumulatif de plusieurs puits. Les résultats consistent en une série de graphiques qui permettent aux décideurs et aux représentants des GCD de comprendre les impacts des options potentielles de règles d'espacement des puits sur les propriétaires de puits existants et potentiels.

Howard, Rebecca J. Allain, Larry

La perturbation est un processus naturel important dans la création et le maintien des zones humides. La manipulation de la profondeur de l'eau et le brûlage dirigé sont deux types de perturbations couramment utilisées par les humains pour influencer la succession et la composition de la végétation dans les terres humides dans le but d'améliorer la valeur de l'habitat faunique. Un bassin de retenue de 6 475 hectares (ha) a été construit en 1943 sur le Lacassine National Wildlife Refuge dans le sud-ouest de la Louisiane pour créer des zones humides d'eau douce comme habitat d'hivernage de la sauvagine. Dix ans après la fin de la construction de la retenue, appelée piscine Lacassine, le personnel du refuge a commencé à exprimer des inquiétudes concernant l'augmentation de la couverture végétale émergente, l'accumulation de matière organique et la diminution de la surface d'eau libre dans la piscine. Parce que la présence d'eau stagnante permanente empêche les actions qui peuvent répondre à ces préoccupations, une petite retenue dans la piscine où il était possible de manipuler la profondeur de l'eau a été créée. Le sous-bassin de 283 ha appelé Unité D a été construit en 1989. L'eau a été pompée de l'Unité D en 1990, et l'unité a été inondée en permanence environ 3 ans plus tard. Quatre brûlages dirigés ont été appliqués pendant le rabattement . Une étude a été lancée en 1990 pour étudier l'effet du rabattement expérimental sur la végétation et les sols dans l'unité D. Quatre types de communautés végétales ont été décrits et des carottes ont été prélevées pour mesurer la profondeur de la couche organique du sol. Une deuxième étude de l'unité D a été menée en 1997, 4 ans après la remise en eau de l'unité, en utilisant les mêmes placettes et des méthodes d'échantillonnage similaires. Ce rapport présente une analyse et une synthèse des données des deux études et fournit une évaluation de l'impact des techniques de gestion appliquées. Nous avons constaté que les caractéristiques des communautés végétales différaient souvent entre les quatre communautés et variaient avec le temps. La richesse en espèces a augmenté dans deux des communautés, et la biomasse aérienne totale a augmenté dans les quatre pendant le rabattement . Ces changements, cependant, n'ont pas persisté lorsque l'unité D a été réinondée en 1997

Berg, Steven J. Illman, Walter A.

Résumé L'interprétation des tests de pompage dans les aquifères libres a été largement basée sur des solutions analytiques qui ne tiennent pas compte de l'hétérogénéité de l'aquifère. Dans cette étude, nous étudions si la prédiction des réponses de rabattement dans un aquifère non confiné hétérogène et la zone non saturée au-dessus avec un modèle d'écoulement d'eau souterraine à saturation variable peut être améliorée en incluant des informations sur la conductivité hydraulique (K) et le stockage spécifique (Ss) de transitoires. tomographie hydraulique (THT). Nous cherchons également à savoir si ces prédictions sont affectées par l'utilisation de paramètres d'écoulement non saturés estimés par des expériences de colonnes suspendues en laboratoire ou par l'étalonnage de courbes de drainage in situ. Pour étudier ces problèmes, nous avons conçu et mené des expériences en bac à sable en laboratoire pour caractériser les propriétés saturées et insaturées d'un aquifère libre hétérogène. Plus précisément, nous avons effectué des tests de pompage dans des conditions totalement saturées et interprété les réponses de rabattement en traitant le milieu comme étant soit homogène, soit hétérogène. Nous avons ensuite effectué un autre test de pompage et laissé la nappe phréatique baisser, similaire à un test de pompage dans un aquifère libre. Les simulations menées à l'aide d'un modèle d'écoulement à saturation variable ont révélé : (1) les paramètres homogènes dans les zones saturées et non saturées ont du mal à prédire les réponses de l'aquifère libre hétérogène (2) les distributions de paramètres hydrauliques saturés hétérogènes obtenues via THT ont donné des prédictions de rabattement significativement améliorées dans la zone saturée de l'aquifère libre et (3) compte tenu de l'hétérogénéité des paramètres de la zone non saturée ont produit une amélioration mineure des prédictions dans la zone non saturée, mais pas dans la zone saturée. Ces résultats semblent corroborer les conclusions de Mao et al. (2011) que la variabilité spatiale dans la zone non saturée joue un rôle mineur dans la formation de la courbe en S-temps de rabattement observée lors du pompage dans un aquifère libre.

La distribution verticale de la conductivité hydraulique dans les systèmes aquifères stratifiés est généralement nécessaire pour les simulations de modèles de l'écoulement et du transport des eaux souterraines. Dans les études précédentes, les données de rabattement dans le temps ou les données de débitmètre ont été utilisées individuellement, mais pas en combinaison, pour estimer la conductivité hydraulique. Dans cette étude, les données de débitmètre et les données de prélèvement temporel recueillies à partir d'un puits de production à long écran et de puits de surveillance à proximité sont combinées pour estimer la distribution verticale de la conductivité hydraulique dans un système aquifère côtier multicouche complexe. Les mesures du débitmètre enregistrées en fonction de la profondeur délimitent un afflux non uniforme dans le puits de forage, et cette information est utilisée pour mieux discrétiser la distribution verticale de la conductivité hydraulique à l'aide de méthodes analytiques et numériques. Les données de débit temporel complètent les données du débitmètre en donnant un aperçu de la réponse hydraulique des aquitards lorsque les débits dans le puits de forage sont inférieurs à la limite de détection du débitmètre. La combinaison de ces données de terrain permet de tester des modèles conceptuels alternatifs d'écoulement radial vers le puits de forage.

Stumpp, Christine Hose, Grant C.

Le captage des eaux souterraines est un phénomène mondial qui menace directement les écosystèmes des eaux souterraines. Malgré l'importance mondiale de cette question, l'impact des prélèvements d'eau souterraine et de l'abaissement des nappes phréatiques sur le biote est mal connu. Le but de cette étude est de déterminer les impacts du rabattement des eaux souterraines dans les aquifères libres sur la répartition de la faune près de la nappe phréatique, et la tolérance de la faune des eaux souterraines au dessèchement des sédiments une fois les niveaux d'eau baissés. Une série d'expériences sur colonne a été menée pour étudier la distribution en profondeur de différentes stygofaunes (Syncarida et Copepoda) dans des conditions saturées et après des baisses rapides et lentes de la nappe phréatique. De plus, la survie de la stygofaune dans des conditions de teneur réduite en eau des sédiments a été testée. La distribution et la réponse de la stygofaune au rabattement de l'eau étaient spécifiques au taxon, mais la réponse commune de certaines espèces de faune était bloquée par la baisse du niveau de l'eau. De même, la survie de la stygofaune sous différents niveaux de saturation des sédiments était variable. Les Syncarida étaient mieux à même de tolérer des conditions de séchage que les Copepodes, mais la mortalité de tous les groupes augmentait avec la diminution de la teneur en eau des sédiments. Les résultats de ces travaux apportent une nouvelle compréhension de la réponse de la faune au rabattement de la nappe phréatique. Une telle compréhension améliorée est nécessaire pour une utilisation durable des eaux souterraines et permet des stratégies ciblées pour mieux gérer les prélèvements d'eau souterraine et maintenir la biodiversité des eaux souterraines. PMID : 24278111

Li, Zhe Zhang, Zengyu Lin, Chuxue Chen, Yongbo Wen, Anbang Fang, Fang

Le réservoir des Trois Gorges (TGR) en Chine a de grandes variations de niveau d'eau, créant environ 393 km(2) de zone de rabattement saisonnière. Les pratiques agricoles dans la zone de rabattement pendant la période d'étiage sont courantes dans la RGT. Des expériences sur le terrain sur les émissions de gaz à effet de serre (GES) sol-air dans les prairies en jachère, les champs d'arachides et de maïs dans la zone de rabattement des réservoirs de la baie de Lijiaba de la rivière Pengxi, un affluent du fleuve Yangtze dans la TGR ont été menées de mars à septembre 2011 Les champs expérimentaux dans la zone de rabattement avaient le même historique d'utilisation des terres. Ils étaient adjacents horizontalement à une plage d'altitude étroite, c'est-à-dire 167-169 m, ce qui garantissait qu'ils avaient la même durée d'inondation du réservoir. Des prairies non inondées avec le même historique d'utilisation des terres ont été sélectionnées comme témoins pour l'étude. Les résultats ont montré que la valeur moyenne des émissions de CO2 du sol dans la zone de rabattement était de 10,38 ± 0,97 mmol m(-2) h(-1). Les flux de CH4 et de N2O correspondants étaient de -8,61 ± 2,15 mol m(-2) h(-1) et 3,42 ± 0,80 mol m(-2) h(-1). Des différences significatives et des variations mensuelles entre les utilisations des terres dans les traitements de la zone de rabattement et des prairies non inondées étaient évidentes. Celles-ci ont été impactées par l'évolution des propriétés physico-chimiques des sols qui ont été alertées par l'exploitation des réservoirs et la mise en culture. En particulier, la fertilisation azotée dans les champs de maïs a stimulé les émissions de N2O de mars à mai. En termes de potentiel de réchauffement global (PRP), le champ de maïs dans la zone de rabattement avait le PRP maximal principalement dû à la fertilisation azotée. Le PRG brut dans les champs d'arachides dans la zone de rabattement était d'environ 7 % inférieur à celui des prairies en jachère. Par rapport aux prairies non inondées, l'exploitation du réservoir a créé un effet net positif sur les émissions de GES et les PRP dans la zone de rabattement. Cependant, la sélection des espèces cultivées, par ex. l'arachide et les meilleures pratiques agricoles, par ex. interdisant la fertilisation azotée, pourrait potentiellement atténuer les PRG dans la zone de rabattement. Dans l'évaluation des émissions nettes de GES dans la RGT, les pratiques agricoles dans la zone de rabattement doivent être prises en compte

Dans toutes les applications d'ordinateurs personnels, que ce soit pour un usage privé ou professionnel, la décision de la "marque" d'ordinateur à acheter est d'une importance centrale. Aux États-Unis, les ordinateurs Apple sont principalement utilisés dans les universités, tandis qu'en Europe, les ordinateurs dits "normes de l'industrie" d'IBM (ou des clones de ceux-ci) sont de plus en plus utilisés depuis de nombreuses années. Indépendamment de toute considération de marque, les composants informatiques achetés doivent répondre aux besoins actuels (et prévus) de l'utilisateur. Les capacités et normes graphiques, la vitesse du processeur, l'utilisation de coprocesseurs, ainsi que les périphériques d'entrée et de sortie tels que la "souris", les imprimantes et les scanners sont discutés. Cette vue d'ensemble est destinée à servir d'aide à la décision. Les utilisateurs potentiels reçoivent un résumé court mais détaillé des caractéristiques techniques actuelles.

Cette bibliothèque est un ensemble de sous-programmes conçus pour le traçage vectoriel sur des CRT, des traceurs, des matrices de points et des imprimantes laser. Les sous-routines LONGLIB sont invoquées par des appels de programme similaires aux routines CALCOP standard. En plus des routines de traçage de base, LONGLIB contient un ensemble complet de routines pour permettre le découpage de la fenêtre, les jeux de caractères étendus, la saisie graphique, l'ombrage, les tracés polaires et le traçage 3D avec ou sans suppression des lignes cachées.Les capacités LONGLIB incluent des tracés de surface, des contours, des histogrammes, des axes logarithmiques, des cartes du monde et des tracés sismiques. LONGLIB comprend des sous-programmes maîtres, qui sont des séries autonomes de sous-programmes individuels couramment utilisés. Lorsqu'elle est invoquée, la routine principale initialise le package de traçage et trace plusieurs courbes, nuages ​​de points, tracés de journal, tracés 3D, etc., puis ferme le package de tracé, le tout avec un seul appel. Les appareils pris en charge incluent le VT100 équipé de cartes Selanar GR100 ou GR100+, les VT125s, VT240s, VT220 équipés de Selanar SG220, Tektronix 4010/4014 ou 4107/4109 et compatibles, et les terminaux Graphon GO-235. La sortie d'imprimante matricielle est disponible en utilisant les routines de conversion de balayage raster fournies pour les imprimantes DEC LA50, Printronix et les imprimantes Trilog haute ou basse résolution. Les autres périphériques de sortie incluent les imprimantes laser QMS, les imprimantes laser compatibles Postscript et les traceurs compatibles HPGL. Le package LONGLIB comprend le code source de la bibliothèque graphique, une bibliothèque d'aide en ligne, des programmes de conversion de scan et de conversion de méta-fichiers, ainsi que des fichiers de commandes pour l'installation, la création et le test de la bibliothèque. La dernière version, 5.0, est considérablement améliorée et a été rendue plus portable. De plus, le format de fichier méta de la nouvelle version a été modifié et est incompatible avec les versions précédentes. Un utilitaire de conversion est inclus pour porter les anciens fichiers méta vers le nouveau format. Le traçage des terminaux en couleur a été incorporé. LONGLIB est écrit en FORTRAN 77 pour une exécution par lots ou interactive et a été implémenté sur une série DEC VAX

L'approche BCS Interactive Graphics System (BIG System) pour les graphiques a été présentée, ainsi que plusieurs applications d'ingénierie importantes. Le précompilateur BIG System, la bibliothèque de support graphique et les exigences fonctionnelles des applications graphiques sont discutés. Il a été conclu que la normalisation graphique et un code indépendant du périphérique peuvent être développés pour assurer une transférabilité maximale du terminal graphique.

Graly, Joseph A. Drever, James I. Humphrey, Neil F.

Afin de contraindre les flux de CO2 provenant des processus biogéochimiques dans les environnements sous-glaciaires, nous modélisons l'évolution du pH et de l'alcalinité sur une gamme de conditions d'altération sous-glaciaires. Nous montrons que les eaux sous-glaciaires atteignent ou dépassent les niveaux de pCO2 atmosphérique lorsque les gaz atmosphériques sont capables d'accéder partiellement à l'environnement sous-glaciaire. Par la suite, l'oxydation des sulfures en système fermé est capable de produire des niveaux de pCO2 bien supérieurs aux niveaux de l'atmosphère sans aucun apport de la décomposition de la matière organique. Nous avons comparé ce modèle aux mesures publiées de pH et d'alcalinité de 21 glaciers et calottes glaciaires. La plupart des eaux sous-glaciaires sont proches des valeurs de pCO2 atmosphérique. L'hypothèse d'une période initiale d'altération du système ouvert nécessite une oxydation substantielle du carbone organique dans seulement 4 des 21 masses glaciaires analysées. Si l'environnement sous-glaciaire est supposé être fermé à tout apport de gaz atmosphérique, d'importants apports de carbone organique sont nécessaires dans presque tous les cas. Ces hypothèses de système fermé impliquent qu'un ordre de 10 g m-2 an-1 de carbone organique est retiré d'un environnement sous-glaciaire typique - un taux trop élevé pour représenter le carbone du sol accumulé au cours des périodes interglaciaires précédentes et bien supérieur aux flux de surface déposés. Carbone organique. L'entrée partielle de systèmes ouverts de gaz atmosphériques est donc probable dans la plupart des environnements sous-glaciaires. La désintégration du carbone organique est toujours importante pour la chimie inorganique sous-glaciaire où des réserves substantielles de carbone organique ancien se trouvent dans le substratum rocheux. Dans les glaciers et les calottes glaciaires sur substrat rocheux de silicate, il se produit une réduction substantielle à long terme du CO2 atmosphérique.

Speelman, E N Van Kempen, M M L Barke, J Brinkhuis, H Reichart, G J Smolders, A J P Roelofs, J G M Sangiorgi, F de Leeuw, J W Lotter, A F Sinninghe Damsté, J S

Des quantités énormes de la fougère d'eau douce flottante Azolla ont grandi et se sont reproduites in situ dans l'océan Arctique au cours de l'Éocène moyen, comme l'a démontré l'analyse microscopique des sédiments microlaminés récupérés de la dorsale Lomonosov lors de l'expédition 302 du programme intégré de forage océanique (IODP). le moment de la phase Azolla (environ 48,5 Ma) coïncide avec les premiers signes d'apparition de la transition d'une serre vers la glacière moderne Terre. La croissance soutenue de l'Azolla, actuellement classée parmi les plantes à la croissance la plus rapide sur Terre, dans un grand bassin océanique anoxique peut avoir contribué à la diminution des niveaux de pCO2 atmosphérique via l'enfouissement de la matière organique dérivée de l'Azolla. Les conséquences de ces énormes proliférations d'Azolla sur les cycles régionaux et mondiaux des nutriments et du carbone sont encore largement inconnues. Des expériences de culture ont été mises en place pour étudier l'influence d'une pCO2 élevée sur la croissance d'Azolla, montrant une augmentation marquée de la productivité d'Azolla dans des conditions de pCO2 élevée (760 et 1910 ppm). Les résultats combinés de la teneur en carbone organique, soufre, azote et des mesures 15N et 13C des sédiments de l'intervalle Azolla illustrent la contribution potentielle de la fixation de l'azote dans un Arctique Eocène stratifié euxinique. Des calculs de flux ont été utilisés pour reconstituer quantitativement le stockage potentiel de carbone (0,9-3,5 10(18) gC) dans l'Arctique au cours de l'intervalle Azolla. On estime que le stockage de 0,9 10(18) à 3,5 10(18) g de carbone entraînerait une réduction de 55 à 470 ppm de pCO2 dans des conditions éocènes, ce qui indique que les efflorescences d'Azolla arctiques peuvent avoir eu un effet significatif sur les niveaux de pCO2 dans l'atmosphère mondiale. grâce à un meilleur enfouissement de la matière organique.

Woith, Heiko Chiodini, Giovanni Mangiacapra, Annarita Wang, Rongjiang

Le système hydrothermal sous les Campi Flegrei est fortement affecté par les processus souterrains qui se manifestent par un « panache » géothermique sous Solfatara, associé à la formation de mares de boue (Fangaia), de fumerolles (Bocca Grande, Pisciarelli) et de sources thermales (Agnano ). Dans le cadre du MED-SUV (le projet MED-SUV a reçu un financement du septième programme-cadre de l'Union européenne FP7 au titre de la convention de subvention n° 308665), les transitoires de pression dans le système hydrothermal des Campi Flegrei sont surveillés en permanence au niveau des fumerolles, des bassins de boue, des sources et puits géothermiques. Au total, le niveau d'eau et la température sont enregistrés sur 8 sites à travers le panache hydrothermal le long d'un profil aligné entre Agnano Termal à l'Est et Fangaia à l'Ouest. Des appareils autonomes sont utilisés pour enregistrer le niveau et la température de l'eau à des intervalles de 10 minutes. À Fangaia mudpool, le niveau et la température de l'eau sont principalement contrôlés par l'eau de pluie. Ainsi, la piscine est remplie épisodiquement. A l'inverse, le niveau d'eau d'un puits produisant de l'eau chaude (82°C) pour le club de tennis Pisciarelli baisse et remonte à intervalles presque réguliers. Les changements de niveau d'eau induits sont de l'ordre de 1 à 2 m et de 3 à 4 m dans le cas du bassin de boue et du puits d'eau chaude, respectivement. À première vue, les deux sites de surveillance peuvent sembler totalement inutiles pour accéder aux changements naturels du système fluide des Campi Flegrei. À la réflexion, les deux séries chronologiques offrent une occasion unique de surveiller les changements potentiels de perméabilité dans le système aquifère. Une approche similaire avait été proposée pour déduire les changements de perméabilité liés aux séismes à partir des variations des marées terrestres. Contrairement à l'approche indirecte de la marée terrestre, nous avons la possibilité d'estimer directement les propriétés hydrauliques de l'aquifère à partir de nos données de surveillance, car chaque série temporelle contient une séquence d'essais hydrauliques discrets - à savoir des tests de rabattement et des expériences de recharge. Bien que notre approche Cooper-Jacob soit vraiment grossière, nous avons obtenu une perméabilité raisonnable

Torfstein, Adi Goldstein, Steven L. Kushnir, Yochanan Enzel, Yehouda Haug, Gerald Stein, Mordechai

Les carottes de sédiments récupérées par le Dead Sea Deep Drilling Project (DSDDP) dans le bassin le plus profond de la mer Morte hypersaline terminale (fond du lac à ∼725 m sous le niveau moyen de la mer) révèlent l'histoire climatique détaillée du bassin versant du lac au cours de la dernière période interglaciaire. (Marine Isotope Stade 5 MIS5). Les résultats documentent à la fois une aridité plus intense pendant MIS5 que pendant l'Holocène, et les impacts modérateurs dérivés de l'intense mousson africaine MIS5e. Le début du MIS5e (∼133-128 ka) était dominé par des conditions hyperarides dans la Méditerranée orientale-Levant, indiquées par un dépôt épais de halite déclenché par une baisse du niveau du lac. Cependant, le dépôt d'halite a été interrompu pendant le pic MIS5e (∼128-122 ka) par des séquences de dépôts de crue, qui sont contemporains du moment de la mousson africaine intense forcée de précession qui a généré le sapropèle méditerranéen S5. Un affaiblissement ultérieur de cette source d'humidité a déclenché une aridité extrême dans le bassin versant de la mer Morte et a entraîné le plus grand rabattement du niveau du lac connu de son histoire, reflété par le dépôt d'épaisses couches de sel et d'une couche de galets de couverture correspondant à un hiatus à ∼116- 110 ka. Le noyau DSDDP fournit la première preuve d'une association directe de la mousson africaine avec les systèmes climatiques de latitude moyenne subtropicale affectant le bassin versant de la mer Morte. Combinés au dépôt contemporain de spéléothèmes d'Arabie et du sud du Néguev, de travertins d'Arava et de calcification des coraux de la mer Rouge, les preuves indiquent un corridor climatiquement humide qui aurait pu faciliter la migration de l'homo sapiens "hors d'Afrique" pendant le pic MIS5e. L'hyperaridité documentée pendant MIS5e peut fournir un analogue important pour le réchauffement futur des régions arides de la Méditerranée orientale-Levant.

Roberts, Kathryn L. Brugar, Kristy A. Norman, Rebecca R.

Dans cet article, nous présentons l'outil d'évaluation graphique (GRT), conçu pour évaluer les dispositifs graphiques que l'on trouve couramment dans les textes de non-fiction, afin d'identifier les livres bien adaptés à l'enseignement de ces dispositifs. . Nous présentons également une liste « best of » de livres de sciences et d'études sociales, qui comprend…

Bork, Alfred M. Ballard, Richard

De nouveaux terminaux plus polyvalents et peu coûteux rendront l'infographie plus accessible qu'auparavant dans l'enseignement des sciences. Cet article décrit l'utilisation des graphiques dans l'enseignement de la physique à l'Université de Californie à Irvine. Les commandes et les logiciels sont détaillés dans des programmes établis, qui comprennent une simulation d'alunissage et un programme qui…

UNE EXPÉRIENCE A ÉTÉ RAPPORTÉE QUI DÉMONTRE QUE LES GRAPHIQUES SONT PLUS EFFICACES QUE LES SYMBOLES POUR L'ACQUISITION DES CONCEPTS D'ALGÈBRE. LA DEUXIÈME PHASE DE L'ÉTUDE A DÉMONTRÉ QUE LES GRAPHIQUES DANS LES MANUELS SCOLAIRES DU SECONDAIRE ÉTAIENT FIABLEMENT CLASSÉS DANS UNE MATRICE DE 480 CATÉGORIES DE STIMULUS FONCTIONNELS-RÉPONSE. DES SUGGESTIONS ONT ÉTÉ FAITES POUR ÉLARGIR LA CLASSIFICATION…

Discute de l'importance croissante de l'utilisation des interfaces utilisateur graphiques (GUI) avec les micro-ordinateurs et les services en ligne. Les faits saillants comprennent le développement d'interfaces graphiques avec des bases de données de CD-ROM de micro-ordinateurs, une évaluation d'HyperCard en tant qu'interface potentielle pour le courrier électronique et les bases de données commerciales en ligne et les possibilités futures.…

Ce laboratoire d'infographie abrite un ordinateur IBM 1130, U.C.C. traceur, imprimante, lecteur de cartes, deux machines à perforer les clés et mobilier de classe de type séminaire. Un « système graphique de dessin général » (GDGS) est utilisé, basé sur l'utilisation répétitive des commandes de base de génération de coordonnées et de tracés. Le système est utilisé par 12 établissements d'enseignement supérieur…

Après qu'une enquête de 1977 ait reflété l'importance de l'enseignement du graphisme pour les étudiants en nouvelles, une étude a été développée pour enquêter sur l'état de l'enseignement du graphisme dans l'ensemble du domaine du journalisme. Un questionnaire a été envoyé aux professeurs et aux administrateurs dans quatre domaines d'enseignement professionnels axés sur l'imprimé : magazine, publicité, relations publiques et…

Le but de cette étude était de déterminer si les organisateurs graphiques constituent un meilleur outil pour l'évaluation de la compréhension que les tests traditionnels. Les sujets, 16 élèves ayant des difficultés d'apprentissage en septième année, ont reçu 8 semaines d'enseignement et d'évaluation en utilisant à la fois un organisateur graphique et des formulaires de notes linéaires. Les tests ont été notés, comparés et contrastés avec…

Les recherches qui ont exploré les interprétations des représentations graphiques par les élèves ne se sont pas étendues à la manière dont les élèves appliquent la compréhension de concepts statistiques particuliers liés à une représentation graphique pour interpréter différentes représentations. Cet article rend compte de la manière dont les étudiants comprennent la covariation, mis en évidence…

Wang, Qiang Yuan, Xingzhong Willison, J.H.Martin Zhang, Yuewei Liu, Hong

L'alternance hydrologique peut considérablement influencer les environnements riverains et façonner la zonation de la végétation riveraine. Cependant, il était difficile de prédire l'état de la zone de rabattement du réservoir des Trois Gorges (RTG), car le régime hydrologique créé par le barrage implique à la fois de courtes périodes de crues estivales et une mise en eau hivernale à long terme pendant six mois. Afin d'examiner les effets de l'alternance hydrologique sur la diversité végétale et la biomasse dans la zone de rabattement de la TGR, douze sites répartis sur toute la longueur de la zone de rabattement de la TGR ont été choisis pour explorer le modèle latéral de la diversité végétale et de la biomasse aérienne à la fin des saisons de croissance en 2009 et 2010. Nous avons enregistré 175 espèces de plantes vasculaires en 2009 et 127 en 2010, indiquant qu'une perte significative de la flore vasculaire dans la zone de rabattement de la RGT résultait des nouveaux régimes hydrologiques. Cynodon dactylon et Cyperus rotundus ont une tolérance élevée aux courtes périodes d'inondations estivales et aux inondations hivernales à long terme. Près de la moitié des espèces restantes étaient des annuelles. La richesse des espèces, l'indice Shannon-Wiener et la biomasse aérienne de la végétation ont montré une tendance croissante le long du gradient d'altitude, étant plus élevée à des altitudes plus élevées soumises à un stress de submersion plus faible. La diversité végétale, la biomasse aérienne et la distribution des espèces ont été considérablement influencées par la durée de la submersion par rapport à l'altitude à la fois en été et en hiver précédent. Plusieurs millions de tonnes de végétation seraient accumulées sur la zone de rabattement de la RGT chaque été et certains problèmes environnementaux négatifs pourraient être introduits lorsqu'elle était submergée en hiver. Nous concluons que la biodiversité de la flore vasculaire dans la zone de rabattement de la RGT a considérablement diminué après la mise en eau à pleine capacité. La nouvelle condition hydrologique, caractérisée par des inondations hivernales à long terme et de courtes périodes d'inondations estivales, a déterminé la biodiversité de la végétation et les modèles de biomasse aérienne le long du gradient d'altitude dans

Wang, Qiang Yuan, Xingzhong Willison, JH Martin Zhang, Yuewei Liu, Hong

L'alternance hydrologique peut considérablement influencer les environnements riverains et façonner la zonation de la végétation riveraine. Cependant, il était difficile de prédire l'état de la zone de rabattement du réservoir des Trois Gorges (RTG), car le régime hydrologique créé par le barrage implique à la fois de courtes périodes de crues estivales et une mise en eau hivernale à long terme pendant six mois. Afin d'examiner les effets de l'alternance hydrologique sur la diversité végétale et la biomasse dans la zone de rabattement de la TGR, douze sites répartis sur toute la longueur de la zone de rabattement de la TGR ont été choisis pour explorer le modèle latéral de la diversité végétale et de la biomasse aérienne à la fin des saisons de croissance en 2009 et 2010. Nous avons enregistré 175 espèces de plantes vasculaires en 2009 et 127 en 2010, indiquant qu'une perte significative de la flore vasculaire dans la zone de rabattement de la RGT résultait des nouveaux régimes hydrologiques. Cynodon dactylon et Cyperus rotundus ont une tolérance élevée aux courtes périodes d'inondations estivales et aux inondations hivernales à long terme. Près de la moitié des espèces restantes étaient des annuelles. La richesse des espèces, l'indice Shannon-Wiener et la biomasse aérienne de la végétation ont montré une tendance croissante le long du gradient d'altitude, étant plus élevée à des altitudes plus élevées soumises à un stress de submersion plus faible. La diversité des plantes, la biomasse aérienne et la distribution des espèces ont été significativement influencées par la durée de la submersion par rapport à l'altitude à la fois en été et en hiver précédent. Plusieurs millions de tonnes de végétation seraient accumulées sur la zone de rabattement de la RGT chaque été et certains problèmes environnementaux négatifs pourraient être introduits lorsqu'elle était submergée en hiver. Nous concluons que la biodiversité de la flore vasculaire dans la zone de rabattement de la RGT a considérablement diminué après la mise en eau à pleine capacité. La nouvelle condition hydrologique, caractérisée par des inondations hivernales à long terme et de courtes périodes d'inondations estivales, a déterminé la biodiversité de la végétation et les modèles de biomasse aérienne le long du gradient d'altitude dans

Halford, Keith Garcia, C. Amanda Fenelon, Joe Mirus, Benjamin B.

La modélisation du niveau d'eau est utilisée pour les tests d'aquifères à puits multiples afin de différencier de manière fiable les réponses de pompage des changements naturels du niveau d'eau dans les puits, ou « fluctuations environnementales ». Les niveaux d'eau synthétiques sont créés au cours de la modélisation des niveaux d'eau et représentent la somme des fluctuations de plusieurs composants, y compris celles causées par le forçage environnemental et le pompage. Les signaux de pompage sont modélisés en transformant les enregistrements de pompage par étapes en changements de niveau d'eau en utilisant des fonctions de Theis superposées. Les niveaux d'eau peuvent être modélisés de manière robuste avec cette approche par transformation de Theis car les fluctuations environnementales et les signaux de pompage sont simulés simultanément. La modélisation du niveau d'eau avec les transformations de Theis a été implémentée dans le programme SeriesSEE, qui est un complément Microsoft® Excel. Les fonctions de moyenne mobile, de Theis, de décalage pneumatique et de gamma transforment les séries chronologiques de valeurs mesurées en composants de modèle de niveau d'eau dans SeriesSEE. Les marées terrestres et les transformations échelonnées sont des composants supplémentaires du modèle de niveau d'eau calculé. Les modèles de niveau d'eau sont calibrés en minimisant une fonction objectif somme des carrés où la décomposition en valeurs singulières et la régularisation de Tikhonov stabilisent les résultats. Les estimations de rabattement à partir d'un modèle de niveau d'eau sont la somme de toutes les transformations de Theis moins les différences résiduelles entre les niveaux d'eau synthétiques et mesurés. L'exactitude des estimations de rabattement est principalement limitée par le bruit dans les ensembles de données, et non par l'approche de la transformation de Theis. Des rabattements beaucoup plus faibles que les fluctuations environnementales ont été détectés sur des structures de faille majeures, à des distances de plus de 1 mile du puits de pompage, et avec des données de pré-pompage et de récupération limitées sur des sites à travers les États-Unis. En plus de la modélisation du niveau d'eau, des utilitaires existent dans SeriesSEE pour visualiser, nettoyer, manipuler et analyser les données de séries chronologiques.


Voir la vidéo: Chapitre 2: 2-Caractéristiques physiques 23 (Août 2022).