Informations

Les chercheurs du début du 20e siècle ont-ils expliqué pourquoi ils utilisaient E. coli comme organisme modèle ?

Les chercheurs du début du 20e siècle ont-ils expliqué pourquoi ils utilisaient E. coli comme organisme modèle ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

J'étudie les premières utilisations de E. coli comme organisme modèle. Malheureusement, de nombreux articles du début du 20e siècle ne sont pas en anglais. Dans ceux qui le sont, je n'ai pas pu trouver d'énoncés explicites expliquant pourquoi un chercheur a choisi d'utiliser E. coli comme un organisme modèle.

Est-ce que quelqu'un connaît la littérature ancienne dans laquelle ce raisonnement est énoncé? J'imagine qu'avant l'utilisation généralisée de E. coli, les scientifiques auraient dû argumenter pourquoi ils ont choisi de l'utiliser pour étudier des phénomènes biologiques qui ne se limitent pas à cette seule bactérie.


Les erreurs historiques implicites dans la question

  1. « … pourquoi un chercheur a choisi d'utiliser E. coli comme organisme modèle.

Les chercheurs ont fait ne pas travailler avec E. coli car ils le considéraient comme un « organisme modèle ». Ils ont travaillé avec parce qu'ils étaient bactériologistes et que c'était une bactérie pratique à utiliser. Comme Joshua Lederberg l'a écrit dans Microbiology Today (2004) :

Dès le début, bien que des souches pathogènes aient également été trouvées, E. coli a été utilisé comme une bactérie représentative et inoffensive qui pouvait être cultivée facilement et en toute sécurité, même sur des supports synthétiques. Sur rich media, il augmentera avec un temps de doublement de 20 minutes ; par conséquent, des colonies facilement visibles peuvent être observées pendant la nuit lorsqu'elles sont étalées sur gélose. Des milieux spécialisés, comme la gélose MacConkey's, ont été développés pour l'isolement sélectif et l'identification des E. coli, car il a été utilisé comme indicateur mondial de la pollution des approvisionnements en eau. Ainsi, au cours de la première moitié du XXe siècle E. coli était bien connue des bactériologistes. Cependant, il était rarement, voire jamais, mentionné dans les textes de biologie générale, car les bactéries étaient généralement considérées comme étant de complexité pré-cellulaire et dépourvues des noyaux et autres appareils génétiques d'organismes «réels».

En effet, le terme «organisme modèle» n'a été utilisé dans ce sens que vers 1970, comme le montre ce ngram de Google.

  1. « J'imagine qu'avant l'utilisation généralisée de E. coli, les scientifiques auraient dû expliquer pourquoi ils ont choisi de l'utiliser pour étudier des phénomènes biologiques qui ne se limitent pas à cette seule bactérie.

Vous imaginez mal. Ils étaient ne pas en s'asseyant et en disant « nous voulons étudier ce phénomène biologique, quelle bactérie choisirons-nous ? et surtout ne pas avoir à se justifier à la publication. En général, ils publiaient dans des revues bactériologiques spécialisées où le public et les arbitres savaient pourquoi ils utilisaient E. coli ou peu importe. Même lorsque Tatum et Lederberg (voir ci-dessous) a publié une lettre sur la recombinaison bactérienne dans la revue scientifique générale, La nature, en 1946, ils n'ont pas perdu de place sur la justification des espèces :

Non. Vous imposez des attitudes modernes - régies par l'état contemporain de la science et de son financement - à la science d'une époque complètement différente. Ce n'est pas ainsi qu'on aborde l'histoire.

Pourquoi E. coli devenir la bactérie la plus étudiée ?

Il semblerait que la découverte de la recombinaison bactérienne dans E. coli par Lederberg et Tatum (pour lequel ils ont partagé le prix Nobel de physiologie ou médecine 1958 avec George Beadle) a été l'un des facteurs clés menant à l'expansion de l'utilisation de E. coli (voir Microbiology Today article cité précédemment). Ce phénomène a été suggéré à l'origine par des études sur la transformation des bactéries pneumococciques, mais sa démonstration chez la bête de somme bactérienne, E. coli, a ouvert les portes à l'utilisation d'un large éventail de techniques génétiques qui pourraient être utilisées pour des études biochimiques, ainsi que de biologie moléculaire.


Question très intéressante.

Les chercheurs du début du 20e siècle ont-ils expliqué pourquoi ils utilisaient E. coli comme organisme modèle ?

En bref : Non (au moins dans les années 1920). Par exemple : Werkman 1927 : Vitamin Effects in the physiology of microorganisms ne fournit aucune justification.

De même, une revue récente de Blount, 2015, eLife : The unexhausted potential of E. coli États:

E. coliL'ascension fulgurante de et son statut exalté en biologie découlent de sa facilité de recherche et de travail. Des souches robustes, non pathogènes et polyvalentes qui poussent rapidement sur de nombreux nutriments différents peuvent être isolées de pratiquement n'importe quel humain. Ces traits ont fait E. coli un pilier dans les collections de laboratoire d'enseignement de la microbiologie. Par conséquent, lorsque les microbiologistes du début du 20e siècle cherchaient un organisme modèle, E. coli était l'un des choix les plus largement disponibles.

Cependant, quand E. coli est entré dans la recherche au XIXe siècle, et donc quelques décennies plus tôt, il n'a pas été présenté comme un outil, un modèle ou du matériel pédagogique. Quand il est entré dans la science, il l'a fait immédiatement comme partie d'une découverte très profonde et importante sur la digestion humaine, tel que revu par Shulman et al., 2007, Clinical Infectious Diseases

Escherich décrit en détail Bactérie coli commune (le bacille commun du côlon maintenant connu sous le nom Escherichia coli) et Bactérie lactis aerogenes (maintenant connu sous le nom de Klebsiella pneumoniae). Il a démontré leurs caractéristiques fermentaires et la nature du gaz produit lors de la fermentation, et il a montré que, en conditions anaérobies, la croissance était totalement dépendante de la fermentation glucidique. Rompant avec les dogmes, Escherich a conclu que tout rôle de la flore intestinale dans la nutrition était au mieux mineur.

Bien que seulement périphérique à votre question principale : E. coliLe deuxième boom de l' au milieu du 20e siècle, où il est entré dans le domaine de la génétique (qui a été occupé par d'autres organismes auparavant) s'est produit en raison de la découverte de la capacité d'échanger de l'ADN entre les individus - comme examiné par Telis et al. 2014: A Bibliometrics History of the Journal GENETICS (… qui favoriserait ensuite de nouvelles découvertes relatives à la manipulation et à la manipulation de l'ADN…).


Quand j'ai lu votre question, la première chose qui m'est venue à l'esprit était que Escherichia coli est l'une des bactéries les plus courantes dans les selles humaines. Bien sûr, la facilité de trouver et de collecter la bactérie (je ne prétends pas que la source moderne de E. coli ce sont les excréments humains, je veux dire pas aujourd'hui !) ne peut pas être le seul (ou le principal) facteur.

Par conséquent, j'aimerais vous donner une liste de facteurs - qui Probablement ont conduit les recherches du début du 20e siècle à choisir E. coli comme modèle - citant Geoffrey Cooper « La cellule : une approche moléculaire » (2000).

Il commence à parler de biologie moléculaire…

E. coli a été particulièrement utile aux biologistes moléculaires en raison à la fois de sa relative simplicité et de la facilité avec laquelle il peut être propagé et étudié en laboratoire. Le génome de E. coli, par exemple, se compose d'environ 4,6 millions de paires de bases et code pour environ 4000 protéines différentes. La petite taille du E. coli génome offre des avantages évidents pour l'analyse génétique, et la séquence de l'ensemble E. coli génome a été déterminé.

… ce qui est intéressant mais, bien sûr, sans rapport avec votre question.

Cependant, dans les paragraphes suivants, il énumère une série de caractéristiques pertinentes à cette question :

  • Les expériences sont encore facilitées par la croissance rapide des E. coli dans des conditions de laboratoire bien définies. Selon les conditions de culture, E. coli diviser toutes les 20 à 60 minutes.

  • Une population clonale de E. coli, dans laquelle toutes les cellules sont dérivées par division d'une seule cellule d'origine, peut être facilement isolée sous forme de colonie cultivée sur un milieu contenant de la gélose semi-solide.

  • Étant donné que des colonies bactériennes contenant jusqu'à 108 cellules peuvent se développer du jour au lendemain, la sélection de variantes génétiques d'un E. coli souche - par exemple, les mutants résistants à un antibiotique, comme la pénicilline - est facile et rapide.

  • Les mélanges de nutriments dans lesquels E. coli se divisent le plus rapidement comprennent le glucose, les sels et divers composés organiques, tels que les acides aminés, les vitamines et les précurseurs d'acides nucléiques. Cependant, E. coli peut également se développer dans des milieux beaucoup plus simples constitués uniquement de sels, d'une source d'azote (comme l'ammoniac) et d'une source de carbone et d'énergie (comme le glucose).

Il convient également de mentionner que, malgré certaines souches pathogènes, la plupart des souches naturelles de E. coli sont inoffensifs.


Source : Cooper, G. (2000). La cellule : une approche moléculaire. Sunderland (MA) : Sinauer Associates.


Réalisations en santé publique, 1900-1999 : Contrôle des maladies infectieuses

Les décès dus aux maladies infectieuses ont considérablement diminué aux États-Unis au cours du 20e siècle (Figure 1). Cette baisse a contribué à une forte baisse de la mortalité infanto-juvénile (1,2) et à l'augmentation de 29,2 ans de l'espérance de vie (2). En 1900, 30,4% de tous les décès sont survenus chez les enfants âgés de moins de 5 ans en 1997, ce pourcentage n'était que de 1,4%. En 1900, les trois principales causes de décès étaient la pneumonie, la tuberculose (TB) et la diarrhée et l'entérite, qui (avec la diphtérie) causaient un tiers de tous les décès (Figure 2). Parmi ces décès, 40 % concernaient des enfants de moins de 5 ans (1). En 1997, les maladies cardiaques et les cancers représentaient 54,7 % de tous les décès, dont 4,5 % attribuables à la pneumonie, la grippe et l'infection par le virus de l'immunodéficience humaine (VIH) (2). Malgré ces progrès globaux, l'une des épidémies les plus dévastatrices de l'histoire de l'humanité s'est produite au cours du 20e siècle : la pandémie de grippe de 1918 qui a fait 20 millions de morts, dont 500 000 aux États-Unis, en moins d'un an, soit plus qu'en aussi peu de temps pendant toute guerre ou famine dans le monde (3). L'infection par le VIH, reconnue pour la première fois en 1981, a provoqué une pandémie toujours en cours, touchant 33 millions de personnes et causant environ 13,9 millions de décès (4). Ces épisodes illustrent la volatilité des taux de mortalité due aux maladies infectieuses et l'imprévisibilité de l'émergence des maladies.

L'action de santé publique pour lutter contre les maladies infectieuses au 20e siècle est basée sur la découverte au 19e siècle de micro-organismes comme cause de nombreuses maladies graves (par exemple, le choléra et la tuberculose). Le contrôle des maladies a résulté de l'amélioration de l'assainissement et de l'hygiène, de la découverte d'antibiotiques et de la mise en œuvre de programmes universels de vaccination des enfants. Les progrès scientifiques et technologiques ont joué un rôle majeur dans chacun de ces domaines et sont à la base des systèmes actuels de surveillance et de contrôle des maladies. Les découvertes scientifiques ont également contribué à une nouvelle compréhension de l'évolution de la relation entre les humains et les microbes (5).

CONTRLE DES MALADIES INFECTIEUSES

Le déplacement de la population du 19e siècle de la campagne à la ville qui a accompagné l'industrialisation et l'immigration a conduit à la surpopulation dans les logements pauvres desservis par des systèmes publics d'approvisionnement en eau et d'élimination des déchets inadéquats ou inexistants. Ces conditions ont entraîné des épidémies répétées de choléra, de dysenterie, de tuberculose, de fièvre typhoïde, de grippe, de fièvre jaune et de paludisme.

En 1900, cependant, l'incidence de bon nombre de ces maladies avait commencé à diminuer en raison des améliorations de la santé publique, dont la mise en œuvre s'est poursuivie jusqu'au 20e siècle. Les efforts locaux, étatiques et fédéraux pour améliorer l'assainissement et l'hygiène ont renforcé le concept d'action collective de « santé publique » (par exemple, pour prévenir l'infection en fournissant de l'eau potable). En 1900, 40 des 45 États avaient établi des services de santé. Les premiers départements de santé de comté ont été créés en 1908 (6). Des années 1930 aux années 1950, les services de santé des États et locaux ont fait des progrès substantiels dans les activités de prévention des maladies, y compris l'évacuation des eaux usées, le traitement de l'eau, la sécurité alimentaire, l'élimination organisée des déchets solides et l'éducation du public sur les pratiques d'hygiène (par exemple, la manipulation des aliments et le lavage des mains). La chloration et d'autres traitements de l'eau potable ont commencé au début des années 1900 et sont devenus des pratiques de santé publique répandues, diminuant encore l'incidence des maladies d'origine hydrique. L'incidence de la tuberculose a également diminué à mesure que les améliorations apportées au logement ont réduit le surpeuplement et que des programmes de lutte contre la tuberculose ont été lancés. En 1900, 194 résidents américains sur 100 000 mouraient de la tuberculose, la plupart étaient des résidents de zones urbaines. En 1940 (avant l'introduction de l'antibiothérapie), la tuberculose restait une cause majeure de décès, mais le taux brut de mortalité avait baissé à 46 pour 100 000 personnes (7).

La lutte contre les animaux et les ravageurs a également contribué à la réduction des maladies. Les programmes de vaccination et de contrôle des animaux parrainés à l'échelle nationale et coordonnés par l'État ont éliminé la transmission de la rage de chien à chien. Le paludisme, autrefois endémique dans tout le sud-est des États-Unis, a été réduit à des niveaux négligeables à la fin des années 1940. Les programmes régionaux de lutte contre les moustiques ont joué un rôle important dans ces efforts. La peste a également diminué le US Marine Hospital Service (qui est devenu plus tard le Public Health Service) a dirigé les activités de quarantaine et d'inspection des navires et les opérations de lutte contre les rongeurs et les vecteurs. La dernière grande épidémie de peste associée aux rats aux États-Unis s'est produite en 1924-1925 à Los Angeles. Cette épidémie comprenait le dernier cas identifié de transmission interhumaine de peste (par inhalation de gouttelettes respiratoires infectieuses provenant de patients toussant) dans ce pays.

Les campagnes de vaccination stratégiques ont pratiquement éliminé des maladies qui étaient auparavant courantes aux États-Unis, notamment la diphtérie, le tétanos, la poliomyélite, la variole, la rougeole, les oreillons, la rubéole et Haemophilus influenzae méningite de type b (8). Avec l'homologation des anatoxines diphtérique et tétanique combinées et du vaccin contre la coqueluche en 1949, les services de santé des États et locaux ont institué des programmes de vaccination, destinés principalement aux enfants pauvres. En 1955, l'introduction du vaccin contre le poliovirus Salk a conduit au financement fédéral des programmes de vaccination des enfants au niveau des États et des collectivités locales. En 1962, un programme de vaccination coordonné au niveau fédéral a été mis en place par l'adoption de la Vaccination Assistance Act - une loi phare qui a été renouvelée en permanence et qui prend désormais en charge l'achat et l'administration d'une gamme complète de vaccins pour enfants.

Le succès des programmes de vaccination aux États-Unis et en Europe a inspiré le concept du XXe siècle d'« éradication de la maladie », l'idée qu'une maladie sélectionnée pourrait être éradiquée de toutes les populations humaines grâce à une coopération mondiale. En 1977, après une campagne d'une décennie impliquant 33 nations, la variole a été éradiquée dans le monde entier - environ une décennie après avoir été éliminée des États-Unis et du reste de l'hémisphère occidental. La poliomyélite et la dracunculose pourraient être éradiquées d'ici 2000.

Antibiotiques et autres médicaments antimicrobiens

La pénicilline a été développée en un produit médical largement disponible qui a fourni un traitement rapide et complet de maladies bactériennes auparavant incurables, avec un plus large éventail de cibles et moins d'effets secondaires que les sulfamides. Découverte fortuite en 1928, la pénicilline n'a été développée à des fins médicales que dans les années 1940, lorsqu'elle a été produite en quantités substantielles et utilisée par l'armée américaine pour soigner les soldats malades et blessés.

Les antibiotiques sont utilisés par les civils depuis 57 ans (voir encadré 1) et ont sauvé la vie de personnes atteintes d'infections streptococciques et staphylococciques, de gonorrhée, de syphilis et d'autres infections. Des médicaments ont également été développés pour traiter les maladies virales (par exemple, l'herpès et l'infection par le VIH), les maladies fongiques (par exemple, la candidose et l'histoplasmose) et les maladies parasitaires (par exemple, le paludisme). Le microbiologiste Selman Waksman a dirigé une grande partie des premières recherches sur la découverte d'antibiotiques (voir encadré 2). Cependant, l'émergence de la résistance aux médicaments dans de nombreux organismes renverse certains des miracles thérapeutiques des 50 dernières années et souligne l'importance de la prévention des maladies.

AVANCÉES TECHNOLOGIQUES DANS LA DÉTECTION ET LE SUIVI DES MALADIES INFECTIEUSES

Les changements technologiques qui ont augmenté la capacité de détection, de diagnostic et de surveillance des maladies infectieuses comprenaient le développement au début du siècle des tests sérologiques et plus récemment le développement de tests moléculaires basés sur des sondes d'acide nucléique et d'anticorps. L'utilisation d'ordinateurs et de formes de communication électroniques a amélioré la capacité de recueillir, d'analyser et de diffuser des données de surveillance des maladies.

Les tests sérologiques sont entrés en vigueur dans les années 1910 et sont devenus un outil de base pour diagnostiquer et contrôler de nombreuses maladies infectieuses. La syphilis et la gonorrhée, par exemple, étaient répandues au début du siècle et étaient difficiles à diagnostiquer, surtout pendant les stades de latence. L'avènement des tests sérologiques pour la syphilis a permis de fournir une description plus précise de ce problème de santé publique et a facilité le diagnostic de l'infection. Par exemple, à New York, des tests sérologiques en 1901 ont indiqué que 5 à 19 % de tous les hommes avaient des infections syphilitiques (9).

Isolement viral et culture tissulaire

Les premières techniques d'isolement de virus sont entrées en vigueur au tournant du siècle. Ils impliquaient de filtrer le matériel infecté à travers des tamis de plus en plus petits et d'inoculer des animaux ou des plantes d'essai pour montrer que la substance purifiée conservait une activité pathogène. Les premiers virus "filtrés" étaient le virus de la mosaïque du tabac (1882) et le virus de la fièvre aphteuse des bovins (1898). Le commandement de l'armée américaine dirigé par Walter Reed a filtré le virus de la fièvre jaune en 1900. Le développement ultérieur de la culture cellulaire dans les années 1930 a ouvert la voie à la production à grande échelle de vaccins viraux vivants ou tués par la chaleur. Des techniques de coloration négative pour visualiser les virus au microscope électronique étaient disponibles au début des années 1960.

Au cours du dernier quart du 20e siècle, la biologie moléculaire a fourni de nouveaux outils puissants pour détecter et caractériser les agents pathogènes infectieux. L'utilisation de techniques d'hybridation et de séquençage d'acides nucléiques a permis de caractériser les agents responsables de maladies jusqu'alors inconnues (par exemple, l'hépatite C, l'ehrlichiose humaine, le syndrome pulmonaire à hantavirus, le syndrome d'immunodéficience acquise [SIDA] et la maladie à virus Nipah).

Les outils moléculaires ont amélioré la capacité de suivre la transmission de nouvelles menaces et de trouver de nouvelles façons de les prévenir et de les traiter. Si le SIDA était apparu il y a 100 ans, alors que les méthodes de diagnostic en laboratoire n'en étaient qu'à leurs balbutiements, la maladie serait peut-être restée un syndrome mystérieux pendant de nombreuses décennies. De plus, les médicaments utilisés pour traiter les personnes infectées par le VIH et prévenir la transmission périnatale (par exemple, les analogues de réplication et les inhibiteurs de protéase) ont été développés sur la base d'une compréhension moderne de la réplication rétrovirale au niveau moléculaire.

LES DÉFIS DU 21E SIÈCLE

Le succès dans la réduction de la morbidité et de la mortalité dues aux maladies infectieuses au cours des trois premiers quarts du 20e siècle a conduit à la complaisance quant à la nécessité de poursuivre les recherches sur le traitement et le contrôle des microbes infectieux (10). Cependant, l'apparition du SIDA, la réémergence de la tuberculose (y compris les souches multirésistantes) et une augmentation globale de la mortalité due aux maladies infectieuses au cours des années 1980 et au début des années 1990 (Figure 1) fournissent des preuves supplémentaires que tant que les microbes peuvent évoluer, de nouvelles maladies apparaîtront. L'émergence de nouvelles maladies souligne l'importance de la prévention des maladies par une surveillance continue des facteurs sous-jacents qui peuvent favoriser l'émergence ou la réémergence de maladies.

La génétique moléculaire a fourni une nouvelle appréciation de la capacité remarquable des microbes à évoluer, s'adapter et développer une résistance aux médicaments d'une manière imprévisible et dynamique (voir encadré 3). Les gènes de résistance sont transmis d'une bactérie à l'autre sur des plasmides, et les virus évoluent par erreurs de réplication et réassortiment de segments de gènes et en sautant les barrières d'espèces. Des exemples récents d'évolution microbienne incluent l'émergence d'une souche virulente de grippe aviaire à Hong Kong (1997-98), la souche W multirésistante de M. tuberculose aux États-Unis en 1991 (11) et Staphylococcus aureus avec une sensibilité réduite à la vancomycine au Japon en 1996 (12) et aux États-Unis en 1997 (13,14).

Pour continuer à contrôler les maladies infectieuses, le système de santé publique américain doit se préparer à relever divers défis, notamment l'émergence de nouvelles maladies infectieuses, la réémergence d'anciennes maladies (parfois sous des formes résistantes aux médicaments), les grandes épidémies d'origine alimentaire et les actes du bioterrorisme. La recherche en cours sur le rôle possible des agents infectieux dans l'apparition ou l'intensification de certaines maladies chroniques (y compris le diabète sucré de type 1, certains cancers [15-17] et les maladies cardiaques [18,19]) est également impérative. La protection continue de la santé nécessite une capacité améliorée de surveillance des maladies et de riposte aux épidémies aux niveaux local, étatique, fédéral et mondial le développement et la diffusion de nouvelles méthodes de laboratoire et épidémiologiques le développement continu d'antimicrobiens et de vaccins et la recherche en cours sur les facteurs environnementaux qui facilitent l'émergence de la maladie ( 20).

Rapporté par : Centre national de la santé environnementale Centre national des statistiques de la santé Centre national des maladies infectieuses, CDC.


L'histoire de l'élevage de souris pour la science commence avec une femme dans une grange

Dans sa petite ferme blanche à Granby, dans le Massachusetts, Abbie E. C. Lathrop a élevé une variété de petits animaux : furets, lapins, cobayes, rats et, plus particulièrement, des souris. En 1902, ses souris sont devenues les premières à être utilisées dans un laboratoire pour la recherche génétique et certaines le sont encore aujourd'hui.

N'étant pas un scientifique de formation, Lathrop est souvent présenté comme une simple note de bas de page dans l'histoire de la recherche sur le cancer, dépeint comme un amateur excentrique qui était étrangement attiré par les souris. Mais un examen plus attentif montre qu'elle était une femme d'affaires avisée devenue une scientifique autodidacte, dont l'élevage soigneux et méthodique de souris a contribué à faire avancer la recherche moderne sur le cancer et à créer un organisme scientifique standard. De plus, elle a publié des articles scientifiques sur les souris et l'hérédité du cancer qui ont préparé le terrain pour la recherche future sur le cancer.

Les souris que Lathrop a commencé à reproduire il y a plus d'un siècle ont fait des choses incroyables. Depuis les années 1960, les souris ont été les premiers animaux sur lesquels la plupart des sociétés pharmaceutiques testent de nouveaux produits chimiques dans l'espoir de passer aux humains. Dans les années 1990, la souris de laboratoire a aidé à lancer le Human Genome Project. Dans le monde, Dan Engber rapporte dans Ardoise, les scientifiques utilisent chaque année près de 90 millions de rats et de souris pour leurs expériences et leurs tests.

Bien sûr, les modèles de souris ont leurs propres problèmes – la plupart des souris de laboratoire d'aujourd'hui sont gravement suralimentées et génétiquement divorcées de leurs cousins ​​​​naturels, et des études montrent qu'elles imitent mal des choses comme l'inflammation humaine, mais il est indéniable qu'elles ont révolutionné la science. Alors, qui est la femme derrière le modèle omniprésent de la souris ?

Mlle Abbie E.C. Lathrop à Granby. Redessiné à partir du Springfield Sunday Republican, 5 octobre 1913. (Elsevier)

Un chemin inattendu

Lathrop est née en Illinois en 1868, filles de deux instituteurs de Granby. Elle a été scolarisée à la maison jusqu'à l'âge de 16 ans, après quoi elle a suivi une scolarité formelle de deux ans. À 19 ans, elle aussi devient institutrice, mais une anémie pernicieuse, une maladie des globules rouges, l'oblige à prendre sa retraite au bout de quelques années seulement. En 1900, elle s'installe à Granby pour s'essayer à l'aviculture. L'affaire a vite échoué.

Heureusement pour l'histoire, elle s'est ensuite tournée vers l'élevage de souris. Ce n'était pas aussi inhabituel au début du 20e siècle qu'il n'y paraît aujourd'hui, l'élevage de souris en captivité remonte au moins au 17e siècle au Japon, où les amateurs et les collectionneurs élevaient des souris pour certains traits génétiques, comme la couleur du pelage ou des comportements uniques. Aux États-Unis et en Grande-Bretagne, les souris de fantaisie (ou domestiquées) ont connu une popularité croissante au début du XXe siècle, les gens les gardant comme animaux de compagnie et élevant des spécimens intéressants pour les expositions de souris.

Lathrop a commencé sa nouvelle entreprise avec deux souris valseuses, une race connue pour leur mouvement de balancement et de rotation causé par une mutation de l'oreille interne. En commençant par un mâle et une femelle qu'elle avait élevés à partir de souris sauvages, Lathrop a multiplié son stock jusqu'à ce qu'il atteigne finalement plus de 10 000 souris, logées dans des caisses en bois remplies de paille et nourries d'avoine et de craquelins. Éleveuse qualifiée, elle était capable de sélectionner des traits pour élever des chamois crémeux, des zibelines anglaises blanches et d'autres variations de pelage souhaitables pour d'autres amateurs de souris.

Mais sa clientèle a rapidement changé.

En 1902, le généticien William Ernest Castle de l'Institut Bussey de l'Université Harvard à Boston passa sa première commande de souris à Lathrop. Castle, qui s'intéressait particulièrement à la génétique des mammifères, avait découvert que les souris avec leur courte durée de vie étaient un spécimen idéal pour la recherche. Heureusement, Lathrop avait déjà jeté les bases qui feraient de son entreprise un fournisseur idéal.

"Les éleveurs de souris et les amateurs ont essentiellement routinisé l'activité d'élevage de souris en captivité bien avant que les scientifiques ne s'intéressent à la souris en tant qu'organisme expérimental", écrit l'historienne de la biologie Karen Rader dans son livre Faire des souris : Standardiser les animaux pour la recherche biomédicale américaine. Dans une interview avec Smithsonian.com,Rader a expliqué : « Quand la génétique est arrivée, les généticiens ont rapidement réalisé que ce qu'ils recherchaient avec ces animaux de fantaisie était un référentiel d'animaux consanguins où il y avait déjà un peu de contrôle génétique intégré. »

Lathrop s'est rapidement retrouvée à exécuter des commandes de souris à la livre pour les laboratoires.

Une photo de la Ferme aux souris de Granby telle qu'elle apparaît aujourd'hui. (Elsevier)

Recherche publiée sur le cancer

À l'Institut Bussey, le généticien—et l'eugéniste—C.C. Little a été chargé de la colonie de souris de Castle. Avec des souris de la ferme de Lathrop à Granby, le premier cycle Little a commencé à expérimenter avec des souches de souris consanguines et a réussi à produire des souches stables, ce que les biologistes et les généticiens appellent « pures ».

En 1909, il a commencé des expériences de consanguinité avec sa souche stable à succès, dba (diluer brun non agoutis). Il a montré que la consanguinité pouvait éliminer et préserver les variantes génétiques du même stock génétique. Pour la recherche sur le cancer, cela signifiait une souche de reproduction stable permettant d'étudier la nature biologique et génétique du cancer chez les souris consanguines avec des tumeurs cancéreuses - une réalisation qui a défini la recherche sur les modèles murins à ce jour.

Au cours de cette même période, Lathrop avait commencé sa propre enquête sur le cancer. Après avoir remarqué des lésions cutanées sur certaines de ses souris, elle a envoyé des demandes de renseignements à ses clients chercheurs pour leur demander si les leurs avaient également développé des lésions. Le pathologiste bien connu Leo Loeb de l'Université de Pennsylvanie a répondu, disant qu'il avait déterminé que les lésions étaient cancéreuses. Bien que les lettres de correspondance de Lathrop et Loeb aient été perdues, nous savons qu'il en a résulté une collaboration professionnelle qui a produit des travaux pionniers dans la recherche sur le cancer.

Lathrop a commencé à mener des expériences sur le cancer et des souches de souris consanguines en 1910. Selon Rader, leur collaboration représente le premier travail établissant le lien entre certaines souches de souris et l'hérédité du cancer. Ils ont découvert que le l'incidence des tumeurs cancéreuses variait selon les souches (ou familles) de souris, concluant que si les souches à forte tumeur se croisaient avec des souches à faible tumeur, la progéniture ressemblerait à la souche à forte tumeur. Leur collaboration a en outre montré un lien entre les hormones et le cancer : les tumeurs mammaires ont diminué chez les souris femelles avec ovariectomies tandis que les tumeurs ont augmenté chez les souris gravides.

Entre 1913 et 1919, Lathrop et Loeb ont co-écrit 10 articles scientifiques basés sur leurs expériences, qui ont paru dans des revues prestigieuses dont le Journal de médecine expérimentale et le Journal de recherche sur le cancer. À cette époque, il était très inhabituel qu'une femme reçoive la pleine co-auteur. Cependant, c'est Little qui est crédité d'avoir fourni les travaux fondamentaux sur la consanguinité, l'héritage et le cancer. En 1929, Little a fondé Jackson Laboratory (JAX), aujourd'hui un centre de recherche sur le cancer animé et le premier fournisseur mondial de souris de laboratoire avec plus de 7 000 souches génétiques uniques.

Il a commencé son entreprise avec des souris provenant du stock de Lathrop's. Aujourd'hui, JAX fournit toujours des souches de souris provenant de la ferme Lathrop de Granby.

Lathrop est crédité d'avoir fourni des souris à des laboratoires à travers le pays, mais peu d'histoires reconnaissent son propre travail scientifique. Cette lettre de W.E. Castle à Michael Potter reconnaît que les souris utilisées au Bussey ont été obtenues de Lathrop. (Elsevier / Michael Potter)

L'image d'une bizarrerie

Rader soutient qu'il est difficile de croire que Little n'était pas au courant des expériences de Lathrop avec la consanguinité et le cancer qui se déroulaient en même temps que les siennes. Pourtant, la seule reconnaissance que Little a donnée à Lathrop et à son travail était dans un article de 1931 dans lequel il la qualifie de « souris amateur de soins plus que ordinaires et d'intérêt scientifique ». Little a affirmé plus tard qu'il avait observé une fréquence élevée de tumeurs indépendamment. dans le sien dba souche.

Les petites références errantes à Lathrop reflètent un problème systémique plus vaste qui refusait aux femmes des opportunités et une reconnaissance. "Lathrop faisait en partie ce travail de pointe à la maison, car il n'y avait pas encore de places dans les universités qui étaient bien établies pour faire ce travail", explique Rader. “Et dans la mesure où il y en avait, ils étaient occupés par des hommes.”

La presse a présenté un autre défi pour Lathrop étant considérée comme la scientifique qu'elle était sans aucun doute. Pendant qu'elle dirigeait son entreprise de souris, elle était continuellement mise en lumière dans les médias locaux et nationaux, y compris le Los Angeles Times, Le New York Times, et Le Washington Post. Ces articles la présentaient comme une bizarrerie, soulignant à quel point elle était en conflit avec le stéréotype genré selon lequel les femmes ont peur des souris.

Un 1907 L.A. Times article sur Lathrop s'est ouvert avec : « Confronté à toutes les traditions sur la peur insensée des femmes d'un rat ou d'une souris, Mlle Abbie EC Lathrop gagne sa vie en gérant une ferme de rats et de souris. » D'autres ont décrit sa ferme. comme “queer” (au sens d'étrange), bien qu'en réalité ce n'était pas plus “queer” que ce qui se faisait dans les laboratoires. Même aujourd'hui, Lathrop est souvent décrite comme « excentrique » mais son travail illustre tout le contraire.

Les cahiers scientifiques de Lathrop, maintenant hébergés à JAX, révèlent une femme à la fois prudente et méthodique dans son travail. Elle a tenu des registres détaillés de l'élevage de toutes ses différentes souches, a écrit les histoires de certaines familles d'élevage et a enregistré ses propres observations sur diverses souches et races. Son travail dans le domaine de la génétique et de la recherche sur le cancer repose à la fois sur ses recherches publiées et sur les souris qui continuent de se rendre dans les laboratoires du monde entier.

Si elle était une bizarrerie, elle en était une par les stéréotypes sociaux et les contraintes culturelles qui lui étaient conférés en tant que femme qui pratiquait la science de manière inattendue.


Génération spontanée

Un exemple de génération spontanée, comme l'illustre le récit de 1605 du juriste et naturaliste français Claude Duret sur les plantes mythiques, Histoire admirable des plantes et herbes esmerveillables et miraculeuses en nature.

Sur le circuit

Le rêve de Loeb de « jouer » avec la vie ne pouvait se réaliser tant que nous n'avions pas une meilleure conception des composants de la vie. Trouver ces composants était la mission de la biologie moléculaire du 20e siècle, qui a émergé en grande partie des études de la structure chimique et de la composition des protéines à l'aide de la cristallographie aux rayons X, lancée des années 1930 aux années 1950 par J. Desmond Bernal, William Astbury, Dorothy Hodgkin, Linus Pauling et autres. Ces molécules ressemblaient à de minuscules machines, conçues et façonnées par l'évolution pour faire leur travail.

Mais bien sûr, la biologie moléculaire ne concernait pas seulement les protéines. What really changed the game was the discovery of what seemed to be the source of life’s miraculous organization. It was not, as many had anticipated, a protein that carried the information needed to regulate the cell, but rather a nucleic acid: DNA. When James Watson and Francis Crick used the X-ray crystallographic data of others, including that of Rosalind Franklin, to deduce the double-helical shape of the molecule in 1953, not all scientists believed that DNA was the vehicle of the genes that appeared to pass instructions from one generation to the next. Watson and Crick’s work showed how that information was encoded—in a digital sequence of molecular building blocks along the helix—and moreover implied a mechanism by which the information could be copied during replication.

If these were indeed “instructions for life,” then chemistry could be used to modify them. That was the business of genetic engineering, which took off in the 1970s when scientists figured out how to use natural enzymes to edit and paste portions of “recombinant” DNA. Molecular biologists were now thinking about life as a form of engineering, amenable to design.

Synthetic biology has sometimes been called “genetic engineering that works”: using the same cut-and-paste biotechnological methods but with a sophistication that gets results. That definition is perhaps a little unfair because “old-fashioned” genetic engineering worked perfectly well for some purposes: by inserting a gene for making insulin into bacteria, for example, this compound, vital for treating diabetes, can be made by fermentation of microorganisms instead of having to extract it from cows and pigs. But deeper interventions in the chemical processes of living organisms may demand much more than the addition of a gene or two. Such interventions are what synthetic biology aims to achieve.

Take the production of the antimalarial drug artemisinin, the discovery of which was the subject of the 2015 Nobel Prize in medicine. This molecule offers the best protection currently available against malaria, working effectively when the malaria parasite has developed resistance to most other common antimalarials. Artemisinin is extracted from a shrub cultivated for the purpose, but the process is slow and has been expensive. (Prices have dropped recently.) Over the past decade researchers at the University of California, Berkeley, have been attempting to engineer the artemisinin-making machinery of the plant into yeast cells so that the drug can be made cheaply by fermentation. It’s complicated because the molecule is produced in a multistep process involving several enzymes that have to transform the raw ingredient stage by stage into the complex final molecule, with each step being conducted at the right moment. In effect this means equipping yeast with the genes and regulating processes needed for a whole new metabolic pathway, or sequence of biochemical reactions—an approach called metabolic engineering, amounting to the kind of designed repurposing of an organism that is a core objective of synthetic biology.

Artemisinin synthesis in yeast (more properly, semisynthesis since it begins with a precursor of the drug molecule harvested from natural sources) is often called the poster child of synthetic biology—not just because it works (the process is now entering commercial production) but because it has unambiguously benevolent and valuable aims. Creating useful products, advocates say, is all they are trying to do: not some Frankenstein-style creation of unnatural monstrosities but the efficient production of much-needed drugs and other substances, ideally using biochemical pathways in living organisms as an alternative to the sometimes toxic, solvent-laden processes of industrial chemistry.

Imagine bacteria and yeast engineered to make “green” fuels, such as hydrogen or ethanol, fed by plant matter and negating the need to mine and burn coal and oil. Imagine easily biodegradable plastics produced this way rather than from oil. Craig Venter, who made his name (and money) developing genome-decoding technologies, has made such objectives a central element of the research conducted at his J. Craig Venter Institute (JCVI) in Rockville, Maryland. Last April scientists at JCVI announced that they have devised ways to engineer microalgae called diatoms, using the methods of synthetic biology, so that they join bacteria and yeast as vehicles for making biofuels and other chemicals.

In effect JCVI is trying to create microscopic living factories. The same motive underpinned Venter’s creation of an alleged “synthetic organism” in 2010, another of the milestones of synthetic biology—the Frankenbug, in the words of some opponents of genetic manipulation. Whether those microbes can be considered truly artificial is a matter of debate. The JCVI scientists used well-established chemical methods to build an entire genome from DNA, based on that of a naturally occurring bacterium called Mycoplasme mycoïde but with some genetic sequences added and others omitted. They then took cells of a closely related Mycoplasma bacterium, extracted their pristine DNA, inserted the artificial replacements, and “booted up” the modified cells as if they were computers with a new operating system. The cells worked just as well with their new bespoke DNA.

The aim was not some hubristic demonstration of control over life but rather verification that bacterial cells can be fitted with new instructions that might be a stripped-down, simplified version of their natural ones: a kind of minimal chassis on which novel functions can be designed and constructed. The full genetic workings of even the simplest bacteria are not completely understood, but if their genomes can be simplified to remove all functions not essential to sustain life, the task of designing new genetic pathways and processes becomes much easier. This March the JCVI team described such a “minimal” version of Mycoplasma bactérie.

The language of this new science is that of the engineer and designer: the language of the artisan, not of the natural philosopher discovering how nature works. This way of thinking about life goes back at least to René Descartes, who conceived of the body as a machine, a mechanism of levers, pulleys, and pumps. In Descartes’s time this clockwork view of life could lead to nothing more than crude mechanical simulacra: the automata fashioned by watchmakers and inventors, ingenious and uncanny contraptions in themselves but ultimately no more animated than the hands of a clock. But synthetic biology brings the Newtonian, mechanistic philosophy to the very stuff of life, to the genes and enzymes of living cells: they are now the cogs and gears that can be filed, spring-loaded, oiled, and assembled into molecular mechanisms. Then we have no mere simulation of life but life itself.

The language of this new science is that of the engineer and designer: the language of the artisan, not of the natural philosopher discovering how nature works.

Yet the language now is not so much that of clockwork and mechanics but of the modern equivalent: our latest cutting-edge technology, namely electronics and computation. Ever since biologists François Jacob, Jacques Monod, and others showed in the 1960s how genes are regulated to control their activity, genetics has adopted the lexicon of cybernetic systems theory, which was developed to understand how to control complex technological systems and found applications in electronic engineering, robotics, communications, and computation. That is to say, different components in the genome are said to be linked into circuits and regulated by feedback loops and switches as they pass signals from one unit to another.


VILLA CLARA, CAGLIARI’S PSYCHIATRIC HOSPITAL, SARDINIA, ITALY

We are at the beginning of the twentieth century: the psychiatric hospital Villa Clara in Cagliari is an institution which ensures the implementation of the most advanced “psychiatric therapy”. In actual fact, this advanced therapy consisted in the 𠇊pplication of leeches, drastic purges, cold baths and in procuring groups of blisters, usually on the neck” [58]. Villa Clara’s story is contained in 16,000 archival files, still being sorted, but if there were any need of corroboration, its history is screamed out in the words of Giovanna M., Villa Clara’s Register 1. Giovanna M. was admitted to Genoa hospital when she was 10 years old, diagnosed with madness: she had a terrible headache, but preferred to say she had a 𠇌ranky head” and three years later in 1836, she was moved to the basement of Cagliari’s Sant𠆚ntonio Hospital [58]. She describes this 𠇊s dark as a tomb, the only place on the island where the mad. or the insane. or the maniacs. or the idiots - as we were called- were locked up. We were 50 people in chains, in the smell of our own excrement, with rats gnawing at our ulcers. ” [58]

In the early years of the new century, after a long break at Cagliari’s new San Giovanni di Dio Hospital, Giovanna M., now old and blind, was transferred to the Villa Clara psychiatric hospital, where Professor Sanna Salaris formulated a diagnosis of 𠇌onsecutive dementia” and hysteria. But despite being constantly subjected to careful clinical observation, she was only treated here with “tonics . two eggs and milk . balneotherapy, rhubarb tinctures, potassium iodide, lemonade and laudanum, insulin and laxatives, a lot of purgatives: always, for everything”. Giovanna M. died in the mental hospital in 1913 due to 𠇊geing of organs” and “senile marasmus”, as confirmed in the necrological report. Anna Castellino and Paola Loi know all there is to know about Giovanna M. and end their work Oltre il cancello with Giovanna’s words: 𠇊nd you𠆝 better believe it: I was 90 years old. Fate, which takes away healthy, free, young people, never pardoned me once. It has let me live all this time, quite lucid, but closed up in here . since I was ten years old . eighty years in psychiatric hospital for a headache” [58].


Time Heals all Wounds

We haven’t gotten any smarter about how we are coding artificial intelligence, so what changed? It turns out, the fundamental limit of computer storage that was holding us back 30 years ago was no longer a problem. Moore’s Law, which estimates that the memory and speed of computers doubles every year, had finally caught up and in many cases, surpassed our needs. This is precisely how Deep Blue was able to defeat Gary Kasparov in 1997, and how Google’s Alpha Go was able to defeat Chinese Go champion, Ke Jie, only a few months ago. It offers a bit of an explanation to the roller coaster of AI research we saturate the capabilities of AI to the level of our current computational power (computer storage and processing speed), and then wait for Moore’s Law to catch up again.


In the Beginning There Was Genentech (or the Beginning of the Genetic Gold Rush)

The value of Herbert Boyer’s stock in Genentech, the company he and venture capitalist Robert Swanson founded in 1976, skyrocketed to $80 million the day it floated. 46 Having been told many times by his colleagues, “you’ll never get rich in a university” 47 he not only decisively proved them wrong, but in transitioning from research scientist at University of California, San Francisco (UCSF) into a hybrid scientist-entrepreneur at Genentech, he started a new gold rush. This time, the money was to come not from gold, a naturally occurring mineral extracted from the earth, but from patenting the many thousands of naturally occurring genes and proteins using the new biotechnological process which he pioneered with Stanley Cohen and other colleagues at UCSF and Stanford in 1973 (Cohen et al 1973). Professors Boyer’s and Cohen’s revolutionary invention enabled genetic material from a complex organism (e.g., a human gene) to be transferred to a simple organism (e.g., a yeast or bacterium cell) for the purpose of having the simple organism express the protein encoded within the transferred foreign genetic material. In short, their recombinant DNA technology enabled the commercial scale biological-production of extremely pure proteins. However, they came very close to losing the opportunity to patent their invention (Hughes 2001). In those days the idea that university scientists would apply for a patent over the research product, funded mostly, if not entirely, by public money was still frowned upon within academic circles (Hughes 2001).


Ian Deary and Robert Sternberg have been writing about intelligence differences since 1982 and 1977, respectively. As Deary was retiring at the end of 2020, they discussed an idea for their first joint paper. They composed five questions related to research on intelligence differences, about: attempts to find cognitive components of intelligence the place of theory in intelligence research the breadth of the concept of intelligence hard problems in intelligence and the use of cognitive tests in the real world. They answered them separately and then responded to the other's answers.

Editor’s note: This paper is something different for Intelligence. It is a discussion between two senior researchers about their differing views on five key aspects of intelligence research developed over their long careers. Both of the discussants established the rules for their correspondence (detailed in the paper) and the outcome was submitted as a query as to whether such a paper would be of interest to Intelligence. After consultation with both Associate Editors, the manuscript received two reviews (not blind for obvious reasons) and it was revised accordingly. We believe there is educational and historical value to such an exchange and it may even generate new ideas for research. We are open to publishing similar Discussions from other researchers. If you have suggestions of dyads that might develop such a discussion of differing views, please check with the EIC.


2 COLLECTORS, CURATORS, AND AUTHORS

Strasser's point in excavating these histories is not that the comparative practices of natural history never went away, but rather that the development of the experimental life sciences produced a hybrid culture in which collection and experiment, the comparative and the exemplary, went hand in hand.

This insight is a crucial one, not least because it provides a new perspective on some contentious issues that have accompanied the rise of data-driven biology. These concern the importance of curatorship, the ownership of data in collections, and the authorship of knowledge extracted from them. As Strasser observes, the hybridization of collection and experiment in experimental biology brought together distinct research cultures, with distinct ideas about who owns the products of research and what counts as a valuable contribution to knowledge. Tensions arose almost inevitably.

When the chemist Margaret Dayhoff (working with collaborators) assembled, edited, and annotated the collection of published protein sequences that became the Atlas of Protein Sequence and Structure in the early 1960s, she assumed a role that was familiar in the world of collecting: curator. And, like earlier students of nature who gathered and sorted specimens into cabinets of curiosity or natural history museums, often sourcing these from paid collectors, correspondents, and markets, Dayhoff took ownership over her collection. The book was copyrighted, which created limits on its redistribution, and these limits were reinforced by Dayhoff's insistence that purchasers of the book, or the magnetic tapes that followed, not share the resource further.

Many biologists were ignorant of the labor of curation undertaken by Dayhoff and her colleagues and baffled, or even dismayed, by her insistence that this curatorial labor be rewarded with ownership of collected data. Among experimenters, the prevailing view was that the “mere” act of compiling did not qualify as a contribution to knowledge—this despite the fact that Dayhoff's sequence datasets gained ever more popularity among researchers over time and that their creation demanded expertise and imagination.

As Strasser observes, “The idea that the compilation of sequences, unlike their experimental determination, did not count as a scientific contribution would plague the development of sequence databases for the decades to come, and explains a great deal about why science funding agencies resisted funding them” (p. 142). This perspective also created problems for data curators who became increasingly indispensable to biological research and yet struggled to gained recognition as scientists.

Although funding presented a serious problem for the development and maintenance of biological databases, it was not the only existential concern these resources faced. As laboratory scientists generated ever more sequence data, it became harder and harder for curators like Dayhoff to keep up with their output. Dayhoff wanted biochemists and other experimenters to voluntarily contribute their data, thereby reducing the labor of scouring publications for them. But these experimentalists, by virtue of an individualist reward structure based around “revealing singular facts of nature in the laboratory” (p. 225), were possessive of these data, wary of their use by other researchers, and resentful of the fact that Dayhoff would “profit” from their free donation to the Atlas.

Keeping up with a rush of data demanded a new model, one that better conformed to experimenters' views about ownership. When Dayhoff competed for a grant to found a national sequence database in the United States, she lost out to Walter Goad of the Los Alamos Scientific Laboratory. Dayhoff had vastly more experience and was based at a leading center for the use of computers in biomedical research, but her proprietary publishing model felt increasingly out of sync with community expectations. Instead it was Goad's nonproprietary, publicly accessible database that went on to become the US national sequence database, GenBank. (The European Molecular Biology Laboratory had already agreed on the same model for its sequence database.) As curator, Goad claimed no ownership in the data he acquired from researchers nor did he charge a fee for access.

The decision to go open access did not resolve all possible tensions. A final key element of Goad's successful navigation of the norms of experimental biology lay in his deference to journals, and journal editors, as the verifiers of the data that would enter his collection. Dayhoff had sometimes accepted unpublished sequences, a choice that made her, as editor, the arbiter of what counted as reliable or unreliable, and therefore able to grant authorship to providers of sequences through their publication in her dataset. By asking that journal editors insist on deposition of sequences as part of the publication process, Goad (again following the approach of the European Molecular Biology Laboratory) ensured that the new database adhered to existing norms of authorship among experimental biologists—and not those that prevailed in the world of museums and collections.


↵ 2 Nature has neither core nor shell she is everything at the same time. This quotation, from Goethe, was used on the title page of Just's definitive book (J ust 1939b). It epitomizes his holistic view of the cell.

↵ 3 I am using the vocabulary of the time.

↵ 4 One enthusiastic Just supporter was Libbie Hyman, a student at the University of Chicago. She later wrote A Laboratory Manual for Comparative Vertebrate Anatomy, memorized dutifully if not enthusiastically by virtually every zoology student of my vintage. It was a best seller and she enjoyed pointing out that the royalties permitted her the leisure to work on her beloved invertebrates.

↵ 5 Later Loeb moved into more chemical subjects and became a founding father of protein chemistry, greatly respected for his innovation and his research standards (L oeb 1922 C ohen 1985). He was Sinclair Lewis's model for the character Gottlieb in Arrowsmith.

↵ 6 It is easy to see in this article why Just was regarded in some circles as hypercritical and arrogant. He did not hesitate to criticize Morgan, Jennings, Conklin, Demerec, and even his close friend Lillie, sometimes with sarcasm. Here is an example: “In passing, I may point out that Plough and Ives's statement of their method can not be called lucid” (J ust 1936, p. 307).



Commentaires:

  1. Zulkir

    Cette magnifique phrase est à peu près

  2. Nyles

    Hee hee

  3. Roderigo

    Votre opinion est utile



Écrire un message