mercredi 31 juillet 2019

Les cellules adipeuses joueraient un rôle dans la transformation du mélanome

Selon une étude menée par Tel Aviv University publiée dans Science Signaling, les chercheurs auraient découvert que les cellules adipeuses seraient impliquées dans la transformation des cellules de mélanome à partir de cellules cancéreuses de l'épiderme aux cellules métastatiques létales attaquant les organes vitaux des patients.

Pour l'étude, les chercheurs ont analysé des dizaines d'échantillons de biopsie prélevés chez des patients atteints d'un mélanome au Wolfson Medical Center et au Tel Aviv Medical Center. Ces derniers ont observé un phénomène suspect, soit des cellules adipeuses situées près des sites tumoraux. Les chercheurs ont observé des cellules graisseuses transférant des protéines appelées cytokines, qui affectent l'expression des gènes, aux cellules du mélanome.

Les chercheurs ont découvert que l'effet principal des cytokines est de réduire l'expression d'un gène appelé miARN211, qui inhibe l'expression d'un récepteur du mélanome du TGF bêta, une protéine toujours présente dans la peau. La tumeur absorbe une forte concentration de TGF bêta, ce qui stimule les cellules de mélanome et les rend agressives. Les chercheurs mentionnent avoir également trouvé un moyen de bloquer cette transformation

Selon les chercheurs, un essai sur des souris porteuses de mélanome a donné des résultats similaires. En effet, lorsque le miARN 211 était réprimé, des métastases étaient retrouvées dans d'autres organes, tout en ré exprimant la formation de métastases bloquées par le gène.

mardi 30 juillet 2019

Des chercheurs tentent de prouver l’importance des anticoagulants après une hospitalisation

Selon une étude menée par l'University of Alabama publiée dans PLOS Medicine, l'allongement de la durée de la fluidification sanguine après la sortie du patient continuait de prévenir la formation de caillots sanguins, y compris mortels. Selon les chercheurs, les caillots sanguins dans les veines des jambes et les poumons sont des complications redoutables chez les patients hospitalisés pour une maladie. Actuellement, les médecins utilisent des anticoagulants prophylactiques chez les patients hospitalisés souffrant d'une maladie grave jusqu'au moment de leur sortie pour prévenir ces caillots. Cependant, le risque accru de coagulation persiste après le congé jusqu'à six semaines.

Selon les chercheurs, plusieurs essais cliniques d'envergure ont évalué les avantages d'une extension de l'utilisation des anticoagulants après la sortie du patient, mais aucun de ces résultats ne recommande d'utiliser des anticoagulants après le congé de l'hôpital. Cependant, les chercheurs ont constaté qu’augmenter l’utilisation préventive des anticoagulants pendant quatre à six semaines après la sortie de l’hôpital réduisait le risque de formation de caillots sanguins, ce qui n’avait jamais été déclaré de manière définitive.

Les chercheurs ont étudié cinq essais cliniques sur plus de 40 000 patients en utilisant des techniques analytiques sophistiquées. Les essais inclus dans la méta-analyse actuelle ont été réalisés chez des patients admis pour une maladie ou un traitement chirurgical.

Bien que l'utilisation d'un anticoagulant pendant les six semaines suivant la sortie du patient puisse augmenter le risque de saignement chez un patient sur 350, les chercheurs mentionnent, en terminant, qu'elle n'a pas augmenté le risque de saignement mortel. Des recherches complémentaires seront menées pour définir tous les risques et bénéfices de cette stratégie.

Des chercheurs découvrent une nouvelle cause du vieillissement cellulaire

Selon une étude menée par USC Viterbi School of Engineering publiée dans Journal of Biological Chemistry, des chercheurs auraient approfondi leurs connaissances sur la sénescence, un processus naturel dans lequel les cellules cessent en permanence de créer de nouvelles cellules. Ce processus est l’une des principales causes du déclin lié à l’âge, qui se manifeste dans des maladies telles que l’arthrite, l’ostéoporose et les maladies cardiaques. Selon ces derniers, les cellules sénescentes sont en réalité l'opposé des cellules souches, qui ont un potentiel illimité d'auto-renouvellement ou de division. Les cellules sénescentes ne peuvent plus jamais se diviser. C'est un état d'arrêt irréversible du cycle cellulaire

Les chercheurs ont découvert que les cellules sénescentes vieillissantes cessaient de produire une classe de produits chimiques appelés nucléotides, qui sont les éléments constitutifs de l'ADN. Quand ils ont pris des cellules jeunes et les ont forcés à cesser de produire des nucléotides, ils sont devenus sénescents ou vieillis.

Les chercheurs ont analysé les jeunes cellules en prolifération robuste et les ont nourries avec des molécules marquées avec des isotopes stables du carbone, afin de déterminer comment les nutriments consommés par une cellule étaient transformés en différentes voies biochimiques. Ils ont développé une imagerie 3D des résultats. Les images ont révélé de manière inattendue que les cellules sénescentes avaient souvent deux noyaux et qu'elles ne synthétisaient pas l'ADN.

Selon les chercheurs, jusqu'à présent, la sénescence était principalement étudiée dans les cellules appelées fibroblastes, les cellules les plus courantes qui constituaient le tissu conjonctif chez les animaux Ces derniers s'intéressent plutôt à la façon dont la sénescence se produit dans les cellules épithéliales, les cellules qui tapissent la surface des organes et des structures dans le corps et le type de cellules dans lesquelles la plupart des cancers se développent.

Les chercheurs mentionnent, en terminant, que la sénescence est plus généralement connue comme la barrière protectrice du corps contre le cancer. En effet, lorsque les cellules subissent des dommages susceptibles de se transformer en cancer, elles entrent en sénescence et cessent de proliférer afin que le cancer ne se développe pas et ne se propage pas.

Des chercheurs découvrent la science derrière l'abandon

Selon une étude menée par l'University of Washington publiée dans Cell, à l'intérieur du cerveau, un groupe de cellules appelées neurones nociceptines devient très actif avant le point d'arrêt d'une souris. Ils émettent de la nociceptine, une molécule complexe qui supprime la dopamine, une substance chimique largement associée à la motivation.

Selon les chercheurs, les neurones de la nociceptine sont situés près d'une zone du cerveau appelée zone tegmentale ventrale (VTA, ventral tegmental area). La VTA contient des neurones qui libèrent de la dopamine au cours d’activités agréables. Bien que les chercheurs aient précédemment étudié les effets de neurotransmetteurs simples et rapides sur les neurones dopaminergiques, ces derniers mentionnent que l'étude est parmi les premières à décrire les effets de ce système complexe de modulation de la nociception.

Les chercheurs ont découvert que les neurotransmetteurs complexes de grande taille appelés neuropeptides ont un effet très robuste sur le comportement des animaux en agissant sur la VTA. Les chercheurs ont observé les neurones chez des souris cherchant du saccharose. Les souris ont dû pousser leur museau dans un port pour obtenir du saccharose. Au début, c’était facile, puis c’est devenu deux pokes, puis cinq, augmentant de façon exponentielle, et ainsi de suite. Finalement, toutes les souris ont abandonné. Les enregistrements d'activité neuronale ont révélé que ces neurones de démotivation ou de frustration sont devenus plus actifs lorsque les souris ont cessé de chercher du saccharose.

Chez les mammifères, les circuits neuronaux qui sous-tendent la recherche de récompense sont régulés par des mécanismes permettant de conserver l'homéostasie, à savoir la tendance à maintenir la stabilité interne pour compenser les changements environnementaux. Dans la nature, les animaux sont moins motivés à rechercher des récompenses dans des environnements où les ressources sont rares. La persistance dans la recherche de récompenses incertaines peut être désavantageuse en raison de l'exposition risquée à des prédateurs ou de la dépense énergétique.

Les déficits de ces processus de régulation chez l'humain peuvent se manifester par des dysfonctionnements du comportement, notamment la dépression, la dépendance et les troubles de l'alimentation.

Est-ce que l'entraînement en force se fait au détriment des muscles d'endurance ?

Selon une étude menée par l'University of Basel publiée dans Proceedings of the National Academy of Sciences, le facteur neurotrophique dérivé du cerveau des neurotransmetteurs (brain-derived neurotrophic factor, BDNF) agit dans le muscle, ce qui diminue le nombre de fibres musculaires lors de l'entraînement en force. Les chercheurs ont étudié de plus près ce facteur dans le groupe des myokines. Ils ont découvert qu'il est produit par le muscle et agit à la fois sur les muscles et les synapses.

Les chercheurs ont découvert que le facteur neurotrophique dérivé du cerveau est produit par le muscle lui-même et remodèle les synapses neuromusculaires, les jonctions neuronales entre les neurones moteurs et le muscle. Le BDNF entraîne non seulement le développement des muscles de la force, mais également la diminution du nombre de fibres musculaires en endurance.

Comme le soulignent les chercheurs, généralement, il existe une distinction entre deux types de muscles, en fonction du type de fibres dont ils sont composés. En effet, il existe les fibres à contraction lente des muscles d'endurance, qui se forment principalement lors de sports d'endurance. Les coureurs de marathon exercent principalement ce type de muscle. La deuxième forme de muscle constituée de fibres à contraction rapide est bien moins bien étudiée. Ces muscles de force gagnent en volume lors de la musculation et fournissent une puissance musculaire substantielle.

Les chercheurs ont étudié le neurotransmetteur de type hormonal de la famille des myokines chez la souris. Les myokines sont libérées par le muscle lors de la contraction. Le BDNF convertit les muscles d'endurance en muscles de force Ce remodelage des synapses neuromusculaires au cours de la musculation a pour conséquence que le corps développe davantage de fibres musculaires. Or, selon les chercheurs, la croissance musculaire par la force se fait aux dépens des fibres d'endurance. Plus précisément, grâce à la libération de BDNF, les muscles d'endurance se transforment en muscles de force

Selon les chercheurs, les nouvelles connaissances acquises sur la myokine BDNF fournissent également une explication possible de la diminution de la musculature d'endurance observée à la suite d'un entraînement en force. Cette corrélation est déjà prise en compte dans le plan d’entraînement pour le sport de haut niveau. Le remodelage musculaire doit être pris en compte, en particulier dans les disciplines sportives telles que l'aviron, axées sur la force et l'endurance.

lundi 29 juillet 2019

Ce que le stress fait au cerveau

Un ami m'a déjà dit un jour, alors que je me préparais pour un examen, que le stress n'est pas ce qu'on vit mais plutôt une réponse à ce que l'on vit. Ca m'est revenu en tête en lisant cette étude. Selon une étude menée par l'ETH Zurich publiée dans Neuron, des chercheurs auraient découvert que la libération sélective du neurotransmetteur noradrénaline reconfigurait la communication entre des réseaux à grande échelle dans le cerveau. Selon ces derniers, leurs découvertes fournissent des informations sur les processus neuronaux rapides qui se produisent dans le cerveau lors de situations stressantes.

Dans les moments de stress intense, le cerveau n'a qu'une fraction de seconde pour réagir. Il concentre l'attention sur les signaux environnementaux les plus importants afin de prendre des décisions vitales ou mortelles en quelques fractions de seconde. Pour ce faire, une communication efficace doit être rapidement établie entre différentes zones du cerveau en formant des réseaux dits fonctionnels. La manière dont le cerveau guide ces processus rapides n'a pas encore été définie. Des tests sur l'humain ont suggéré un rôle majeur pour le neurotransmetteur noradrénaline (également appelé noradrénaline), que le cerveau libère en grande quantité lors de situations stressantes. Cependant, il n’est pas possible d’examiner directement cette théorie chez l’humain, car la libération de noradrénaline ne peut être manipulée de manière sélective.

Les chercheurs ont voulu résoudre ce problème difficile. Les tests sur animaux ont permis aux chercheurs de prouver pour la première fois qu'une libération de noradrénaline était en soi suffisante pour connecter très rapidement diverses régions du cerveau. Durant ces tests, ces derniers ont appliqué les dernières techniques génétiques pour stimuler un petit centre du cerveau de la souris, le locus coeruleus, qui fournit à la totalité du cerveau de la noradrénaline.

Les chercheurs ont effectué une imagerie en temps réel (IRM) du cerveau des animaux anesthésiés tout en déclenchant la libération de noradrénaline par le locus coeruleus. Ils ont découvert que la libération sélective de noradrénaline recâblait les schémas de connectivité entre les différentes régions du cerveau d’une manière extrêmement similaire aux changements observés chez les humains exposés à un stress aigu. Les réseaux qui traitent les stimuli sensoriels, tels que les centres visuel et auditif du cerveau, ont présenté la plus forte augmentation d'activité. Une augmentation similaire de l'activité a été observée dans le réseau d'amygdales, associé à des états d'anxiété.

Les chercheurs ont pu démontrer que les régions du cerveau présentant une réponse particulièrement forte à la libération de noradrénaline, semblable à un stress, possèdent également un grand nombre de récepteurs spécifiques pour la détecter.

Les cheveux pourraient être la solution pour un meilleur diagnostic de maladie mentale chez les adolescents

Selon une étude menée par l'Ohio State University publiée dans Psychoneuroendocrinology, les chercheurs auraient recherché une relation potentielle entre la concentration de cortisol, une hormone de stress, dans les cheveux et les symptômes de dépression chez les adolescents. Ces derniers auraient découvert un lien surprenant. En effet, non seulement les taux élevés de cortisol correspondaient à une probabilité plus élevée de dépression, mais il existait également un lien entre les taux bas de cortisol et les problèmes de santé mentale.

Bien que de nombreux chercheurs aient utilisé des mesures de cortisol dans des études sur la santé mentale au cours des dix dernières années, ces derniers mentionnent que peu ont examiné l'hormone de stress comme facteur prédictif de la dépression.

La recherche a suivi 432 adolescents âgés de 11 à 17 ans faisant partie de la plus vaste étude en cours sur la santé et le développement de l'adolescent en contexte, un projet de recherche longitudinal portant sur l'impact des facteurs sociaux et autres sur la santé. Pour l’étude sur le cortisol, les chercheurs ont mesuré la dépression à l’aide d’un questionnaire à neuf questions rempli par les participants. On leur a demandé d'évaluer leur expérience dans divers domaines, y compris la fréquence à laquelle ils ont le sentiment que leur vie a été un échec ou que les gens ont été hostiles à leur égard.

Dans la plupart des cas, les chercheurs ont analysé un échantillon de cheveux de 3 centimètres, suffisamment pour évaluer les niveaux de cortisol des trois mois précédents. Après avoir ajusté les résultats en fonction de divers facteurs susceptibles de contribuer aux symptômes dépressifs et aux taux de cortisol, les chercheurs ont découvert la tendance surprenante selon laquelle une relation faible et élevée en cortisol avait un lien statistiquement significatif avec la dépression.

Selon les données de 2016, près d'un adolescent sur huit a connu un épisode dépressif majeur et la proportion de jeunes souffrant de dépression a augmenté régulièrement au cours de la dernière décennie. Le suicide est la deuxième cause de décès chez les adolescents.

Selon les chercheurs, il est possible que le test du cortisol serve non seulement d’outil de détection, mais permette aussi de surveiller au fil du temps si le traitement et les médicaments aident une personne déprimée, ou si la maladie mentale s’intensifie et expose le risque de suicide au adolescent. Les chercheurs souhaitent également mener une étude plus longue et plus vaste sur la dépression et les niveaux de cortisol chez les adolescents au fil du temps.

dimanche 28 juillet 2019

Une étude révèle que les stratégies de synchronisation des repas semblent réduire l'appétit et améliorer la combustion des graisses

Selon une étude publiée dans Obesity, des chercheurs auraient découvert que des stratégies telles que le jeûne intermittent ou le fait de manger plus tôt dans la journée semblaient aider les personnes à perdre du poids en réduisant leur appétit plutôt qu'en brûlant plus de calories. Selon ces derniers, cette étude est la première à montrer comment le moment des repas affecte le métabolisme énergétique sur 24 heures lorsque la prise alimentaire et la fréquence des repas sont appariées. Les chercheurs croient que coordonner les repas avec les rythmes circadiens, ou l'horloge interne du corps, peut être une stratégie puissante pour réduire l'appétit et améliorer la santé métabolique

Les chercheurs ont également découvert que les stratégies de planification des repas pouvaient aider les personnes à brûler plus de graisse en moyenne sur une période de 24 heures. L'alimentation précoce restreinte (Early Time-Restricted Feeding, eTRF) , une forme de jeûne intermittent quotidien où le dîner est pris dans l'après-midi, a aidé à améliorer la capacité des gens à passer de l'hydrate de carbone à la combustion d'énergie à la combustion de graisse, un aspect du métabolisme appelé flexibilité métabolique. Les chercheurs précisent toutefois que les résultats concernant la combustion des graisses sont préliminaires.

Pour l'étude, les chercheurs ont recruté 11 hommes et femmes adultes présentant un excès de poids. Les participants ont été recrutés entre novembre 2014 et août 2016. Les adultes, généralement en bonne santé, âgés de 20 à 45 ans avaient le droit de participer s'ils avaient un indice de masse corporelle compris entre 25 et 35 kg / m2 (inclus), leur poids corporel entre 68 et 100 kg, une heure de coucher régulière entre 21h30 et 12 heures, et pour les femmes, un cycle menstruel régulier.
Les participants ont essayé deux stratégies différentes de synchronisation des repas dans un ordre aléatoire: un programme de contrôle dans lequel les participants prenaient trois repas au cours d'une période de 12 heures, avec un déjeuner à 8h00 et un souper à 20h00 ainsi qu'un programme eTRF où les participants prenaient trois repas sur une période de six heures, le déjeuner étant servi à 8h00 et le dîner à 14h00. Les mêmes quantités et types d'aliments ont été consommés dans les deux horaires. Les périodes de jeûne du programme de contrôle comprenaient 12 heures par jour, tandis que le programme eTRF comportait un jeûne de 18 heures par jour.

Les participants à l'étude ont suivi les différents horaires pendant quatre jours consécutifs. Le quatrième jour, les chercheurs ont mesuré le métabolisme des participants en les plaçant dans une chambre respiratoire (un dispositif semblable à une pièce) où ils ont mesuré le nombre de calories, glucides, lipides et protéines brûlés. Les chercheurs ont également mesuré l'appétit des participants toutes les trois heures lorsqu'ils étaient réveillés, ainsi que les hormones de la faim le matin et le soir.

Bien que l'eTRF n'ait pas eu d'incidence significative sur le nombre de calories brûlées par les participants, les chercheurs ont découvert qu'il permettait de réduire les niveaux de ghréline, une hormone de la faim, et d'améliorer certains aspects de l'appétit. Il a également augmenté la combustion des graisses au cours de la journée de 24 heures.

Une vitesse de marche plus lente pourrait prédire de futurs problèmes de mobilité

Selon une étude publiée dans Journal of the American Geriatrics Society, pouvoir marcher même à faible vitesse est essentiel à une vie saine mais marcher trop lentement pourrait laisser présager de futurs problèmes qui pourraient empêcher d’être totalement mobile.

Jusqu'à présent, les professionnels de la santé ne disposaient d'aucun moyen idéal de mesurer leur capacité de marcher, car cela impliquait plus que la simple vitesse de la marche. Il s’agit également de la façon dont l'humain gère son environnement (comme les chaussées inégales) et qui exige son attention (comme la circulation, les autres piétons et les traversées de rues).

Les chercheurs ont évalué des moyens de mesurer des tâches de marche complexes afin d'en apprendre davantage sur les changements précoces et subtils de la marche. Pour l'étude, ces derniers ont étudié si les performances sur des tâches de marche complexes impliquant des difficultés physiques et mentales prédisaient un risque plus élevé d'incapacité de marcher d'un quart de mille (environ quatre pâtés de maisons). Les chercheurs soupçonnaient que ces tâches de marche complexes seraient davantage liées au risque de problèmes de mobilité que la simple marche.

Les chercheurs ont étudié des informations provenant de l’étude Health ABC sur le vieillissement et la composition corporelle (Health Aging and Body Composition, Health ABC), qui incluait des adultes noirs et blancs à Pittsburgh et à Memphis de 1997 à 1998. Les participants avaient entre 70 et 79 ans au moment de leur entrée dans l’étude. difficulté à marcher un quart de mile ou à gravir 10 marches sans se reposer.

Dans le cadre de l’étude, les participants ont emprunté plusieurs chemins différents et ont dû relever plusieurs défis pour mesurer leur vitesse de marche et leur capacité à faire face aux tâches mentales et physiques en même temps. Les chercheurs ont ensuite fait un suivi auprès des participants tous les six mois pour voir s’ils éprouvaient des difficultés à marcher pendant un quart de kilomètre en raison d’un problème de santé ou physique.

Les participants ont signalé des problèmes de mobilité ou des handicaps chaque année lors de visites sur place. À la fin des huit années de suivi, plus de la moitié des participants avaient développé une incapacité de mobilité, ce qui les empêchait de marcher un quart de mille. Près de 40% avaient développé une incapacité de mobilité chronique qui durait au moins deux ans. Les participantes ayant déclaré avoir des problèmes de mobilité étaient plus susceptibles d’être des femmes, des diabétiques, des obèses, des douleurs au genou et des difficultés respiratoires. Ils avaient aussi plus de symptômes de dépression.

Les chercheurs ont conclu qu'une faible vitesse de marche dans des conditions de rythme habituel et complexes était associée à un risque accru de développer une incapacité de mobilité au cours des huit prochaines années.

vendredi 26 juillet 2019

Comment le cerveau se souvient-il des décisions?

Selon les chercheurs, les cerveaux de mammifères, y compris ceux d’êtres humains, stockent et rappellent une quantité impressionnante d’informations sur la base des bonnes et mauvaises décisions et des interactions dans un monde en constante évolution. Or, selon une étude menée par Johns Hopkins University School of Medicine publiée dans Neuron portant sur des expériences sur des souris, les chercheurs auraient ajouté des preuves que de tels souvenirs basés sur la décision sont stockés dans des parties très particulières du cerveau.

Les chercheurs ont utilisé diverses odeurs pour entraîner 36 souris à choisir entre deux tubes qui fournissent de l'eau lorsqu'ils sont léchés et qui sont contrôlés aléatoirement par un ordinateur pour ouvrir ou fermer les robinets. Lorsqu'un tube était allumé, l'autre était éteint, puis ils allumaient. L’expérience a été conçue pour imiter la façon dont les souris se nourrissent d’eau dans la nature et pour savoir où retourner pour récupérer le liquide.

Selon les chercheurs, les souris ne savaient pas avec certitude si elles recevraient de l'eau lorsqu'elles faisaient un choix particulier. Afin de trouver la récompense de l'eau, elles devaient se rappeler leurs récents choix et résultats.

Les souris étaient plus souvent explorées et léchées à partir de tubes d’eau activés plus fréquemment, ce qui maximisait la quantité d’eau reçue. De temps en temps, elles ont également exploré des tubes d'eau qui ont été éteints, en les léchant de temps en temps. Quand un tube contenant de l'eau en abondance a été éteint, les souris se tournaient sur l'autre tube qui venait d'être allumé. Les chercheurs ont également découvert que les souris attendaient une demi-minute avant de choisir leur tube d’eau.

Selon les chercheurs, des études antérieures de la dernière décennie ont suggéré que les mémoires de décision sont stockées dans le cortex préfrontal, siège du comportement complexe, de la personnalité et de l'apprentissage.

Les chercheurs ont fixé des microélectrodes au cerveau afin de mesurer la cadence de déclenchement de potentiels d'action traversant la membrane de plus de 3 000 neurones dans leur cerveau situé dans le cortex préfrontal.

Le taux de potentiel d'action de base dans les neurones du cortex préfrontal est d'environ deux à dix pics par seconde. Mais lorsque les souris pensaient penser à un choix de tube par rapport à l’autre, les chercheurs ont découvert des taux de potentiel d’action moyens d’environ 20 pointes par seconde dans près de 80% (2 401 sur 3 073) des neurones du cortex préfrontal.

Les chercheurs ont également découvert que plus les souris mettaient longtemps à décider entre les deux tubes, plus le taux de potentiel d'action des neurones du cortex préfrontal commençait à ralentir. Après 15 secondes sans lécher un tube, les taux de potentiel d'action étaient réduits de moitié. Les chercheurs ont également mesuré l'endroit où les neurones du cortex préfrontal s'étendaient à d'autres parties du cerveau, signalant des structures ailleurs. Ils ont constaté une augmentation de la signalisation électrique vers le striatum dorsomédial, une structure située à l'intérieur des ganglions de la base, une région située au centre du cerveau et liée au mouvement.

Afin d'évaluer la santé d'une cellule, il suffirait de suivre le glucose

Selon une étude menée par National Institutes of Health publiée dans Nature Biomedical Engineering, une nouvelle technique spectroscopique aurait révélé que l'utilisation du glucose dans les cellules vivantes fournirait des informations précieuses sur l'état fonctionnel des cellules, des tissus et des organes. Des changements dans l'utilisation de glucose par une cellule pourraient signaler des changements dans la santé et l'évolution de la maladie.

Les chercheurs ont mis au point une technique d'imagerie qui permet de visualiser la dynamique métabolique lorsque le glucose est utilisé pour fabriquer des molécules en aval, telles que l'ADN. protéines, lipides et glycogène.

Selon les chercheurs, ces derniers ont combiné une microscopie sophistiquée et des méthodes informatiques pour développer des techniques d'imagerie chimique qui les rapprochent de l'identification de changements précoces dans les cellules menant à la maladie

Les chercheurs ont développé une technique appelée spectroscopie Raman, dans laquelle un laser mesure les vibrations chimiques qui identifient des molécules spécifiques dans les cellules. La nouvelle technique est le traçage spectral de l’isotope de deutérium (Spectral Tracing of Deuterium isotope , STRIDE). STRIDE fonctionne en suivant le glucose qui a été marqué avec un isotope stable non radioactif de l’hydrogène appelé deutérium.

Les chercheurs ont introduit du glucose marqué au deutérium (D7-glucose) dans des cellules en culture. Ils ont également pu étiqueter les tissus de souris simplement en ajoutant du glucose D7 à leur eau de boisson.

Dans les cellules vivantes et dans divers tissus prélevés sur les souris, STRIDE a permis aux chercheurs de suivre le D7-glucose et d'identifier des molécules spécifiques synthétisées, notamment des lipides, des protéines et de l'ADN. La technique a permis de détecter la dynamique métabolique de ces grosses molécules dans divers organes de souris, notamment le cerveau, l'intestin, le foie et la graisse.


Les microbes intestinaux pourraient affecter l'évolution de la sclérose latérale amyotrophique

Selon une étude menée par Weizmann Institute of Science publiée dans Nature, les chercheurs auraient découvert que des microbes intestinaux, appelés collectivement microbiome intestinal, pouvaient affecter l'évolution de la sclérose latérale amyotrophique (SLA), également appelée maladie de Lou Gehrig. Selon ces derniers, la progression d'une maladie semblable à la SLA a été ralentie après que les souris eurent reçu certaines souches de microbes intestinaux ou des substances connues pour être sécrétées par ces microbes. Les résultats préliminaires suggèrent que les résultats sur la fonction de régulation du microbiome pourraient s’appliquer aux patients humains atteints de SLA.

Les chercheurs ont découvert que les symptômes d'une maladie semblable à la SLA chez des souris transgéniques se sont aggravés après l'administration d'antibiotiques pour éliminer une partie importante de leur microbiome. Les chercheurs ont découvert que la croissance de ces souris sujettes à la SLA dans des conditions exemptes de germes (dans lesquelles, par définition, les souris ne portaient pas de microbiome), était extrêmement difficile, car ces souris avaient du mal à survivre dans un environnement stérile. Les chercheurs croient qu'il y a un lien potentiel entre des altérations du microbiome et une progression accélérée de la maladie chez des souris génétiquement sensibles à la SLA.

En utilisant des méthodes de calcul avancées, les chercheurs ont défini la composition et la fonction du microbiome chez les souris sujettes au SLA, en les comparant à des souris normales. Ils ont identifié 11 souches microbiennes qui ont été altérées chez des souris sujettes à la SLA au fur et à mesure de l'évolution de la maladie ou même avant que les souris ne développent des symptômes manifestes de la SLA. Lorsque les chercheurs ont isolé ces souches microbiennes et les ont administrées une à une sous forme de suppléments de type probiotique à des souris sujettes au SLA à la suite d'un traitement antibiotique, certaines de ces souches ont eu un impact négatif évident sur la maladie semblable à la SLA. Cependant, une souche, Akkermansia muciniphila, a significativement ralenti la progression de la maladie chez les souris et prolongé leur survie.

Afin de révéler le mécanisme par lequel Akkermansia pourrait produire ses effets, les chercheurs ont analysé des milliers de petites molécules sécrétées par les microbes intestinaux. Ils ont découvert une molécule appelée nicotinamide (NAM). Selon les chercheurs, ses concentrations dans le sang et dans le liquide céphalo-rachidien de souris à tendance SLA ont été réduites après un traitement antibiotique et ont augmenté après l'ajout d'Akkermansia à cette molécule, qui a pu sécréter cette molécule. Pour confirmer que NAM était bien une molécule sécrétée par un microbiome pouvant entraver l'évolution de la SLA, les chercheurs ont continuellement perfusé les souris à tendance ALS. L'état clinique de ces souris s'est amélioré de manière significative. Les chercheurs mentionnent, en terminant, qu'une étude détaillée de l'expression des gènes dans leur cerveau a suggéré que NAM améliorait le fonctionnement de leurs neurones moteurs.

Un biomarqueur de maladies cardiaques serait lié au régime paléo

Selon une étude menée par Edith Cowan University publiée dans European Journal of Nutrition analysant les effets du régime paléo sur les bactéries intestinales, les personnes qui suivent le régime paléo auraient deux fois plus de biomarqueur sanguin clé étroitement lié aux maladies cardiaques

Les chercheurs ont comparé 44 personnes sur le régime alimentaire à 47 suivant un régime traditionnel australien. Ces derniers ont mesuré la quantité de triméthylamine-n-oxyde (TMAO) dans le sang des participants. Des taux élevés de TMAO, un composé organique produit dans l’intestin, sont associés à un risque accru de maladie cardiaque.

Le régime Paleo préconise de manger de la viande, des légumes, des noix et un nombre limité de fruits. Il exclut les céréales, les légumineuses, les produits laitiers, le sel, le sucre raffiné et les huiles transformées.

Les chercheurs ont découvert que les populations d'espèces bactériennes bénéfiques étaient plus faibles dans les groupes paléolithiques, ce qui était associé à une réduction de l'apport en glucides, ce qui pourrait avoir des conséquences à long terme sur d'autres maladies chroniques. Selon les chercheurs, la raison pour laquelle le TMAO était si élevé chez les personnes sous régime paléo semblait être le manque de grains entiers dans leur régime.

Les chercheurs ont observé que le manque de grains entiers était associé aux niveaux de TMAO, ce qui pourrait constituer un lien entre la réduction des risques de maladies cardiovasculaires constatée chez les populations à forte consommation de grains entiers. Les chercheurs ont également découvert des concentrations plus élevées de bactéries produisant du TMAO dans le groupe Paleo.

jeudi 25 juillet 2019

Les changements épigénétiques antiques feraient taire les gènes liés au cancer

Selon une étude menée par Garvan Institute of Medical Research publiée dans Nature Communications, un changement épigénétique, une forme de contrôle de l'ADN, qui désactive certains gènes liés au cancer à un stade avancé du développement humain, serait conservé depuis plus de 400 millions d'années

En effet, les chercheurs ont découvert que les gènes activés dans certains cancers chez l'humain existent également chez le poisson zèbre . Cependant, ils seraient «réduits au silence» quelques heures seulement après la fécondation. Selon les chercheurs, cette étude jette un nouvel éclairage sur la manière dont notre épigénétique peut réguler les gènes, dont certains sont liés au développement du cancer plus tard dans la vie, sur de grandes distances d'évolution. Il révèle également des différences significatives entre la manière dont l'épigénome se «réinitialise» chez le poisson zèbre et les embryons humains, ce qui pourrait orienter les futures études sur la transmission épigénétique.

Comme le révèlent les chercheurs, à première vue, les humains et le poisson-zèbre (une espèce de poisson minuscule originaire d’Asie du Sud) ne semblent guère liés. Notre ancêtre commun de l’évolution remonte à plus de 400 millions d’années. Cependant, sur le plan génétique, le poisson-zèbre et les humains ne sont pas si différents. En effet, nous partageons environ 70% des gènes producteurs de protéines. Les chercheurs ont analysé comment se conservent les changements épigénétiques, qui contrôlent la «lecture» de l’ADN, pendant le développement de l’embryon.

Comme le précisent les chercheurs, les gènes sont en partie contrôlés par la méthylation des étiquettes sur l'ADN qui «bloquent» la lecture des gènes. Les chercheurs ont d'abord isolé des cellules germinales primordiales, les cellules précurseurs du sperme et de l'ovule, à partir d'embryons en développement de poissons-zèbres et ont généré des données de séquençage du bisulfite du génome entier (WGBS), un instantané de toute la méthylation de l'ADN dans la cellule.

Les chercheurs ont découvert des différences fondamentales dans la méthylation de l’ADN chez les embryons de mammifères et de poissons-zèbres. Chez l'humain, ces étiquettes de méthylation de l'ADN sont généralement «balayées» lorsqu'un spermatozoïde fertilisent un ovule, puis à nouveau méthylées à nouveau, afin de garantir le bon développement de l'embryon. Au lieu de cela, les embryons de poisson-zèbre conservent le schéma du groupe méthyle du père.

Les chercheurs ont découvert que les cellules germinales primordiales du poisson zèbre ne modifiaient pas non plus leurs schémas de méthylation, mais héritaient des schémas paternels de méthylation de l'ADN. Cela contraste avec les découvertes dans les cellules germinales primordiales de mammifères, qui subissent un deuxième «nettoyage en profondeur» de leurs étiquettes de méthylation de l'ADN. Les chercheurs croient que cette découverte met en lumière les principes moléculaires du développement de la lignée germinale et souligne le poisson-zèbre en tant que modèle expérimental utile pour étudier la manière dont les signatures épigénétiques sont héritées à travers les générations.

Les chercheurs ont analysé comment l’ADN est méthylé dans les embryons de poisson zèbre, à quatre stades de développement. Ils ont découvert 68 gènes méthylés et désactivés tôt au cours du développement embryonnaire, dans les 24 heures suivant la fécondation.

Les gènes qui codent pour les antigènes du cancer du testicule (ou cancer testis antigens, CTA) ne sont actifs que dans le testicule masculin, mais sont désactivés dans tous les autres tissus, chez l'humain. Pour une raison inconnue, les gènes CTA sont réactivés dans certains cancers, tels que les mélanomes.

La structure des réseaux cérébraux ne serait pas fixe

Selon une étude menée par Georgia State University publiée dans Human Brain Mapping, la forme et la connectivité des réseaux cérébraux ,des zones distinctes du cerveau qui fonctionnent ensemble pour effectuer des tâches cognitives complexes, pourraient changer de manière fondamentale et récurrente au fil du temps.

Selon les chercheurs, l'interaction et la communication entre neurones, appelées «connectivité fonctionnelle», donnent naissance à des réseaux cérébraux. Ces derniers ont longtemps supposé que ces réseaux étaient spatialement statiques et qu'un ensemble fixe de régions du cerveau contribuait à chaque réseau. Or une récente étude révèle que les chercheurs ont découvert des preuves de la fluidité spatiale et fonctionnelle des réseaux cérébraux.

Les chercheurs ont recueilli des données d'imagerie cérébrale par imagerie par résonance magnétique fonctionnelle (IRMf) afin de créer des instantanés de l'activité du réseau à un niveau granulaire sur plusieurs minutes, et ont observé des changements rapides dans la fonction, la taille et l'emplacement des réseaux. Ces derniers ont découvert que les propriétés spatiales d'un réseau cérébral donné évoluent dans le temps, de même que sa relation avec d'autres réseaux cérébraux.

Les découvertes des chercheurs s’appuient sur le concept de chronnectome, un modèle du cerveau dans lequel les modèles de connectivité fonctionnelle évoluent dans le temps, initialement proposé par Calhoun en 2014, dans cette étudee qui élucidait le chronnectome "spatial".

Les chercheurs ont également analysé si les réseaux cérébraux pouvaient différer entre les patients atteints de schizophrénie et les sujets témoins en bonne santé. S'ils ont constaté des différences entre les deux groupes, ils notent que ces différences ne sont pas toujours présentes. Il est donc important de capturer ces changements transitoires.

mercredi 24 juillet 2019

Une étude établit un lien entre la pollution atmosphérique et l'augmentation du nombre d'admissions en soins intensifs néonatals

Une étude menée par l'Eunice Kennedy Shriver National Institute of Child Health and Human Development et le National Institutes of Health publiée dans Annals of Epidemiology révèle un lien entre la pollution atmosphérique et l'augmentation du nombre d'admissions en soins intensifs pour nouveau-nés

En effet, selon les chercheurs, les nourrissons nés de femmes exposées à des niveaux élevés de pollution de l'air au cours de la semaine précédant l'accouchement sont plus susceptibles d'être admis dans une unité de soins intensifs néonatals (USIN). Selon le type de pollution, les chances d’admission dans l’USIN augmentent de 4% à 147%, par rapport aux nourrissons dont la mère n’a pas connu une pollution atmosphérique élevée au cours de la semaine précédant l’accouchement.

Les chercheurs soulignent que des études antérieures avaient associé des niveaux élevés de certains types de polluants atmosphériques à des risques plus élevés de diabète gestationnel et de prééclampsie, un trouble de l'hypertension artérielle associé à la grossesse. Des recherches antérieures ont également montré que les nourrissons nés de femmes exposées à des niveaux élevés de polluants atmosphériques courent un risque élevé de naissance prématurée, de petite taille pour leur âge gestationnel à la naissance et de croissance plus lente que la normale dans l'utérus. Compte tenu de ces associations, les chercheurs ont voulu déterminer si l’exposition prénatale à la pollution de l’air pouvait augmenter les chances d’admission en USIN.

Les chercheurs ont analysé les données du Consortium on Safe Labor, qui a compilé des informations sur plus de 223 000 naissances sur 12 sites cliniques aux États-Unis de 2002 à 2008. Les chercheurs ont comparé les données sur la qualité de l'air dans la région où chaque naissance a eu lieu à la semaine précédant l'accouchement, le jour précédant l'accouchement et le jour de l'accouchement. Ils ont ensuite comparé ces intervalles de temps aux données sur la qualité de l'air deux semaines avant l'accouchement et deux semaines après l'accouchement pour identifier le risque d'admission en USIN associé aux niveaux de pollution.

Les chercheurs ont également analysé les probabilités d'admission en USIN associées à de fortes concentrations de particules (particules de pollution) de moins de 2,5 microns de diamètre (PM2,5). Ces types de particules proviennent de diverses sources, parmi lesquelles les moteurs diesel et à essence, les centrales électriques, les décharges, les installations d’assainissement et les processus industriels. L'exposition à des concentrations élevées de composés organiques dans l'air était associée à une augmentation de 147% du risque d'admission en USIN. Les ions carbone et ammonium élémentaires présentaient des augmentations de risque similaires (38% et 39%, respectivement), tandis que l'exposition aux composés de nitrate était associée à un risque plus élevé d'admission à l'UNSI de 16%.

Les chances d’admission aux USIN ont augmenté de manière significative avec les expositions aux polluants liés au trafic le jour et le jour de la livraison, par rapport à la semaine précédant la livraison: respectivement 4% et 3%, pour une augmentation d’environ 300 parties par million (ppm) monoxyde de carbone; 13% et 9% pour une augmentation d’environ 26 ppm de dioxyde d’azote; et 6% et 3% d’augmentation d’environ 3 ppm d’anhydride sulfureux.

Une étude révèle les parties les plus sombres de notre patrimoine génétique

Selon une étude menée par Lund University publiée dans Nature Communications, plus de la moitié de notre génome est constitué de transposons, des séquences d'ADN rappelant d'anciens virus éteints. Les transposons sont normalement réduits au silence par un processus appelé méthylation de l'ADN, mais leur activation peut entraîner des maladies graves.Les chercheurs mentionnent savoir très peu de choses sur les transposon. Cependant, ces derniers ont réussi pour la première fois à étudier ce qui se produit lorsque la méthylation de l'ADN est perdue dans des cellules humaines. Ces résultats fournissent de nouvelles informations sur la manière dont les changements dans la méthylation de l'ADN contribuent aux maladies.

Lorsque notre ADN est intact, les chercheurs mentionnent que l'expression et le comportement de nos gènes peuvent changer. Cela peut se produire de différentes manières, notamment via la méthylation de l'ADN, un processus chimique qui bloque les gènes et d'autres parties de notre génome, telles que les transposons.

Les transposons sont parfois appelés la partie sombre de notre génome et consistent en des séquences d'ADN transposables pouvant provoquer des modifications génétiques, par exemple si elles sont intégrées à un gène. Ces transposons sont souvent réduits au silence pendant le développement du fœtus, notamment par méthylation de l'ADN.

Les chercheurs ont avancé l'hypothèse selon laquelle la méthylation de l'ADN réduirait au silence les parties du génome qui ne sont pas utilisées,Ces derniers ont utilisé la technique CRISPR / Cas9 pour arrêter avec succès la méthylation de l'ADN dans les cellules souches neurales humaines en laboratoire.

lundi 22 juillet 2019

Le diabète augmenterait davantage le risque d'insuffisance cardiaque chez les femmes que chez les hommes

Selon une étude menée par l'University of New South Wales et l'University of Oxford publiée dans Diabetologia, le diabète confère un risque excessif d’insuffisance cardiaque plus élevé chez les femmes que chez les hommes. Le diabète de type 1 est associé à un risque excessif d’insuffisance cardiaque de 47% chez les femmes par rapport aux hommes, tandis que le diabète de type 2 présente un risque supplémentaire d’insuffisance cardiaque de 9% par rapport aux hommes.

Comme le soulignent les chercheurs, il est maintenant reconnu que le diabète et l’insuffisance cardiaque (où le cœur pompe le sang moins efficacement) sont des conditions qui se produisent souvent ensemble. Le diabète est associé non seulement à un risque accru d'insuffisance cardiaque, mais également à un risque accru de décès après le diagnostic. De plus, l'insuffisance cardiaque est la deuxième manifestation initiale la plus fréquente de maladie cardiovasculaire chez les personnes atteintes de diabète de type 2, plus courante que la crise cardiaque ou l'accident vasculaire cérébral. Le nombre de personnes souffrant d'insuffisance cardiaque devrait augmenter, rendant la prévention et le traitement plus rapides indispensables.

Les chercheurs croient qu'il existe des différences considérables entre les sexes en ce qui concerne le risque accru de diverses maladies cardiovasculaires associées au diabète. Ces derniers mentionnent que des analyses antérieures ont révélé que le diabète conférait un risque plus élevé d'excès de coronaropathie et d'accident vasculaire cérébral, ainsi que d'autres complications non cardiovasculaires, notamment la démence et le cancer, chez les femmes.Les chercheurs ont donc analysé les différences possibles entre les sexes en ce qui concerne le risque excessif d’insuffisance cardiaque associé au diabète.

Les chercheur précisent que l'étude comprenait des études de cohorte d'observation de la base de données PubMed si celles-ci fournissaient des informations sur le risque sexuel associé à l'association du diabète à l'insuffisance cardiaque chez les deux sexes, et les excluaient si elles incluaient des individus souffrant de maladies sous-jacentes, si elles ne comportaient ne pas prendre en compte les facteurs de confusion possibles, y compris au moins l'âge. Les chercheurs ont regroupé les risques relatifs par sexe et le ratio femmes / hommes du risque relatif d'insuffisance cardiaque, fatale ou non, en comparant les diabétiques à ceux qui n'en étaient pas atteints, à partir des recherches pertinentes identifiées.

Sur 5991 articles identifiés à l'origine, 14 études ont fourni des données utilisables sur les différences entre les sexes dans l'association entre le diabète et le risque d'insuffisance cardiaque. Deux d'entre elles comprenaient des données sur le diabète de type 1, deux cohortes fournissant des résultats pour 3 284 123 personnes et 95 129 événements. Les données sur le diabète de type 2 et l'insuffisance cardiaque étaient disponibles dans 13 études portant sur 47 cohortes comprenant 11 925 128 personnes et 249 560 insuffisances cardiaques.

Le diabète de type 1 était associé à un risque d'insuffisance cardiaque 5,15 fois plus élevé chez les femmes et à un risque 3,47 fois plus élevé chez les hommes, soit un risque relatif de défaillance cardiaque excédentaire de 47% par rapport aux hommes. Le diabète de type 2 était associé à un risque d'insuffisance cardiaque 1,95 fois plus élevé chez les femmes et un risque 1,74 fois plus élevé chez les hommes, soit un risque relatif d'excès d'insuffisance cardiaque relatif de 9% supérieur à celui des hommes.

Les chercheurs mentionnent que le diabète peut conférer un risque plus élevé de coronaropathie chez les femmes que chez les hommes, la coronaropathie est une cause majeure d'insuffisance cardiaque chez les personnes atteintes de diabète de type 2 et le risque excessif de coronaropathie associée au diabète était auparavant plus élevé chez les femmes. De plus, les chercheurs croient que des différences de sexe dans la gestion du diabète pourraient sous-tendre ces associations, car les femmes contrôlaient moins bien leur glycémie que les hommes.

Les chercheurs croient également que le traitement insuffisant chez les femmes atteintes de diabète pourrait contribuer au développement de la cardiomyopathie diabétique (maladie du muscle cardiaque le rendant épais ou rigide).

De plus, les chercheurs soulignent une autre cause potentielle de la différence concerne les variations de l'hyperglycémie prolongée avant le diagnostic complet du diabète, appelé «prédiabète», entre hommes et femmes. Cette période peut aller jusqu'à deux ans de plus chez les femmes et est associée à un dysfonctionnement cardiaque. Enfin, d'autres facteurs de risque cardiovasculaires, encore signalés comme étant plus élevés chez les femmes atteintes de diabète que chez les hommes, pourraient expliquer l'excès de risque plus élevé chez les femmes.

Des chercheurs découvrent des modifications métaboliques chez des patients présentant une cardiotoxicité associée à la chimiothérapie

Selon les chercheurs, certains traitements très efficaces contre le cancer du sein peuvent provoquer un dysfonctionnement cardiaque et une insuffisance cardiaque. Les effets secondaires liés au cœur peuvent limiter le nombre de traitements anticancéreux auxquels les patients sont éligibles

Or, selon une étude menée par Beth Israel Deaconess Medical Center publiée dans Journal of Cardiovascular Translational, les chercheurs ont voulu déterminer si des modifications précoces des métabolites liés à l'énergie dans le sang, mesurées peu après la chimiothérapie, pourraient être utilisées afin d'identifier les patients qui ont développé une toxicité cardiaque à un moment ultérieur.

Les chercheurs ont découvert que les métabolites associés au pouvoir énergétique de la cellule, les mitochondries, évoluaient différemment chez les patients qui développaient plus tard un dysfonctionnement cardiaque par rapport à ceux qui ne le faisaient pas. En utilisant des échantillons de sang prélevés sur 38 patientes traitées aux anthracyclines et au trastuzumab pour le cancer du sein, les chercheurs ont mesuré 71 métabolites liés à l'énergie. Ils ont ensuite comparé les profils de métabolites entre les patients qui ont développé une toxicité cardiaque et ceux qui ne l’ont pas fait, en identifiant les modifications de l’acide citrique et de l’aconitique qui différencient les deux groupes de patients.

Les chercheurs ont également découvert des changements dans les produits de dégradation de l'ADN qui différenciaient les deux groupes de patients. Ces derniers précisent, en terminant, qu'ils souhaitent confirmer leurs résultats chez des populations de patients plus importantes.

Nouvelles données sur la biologie entourant la sécrétion d'insuline

Selon une étude menée par Yale University publiée dans Cell Reports, les chercheurs contestent une hypothèse de longue date sur la façon dont les cellules productrices d’insuline dans le pancréas perçoivent et répondent au glucose. Selon ces derniers, leurs résultats pourraient conduire à des changements dans la manière dont les scientifiques abordent le traitement du diabète

Dans le but d'évaluer exactement comment les cellules bêta, qui sécrètent de l'insuline, détectent une augmentation du glucose, les chercheurs ont étudié une forme rare d'hypoglycémie. Ils ont mené des expériences sur des cultures cellulaires et sur des souris afin d’examiner différents mécanismes permettant au métabolisme des cellules bêta d’affecter la production d’insuline et les taux de glucose.

Les chercheurs ont découvert qu'un composé chimique dans les cellules bêta appelé GTP mitochondrial, ou mtGTP, est un facteur clé permettant aux cellules de sécréter de l'insuline. Plus précisément, lorsque le mtGTP est produit à partir d’une enzyme particulière, il sert de signal pour stimuler la libération d’insuline. Les chercheurs ont également découvert que le mtGTP avait d'autres effets qui favorisent la santé des cellules bêta plus largement.

Les chercheurs mentionnent, en terminant, que leurs résultats mettent en lumière une nouvelle voie métabolique que les chercheurs peuvent planifier avec un traitement médicamenteux pour améliorer la santé des cellules bêta, la production d'insuline et l'équilibre du sucre dans le sang,

L'exercice offrirait une protection contre la maladie d'Alzheimer

Selon une étude menée par Massachusetts General Hospital publiée dans JAMA Neurology, des niveaux d'activité physique quotidienne plus élevés pourraient protéger du déclin cognitif et de la neurodégénérescence (perte de tissu cérébral) liés à la maladie d'Alzheimer (MA) qui altère la vie de nombreuses personnes âgées. Les chercheurs ont également découvert que la réduction des facteurs de risque vasculaires pouvait offrir une protection supplémentaire contre la maladie d’Alzheimer et retarder la progression de la maladie

Les chercheurs ont découvert qu’une activité physique plus intense semble non seulement avoir des effets positifs sur le ralentissement du déclin cognitif, mais également sur le taux de perte de tissu cérébral au fil du temps chez les personnes normales présentant des taux élevés de plaque amyloïde situé dans le cerveau Les chercheurs croient que l'activité physique pourrait réduire l'amincissement cortical lié au b-amyloïde (Ab) et préserver la structure de la substance grise dans les régions du cerveau impliquées dans la perte de mémoire épisodique et la neurodégénérescence liée à la maladie d'Alzheimer.

Comme le soulignent les chercheurs, le processus physiopathologique de la MA commence des décennies avant l'apparition des symptômes cliniques et se caractérise par une accumulation précoce de la protéine b-amyloïde. Les chercheurs ont évalué l’activité physique des participants, soit 182 adultes âgés normaux, y compris ceux présentant un taux élevé de b-amyloïde et jugés à haut risque de déclin cognitif , à l’aide de pédomètres montés sur la hanche qui comptaient le nombre de pas parcourus le cours de la journée. Les effets bénéfiques ont été observés à des niveaux d'activité physique même modestes, mais ils ont été les plus importants, autour de 8 900 pas, ce qui est à peine moins que les 10 000 que nous essayons d'atteindre tous les jours

dimanche 21 juillet 2019

Les microbes intestinaux protègeraient contre les dommages neurologiques dus aux infections virales

Selon une étude publiée dans eLife portant sur les souris, les microbes intestinaux produisent des composés qui amorcent les cellules immunitaires à détruire les virus nocifs du cerveau et du système nerveux.

Les chercheurs ont découvert qu’avoir un microbiote sain et diversifié est essentiel pour éliminer rapidement les virus du système nerveux afin de prévenir la paralysie et d’autres risques associés à des maladies telles que la sclérose en plaques.

Comme le soulignent les chercheurs, la sclérose en plaques, une maladie qui cause des dommages progressifs aux cellules nerveuses, est devenue plus courante au cours des dernières décennies. Les infections virales dans le cerveau ou la moelle épinière sont à l'origine de cette maladie. Certains chercheurs croient que des changements dans la façon de manger, un assainissement accru ou une utilisation croissante d'antibiotiques peuvent être néfastes pour les bactéries utiles qui vivent dans le corps humain, augmentant potentiellement le risque de sclérose en plaques et d'autres maladies connexes.

Les chercheurs souhaitaient découvrir si les microbes intestinaux pouvaient altérer la réponse immunitaire au virus du système nerveux central et si cela affectait l'ampleur des dommages causés par le virus. Ces derniers ont donc analysé l'effet du virus de l'hépatite de la souris, un virus qui infecte les cellules du système nerveux de la souris et provoque des symptômes de type sclérose en plaques, sur deux groupes de souris, certaines avec un intestin normal et certains qui étaient exempts de bactéries. Ils ont découvert que les souris dépourvues de bactéries avaient une réponse immunitaire faible, étaient incapables d'éliminer le virus et développaient une paralysie de plus en plus grave, tandis que celles avec des bactéries intestinales normales étaient mieux à même de combattre le virus.

Les souris traitées aux antibiotiques avant l'apparition de la maladie étaient incapables de se défendre. Elles avaient également moins de cellules immunitaires appelées microglies, qui aident à signaler les virus à la destruction par d'autres cellules immunitaires.

Les chercheurs ont identifié des composés produits par les bactéries intestinales susceptibles d'aider la microglie. Lorsqu'ils ont administré ces composés utiles à des souris sans bactéries, ils ont constaté que les animaux étaient protégés des dommages neurologiques causés par le virus.

Les médecins de cabinet privés seraient moins susceptibles de conserver des enregistrements électroniques

La modernisation des dossiers de santé en les rendant électroniques a pris de l'ampleur à mesure que la technologie évolue, les tournant vers des solutions numériques. Or, une étude menée par Vanderbilt University Medical Center publiée dans Health Services Research révèle que la même tendance n’était pas évidente pour les médecins qui restent en pratique privée. En effet, les chercheurs ont découvert des différences frappantes dans l'utilisation des dossiers de santé électroniques (DSE) parmi plus de 291 000 médecins inclus dans l'étude .

Selon les chercheurs, quarante-neuf pour cent des médecins qui étaient restés indépendants depuis 2011 et qui avaient été interrogés dans le cadre de l'étude attestaient d'une utilisation significative des DSE, tels que la prescription électronique de médicaments et les portails de patients en ligne, au moins une fois. En revanche, 70% des médecins des deux groupes et travaillant pour des hôpitaux au cours de la période visée par l'étude ont démontré une utilisation significative.

Les chercheurs croient que le vieillissement de la population de médecins indépendants qui prend de plus en plus de départs à la retraite pourrait, en partie, expliquer la différence Et bien que les médecins adoptent des pratiques de santé intégrées et plus vastes depuis des décennies, à mesure que le système de santé américain s’est complexifié, cette option pourrait ne pas être disponible pour les médecins qui n’ont pas suivi les nouvelles technologies. L'étude a montré que les médecins indépendants qui participaient seuls à une utilisation significative avaient plus de chances de rejoindre plus tard des systèmes intégrés que les médecins qui n'y participaient pas.

samedi 20 juillet 2019

Les chercheurs identifient les caractéristiques métaboliques spécifiques du cerveau autiste

Selon une étude publiée dans Communications Biology, des chercheurs de Skolkovo Institute of Science and Technology auraient étudié les différences de concentrations de plusieurs métabolites chez les humains en bonne santé et les personnes atteintes de troubles du spectre autistique (TSA), afin de mieux comprendre les processus moléculaires qui se déroulent dans le cerveau des personnes autistes

Comme le soulignent les chercheurs, les TSA sont une gamme de troubles du système nerveux qui se manifestent principalement par une altération des fonctions cognitives et des capacités de communication sociale et d’interaction. Les mécanismes moléculaires sous-jacents des TSA sont encore mal compris.

Les chercheurs ont étudié des métabolites, de minuscules molécules qui se forment dans le cortex préfrontal à la suite de réactions biochimiques dans le système humain, à la fois chez des personnes en bonne santé et des personnes atteintes de TSA. Ils ont comparé les résultats aux tests effectués pour la même région cérébrale chez les macaques et les chimpanzés. L'étude a été réalisée à l'aide de la spectrométrie de masse, technique analytique extrêmement précise et sensible, qui a permis de répertorier et de mesurer les concentrations de 1 366 molécules différentes regroupées dans 16 voies métaboliques.

En se référant à des échantillons de sang et d'urine provenant de personnes en bonne santé, les chercheurs ont découvert de nombreuses différences de concentrations de métabolites entre les humains autistes et en bonne santé. Les chercheurs soulignent qu'il est connu que la plupart de ces différences sont liées aux voies métaboliques qui ont été découvertes plus tôt dans les échantillons d’urine et de sang prélevés sur des personnes autistes. Lorsque l'on compare les métabolites cérébraux chez l'humain et d'autres mammifères, y compris les chimpanzés et les macaques, il apparaît clairement qu'une différence marquée entre les individus sains et autistes est observée dans les voies métaboliques affectées par de multiples changements évolutifs spécifiques à l'humain




La voix serait la clé pour donner un sens aux mots dans notre cerveau

Selon une étude menée par Plataforma SINC publiée dans Journal of Memory and Language, les chercheurs auraient découvert que la voix est fondamentale pour présenter mentalement le sens des mots dans le cerveau. Cette découverte implique une meilleure connaissance de la manière dont les ondes sonores apportent des informations supplémentaires aux mots.

Comme le soulignent les chercheurs, depuis des années, les neuroscientifiques tentent de déterminer si la voix influence le traitement de l'information ou si nous comprenons un mot d'une manière ou d'une autre en fonction de la personne qui le prononce. Or, les chercheurs auraient découvert que les ondes sonores transmettent efficacement des informations allant au-delà du sens lexical des mots. Selon ces derniers, la découverte révèle que les mots contiennent des informations indexées par la voix.

Selon les chercheurs, le sens que nous donnons aux mots est conditionné par des facteurs qui ne se limitent pas à une information lexicale. En effet, les personnes, et plus particulièrement leurs voix, ont beaucoup à dire sur la représentation mentale des mots.

L'étude a porté une attention particulière à la question de savoir si les représentations cognitives des mots contiennent des informations sur la voix du locuteur qui les prononce. Ainsi, l’expérience a consisté à apprendre aux participants une série de mots qu’ils ne connaissaient pas, émis par différentes voix.

Lors de ces sessions, les chercheurs ont manipulé la fréquence à laquelle un mot parlé par une voix spécifique était utilisé pour faire référence à une image. Les résultats ont révélé que les nouveaux mots étaient activés plus rapidement lorsque la voix correspondait à l'image.

vendredi 19 juillet 2019

La zone du cerveau liée à la conscience spatiale et à la planification jouerait également un rôle dans la prise de décision

Une étude menée par l'University of Chicago Medical Center publiée dans Science révèle que le cortex pariétal postérieur (posterior parietal cortex, PPC), une région du cerveau souvent associée aux mouvements de planification et à la conscience de l'espace, jouerait également un rôle crucial dans la prise de décision concernant les images dans le champ de vision.

Pour l'étude, les chercheurs ont entraîné les singes à jouer à un simple jeu d'ordinateur dans lequel ils rendaient compte de leurs décisions concernant différents types d'images affichées sur un écran d'ordinateur en déplaçant leurs yeux vers une cible désignée. À titre d'exemple, si les animaux présentaient un motif de points se déplaçant vers le haut et vers la gauche, ils étaient censés bouger les yeux vers un point vert. Si les points se déplacent dans la direction opposée, ils doivent déplacer leurs yeux vers un point rouge.

Les chercheurs ont testé si une région spécifique du PPC appelée zone intrapariétale latérale (lateral intraparietal area, LIP) était directement impliquée dans l'orientation de ces décisions. Ils ont administré aux animaux un médicament qui interrompait temporairement l'activité neuronale dans la zone LIP,. Ils ont, par la suite, demandé aux singes d'exécuter les mêmes tâches. Pendant que le médicament était actif, les décisions des singes concernant les schémas visuels observés étaient altérées; une fois que le médicament a disparu, leurs décisions sont revenues à la normale.

Les chercheurs ont également enregistré une activité dans le même pool de neurones une fois que le médicament était usé et ont découvert que cette activité dans cette région du cerveau était en effet fortement corrélée aux mêmes types de décisions qui avaient été altérées au cours des expériences.

Comment le cerveau se prépare au mouvement et aux actions

Selon une étude menée par Bangor University publiée dans The Conversation, le comportement est en grande partie lié à la manière dont nous contrôlons, organisons et effectuons les mouvements dans le bon ordre. Or, selon les chercheurs, les habiletés motrices (actions simples ou enchaînées qui, par la pratique, ne nécessitent plus aucun effort) peuvent devenir très difficiles à apprendre et à récupérer lorsque des conditions neurologiques perturbent la planification et le contrôle de mouvements séquentiels. Lorsqu'une personne souffre d'un trouble, tel que la dyspraxie ou le bégaiement, certaines compétences ne peuvent pas être exécutées de manière fluide et coordonnée.

Certains chercheurs soutiennent qu'avant de commencer une séquence d'actions, le cerveau rappelle et planifie tous les éléments en même temps. Ces derniers mentionnent qu'une étude de 2002 a prouvé que le cerveau utilise des activations d’activités simultanées avant tout mouvement. Les chercheurs ont découvert qu'il existait également une planification simultanée et des files d'attente concurrentielles dans le cerveau humain.

Dans le cadre de cette étude, les chercheurs étaient intéressés à voir comment le cerveau se préparait à exécuter des séquences d'action bien apprises, comme taper au clavier ou jouer du piano. Les participants ont été formés pendant deux jours pour associer des formes abstraites à des séquences de cinq doigts dans une tâche informatisée. Ils ont appris les séquences en regardant un petit point se déplacer d'un doigt à l'autre sur une image de la main affichée à l'écran et en appuyant sur le doigt correspondant sur un dispositif de réponse. Ces séquences étaient des combinaisons d'ordres de deux doigts avec deux rythmes différents.

Le troisième jour, les participants devaient produire, en se basant sur la forme abstraite présentée pendant un moment à l'écran, la séquence correcte entièrement de mémoire pendant que leur activité cérébrale était enregistrée.

En étudiant les signaux du cerveau, les chercheurs ont pu distinguer les schémas neuronaux des participants lors de la planification et de l'exécution des mouvements. Les chercheurs ont découvert que, quelques millisecondes avant le début du mouvement, tous les appuis au doigt étaient mis en file d'attente et "empilés" de manière ordonnée. Le modèle d'activation des pressions sur les doigts reflétait leur position dans la séquence effectuée immédiatement après. Ce modèle de file d'attente concurrentiel a montré que le cerveau préparait la séquence en organisant les actions individuelles dans le bon ordre.

Les chercheurs ont également cherché à savoir si cette activité de file d'attente préparatoire était partagée entre différentes séquences ayant des rythmes différents ou des ordres de doigts différents, et ont découvert que c'était le cas. Le mécanisme de mise en file d'attente concurrentiel a servi de modèle pour guider chaque action dans une position et a fourni la base pour la production précise de nouvelles séquences. De cette manière, le cerveau reste suffisamment souple et efficace pour être prêt à produire des combinaisons de séquences inconnues en les organisant à l'aide de ce modèle préparatoire.

jeudi 18 juillet 2019

Des chercheurs établissent un lien entre le vieillissement et les modifications des réseaux cérébraux liés à la cognition

Selon une étude menée par Duke-NUS Medical School publiée dans Journal of Neuroscience, les régions fonctionnelles dans le cerveau deviennent moins distinctes et interconnectées chez les personnes âgées au fil du temps, en particulier dans les réseaux liés à la capacité d'attention et à la cognition

Comme le soulignent les chercheurs, le cerveau humain contient des réseaux neuronaux fonctionnellement séparés avec des connexions internes denses et une interconnexion faible. Selon ces derniers, le vieillissement serait associé à une réduction de la spécialisation fonctionnelle et de la ségrégation de ces réseaux cérébraux.

Les chercheurs ont observé 72 Singapouriens âgés et en bonne santé. Chaque participant âgé a été scanné deux ou trois fois au cours d’une période pouvant aller jusqu’à quatre ans. Les évaluations neuropsychologiques ont testé la capacité des participants à traiter rapidement les informations, à focaliser leur attention, à se souvenir des informations verbales et visuospatiales, ainsi qu'à la planification et à l'exécution de tâches. Les analyses IRMf ont mesuré la manière dont les régions du cerveau sont fonctionnellement connectées en fonction des fluctuations du niveau d'oxygénation sanguine dans le sang à basse fréquence dans le temps. Les participants ont été invités à se détendre les yeux ouverts et à rester immobiles pendant l'exécution de ceux-ci.

Les chercheurs ont développé des approches pour convertir les images IRMf en représentations graphiques illustrant la connectivité inter et intra-réseau du cerveau de chaque individu. Ils ont ensuite comparé les différences dans les réseaux fonctionnels du cerveau entre les participants jeunes et âgés et les personnes âgées au fil du temps.

Les chercheurs ont suivi les changements dans les réseaux fonctionnels du cerveau qui affectaient des capacités cognitives spécifiques, telles que la pensée et l'action orientées vers un objectif, et le choix de l'endroit où concentrer l'attention. Selon les chercheurs, à mesure que l'on vieillit, ces réseaux associés à la cognition sont moins efficaces en termes de transfert d'informations, plus vulnérables aux perturbations et moins distinctifs.

Les chercheurs souhaitent, par la suite, étudier comment divers facteurs, tels que les risques génétiques et cardiovasculaires, pourraient influer sur les changements liés au vieillissement dans les réseaux cérébraux. En étudiant un groupe plus large d'adultes en bonne santé, jeunes, d'âge moyen et plus âgés, ils espèrent développer de meilleurs moyens de prédire le déclin cognitif.

Une infection intestinale peut-elle déclencher la maladie de Parkinson?

Une étude menée par l'Université de Montréal publiée dans Nature révèle 'une infection intestinale peut entraîner une pathologie semblable à la maladie de Parkinson (MP) chez la souris dépourvue de gène lié à la maladie humaine.

Selon les chercheurs, le nombre de patients atteints de MP dans le monde a plus que doublé entre 1990 et 2016, passant de 2,5 millions à 6,1 millions. Un doublement projeté du nombre de patients au cours des 30 prochaines années, relativement conservateur, donnerait plus de 12 millions de patients dans le monde d'ici 2050 environ.

Les chercheurs révèlent qu'environ 10% des cas de MP sont dus à des mutations de gènes codant pour des protéines telles que PINK1 et Parkine, qui ont été liées à la mitochondrie (l'organelle dans les cellules qui produit de l'énergie). Les patients porteurs de ces mutations développent la MP beaucoup plus tôt. Toutefois, chez les souris, les mêmes mutations ne génèrent pas de symptômes de la maladie, ce qui a amené de nombreux chercheurs à conclure que les souris ne convenaient peut-être pas à l’étude de la MP.

Les chercheurs croient que les résultats pourraient expliquer cette disparité. En effet, les souris en laboratoire sont normalement gardées dans des installations exemptes de germes, des conditions non représentatives de celles rencontrées par des êtres humains constamment exposés micro-organismes infectieux. Ces derniers croient que le lien entre l'infection et la MP stimulera la poursuite de l'étude de la réponse immunitaire liée à l'initiation de la maladie, permettant ainsi aux chercheurs de développer et de tester de nouvelles approches thérapeutiques.

Les chercheurs soulignent que la MP est causée par la mort progressive d'un sous-ensemble de neurones dans le cerveau, appelés neurones dopaminergiques. Cette perte de neurones est responsable des symptômes moteurs typiques observés chez les patients MP, y compris les tremblements et la rigidité. Les causes de la mort des neurones dopaminergiques sont encore inconnues.

Les chercheurs ont découvert que chez les souris dépourvues d’un gène lié à la MP, une infection par une bactérie causant de légers symptômes intestinaux chez de jeunes souris était suffisante pour déclencher des symptômes analogues à la MP chez ces animaux plus tard dans la vie.

Selon les chercheurs, l'administration de L-DOPA, un médicament utilisé pour traiter les patients atteints de la maladie de Parkinson, pourrait remédier temporairement aux symptômes analogues à la maladie de Parkinson. Ces derniers croient que chez des souris normales, le système immunitaire a bien répondu à l'infection de l'intestin. Cependant, chez les souris dépourvues du gène PINK1 lié à la maladie de Parkinson, le système immunitaire a réagi de manière excessive et a déclenché une auto-immunité, un processus qui conduit le système immunitaire à attaquer les cellules saines de l'organisme. Les chercheurs croient qu'au lieu de mourir de l'accumulation de toxines, la destruction des neurones dopaminergiques implique des cellules immunitaires.

Chez les souris mutantes infectées, des lymphocytes T toxiques autoréactifs se sont révélés présents dans le cerveau et capables d'attaquer des neurones sains dans des boîtes de Pétri. Les chercheurs croient que certaines formes de MP sont une maladie auto-immune susceptible de se manifester dans l'intestin plusieurs années avant que les symptômes moteurs, soulignant le fait qu'il existe une fenêtre de temps pour le traitement préventif.

mercredi 17 juillet 2019

Une étude révèle un lien entre la pollution de l'air et l'athérosclérose coronaire chez la population chinoise

Une étude menée par l'University of Buffalo publiée dans JAMA Network Open fournit des preuves physiopathologiques de l'effet de la pollution atmosphérique sur les maladies cardiovasculaires en Chine. Les résultats suggèrent également que la Chine pourrait avoir besoin de réviser sa norme pour un type de polluant.

Les chercheurs ont découvert que l'exposition à long terme aux particules et au dioxyde d'azote, ainsi que la proximité des véhicules, étaient associées à la gravité du calcium dans les artères coronaires ou à l'accumulation de plaque dans les parois des artères. L'étude a été menée sur 8 867 adultes chinois âgés de 25 à 92 ans.

Selon les chercheurs, les résultats sont significatifs car, bien que des études similaires aient été menées aux États-Unis et en Europe, celle-ci est la première à étudier le lien entre la pollution atmosphérique et le calcium dans les artères coronaires en Chine. Le pays s'est concentré plus récemment sur la réduction des niveaux extrêmement élevés de pollution de l'air dans certaines régions, notamment dans le nord de la Chine.

Selon les chercheurs, l'étude pourrait fournir la preuve que l'athérosclérose coronarienne est une voie pathologique par laquelle l'exposition à la pollution atmosphérique augmente le risque de décès par maladie coronarienne. Cette découverte devrait contribuer à la compréhension des effets des polluants atmosphériques dans le monde entier, en fournissant à la fois des données indispensables générées localement et des preuves à l'appui pour éclairer le processus d'établissement des normes relatives à la pollution atmosphérique à l'échelle mondial

Selon la Fondation des maladies du cœur et de l’AVC du Canada, l'athérosclérose se réfère à l'accumulation de plaque, ou de dépôts graisseux, dans les parois des artères, ce qui, au fil du temps, limite le flux sanguin dans les artères. Cela peut provoquer un caillot sanguin entraînant une crise cardiaque ou un accident vasculaire cérébral.

L'étude s'est concentrée sur les niveaux de dioxyde d'azote et de PM2,5, ou particules fines. Selon les chercheurs, les PM2,5 sont de minuscules particules qui peuvent facilement être inhalées, causant de graves problèmes de santé. L'étude s'est également intéressée à la proximité de la circulation et a utilisé le dioxyde d'azote comme indicateur plus précis des émissions des véhicules. Elle a montré que le risque d’augmentation du score de calcium dans les artères coronaires augmentait de 24,5% pour chaque augmentation de 20 microgrammes par mètre cube d’air dioxyde d’azote.

Les chercheurs mentionnent que la pollution atmosphérique reste un problème important en Chine. En 2015, plus de 95% de la population chinoise a été exposée à des concentrations de PM2,5 et de dioxyde d'azote supérieures au niveau minimum de l'étude. L'amélioration de la qualité de l'air par rapport aux normes nationales chinoises de 35 et 40 microgrammes par mètre cube d'air pour les PM2,5 et le dioxyde d'azote, respectivement, pourrait aider les gens à vivre plus longtemps. Cependant, l'effet de l'exposition au dioxyde d'azote sur le calcium dans les artères coronaires persistait même lorsque les chercheurs limitaient leur analyse à des concentrations inférieures à 40 microgrammes par mètre cube d'air.

mardi 16 juillet 2019

L'utilisation de l'ordinateur, la création et les jeux peuvent-ils ralentir ou empêcher la perte de mémoire liée à l'âge?

Une étude publiée dans Neurology a révélé que les activités stimulantes mentales telles que l’utilisation d’un ordinateur, les jeux, la création et la participation à des activités sociales sont liées à un risque plus faible ou à un retard de perte de mémoire liée à l’âge appelée déficience cognitive légère, et que le moment et le nombre de ces troubles les activités peuvent également jouer un rôle

Comme le soulignent les chercheurs, une déficience cognitive légère (Mild cognitive impairment, MCI) est un problème médical fréquent avec le vieillissement. Bien qu’il soit lié à des problèmes de capacité de réflexion et de mémoire, ce n’est pas la même chose que la démence. Les personnes atteintes de MCI ont des symptômes moins graves. Elles peuvent avoir du mal à accomplir des tâches complexes ou avoir de la difficulté à comprendre les informations qu’elles ont lues, alors que les personnes atteintes de démence ont des difficultés avec les tâches de la vie quotidienne telles que s’habiller, se laver et manger de façon autonome. Cependant, il existe des preuves solides que le MCI peut être un précurseur de la démence.

Les chercheurs mentionnent qu'actuellement, aucun médicament ne traite efficacement les troubles cognitifs légers, la démence ou la maladie d'Alzheimer. Or, la recherche s'intéresse de plus en plus aux facteurs liés au mode de vie qui pourraient contribuer à ralentir le vieillissement du cerveau, ce qui contribuerait probablement aux problèmes de pensée et de mémoire, des facteurs peu coûteux et accessibles à tous.. Les chercheurs ont analysé de près la fréquence à laquelle les gens ont participé à des activités stimulantes mentales à l'âge moyen ou plus tard, dans le but de déterminer quand de telles activités pourraient être très bénéfiques pour le cerveau

Pour l’étude, les chercheurs ont identifié 2 000 personnes âgées de 78 ans en moyenne, qui n’avaient pas de troubles cognitifs légers. Au début de l'étude, les participants remplissaient un questionnaire sur la fréquence à laquelle ils participaient à cinq types d'activités stimulantes mentales au cours de l'âge moyen, définies comme les âges de 50 à 65 ans, et à un âge plus avancé, à l'âge de 66 ans. Les participants ont ensuite passé des tests de pensée et de mémoire tous les 15 mois et ont été suivis pendant cinq ans en moyenne. Au cours de l'étude, 532 participants ont développé une déficience cognitive légère.

Les chercheurs ont découvert que l'utilisation d'un ordinateur à l'âge moyen était associée à un risque de déficience cognitive légère réduit de 48%. Au total, 15 personnes sur 532 ayant développé une déficience cognitive légère, soit 2%, utilisaient un ordinateur à l'âge moyen, contre 77 sur 1 468 personnes sans déficience cognitive légère, ou 5%. L'utilisation d'un ordinateur à un âge avancé était associée à un risque réduit de 30%, tandis que l'utilisation d'un ordinateur à l'âge moyen et à un âge avancé était associée à un risque réduit de 37% de développer des problèmes de mémoire et de pensée.

Selon l'étude, s'engager dans des activités sociales, comme aller au cinéma ou sortir avec des amis, ou jouer à des jeux, comme des mots croisés ou des jeux de cartes, à l'âge moyen ou plus tardif était associé à un risque 20% moindre de développer une déficience cognitive légère. Les activités artisanales étaient associées à un risque réduit de 42%, mais seulement plus tard.

Plus les personnes engagées dans des activités plus tardives étaient nombreuses, moins elles étaient susceptibles de développer une déficience cognitive légère. Ceux qui se livraient à deux activités avaient 28% moins de risques de développer des problèmes de mémoire et de pensée que ceux qui ne participaient à aucune activité, tandis que ceux qui participaient à trois activités étaient de 45% moins susceptibles, ceux de quatre activités, de 56% moins et ceux avec cinq activités étaient 43% moins probables.

L'augmentation de l'utilisation des médias sociaux et de l'écoute de la télévision serait associée à une augmentation de la dépression chez les adolescents

Une étude menée par l'Université de Montréal publiée dans JAMA Pediatrics révèle que l'utilisation des médias sociaux et l'écoute de la télévision sont liées à une augmentation des symptômes dépressifs chez les adolescents.

En effet, selon les chercheurs, les changements dans l'utilisation des médias sociaux et de la télévision par les adolescents prédisent une augmentation des symptômes de la dépression. L'étude a révélé qu'une fréquence supérieure à la moyenne d'écoute des médias sociaux et de la télévision sur quatre ans prédit des symptômes plus graves de la dépression au cours de la même période. Au-delà d’une vulnérabilité commune potentielle liée aux deux types de comportement, l’étude a démontré que si les adolescents signalaient une augmentation de leur utilisation des médias sociaux et de leur écoute de la télévision surpassaient leur niveau moyen général d’utilisation au cours d’une année donnée, leurs symptômes de dépression augmentaient également durant la même année. Ainsi, plus les adolescents passent de temps sur les médias sociaux et devant la télévision, plus leurs symptômes de dépression deviennent graves. Les jeux vidéo et l'utilisation de l'ordinateur au-delà de la moyenne, des médias sociaux et d'autres types de navigation sur Internet ont également été inclus dans l'étude, mais n'ont pas été identifiés comme des facteurs prédictifs de la dépression à l'adolescence.

L'étude a testé trois hypothèses explicatives, soit le déplacement, la comparaison sociale ascendante et les spirales de renforcement. Les données concernant les adolescents semblaient correspondre à ces deux dernières hypothèses. En effet, rien ne prouvait que le temps passé devant un écran affectait la dépression des adolescents en réduisant leur implication dans des activités physiques, mais il était évident que les interactions avec des médias plus propices à la promotion de comparaisons sociales ascendantes étaient insuffisantes. particulièrement associée à une réduction de l'estime de soi, ce qui explique alors une augmentation des symptômes dépressifs. L'étude a également mis en évidence que les médias sociaux, et non d'autres activités sur écran, pourraient encore favoriser les symptômes dépressifs chez les personnes déjà atteintes, par le biais d'un processus en spirale de renforcement.

Les chercheurs ont suivi près de 4 000 adolescents canadiens âgés de 12 à 16 ans qui ont participé à l'essai Co-Venture. Chaque année du secondaire, les adolescents étaient invités à déclarer eux-mêmes le temps passé devant les écrans numériques et à préciser le temps consacré à quatre types d'activités sur les écrans (médias sociaux, télévision, jeux vidéo et utilisation d'un ordinateur).

En outre, les adolescents ont rempli des questionnaires autodéclarés sur divers symptômes dépressifs entre 12 et 16 ans. Après la collecte des données, des analyses statistiques de pointe ont été réalisées pour évaluer les associations entre les personnes et avec les personnes et dépression à l'adolescence. Ces analyses complètent les analyses standard en modélisant les changements d’une année à l’autre des deux ensembles de problèmes, en tenant ainsi compte d’une vulnérabilité commune éventuelle et d’éventuels changements du développement naturel dans chaque ensemble de comportements ou de symptômes.

Quels sont les organes du corps les plus exposés lors d'une vague de chaleur?

En juin 2019, la majeure partie de l'Europe était frappée par une vague de chaleur précoce, avec des températures atteignant près de 46 ° C en France, un record de tous les temps. Comme le révèle une étude publiée dans The Conversation, une vague de chaleur se caractérise par des températures extrêmement élevées au cours de plusieurs jours et de plusieurs nuits. Ils ont un impact significatif sur la vie quotidienne. Lorsqu'une vague de chaleur frappe, de nombreux gouvernements mettent en place un plan d'action pour la chaleur, conseillant aux personnes affectées de boire de l'eau, d'éviter les exercices ardus et de rester au frais.

Comme le soulignent les chercheurs, la température centrale du corps humain fluctue généralement entre 36 et 38 ° C . Les températures comprises dans cette plage permettent aux réactions biochimiques de se dérouler normalement, ce qui est essentiel au bon fonctionnement des cellules et des organes. Le corps humain est également bien équipé pour faire face à diverses conditions environnementales susceptibles de menacer sa température centrale. Lorsque la température à cœur s'écarte de la plage normale, le corps initie des réponses physiologiques qui lui permettent de revenir à une température normale. Cette réponse thermorégulatrice est comparable à un thermostat chez vous; Une fois que la température interne s'écarte de la température idéale, les systèmes de chauffage ou de climatisation s'activent pour revenir à la température souhaitée.

Chez le corps humain, ce thermostat est situé à la base du cerveau, dans une région appelée hypothalamus. Les informations fournies par les capteurs de température situés dans la peau, les muscles et d'autres organes sont analysées et, si nécessaire, une réponse physiologique est déclenchée.

La première et la plus importante réaction à l’augmentation des températures est la dissipation de la chaleur par la peau et les extrémités du corps, tels que les mains et les pieds. Une personne commence à produire de la sueur qui s'évaporera sur la peau, dégageant ainsi de la chaleur.

Ce système est très efficace pour refroidir le corps, mais peut nécessiter jusqu'à 2 litres d'eau par heure en cas de chaleur extrême. Le corps ajuste le plus possible son entretien de l'eau, mais pour maintenir la thermorégulation, il est essentiel de remplir le réservoir d'eau du corps. Sinon, une personne risquez de manquer d'eau et de perdre ainsi sa capacité à transpirer et à refroidir, ce qui entraîne une surchauffe des organes. Par le biais de liquide, la personne devra également absorber des électrolytes et des sels, qui maintiennent une acidité sanguine normale, essentielle au fonctionnement des cellules.

Afin de comprendre ce qui peut mal se passer, les chercheurs révèlent en quoi la réponse thermorégulatrice affecte le fonctionnement de plusieurs organes et comment chaque organe réagit à une chaleur extrême.

Le premier est le système cardiovasculaire. Pour qu'une personne puisse transpirer et se rafraîchir, le flux sanguin passe des organes centraux à la périphérie du corps. La perte d'eau par la sueur et la redistribution du flux sanguin entraînent une chute de la pression sanguine dans les organes centraux. Pour maintenir le flux sanguin dans les organes vitaux, le cœur tente de compenser en augmentant le rythme cardiaque.

Or, si la redistribution du flux sanguin s'accompagne d'une trop grande perte d'eau, la pression artérielle chutera dangereusement et causera des évanouissements, signe important d'un coup de chaleur. Dans le pire des cas, il peut entraîner une insuffisance cardiaque s'il n'est pas traité.

Le cerveau est un autre organe vital soumis au stress de la température. L'augmentation des températures perturbe la communication entre les cellules nerveuses, car la chaleur affecte la structure de l'ADN et des protéines, ainsi que l'intégrité de la membrane cellulaire. La déshydratation entraîne également des déséquilibres électrolytiques pouvant perturber la communication entre les cellules nerveuses et musculaires. Plus la surchauffe dure longtemps, plus les conséquences peuvent être graves. Les voies cognitives peuvent être déréglementées et provoquer des altérations émotionnelles telles qu'une anxiété accrue, des maux de tête et une altération du jugement.

Le refroidissement du cerveau passe par le système respiratoire. Le corps augmente la fréquence de respiration, refroidissant le sang circulant vers et depuis le cerveau. L'air en circulation peut être considéré littéralement comme une sorte de système de climatisation naturel. Cependant, un effet indésirable est que le pH sanguin augmente en raison de la diminution de la pression de bicarbonate et de CO2, ce qui pourrait compromettre le fonctionnement des cellules dans d'autres organes.

L'intestin est un autre système d'organes majeur recevant moins de sang en raison de sa redistribution à la périphérie. Cela empêche le bon fonctionnement et, dans des cas extrêmes, peut provoquer des nausées et des vomissements.

Enfin, la perte d'eau et de sels provoque également des réactions dans les voies urinaires. Sous l'influence d'une hormone spéciale du cerveau, l'hormone antidiurétique, la réabsorption d'eau et de sels est stimulée pour contrecarrer la perte de tension artérielle dans le système cardiovasculaire. En conséquence, les reins produisent une urine moins dense mais plus concentrée, de couleur plus brune. Des périodes prolongées de températures élevées et de déshydratation peuvent entraîner des lésions tissulaires au niveau des reins

En terminant, comme le soulignent les chercheurs, les personnes particulièrement à risque sont les personnes âgées et les patients cardiaques dont le système cardiovasculaire est déjà surchargé. De plus, les personnes âgées sont peut-être moins conscientes des dangers de la chaleur, car leurs capteurs de chaleur corporelle fonctionnent moins bien que ceux des jeunes. Les bébés et les enfants en bas âge dépendent de leurs parents pour prendre les mesures nécessaires pour les protéger.

dimanche 14 juillet 2019

Une commotion cérébrale peut coûter un emploi, surtout si le patient est jeune avec une éducation supérieure

Selon une étude menée par l'University of Copenhagen publiée dans BMJ Open, une commotion cérébrale pourrait éventuellement coûter un emploi, surtout si la personne est âgée dans la trentaine et possède une formation supérieure.

Comme le soulignent les chercheurs, chaque année, 25 000 personnes au Danemark sont diagnostiquées dans des hôpitaux avec une commotion cérébrale (lésion cérébrale traumatique légère) qui représente environ 90% de toutes les lésions traumatiques à la tête. Bien que la mortalité soit faible et qu'une intervention chirurgicale soit rarement nécessaire, jusqu'à 15% des patients souffrent de symptômes persistants et d'une déficience fonctionnelle à la suite de la lésion, ce qui peut entraîner des coûts personnels élevés et rendre souvent difficile la reprise de leur vie normale et de leur travail . L’étude danoise comprend tous les groupes de patients et est représentative de la population danoise en termes d’âge, de géographie, d’éducation, de contexte familial et d’état matrimonial.

À l'aide de données de registres provenant de 19 732 Danois âgés de 18 à 60 ans et ayant toutes reçu un diagnostic de commotion, les chercheurs ont retracé l'attachement des patients au marché du travail pendant cinq ans et ont comparé les données à un groupe témoin de personnes sans commotion.

Ils ont constaté que les personnes ayant subi une commotion cérébrale couraient un risque nettement plus élevé de perdre leur emploi cinq ans après le traumatisme. Surtout deux groupes de patients ont été sévèrement frappés par des symptômes à long terme: les trentenaires et ceux ayant une éducation supérieure.

Les chercheurs mentionnent ne pas avoir étudié physiquement les patients et ni leurs dossiers médicaux pour évaluer les symptômes médicaux des patients à la suite de la commotion. Ils se sont contentés d'analyser leurs données relatives au marché du travail six mois et cinq ans après le traumatisme crânien, respectivement. En conséquence, ils ont été surpris de découvrir que les personnes âgées de 30 à 39 ans et celles ayant fait des études supérieures sont beaucoup plus susceptibles d’avoir perdu leur lien avec un emploi normal à la suite d’une commotion cérébrale.

Alors que les personnes ayant un faible niveau d’instruction (c’est-à-dire 9 années d’enseignement primaire et aucune autre éducation après celle-ci) courent un risque 30% plus élevé de quitter le marché du travail normal à la suite d’une commotion que les personnes sans commotion, le même risque est supérieur à 215% pour les personnes ayant fait des études supérieures (c’est-à-dire 12 années d’études ou plus, par exemple des études collégiales ou universitaires).

Les chercheurs mentionnent que les conséquences d'une commotion cérébrale ont de telles répercussions sur ce groupe de personnes et sur leur capacité à conserver un emploi normal, même cinq ans après le traumatisme. Des symptômes à long terme, tels que la fatigue et des difficultés de concentration, peuvent évidemment affecter toute personne. Quel que soit leur niveau d’éducation, il est évident que les diplômés de l’enseignement supérieur courent un plus grand risque de perdre leur emploi, ce qui pourrait être dû au fait qu’ils occupent souvent des emplois pour lesquels ils planifient et hiérarchisent leurs tâches et leur charge de travail

Les chercheurs ont également identifié un autre groupe spécifique de patients présentant un risque nettement plus élevé de quitter le marché du travail à la suite d'une commotion cérébrale, soit les personnes âgées de 30 à 39 ans. Les données ont révélé que le risque de quitter un emploi régulier cinq ans après une commotion était deux fois plus élevé que celui des personnes du même âge du groupe témoin sans commotion.

Pour les personnes dans la quarantaine, le risque de perdre un emploi à la suite d'une commotion cérébrale est augmenté d'environ 30% par rapport à ses pairs sans commotion cérébrale, tandis que les chercheurs ont à peine constaté une augmentation du nombre de personnes quittant le marché du travail à la suite d'une commotion cérébrale dans le groupe des 50-59 ans.