Fluctuations rapides de la tension ou flicker.
La mise en marche de charges variables comme des fours à arc, des imprimantes laser, des micro-ondes ou des systèmes d'air conditionné provoque des variations rapides de tension électrique.
Ce phénomène est appelé papillotement et il est quantifié par la valeur du tlicker.
Celui-ci est en réalité un calcul statistique issu de la mesure des variations rapides de tension et
défini par la norme EN 61000-4-15. En plus de conséquences éventuelles sur les équipements industriels,ces variations peuvent entraîner des effets négatifs sur l'homme (mal de tête, irritabilité et parfois même épilepsie).
Ces troubles ressentis par le système visuel humain et aux conséquences variées sont dus aux variations d'intensité lumineuse de l'éclairage. La méthode de mesure doit pouvoir quantifier la gêne ressentie et prendre en compte les mécanismes de la vision. Pour cela, le flicker doit être évalué sur une période de temps suffisamment longue. De plus, en raison de sa nature aléatoire (car le papillotement est provoqué uniquement par certaines charges), le niveau instantané de flicker peut varier considérablement et de façon imprévisible pendant cette période. Un intervalle de 10 minutes a été jugé comme étant un bon compromis pour évaluer ce qui est appelé le flicker courte durée ou Pst" Il est assez long pour éviterd'accorder trop d'importance à des variations isolées de tensions. TI est également assez long pour permettre à une personne non avertie de remarquer la perturbation et sa persistance. La période de 10 minutes sur laquelle a été basée l'évaluation de la sévérité du flicker de courte durée est valable pour l'estimation des perturbations causées par des sources individuelles telles que les laminoirs, pompes à chaleur ou appareils électrodomestiques, Dans le cas où l'effet combiné de plusieurs charges perturbatrices fonctionnant de manière aléatoire (par exemple des postes de soudure ou des moteurs) doit être pris en compte ou quand il s'agit de sources de flicker à électronique de puissance (variateurs, onduleurs, convertisseurs statiques, gradateurs de lumière, postes de soudure). Plus généralement tous les matériaux incorporant des redresseurs et des électroniques de découpage déforment les courants et créent des fluctuations de tension sur le réseau de distribution basse tension.
C'est la concentration de nombreuses "sources de pollution" en harmoniques qui génère des niveaux de perturbations sur le réseau susceptibles d'entraîner des incidents.
Les conséquences peuvent être instantanées sur certains appareils électroniques: troubles fonctionnels (synchronisation, commutation), disjonctions intempestives, erreurs de mesure sur des compteurs d'énergie ... Les échauffements supplémentaires induits peuvent, à moyen terme, diminuer la durée de vie des machines tournantes, des condensateurs, des transformateurs de puissance et des conducteurs de neutre. D'un point de vue plus théorique, on appelle harmonique une superposition sur l'onde fondamentale à 50 Hz d'ondes également sinusoïdales mais de fréquences multiples de celle du fondamental. Lorsque le signal possède des composantes superposées à l'onde fondamentale (50 Hz) qui ne sont pas multiples de la fondamentale (par exemple 175 Hz), ce sont des inter-harmoniques.
Le niveau de ces inter-harmoniques est également en augmentation en raison du développement des convertisseurs de puissance et des variateurs de vitesse et autres équipements similaires de contrôle-commande. Toutes ces harmoniques peuvent être additionnées : la résultante en est
le THD (Total Harmonies Distortion). Le domaine des fréquences qui correspond à l'étude des harmoniques est généralement compris entre 100 et 2000 Hz, soit entre l'harmonique de rang 2 jusqu'à celle de rang 40. Les niveaux maximums, rang par rang, sont définis dans les normes CEl 61000-2-2 pour la BT et CEl 61000-2-12 pour la MT.
Afin de mesurer les harmoniques courant ou tension, on utilise la transformée de Fourier permettant de décomposer un signal périodique en une somme de signaux sinusoïdaux multiples de la fréquence fondamentale. Les instruments de mesure actuels doivent être capables d'effectuer cette analyse d'harmonique rang par rang et également au niveau global (THD) afin d'effectuer avec finesse un
diagnostic de l'installation. Marie-Aude MASSIN
critiques du Rapport CSTB (Centre Scientifique et Technique du Bâtiment)
sur le Linky
Les valeurs de champs magnétiques mesurés en mode rayonné à 20 centimètres sont données par le CSTB en microTeslas (µt) soit en induction magnétique.
Cette erreur a souvent été dénoncée par le CRIIREM (Assemblée Nationale, OPECST, ADEME), sur le plan de la physique, les microTeslas sont réservés aux extrêmement basses fréquences (ELF). Par contre, sur le plan de la métrologie la bande de fréquences LF (30 kHz à 95 MHz) utilisée par le système CPL du Linky (G1 et G3) se mesure classiquement en Ampères par mètre (A/m), soit en champs magnétiques (INRS-ISBN-2-7389-0368-1).
Contrairement à ce qu’affirmait ENEDIS, le signal CPL circule en amont et en aval sur les câbles et donc dans les lieux de Vie. Par contre les valeurs détectées sont faibles, très inférieures aux 6,25 microTeslas (5 A/m) afin d’éviter une action directe sur les fonctions du système nerveux (Recommandation 1999/519/CE, Décret n°2002-775) et inférieures aux 0,03 microTeslas (24 mA/m) de la Résolution TAMINO afin d’éviter des effets sanitaires à long terme.
Le champ électrique conduit, ou intensité du courant électrique est mesuré en milliAmpères (mA) par le CSTB, habituellement du domaine d’un électricien. Par contre, le champ électrique rayonné n’est pas mesuré en volts par mètre (V/m), c’était pourtant essentiel.Le CRIIREM demande de mettre en place une commission indépendante et multipartite qui pourra déterminer le bon protocole à appliquer et ainsi avoir une étude complète et objective sur l’impact du dispositif Linky. source CRIIREM
La LDE engendre une surconsommation d’énergie … payée par les consommateurs !
Les Expertises Judiciaires qui vont être demandées ne pourront que confirmer qu’avec la Linky Dirty Electricity (les harmoniques et interharmoniques du CPL du Linky) en kHz EDF/ENEDIS commercialise de l’énergie électrique dont le rendement de 1 kWh est inférieure à 3 600 KiloJoules, donc de mauvaise qualité, ce qui engendre à équivalence une surconsommation d’énergie électrique.
Tous les électriciens le savent, parce que les lois de la physique universelle et les mesures démontrent que dans tous les cas les harmoniques (fréquences parasitaires multiples de 50 Hz) et les interharmoniques (fréquences parasitaires qui ne sont pas multiples de 50 Hz) de la LDE provoquent une diminution de la Valeur Efficace (RMS) du fondamental (courant électrique 50 Hz) et en corolaire par des effets issus de facteurs physiques (des pertes dans tous les circuits magnétiques appelées aussi pertes de fer, courants de Foucault, échauffements, surcharges, etc …) une augmentation de la consommation qui est compensée en équivalence (régulation), un comble pour un compteur dont ENEDIS promet l’inverse !
A cela se rajoute, toujours par rapport à la Linky Dirty Electricity et les lois de la physique universelle une kyrielle d’autres problèmes qui sont constatés actuellement par les consommateurs, soit des troubles fonctionnels de synchronisation et disfonctionnements intempestifs qui diminuent la durée des machines tournantes (notamment tous les moteurs des appareil ménagers), mais qui aussi abrège la durée de vie de l’électronique (dont celles des postes de télévision), des condensateurs de protection des batteries (dont ceux des onduleurs) ainsi que celle de tous les condensateurs de filtrage des alimentations électroniques, provoque l’échauffement du neutre (incendies sur les chemins de câbles et les installations sous-dimensionnées), augmente fortement les harmoniques des tubes fluorescents et de toutes les LFC, dérègle les protections électroniques des circuits par des retards ou surcharges, etc. source NEXTUP
Linky et CPL G3
téléphone portable
l’American Academy of Pediatrics (AAP) dit s’inquiéter du fait que des enfants de plus en plus jeunes adoptent le cellulaire alors que leur corps et leur intellect sont en plein développement. Ronald L. Melnick affirme : "Pour les enfants, les risques de cancer du cerveau sont bien supérieurs à ceux des adultes en raison d’une plus grande pénétration et absorption du rayonnement du téléphone cellulaire dans leur cerveau, et parce que leur système nerveux en développement est beaucoup plus sensible".l’AAP qui déconseille leur usage par les tout-petits.
Par précaution, pas de portable pour les enfants avant l’âge de 15 ans. Maintenez le cellulaire à au moins 3 cm de votre tête durant une conversation.
Utilisez la messagerie texte autant que possible, sinon téléphonez en mode haut-parleur ou avec un kit filaire mains-libres ou en cas d'urgence Bluetooth. Les ondes WIFI ne se propagent pas dans les écouteurs mains libres – qui fonctionnent dans la bande auditive 20 Kilo Hertz (20 000Hz) différente de la bande de 2,4 Giga Hertz. Le BlueTooth émet un signal à 2,4 Giga Hertz également qui porte à environ 10 mètres face au signal WIFI qui porte à plus de 500 m en champ ouvert. Il faut garder à l'esprit que le portable en voiture, train, métro est un danger sanitaire. Tout déplacement oblige le téléphone à sans cesse chercher le réseau, augmente la puissance d’émission des ondes et la structure métallique autour les emprisonne et les répercute sur vous (effet «cage de Faraday»). Quid du véhicule connecté. Il s'agit de justifier cette nouvelle manne financière en soulignant la "protection de l'usager". Rassurer la conscience collective par sa prise en charge au plus haut degré et passer sous silence les effets de saturation dans un habitacle confiné. Quant à la question subsidiaire : l'accélération de l'épuisement des terres rares ? Elle passe à la trappe. Le volet physiologique ? Nous verrons plus tard…
Les preuves s'accumulent peu à peu quant au danger du téléphone portable, que dire d'un système connecté dans une automobile.
Des chercheurs français viennent de découvrir un nouvel élément de réponse. Dans une étude publiée dans la revue scientifique Occupational and Environmental Medicine, l'équipe montre que le risque de développer une tumeur cérébrale est deux fois plus élevé pour les gros utilisateurs. (les personnes qui passent plus de quinze heures au téléphone dans le mois, soit une demi-heure par jour). Mais l'essentiel, c'est de rester connecté dit, la publicité, pilier de notre société, au travers d'expressions teintées de suffisance...
Les concentrateurs LINKY
Etude : Association Environnementale NextUp
LA 5G MILLIMÉTRIQUE FAIT SUER LES INGÉNIEURS
Voici un court extrait traduit de cet article technique décrivant l'énorme casse-tête technologique que représente la développement de la 5G.
Un des problèmes auquel cet article s'intéresse est la surchauffe importante causée par les circuits électroniques à l'intérieur des boitiers d'antennes — pouvant contenir jusqu'à 512 antennes émettrices et 512 antennes réceptrices, chaque paire d'antennes émettrice/réceptrice pouvant établir la communication avec un seul appareil 5G sans fil, d'où une autre raison de déployer un nombre astronomique de ces boitiers en prévision de la multiplication exponentielle prévue du nombre d'appareils et d'objets connectés que le réseau 5G est appelé à desservir.
La chaleur (qui doit être dissipée naturellement à l'extérieur, sans l'usage de ventilation bruyante augmentant la consommation d'énergie... [et on imagine tous les dysfonctionnements que les périodes de canicules vont donc occasionner)], est telle que les micro-antennes perdent leur capacité à bien focaliser le faisceau directionnel nécessaire pour compenser la faible portée et la faible pénétration des très courtes fréquences de la 5G.
Arriver à faire fonctionner cette technologie pour qu'elle soit à la hauteur des attentes générées par tout le baratin mensonger des chantres de la 5G est un défi d'une effroyable complexité.
Une des conséquences encore plus effroyable des efforts des ingénieurs pour livrer la marchandise est que les impacts sur la santé et l'environnement sont totalement ignorés dans la course à la puissance et à la stabilité des connexions. Très inquiétant!
Extrait traduit : Malgré son surnom, la 5G est plus une déclaration de direction qu'une technologie unique. La version inférieure à 6 GHz, qui est celle qui est déployée aujourd'hui, ressemble plus à la 4,5G. L'atténuation du signal est modeste et ces appareils se comportent un peu comme les téléphones portables d'aujourd'hui. Mais lorsque la technologie des ondes millimétriques commencera à être déployée (les projections actuelles sont en 2021 ou 2022), tout changera considérablement. Cette tranche du spectre est si sensible qu'elle peut être bloquée par les vêtements, la peau, les fenêtres et parfois même le brouillard.
Le résultat est que beaucoup plus d'antennes micro-cellulaires seront nécessaires pour garder les appareils connectés et les stations de base et les appareils mobiles chercheront constamment des moyens de rester connectés. Comme toute personne possédant un téléphone portable le sait, la recherche de signaux décharge la batterie plus rapidement. Mais cela maintient également les circuits logiques actifs, ce qui génère de la chaleur. Dans les stations de base, qui sont remplies de racks d'équipements, l'accumulation thermique peut provoquer toutes sortes de problèmes. Cela peut avoir un impact sur l'intégrité du signal et réduire la durée de vie de tous les composants.
« Lorsque vous avez une fréquence avec une portée qui n'est pas aussi grande que celle d'une tour cellulaire, vous devez ajouter beaucoup plus de densité au réseau pour obtenir la même quantité de connectivité », explique Michael Foegelle, directeur du développement technologique chez ETS-Lindgren. « Lorsque vous concevez ces boitiers d'antennes, vous devez supposer qu'ils seront à l'extérieur, et vous devez les concevoir de manière à dissiper tout cette chaleur. Comme vous êtes à l'extérieur et que vous ne voulez pas risquer de mettre en place un refroidissement actif, vous devrez peut-être aller souvent le réparer et cela veut dire qu'il faut beaucoup de refroidissement ambiant [pour ne pas avoir à le faire].
Lien vers l'article: https://semiengineering.com/5g-heats-up-base-stations/
--
Patrice Goyaud ROBIN DES TOITS 81
La technologie des antennes 5G utilise un balayage complet du faisceau dans l’espace de son champ d’action sur une durée de 20 millisecondes, soit 50 fois par seconde.
Je me permets d'apporter quelques éléments importants pour ne pas se faire berner par les autorités et les opérateurs :
1/ "La technologie des antennes 5G utilise un balayage complet du faisceau dans l’espace de son champ d’action sur une durée de 20 millisecondes, donc 50 fois par minute (MIMO)." en réalité c'est 50 fois par secondes. De plus il y aura plusieurs faisceaux. Avec ces faisceaux très fins on vous géolocalisera précisément même dans un bâtiment, on saura à quel étage et dans quelle pièce vous êtes (ce qui est impossible avec un GPS) ;
2/ Attention, les pulses à 216 Hz ne concernent pas les antennes relais mais les téléphones portables en 2G. Pour les antennes le rapport cyclique dépend du nombre d'utilisateurs et du débit Les antennes relais 3G émettent en pulsés, ce sont uniquement les téléphones portables en 3G qui ne sont pas pulsés ;
3/ "Les puissances cumulées émises dans une direction donnée varient de 1000 à 2000 Watts, d’où des valeurs d’exposition de : - 1,5 à 3 V/m à 100m - 0,5 à 1 V/m à 300m" mais ce calcul théorique n'est à peu près vrai que si je mesure en valeur PIC (qui tient compte des effets biologiques).
Le problème est que l'ANFR mesure en valeur RMS (valeur moyenne efficace) car ils tiennent compte uniquement des effets thermiques. Entre valeur PIC et valeur RMS, sur une antenne relais on a classiquement une différence de 5 à 6 en V/m et donc l'ANFR mesurera à 100 m 0,3 à 0,6 V/m au lieu de -1,5 à 3V/m qui sont les valeurs réelles.
Il est important de savoir cela car sinon ils vous rouleront dans la farine en vous montrant des valeurs bien au-dessous de la norme "officielle" qui est une norme faite pour la protection uniquement sur le très court terme et en aucun cas pour une exposition permanente.
Retenez bien cela : au début de la 5G il y aura peu d'utilisateurs donc les mesures ne montreront que la partie émergée de l'iceberg.
Dans 2 ou 3 ans avec de très nombreux utilisateurs et des milliards d'objets connectés en tout genre (drôles, voiture autonome...) les niveaux mesurés n'auront rien à voir.
Cordialement david BRUNO