Rechercher dans ce blog
mardi 17 janvier 2023
High-low split poker
Radio_données haute capacité/Radio de données haute capacité :
La radio de données à haute capacité (HCDR) est un développement de la radio numérique à court terme (NTDR) pour le gouvernement britannique dans le cadre du système de communication Bowman. Il s'agit d'un système radio UHF large bande 225–450 MHz sécurisé qui fournit une capacité de dorsale Internet autogérée basée sur IP sans avoir besoin d'autres communications d'infrastructure (téléphone mobile, communications fixes). Il existe également une version d'exportation qui intègre le cryptage Advanced Encryption Standard (AES) plutôt que le cryptage de type 1 du gouvernement britannique. La radio offre un débit de liaison (terminal à terminal) de 500 kbit/s. Un déploiement de plus de 200 véhicules militaires équipés de HCDR peut se configurer et s'autogérer automatiquement dans un réseau maillé autonome entièrement connecté communiquant à l'aide de protocoles de réseau mobile ad hoc (MANET). La radio est un routeur à trois ports compatible IPv4 doté d'un port radio, d'un port Ethernet et d'un port série PPP. La radio de 20 watts a une puissance d'émission adaptative et une correction d'erreur directe adaptative et peut atteindre de manière optimale des portées au sol jusqu'à 15 km avec des antennes omnidirectionnelles. Une version maritime permet un fonctionnement radio LAN au sein de flottilles de navires de guerre jusqu'à 20 km de distance. La radio dispose d'une modulation codée avec des modems de données radio internes à large bande ou à bande étroite.
Magasin grande capacité/Magasin grande capacité :
Un chargeur de grande capacité (ou chargeur de grande capacité) est un chargeur capable de contenir plus que le nombre habituel de cartouches de munitions pour une arme à feu particulière. Un chargeur peut également être défini comme de grande capacité au sens juridique, sur la base du nombre de rondes autorisées par la loi dans une juridiction particulière. Par exemple, aux États-Unis, l'interdiction fédérale des armes d'assaut de 1994, désormais expirée, limitait les chargeurs pouvant contenir plus de dix cartouches.
Magazine haute capacité_ban/Interdiction de magazine haute capacité :
Une interdiction des chargeurs de grande capacité est une loi qui interdit ou restreint autrement les chargeurs de grande capacité, les chargeurs d'armes à feu amovibles pouvant contenir plus d'un certain nombre de cartouches. Par exemple, aux États-Unis, l'interdiction fédérale des armes d'assaut de 1994, désormais expirée, incluait des limites concernant les chargeurs pouvant contenir plus de dix cartouches. À partir de 2022, douze États américains et un certain nombre de gouvernements locaux interdisent ou réglementent les magazines qu'ils ont légalement définis comme à grande capacité. La majorité des États n'interdisent ni ne réglementent aucun magazine en fonction de sa capacité. Les États qui ont des interdictions ou des restrictions pour les chargeurs de grande capacité ne s'appliquent généralement pas aux armes à feu à chargeurs fixes dont la capacité dépasserait autrement le seuil de grande capacité. L'interdiction fédérale qui était en vigueur de 1994 à 2004 définissait un chargeur capable de contenir plus de 10 cartouches de munitions comme un dispositif d'alimentation en munitions de grande capacité. De même, l'État de Californie définit un magasin de grande capacité comme "tout dispositif d'alimentation en munitions ayant une capacité d'accepter plus de 10 cartouches". De tels dispositifs sont communément appelés magasins de grande capacité. Parmi les États interdisant, la capacité maximale est de 10 à 20 cartouches. Plusieurs municipalités, comme la ville de New York, limitent la capacité du chargeur à 5 cartouches pour les carabines et les fusils de chasse.
Management à haut engagement / Management à haut engagement :
La gestion à haut engagement est un style de gestion qui met l'accent sur la responsabilité personnelle, l'indépendance et l'autonomisation des employés à tous les niveaux au lieu de se concentrer sur une puissance supérieure ; il a toujours eu l'intention de maintenir l'engagement à un niveau élevé « à tous les coups ». Un système d'engagement élevé est inhabituel dans sa conception du travail et sa structure culturelle. Ces pratiques mettent l'accent sur l'achèvement des tâches, mais le font de manière à ce que leurs employés soient motivés à le faire. Selon Michael Beer, professeur à la Harvard Business School, « les dirigeants développent une conception organisationnelle, des processus commerciaux, des objectifs et des mesures et des capacités qui sont alignés sur une stratégie ciblée et gagnante ». Ce type d'environnement permet aux employés d'aborder les tâches à l'aise, de porter des jeans au lieu de costumes et de rester à la maison pour regarder leurs enfants monter dans le bus pour l'école avant de venir travailler. La technologie joue également un rôle dans ce système. Au cours de la dernière décennie, la technologie a brisé et transformé les barrières de la communication, ce qui donne un avantage potentiel à la structure non rigide du modèle à haut engagement. Ce père qui attend le bus peut toujours répondre aux appels téléphoniques et consulter ses e-mails pour le travail, alors travaille-t-il ou passe-t-il du temps avec sa fille ? Il peut faire les deux. Tant que le travail est fait, ce système est décontracté sur la façon dont il est fait, soulageant les employés d'un stress constant. De nombreuses personnes pensent qu'une structure organisationnelle plate est l'un des principaux facteurs de réussite. Les individus sont responsables de leur propre prise de décision et ces décisions, leurs compétences et leurs performances sont la façon dont ils sont payés. Au lieu d'accorder trop de poids à l'individu, "les gens sont susceptibles de voir le lieu du contrôle venir de" l'intérieur "par l'adoption d'exigences et de pressions auto-créées par opposition à l'extérieur et les faisant se sentir subordonnés". Si ces entreprises permettent à chaque employé d'être un manager à sa manière et essaient de ne pas distinguer sa structure par des niveaux d'emploi plus élevés, cela ne signifie pas qu'elles sont totalement dépourvues de ces pouvoirs supérieurs. C'est que dans ce système, les gens ne comptent pas sur les directeurs généraux, les PDG ou d'autres employés pour faire leur travail à leur place. Cette discipline personnelle est ce qui pousse les employés à aider l'entreprise à réussir. et élimine le « Pourquoi voudrais-je aider mon entreprise à s'améliorer si je sais que je vais juste me faire crier dessus ? » mentalité. Un autre objectif des pratiques à haut engagement est leurs relations avec les employés. Ils n'embauchent que des personnes flexibles, déterminées et prêtes à relever des défis. Étant donné que ce système repose sur la performance individuelle, l'accent est mis sur l'embauche des bonnes personnes pour le poste. Le processus de recrutement détaillé peut consister en de nombreux entretiens avec divers membres de l'entreprise, un cours d'initiation et, dans certains cas, des exercices de consolidation d'équipe. Une fois trouvés, les bons employés aident à créer un lien fort et une grande confiance dans toute l'entreprise. Les lieux de travail à haut niveau d'engagement réussissent en s'appuyant sur la responsabilité d'un individu afin d'aider l'équipe à s'améliorer. En créant une culture qui motive les individus à vouloir réussir tout en maintenant un engagement élevé, « ces entreprises se démarquent en ayant atteint de longues périodes d'excellence ».
État à haute conductance/État à haute conductance :
Le terme état de haute conductance décrit un état particulier des neurones dans des états spécifiques du cerveau, comme par exemple lors de l'éveil, des états attentifs, ou encore lors de certains états anesthésiés. Dans les neurones individuels, l'état de haute conductance est formellement défini par le fait que la conductance synaptique totale reçue par le neurone est supérieure à sa conductance naturelle au repos (ou de fuite), donc dans un sens, le neurone est "piloté" par ses entrées plutôt que d'être dominé par son activité intrinsèque. Les états à haute conductance ont été bien caractérisés expérimentalement, mais ils ont également motivé de nombreuses études théoriques, notamment en relation avec la quantité considérable de "bruit" présent dans de tels états. On pense que ce "bruit synaptique" a des propriétés déterminantes sur le traitement neuronal, et peut même conférer plusieurs avantages de calcul aux neurones (voir les détails dans l'article High-Conductance State dans Scholarpedia). Le terme état de haute conductance est également utilisé pour décrire des états spécifiques de canaux ioniques uniques. Dans ce cas, l'état de haute conductance correspond à un état ouvert du canal qui est associé à une conductance particulièrement élevée par rapport aux autres états.
Mode haut confinement/Mode haut confinement :
Le mode à haut confinement, ou mode H, est un mode de fonctionnement possible dans les dispositifs de fusion à confinement magnétique toroïdal - principalement des tokamaks, mais aussi dans des stellarators. Dans ce mode le plasma est plus stable et mieux confiné. Il a été découvert par Friedrich Wagner en 1982 lors du chauffage par faisceau neutre du plasma à l'ASDEX. Elle a depuis été reproduite dans tous les grands dispositifs de confinement toroïdal et est prévue dans l'exploitation d'ITER. Sa description théorique cohérente était un sujet de recherche en 2007. Elle était encore considérée comme un mystère avec plusieurs théories concurrentes (par exemple, le modèle prédateur-proie) en 2016.
Projection à haut contenu / Projection à haut contenu :
Le criblage à haut contenu (HCS), également connu sous le nom d'analyse à haut contenu (HCA) ou cellomique, est une méthode utilisée dans la recherche biologique et la découverte de médicaments pour identifier des substances telles que de petites molécules, des peptides ou des ARNi qui modifient le phénotype de une cellule de la manière souhaitée. Par conséquent, le criblage à haut contenu est un type de criblage phénotypique effectué dans des cellules impliquant l'analyse de cellules entières ou de composants de cellules avec lecture simultanée de plusieurs paramètres. Le HCS est lié au criblage à haut débit (HTS), dans lequel des milliers de composés sont testés en parallèle pour leur activité dans un ou plusieurs tests biologiques, mais implique des tests de phénotypes cellulaires plus complexes comme sorties. Les modifications phénotypiques peuvent inclure des augmentations ou des diminutions de la production de produits cellulaires tels que des protéines et/ou des modifications de la morphologie (aspect visuel) de la cellule. Par conséquent, HCA implique généralement une microscopie automatisée et une analyse d'image. Contrairement à l'analyse à haut contenu, le filtrage à haut contenu implique un niveau de débit, c'est pourquoi le terme « criblage » différencie HCS de HCA, qui peut avoir un contenu élevé mais un débit faible. Dans le criblage à haute teneur, les cellules sont d'abord incubées avec la substance et après un certain temps, les structures et les composants moléculaires des cellules sont analysés. L'analyse la plus courante consiste à marquer les protéines avec des étiquettes fluorescentes, et enfin les modifications du phénotype cellulaire sont mesurées à l'aide d'une analyse d'image automatisée. Grâce à l'utilisation d'étiquettes fluorescentes avec différents maxima d'absorption et d'émission, il est possible de mesurer plusieurs composants cellulaires différents en parallèle. En outre, l'imagerie est capable de détecter des changements à un niveau subcellulaire (par exemple, cytoplasme vs noyau vs autres organites). Par conséquent, un grand nombre de points de données peuvent être collectés par cellule. En plus du marquage fluorescent, divers tests sans marqueur ont été utilisés dans le criblage à haute teneur.
Cultures à contexte élevé et à faible contexte / Cultures à contexte élevé et à faible contexte :
En anthropologie, la culture à contexte élevé et la culture à faible contexte sont les extrémités d'un continuum d'explicitation des messages échangés dans une culture et d'importance du contexte dans la communication. Le continuum représente la façon dont les gens communiquent avec les autres à travers leur éventail de capacités de communication : en utilisant des gestes, des relations, le langage corporel, des messages verbaux ou des messages non verbaux. Les cultures à contexte «élevé» et «faible» font généralement référence à des groupes linguistiques, des nationalités ou des communautés régionales. Cependant, le concept peut également s'appliquer aux entreprises, aux professions et à d'autres groupes culturels, ainsi qu'à des contextes tels que la communication en ligne et hors ligne. Les cultures à contexte élevé présentent souvent une communication verbale et non verbale moins directe, utilisant de petits gestes de communication et lisant plus de sens dans ces messages moins directs. Les cultures à faible contexte font le contraire ; la communication verbale directe est nécessaire pour bien comprendre un message communiqué et s'appuie fortement sur des compétences verbales explicites. Le modèle des cultures à contexte élevé et à faible contexte offre un cadre populaire dans les études de communication interculturelle, mais a été critiqué comme manquant de validation empirique.
Régime_maladie à franchise élevée/Régime santé à franchise élevée :
Aux États-Unis, un plan de santé à franchise élevée (HDHP) est un plan d'assurance maladie avec des primes inférieures et des franchises plus élevées qu'un plan de santé traditionnel. Il vise à encourager les soins de santé axés sur le consommateur. Être couvert par un HDHP est également une exigence pour avoir un compte d'épargne santé. Certains plans HDHP offrent également des prestations de « bien-être » supplémentaires, fournies avant le paiement d'une franchise. Les plans de santé à franchise élevée sont une forme de couverture catastrophique, destinée à couvrir les maladies catastrophiques. Les taux d'adoption des HDHP ont augmenté depuis leur création en 2004, non seulement avec l'augmentation des options des employeurs, mais également avec l'augmentation des options du gouvernement. En 2016, les HDHP représentaient 29 % du total des travailleurs couverts aux États-Unis ; cependant, l'impact d'une telle conception des prestations n'est pas largement compris.
Suivi de fibre haute définition/Suivi de fibre haute définition :
Le suivi des fibres haute définition (HDFT) est une technique de tractographie dans laquelle les données des scanners IRM sont traitées par des algorithmes informatiques pour révéler le câblage détaillé du cerveau et localiser les faisceaux de fibres. Chaque voie contient des millions de connexions neuronales. HDFT est basé sur des données acquises à partir de l'imagerie du spectre de diffusion et traitées par imagerie généralisée à échantillonnage q. La technique permet de disséquer virtuellement 40 faisceaux de fibres majeures dans le cerveau. Le scan HDFT est cohérent avec l'anatomie du cerveau contrairement à l'imagerie du tenseur de diffusion (DTI). Ainsi, l'utilisation de HDFT est essentielle pour identifier les connexions neuronales endommagées.
Carte haute définition/Carte haute définition :
Une carte haute définition (carte HD) est une carte très précise utilisée dans la conduite autonome, contenant des détails qui ne sont normalement pas présents sur les cartes traditionnelles. Ces cartes peuvent être précises au centimètre près. Les cartes HD sont souvent capturées à l'aide d'un ensemble de capteurs, tels que des LiDAR, des radars, des appareils photo numériques et des GPS. Les cartes HD peuvent également être construites à l'aide d'images aériennes. Les cartes haute définition pour les voitures autonomes incluent généralement des éléments cartographiques tels que la forme de la route, le marquage routier, les panneaux de signalisation et les barrières. Le maintien d'une grande précision est l'un des plus grands défis dans la création de cartes HD de routes du monde réel. En ce qui concerne la précision, deux points principaux déterminent la qualité d'une carte HD : la précision globale (positionnement d'un élément à la surface de la Terre) la précision locale (positionnement d'un élément par rapport aux éléments routiers qui l'entourent). Dans les zones avec une bonne réception GPS, il est possible d'obtenir une précision globale de moins de 3 cm d'écart en utilisant les signaux satellites et les données de correction des stations de base. Dans les zones sans GPS, cependant, l'imprécision augmente avec la distance parcourue dans la zone, étant la plus grande en son milieu. Cela signifie que l'erreur GPS maximale peut être exprimée en pourcentage de la distance parcourue dans une zone interdite au GPS : cette valeur est inférieure à 0,5 %.
High-definition optical_disc_format_war/Guerre de format de disque optique haute définition :
La guerre des formats de disque optique haute définition était une concurrence sur le marché entre les normes de disque optique Blu-ray et HD DVD pour le stockage de la vidéo et de l'audio haute définition; il a eu lieu entre 2006 et 2008 et a été remporté par Blu-ray Disc. Les deux formats sont apparus entre 2000 et 2005 et ont attiré à la fois le soutien mutuel et exclusif des principaux fabricants d'électronique grand public, des fabricants d'ordinateurs personnels, des producteurs et distributeurs de télévision et de films, et développeurs de logiciels. Les lecteurs Blu-ray et HD DVD sont devenus disponibles dans le commerce à partir de 2006. Au début de 2008, la guerre a pris fin lorsque plusieurs studios et distributeurs sont passés au disque Blu-ray. Le 19 février 2008, Toshiba a officiellement annoncé qu'il arrêterait le développement des lecteurs HD DVD, concédant la guerre des formats au format Blu-ray Disc.
Médias_préenregistrés_et_compression_haute-définition/Médias_pré-enregistrés_haute-définition et compression :
La première tentative de production de supports HDTV préenregistrés était un rare disque laser codé MUSE analogique japonais qui n'est plus produit (voir MUSE-LD ). Sur le marché américain, le premier support HD préenregistré actuellement disponible était le D-Theater. Comprenant moins de 100 titres et utilisant un flux MPEG2 de 28 Mbit/s à 720p ou 1080i avec encodage Dolby Digital 5.1 ou DTS, D-Theater est un format D-VHS crypté et uniquement des lecteurs D-VHS compatibles D-Theater. peut lire ces bandes. Ce format est supérieur à la TVHD diffusée en raison de sa bande passante plus élevée et, bien sûr, de la possibilité d'optimiser l'encodage en temps non réel, ce qui n'est pas possible avec la TVHD diffusée. D-Theater est actuellement un petit marché de niche, même au sein de la communauté HDTV de niche, et il semble que le titre final de D-Theater ait été publié en 2005 avec la sortie de 20th Century Fox de I, Robot. En 2006, les premiers médias HDTV optiques numériques préenregistrés ont été introduits. Il y avait deux normes concurrentes, Blu-ray Disc et HD DVD. Les premiers lecteurs et disques HD DVD sont sortis le 18 avril 2006 aux États-Unis. Le disque Blu-ray est sorti le 20 juin 2006.
Radio haute définition/Radio haute définition :
La radio haute définition peut faire référence à : Haute définition (émission de radio), émission de radio canadienne, lancée le 4 février 2006 HD Radio, nom de marque d'une méthode de transmission numérique des stations de radio AM et FM
Remasters haute définition_pour_consoles_PlayStation/Remasters haute définition pour consoles PlayStation :
Sony a publié un certain nombre de jeux vidéo PlayStation précédemment publiés, remasterisés en haute définition (HD) pour leurs nouvelles consoles, une forme de portage. Un certain nombre de programmes connexes existent, les deux plus importants étant "Classics HD" (également connu sous le nom de "HD Collection") et "PSP Remasters". Le premier se compose de plusieurs jeux PlayStation 2 compilés sur un disque Blu-ray. Ces derniers sont des jeux PlayStation Portable individuels republiés sur Blu-ray. Ces jeux ne sont pas des ports directs, mais des versions remasterisées en haute définition, pour tirer parti des capacités des nouvelles consoles. La remasterisation des jeux comprend des graphismes mis à jour, de nouvelles textures et la prise en charge des trophées, et certains des jeux remasterisés sortis sur PlayStation 3 ont inclus la prise en charge de la 3D et de PlayStation Move. Certains remasters HD ont également été publiés individuellement ou en lots sous forme de téléchargements sur le PlayStation Store ; d'autres sont publiés exclusivement en téléchargement. Cette remasterisation a commencé en 2009 avec la sortie de God of War Collection ; à l'origine, seuls les jeux PlayStation 2 (PS2) étaient remasterisés pour PlayStation 3 (PS3). Les jeux PlayStation Portable (PSP) ont commencé à être remasterisés pour ce dernier en 2011; Monster Hunter Portable 3e version HD. était le premier d'entre eux. Après la sortie de la PlayStation Vita en 2012, plusieurs des jeux PS2 et PSP remasterisés ont commencé à sortir pour cette plate-forme. Certains jeux PlayStation (PS1) originaux ont également commencé à être remasterisés. Avec le lancement de la PlayStation 4 (PS4) en 2013, les jeux Vita et PS3, en plus des jeux des anciennes plates-formes, ont commencé à être remasterisés pour cela. Les développeurs ont également remasterisé des jeux qui n'étaient pas initialement sortis sur une console PlayStation et les ont remasterisés pour les plates-formes PlayStation, en plus de les publier pour d'autres plates-formes non PlayStation. Cette remasterisation s'est étendue à la PlayStation 5 (PS5) avec sa sortie en novembre 2020, certains de ses titres de lancement étant des jeux PS4 remasterisés. Classics HD est le nom officiel donné à ces compilations en Europe ; aucun équivalent de ce nom n'existe en Amérique du Nord ou au Japon. Cependant, ces jeux incluent le sous-titre "Remastered in High Definition" ou "HD Collection" sur la couverture nord-américaine. PSP Remasters est le nom officiel donné par Sony aux collections contenant des remasters de jeux PSP. La gamme PSP Remasters comprend les mêmes fonctionnalités que la gamme Classics HD, ainsi que le jeu multiplateforme et les sauvegardes partageables entre les deux versions, cependant, PSP Remasters n'inclut pas la prise en charge des trophées. Les jeux remasterisés sortis sur PlayStation 4 ont parfois eu le sous-titre "HD Remaster", "Remastered" ou "Definitive Edition". Les remasters PlayStation 4 ont toutes les mêmes fonctionnalités que les collections remasterisées sur PS3, mais ne prennent pas en charge la 3D ou PlayStation Move, bien que les versions ultérieures puissent potentiellement prendre en charge Move; La 3D, cependant, n'est pas une fonctionnalité de la PlayStation 4 comme elle l'était sur la PlayStation 3.
Télévision haute définition/Télévision haute définition :
La télévision haute définition (HD ou HDTV) décrit un système de télévision qui fournit une résolution d'image sensiblement plus élevée que la génération précédente de technologies. Le terme est utilisé depuis 1936; plus récemment, il fait référence à la génération qui suit la télévision à définition standard (SDTV), souvent abrégée en HDTV ou HD-TV. Il s'agit du format vidéo standard de facto actuellement utilisé dans la plupart des diffusions : télévision terrestre, télévision par câble, télévision par satellite et disques Blu-ray.
Télévision haute définition_en_Australie/Télévision haute définition en Australie :
La télévision haute définition en Australie est disponible via le câble, l'IPTV, le satellite et la télévision terrestre. Les premières diffusions en haute définition ont commencé en 2001 et depuis lors, le nombre de chaînes disponibles a augmenté pour atteindre un maximum de 27 pouvant être visionnées sur le service de télévision payante Foxtel.
Télévision haute définition_à_Singapour/Télévision haute définition à Singapour :
La télévision haute définition à Singapour est déjà en « conversion d'étape ». Bien que de nombreux foyers à Singapour possèdent des téléviseurs HD ready ou Full HD, certains d'entre eux sont toujours diffusés en SDTV. Cependant, ceux-ci étaient en phase de conversion avec la télévision numérique.
Télévision haute définition_au_Royaume_Uni/Télévision haute définition au Royaume-Uni :
La télévision haute définition au Royaume-Uni est disponible via le câble, l'IPTV, le satellite et la télévision terrestre. Les premières diffusions en haute définition ont commencé fin 2005 et depuis lors, le nombre de chaînes disponibles est passé à un maximum de 87 pouvant être visionnées sur le service de télévision payante Sky. La majorité des chaînes au Royaume-Uni restent diffusées, et largement regardé, en définition standard, mais la plupart des grands diffuseurs ont commencé ou commencent bientôt leurs premières incursions dans la télévision haute définition. De même, la grande majorité du visionnage se fait toujours en définition standard, bien que la pénétration des écrans et des récepteurs haute définition augmente. Les émissions haute définition sont disponibles sur les services par satellite : Freesat, Freesat de Sky et Sky ; services de câble Smallworld Cable et Virgin TV et TNT HD terrestre.
Télévision haute définition_aux_États-Unis/Télévision haute définition aux États-Unis :
La télévision haute définition (HDTV) aux États-Unis a été introduite en 1998 et est depuis devenue de plus en plus populaire et dominante sur le marché de la télévision. Des centaines de chaînes HD sont disponibles dans des millions de foyers et d'entreprises, à la fois par voie terrestre et via des services d'abonnement tels que le satellite, le câble et l'IPTV. La TVHD est rapidement devenue la norme, avec environ 85 % de tous les téléviseurs utilisés en HD en 2018. Aux États-Unis, les formats 720p et 1080i sont utilisés pour les chaînes linéaires, tandis que le 1080p est disponible sur une base limitée, principalement pour le paiement à la carte. -afficher et vidéo sur le contenu de la demande. Certains réseaux ont également commencé à transmettre du contenu à 1080p via des canaux multiplex ATSC 3.0, les affiliés CBS et NBC étant les principales stations qui transmettent à 1080p.
Vidéo haute définition/Vidéo haute définition :
La vidéo haute définition (vidéo HD) est une vidéo d'une résolution et d'une qualité supérieures à la définition standard. Bien qu'il n'y ait pas de signification normalisée pour la haute définition, généralement toute image vidéo avec beaucoup plus de 480 lignes de balayage vertical (Amérique du Nord) ou 576 lignes verticales (Europe) est considérée comme haute définition. 480 lignes de balayage est généralement le minimum même si la majorité des systèmes le dépasse largement. Les images de résolution standard capturées à des vitesses plus rapides que la normale (60 images/seconde en Amérique du Nord, 50 ips en Europe) par une caméra à grande vitesse peuvent être considérées comme de la haute définition dans certains contextes. Certaines séries télévisées tournées en vidéo haute définition donnent l'impression d'avoir été tournées sur pellicule, une technique souvent appelée filmage.
Lipoprotéine de haute densité/Lipoprotéine de haute densité :
Les lipoprotéines de haute densité (HDL) sont l'un des cinq principaux groupes de lipoprotéines. Les lipoprotéines sont des particules complexes composées de plusieurs protéines qui transportent toutes les molécules de graisse (lipides) autour du corps dans l'eau à l'extérieur des cellules. Ils sont généralement composés de 80 à 100 protéines par particule (organisées par une, deux ou trois ApoA. Les particules HDL grossissent en circulant dans le sang, agrégeant plus de molécules de graisse) et transportent jusqu'à des centaines de molécules de graisse par particule.
Polyéthylène haute densité/Polyéthylène haute densité :
Le polyéthylène haute densité (PEHD) ou polyéthylène haute densité (PEHD) est un polymère thermoplastique produit à partir du monomère éthylène. Il est parfois appelé "alkathene" ou "polythène" lorsqu'il est utilisé pour les tuyaux en PEHD. Avec un rapport résistance/densité élevé, le PEHD est utilisé dans la production de bouteilles en plastique, de tuyauteries résistantes à la corrosion, de géomembranes et de bois plastique. Le HDPE est couramment recyclé et porte le numéro "2" comme code d'identification de la résine. En 2007, le marché mondial du PEHD a atteint un volume de plus de 30 millions de tonnes.
Pompe à solides haute densité/Pompe à solides haute densité :
Les pompes à solides à haute densité sont des machines à fonctionnement hydrostatique qui déplacent le fluide pompé et créent ainsi un écoulement.
Unité à forte dépendance/Unité à forte dépendance :
Une unité à forte dépendance est une zone d'un hôpital, généralement située à proximité de l'unité de soins intensifs, où les patients peuvent être soignés plus largement que dans un service normal, mais pas au point de soins intensifs. Il convient aux patients qui ont subi une intervention chirurgicale majeure et à ceux qui souffrent d'une défaillance d'un seul organe. Bon nombre de ces unités ont été créées dans les années 1990 lorsque les hôpitaux ont constaté qu'une proportion de patients nécessitait un niveau de soins qui ne pouvait pas être dispensé dans un service normal. On pense que cela est associé à une réduction de la mortalité. Les patients peuvent être admis dans un lit HDU parce qu'ils risquent de nécessiter une admission en soins intensifs, ou comme une transition entre les soins intensifs et les soins en salle. En 2000, le ministère britannique de la Santé a publié le rapport Comprehensive Critical Care, qui établit déterminer le nombre de lits à dépendance élevée ("niveau 2") dont un hôpital devrait disposer pour fournir des soins de manière appropriée. À cette époque, les deux tiers des hôpitaux britanniques avaient des lits identifiés comme « à forte dépendance ». Le rapport définit les soins de niveau 2 comme « des observations ou des interventions plus détaillées, y compris le soutien d'un seul système d'organe défaillant ou des soins postopératoires et ceux qui « quittent » des niveaux de soins supérieurs ». Si la ventilation à pression positive est utilisée pour traiter l'insuffisance respiratoire, cela peut être administré dans une unité à forte dépendance ou une zone équivalente.
Unité à forte dépendance_(santé_mentale)/Unité à forte dépendance (santé mentale) :
Une unité de haute dépendance (HDU) est un service psychiatrique pour patients hospitalisés, généralement avec seulement un petit nombre de lits, rattaché à un service d'admission pour soins aigus. Il est destiné à fournir un traitement aux patients qui ne peuvent pas être pris en charge en toute sécurité dans un service aigu (ouvert), mais qui n'atteignent pas le seuil d'admission à l'USIP. Le nombre d'employés par patient sera supérieur à celui du service aigu associé, mais peut être inférieur aux niveaux d'une unité de soins intensifs intensifs.
Représentation du modèle en haute dimension/Représentation du modèle en haute dimension :
La représentation du modèle de grande dimension est une expansion finie pour une fonction multivariable donnée. L'expansion a été décrite pour la première fois par Ilya M. Sobol comme f ( X ) = F 0 + ∑ i = 1 n F je ( X je ) + ∑ je , j = 1 je < j n F je j ( X je , X j ) + ⋯ + f 12 … n ( x 1 , … , x n ) . {\displaystyle f(\mathbf {x} )=f_{0}+\sum _{i=1}^{n}f_{i}(x_{i})+\sum _{i,j=1 \ au sommet de i<j}^{n}f_{ij}(x_{i},x_{j})+\cdots +f_{12\ldots n}(x_{1},\ldots ,x_{n}). } La méthode, utilisée pour déterminer les fonctions de droite, est donnée dans l'article de Sobol. Une revue peut être trouvée ici: Représentation du modèle de haute dimension (HDMR): concepts et applications.
Distribution_de_clés_quantiques de grande dimension/Distribution de clé quantique de grande dimension :
La distribution de clés quantiques à haute dimension (HDQKD) est une technologie de communication sécurisée entre deux parties. Il permet une plus grande efficacité des informations que les protocoles traditionnels de distribution de clé quantique binaire (QKD), qui sont limités à 1 bit/photon. Le HDQKD présente également une plus grande résilience au bruit, permettant des rapports signal sur bruit plus faibles et des distances de transmission plus longues.
Statistiques de grande dimension/Statistiques de grande dimension :
En théorie statistique, le domaine des statistiques de grande dimension étudie les données dont la dimension est plus grande que celle généralement considérée dans l'analyse multivariée classique. Ce domaine est né de l'émergence de nombreux ensembles de données modernes dans lesquels la dimension des vecteurs de données peut être comparable, voire supérieure, à la taille de l'échantillon, de sorte que la justification de l'utilisation de techniques traditionnelles, souvent fondées sur des arguments asymptotiques avec la dimension maintenue fixe à mesure que la taille de l'échantillon augmentait, faisait défaut.
Chimiothérapie à haute dose_et_greffe_de_moelle_osseuse/Chimiothérapie à haute dose et greffe de moelle osseuse :
La chimiothérapie à haute dose et la greffe de moelle osseuse (HDC/BMT), ainsi que la chimiothérapie à haute dose avec greffe de moelle osseuse autologue (HDC/ABMT ou simplement ABMT), étaient un schéma thérapeutique inefficace pour le cancer du sein métastatique, et plus tard le cancer du sein à haut risque , considérée comme prometteuse dans les années 1980 et 1990. Avec une idée générale selon laquelle plus c'est mieux, ce processus impliquait de prélever des cellules de la moelle osseuse de la personne pour les stocker dans un laboratoire, puis de donner des doses si élevées de médicaments de chimiothérapie que la moelle osseuse restante était détruite, puis d'injecter les cellules prélevées plus tôt. retour dans le corps en remplacement. Il a finalement été déterminé qu'il n'était pas plus efficace qu'un traitement normal et qu'il avait des effets secondaires significativement plus élevés, y compris des décès liés au traitement. De sa naissance dans les années 1980 à sa dénonciation à la fin des années 1990, HDC/BMT a transformé la pratique clinique, la législation militante sur la couverture d'assurance maladie, la politique de santé publique et a conduit une longue période de deux décennies d'oncologie entrepreneuriale. Elle a également donné lieu à l'un des cas les plus graves d'inconduite en recherche du XXe siècle : 3
Oestrogène à forte dose/Oestrogène à forte dose :
L'œstrogène à haute dose (HDE) est un type d'hormonothérapie dans lequel de fortes doses d'œstrogènes sont administrées. Lorsqu'il est administré en association avec une forte dose d'un progestatif, on parle de pseudo-grossesse. On l'appelle ainsi parce que les niveaux d'oestrogène et de progestatif atteints se situent dans la gamme des niveaux très élevés de ces hormones qui se produisent pendant la grossesse. La HDE et la pseudo-grossesse ont été utilisées en médecine pour un certain nombre d'indications hormono-dépendantes, telles que le cancer du sein, le cancer de la prostate et l'endométriose, entre autres. Des oestrogènes naturels ou bio-identiques et des oestrogènes synthétiques ont été utilisés et les voies orale et parentérale peuvent être utilisées.
Rendu à plage dynamique élevée/Rendu à plage dynamique élevée :
Le rendu à plage dynamique élevée ( rendu HDR ou HDR ), également appelé éclairage à plage dynamique élevée , est le rendu de scènes d'infographie en utilisant des calculs d'éclairage effectués dans une plage dynamique élevée (HDR). Cela permet de préserver les détails qui peuvent être perdus en raison de la limitation des rapports de contraste. Les jeux vidéo, les films générés par ordinateur et les effets spéciaux en bénéficient car ils créent des scènes plus réalistes qu'avec des modèles d'éclairage plus simplistes. La société de processeurs graphiques Nvidia résume la motivation du HDR en trois points : les choses lumineuses peuvent être très lumineuses, les choses sombres peuvent être très sombres et les détails peuvent être vus dans les deux.
Télévision à plage dynamique élevée/Télévision à plage dynamique élevée :
La télévision à plage dynamique élevée (HDR ou HDR-TV) est une technologie qui améliore la qualité des signaux d'affichage. Il contraste avec la plage dynamique standard (SDR) nommée rétroactivement. Le HDR modifie la façon dont la luminance et les couleurs des vidéos et des images sont représentées dans le signal, et permet une représentation des hautes lumières plus lumineuse et plus détaillée, des ombres plus sombres et plus détaillées, et un plus large éventail de couleurs plus intenses. Le HDR permet aux écrans compatibles de recevoir un source d'image de meilleure qualité. Il n'améliore pas les propriétés intrinsèques d'un écran (luminosité, contraste et capacités de couleur). Tous les écrans HDR n'ont pas les mêmes capacités, et le contenu HDR sera différent selon l'écran utilisé. HDR-TV a été utilisé pour la première fois en 2014 pour améliorer les vidéos, et il est désormais également disponible pour les images fixes. HDR-TV fait partie de l'imagerie HDR, un processus de bout en bout visant à augmenter la gamme dynamique d'images et de vidéos depuis leur capture et leur création jusqu'à leur stockage, leur distribution et leur affichage. HDR-TV améliore également la gamme de couleurs, comme Rec. 2100 et tous les formats HDR courants nécessitent que le HDR soit fourni avec de larges gammes de couleurs (WCG).
Cycle_hybride à haut rendement/Cycle hybride à haut rendement :
Le cycle hybride à haut rendement (HEHC) est un nouveau cycle thermodynamique à 4 temps combinant des éléments du cycle Otto, du cycle Diesel, du cycle Atkinson et du cycle Rankine.
Transistor à haute mobilité électronique / Transistor à haute mobilité électronique :
Un transistor à haute mobilité électronique (HEMT), également connu sous le nom de FET à hétérostructure (HFET) ou FET dopé par modulation (MODFET), est un transistor à effet de champ incorporant une jonction entre deux matériaux avec des bandes interdites différentes (c'est-à-dire une hétérojonction) comme le canal au lieu d'une région dopée (comme c'est généralement le cas pour un MOSFET). Une combinaison de matériaux couramment utilisée est GaAs avec AlGaAs, bien qu'il existe une grande variation, en fonction de l'application de l'appareil. Les dispositifs incorporant plus d'indium affichent généralement de meilleures performances à haute fréquence, tandis que ces dernières années, les HEMT au nitrure de gallium ont attiré l'attention en raison de leurs performances à haute puissance. Comme les autres FET, les HEMT sont utilisés dans les circuits intégrés comme interrupteurs marche-arrêt numériques. Les FET peuvent également être utilisés comme amplificateurs pour de grandes quantités de courant en utilisant une petite tension comme signal de commande. Ces deux utilisations sont rendues possibles par les caractéristiques courant-tension uniques du FET. Les transistors HEMT sont capables de fonctionner à des fréquences plus élevées que les transistors ordinaires, jusqu'à des fréquences d'ondes millimétriques, et sont utilisés dans des produits haute fréquence tels que les téléphones portables, les récepteurs de télévision par satellite, les convertisseurs de tension et les équipements radar. Ils sont largement utilisés dans les récepteurs satellites, dans les amplificateurs de faible puissance et dans l'industrie de la défense.
Audio haut de gamme/Audio haut de gamme :
L'audio haut de gamme est une classe d'équipements audio domestiques grand public commercialisés auprès des audiophiles sur la base d'un prix ou d'une qualité élevés, et de technologies de reproduction sonore ésotériques ou nouvelles. Le terme peut se référer simplement au prix, à la qualité de fabrication des composants, ou à la qualité subjective ou objective de la restitution sonore.
Matière à haute densité énergétique/Matière à haute densité énergétique :
La matière à haute densité d'énergie ( HEDM ) est une classe de matériaux énergétiques , en particulier de carburant , avec un rapport élevé entre la production d'énergie chimique potentielle et la densité, généralement appelé «rapport poussée / poids», d'où «densité d'énergie élevée». Les substances sont extrêmement réactives, donc potentiellement dangereuses, et certains les jugent peu pratiques. Les chercheurs se penchent sur l'HEDM qui peut fournir beaucoup plus de portance que les réactions actuelles d'hydrogène liquide et d'oxygène liquide utilisées dans les engins spatiaux d'aujourd'hui.
Rayons X à haute énergie/Rayons X à haute énergie :
Les rayons X à haute énergie ou rayons HEX sont des rayons X très durs, avec des énergies typiques de 80 à 1000 keV (1 MeV), environ un ordre de grandeur plus élevé que les rayons X conventionnels utilisés pour la cristallographie aux rayons X (et bien en énergies gamma supérieures à 120 keV). Ils sont produits par des sources de rayonnement synchrotron modernes telles que la ligne de lumière ID15 de l'European Synchrotron Radiation Facility (ESRF). Le principal avantage est la pénétration profonde dans la matière, ce qui en fait une sonde pour les échantillons épais en physique et en science des matériaux et permet un environnement et un fonctionnement des échantillons dans l'air. Les angles de diffusion sont petits et la diffraction dirigée vers l'avant permet des configurations de détecteur simples. Les rayons X à haute énergie (mégavolts) sont également utilisés dans le traitement du cancer, en utilisant des faisceaux générés par des accélérateurs linéaires pour supprimer les tumeurs.
Astronomie des hautes énergies/Astronomie des hautes énergies :
L'astronomie des hautes énergies est l'étude des objets astronomiques qui émettent un rayonnement électromagnétique de longueurs d'onde hautement énergétiques. Il comprend l'astronomie des rayons X, l'astronomie des rayons gamma, l'astronomie des UV extrêmes, l'astronomie des neutrinos et les études des rayons cosmiques. L'étude physique de ces phénomènes est appelée astrophysique des hautes énergies. Les objets astronomiques couramment étudiés dans ce domaine peuvent inclure des trous noirs, des étoiles à neutrons, des noyaux galactiques actifs, des supernovae, des kilonovae, des restes de supernovae et des sursauts gamma.
Physique_nucléaire_des_hautes-énergies/Physique_nucléaire des hautes énergies :
La physique nucléaire des hautes énergies étudie le comportement de la matière nucléaire dans des régimes énergétiques typiques de la physique des hautes énergies. L'objectif principal de ce domaine est l'étude des collisions d'ions lourds, par rapport aux atomes plus légers dans d'autres accélérateurs de particules. À des énergies de collision suffisantes, ces types de collisions sont théorisés pour produire le plasma quark-gluon. Dans les collisions nucléaires périphériques à haute énergie, on s'attend à obtenir des informations sur la production électromagnétique de leptons et de mésons qui ne sont pas accessibles dans les collisionneurs électron-positon en raison de leurs luminosités beaucoup plus faibles. Des expériences antérieures d'accélérateur nucléaire à haute énergie ont étudié les collisions d'ions lourds en utilisant énergies de projectiles de 1 GeV/nucléon au JINR et LBNL-Bevalac jusqu'à 158 GeV/nucléon au CERN-SPS. Les expériences de ce type, appelées expériences à "cible fixe", accélèrent principalement un "groupe" d'ions (généralement environ 106 à 108 ions par groupe) à des vitesses proches de la vitesse de la lumière (0,999c) et les écrasent dans une cible de même ions lourds. Bien que tous les systèmes de collision soient intéressants, une grande attention a été accordée à la fin des années 1990 aux systèmes de collision symétriques de faisceaux d'or sur des cibles d'or au synchrotron à gradient alterné (AGS) du Laboratoire national de Brookhaven et de faisceaux d'uranium sur des cibles d'uranium au super synchrotron à protons du CERN. Les expériences de physique nucléaire à haute énergie se poursuivent au collisionneur relativiste d'ions lourds (RHIC) du Laboratoire national de Brookhaven et au grand collisionneur de hadrons du CERN. Au RHIC, le programme a débuté avec quatre expériences - PHENIX, STAR, PHOBOS et BRAHMS - toutes dédiées à l'étude des collisions de noyaux hautement relativistes. Contrairement aux expériences à cible fixe, les expériences de collisionneur dirigent deux faisceaux accélérés d'ions l'un vers l'autre à (dans le cas du RHIC) six régions d'interaction. Au RHIC, les ions peuvent être accélérés (selon la taille des ions) de 100 GeV/nucléon à 250 GeV/nucléon. Étant donné que chaque ion en collision possède cette énergie se déplaçant dans des directions opposées, l'énergie maximale des collisions peut atteindre une énergie de collision dans le centre de masse de 200 GeV/nucléon pour l'or et de 500 GeV/nucléon pour les protons. Le détecteur ALICE (A Large Ion Collider Experiment) du LHC du CERN est spécialisé dans l'étude des collisions de noyaux Pb-Pb à une énergie dans le centre de masse de 2,76 TeV par paire de nucléons. Tous les principaux détecteurs du LHC — ALICE, ATLAS, CMS et LHCb — participent au programme d'ions lourds.
Phosphate à haute énergie/Phosphate à haute énergie :
Le phosphate à haute énergie peut signifier l'une des deux choses suivantes : les liaisons phosphate-phosphate (phosphoanhydride/anhydride phosphorique/macroergique/phosphagène) formées lorsque des composés tels que l'adénosine diphosphate (ADP) et l'adénosine triphosphate (ATP) sont créés. Les composés qui contiennent ces liaisons, qui comprennent les diphosphates de nucléoside et les triphosphates de nucléoside, et les composés de stockage à haute énergie du muscle, les phosphagènes. Lorsque les gens parlent d'un pool de phosphate à haute énergie, ils parlent de la concentration totale de ces composés avec ces liaisons à haute énergie. Les liaisons phosphate à haute énergie sont généralement des liaisons pyrophosphate, des liaisons anhydride d'acide formées en prenant des dérivés d'acide phosphorique et en les déshydratant. En conséquence, l'hydrolyse de ces liaisons est exergonique dans des conditions physiologiques, libérant de l'énergie libre de Gibbs. À l'exception de PPi → 2 Pi, ces réactions ne sont, en général, pas autorisées à rester incontrôlées dans la cellule humaine, mais sont plutôt couplées à d'autres processus nécessitant de l'énergie pour les mener à bien. Ainsi, les réactions de phosphate à haute énergie peuvent : fournir de l'énergie aux processus cellulaires, leur permettant d'exécuter des processus couplés à un nucléoside particulier, permettant un contrôle réglementaire du processus conduire une réaction hors d'équilibre (la conduire vers la droite) en favorisant une direction de la réaction plus rapidement que l'équilibre ne peut se détendre. La seule exception est intéressante car elle permet à une seule hydrolyse, ATP + H2O → AMP + PPi, de fournir efficacement l'énergie d'hydrolyse de deux liaisons à haute énergie, avec l'hydrolyse de PPi être autorisé à aller jusqu'au bout dans une réaction séparée. L'AMP est régénéré en ATP en deux étapes, avec la réaction d'équilibre ATP + AMP ↔ 2ADP, suivie de la régénération de l'ATP par les moyens habituels, la phosphorylation oxydative ou d'autres voies productrices d'énergie telles que la glycolyse. Souvent, les liaisons phosphate à haute énergie sont désignées par le caractère "~". Dans cette notation "gribouillis", ATP devient AP~P~P. La notation en gribouillis a été inventée par Fritz Albert Lipmann, qui a proposé pour la première fois l'ATP comme principale molécule de transfert d'énergie de la cellule, en 1941. La notation de Lipmann met l'accent sur la nature particulière de ces liaisons. Stryer déclare: L'ATP est souvent appelé un composé à haute énergie et ses liaisons phosphoanhydride sont appelées liaisons à haute énergie. Il n'y a rien de spécial dans les obligations elles-mêmes. Ce sont des liaisons à haute énergie dans le sens où de l'énergie libre est libérée lorsqu'elles sont hydrolysées, pour les raisons évoquées ci-dessus. Le terme de Lipmann "liaison à haute énergie" et son symbole ~P (gribouillis P) pour un composé ayant un potentiel de transfert de groupe phosphate élevé sont des notations vives, concises et utiles. En fait, le gribouillis de Lipmann a beaucoup contribué à stimuler l'intérêt pour la bioénergétique. Le terme «haute énergie» en ce qui concerne ces liaisons peut être trompeur car le changement d'énergie libre négatif n'est pas dû directement à la rupture des liaisons elles-mêmes. La rupture de ces liens, comme la rupture de la plupart des liens, est endergonique et consomme de l'énergie au lieu de la libérer. La variation négative de l'énergie libre provient plutôt du fait que les liaisons formées après l'hydrolyse - ou la phosphorylation d'un résidu par l'ATP - ont une énergie plus faible que les liaisons présentes avant l'hydrolyse. (Cela inclut toutes les liaisons impliquées dans la réaction, pas seulement les liaisons phosphate elles-mêmes). Cet effet est dû à un certain nombre de facteurs comprenant une stabilisation accrue de la résonance et une solvatation des produits par rapport aux réactifs.
String_scattering_amplitudes à haute énergie/Amplitudes de diffusion des cordes à haute énergie :
La conjecture de Gross concernant la symétrie à haute énergie de la théorie des cordes était basée sur le calcul du point de selle des amplitudes de diffusion des cordes dures (SSA) des théories des cordes fermées et ouvertes. La conjecture affirmait qu'il existait des relations linéaires infinies entre les SSA durs de différents états de chaîne. De plus, ces relations linéaires infinies étaient si puissantes qu'elles peuvent être utilisées pour résoudre tous les SSA durs et les exprimer en termes d'une amplitude. Certaines monographies avaient fait des spéculations sur cette symétrie filandreuse cachée sans obtenir de résultats concluants. Cependant, le calcul du point de selle du SSA dur qui était prétendument valable pour tous les états de chaîne et tous les ordres de boucle de chaîne a été souligné comme étant incohérent pour les cas des états de chaîne excités dans une série de travaux effectués par la méthode de découplage des états de norme zéro (ZNS). Il a ensuite été démontré que même au niveau de l'arbre à cordes fermé, il n'y avait pas de point de selle fiable dans le calcul dur de la SSA. Trois preuves ont été données pour démontrer l'incohérence du point de selle. Ainsi, au lieu d'utiliser la méthode du point de selle, ils ont utilisé la formule KLT pour obtenir le SSA fermé dur correct, qui diffère du résultat de Gross et Mende par un préfacteur d'oscillation. Ce préfacteur impliquait systématiquement l'existence d'une infinité de zéros et de pôles dans le SSA dur. Peu de temps après, une conclusion similaire a été tirée sur la base du calcul théorique de groupe de SSA. Ils ont découvert que jusqu'au niveau d'une boucle de chaîne, le calcul du point de selle n'était valable que pour le SSA à quatre tachyons durs, mais était incorrect pour les autres SSA durs d'états de chaîne excités. Pour cette raison, les auteurs ont admis qu'ils ne peuvent pas systématiquement trouver de relations linéaires comme suggéré dans la conjecture de Gross. Pour le cas d'une chaîne bosonique ouverte au niveau de masse, à titre d'exemple, la SSA dure et ouverte de Gross et Manes a été mal calculée pour être T T T T ∝ T [ L T ] , T L L T = T ( L T ) = 0 , {\ displaystyle T_ {TTT} \ propto T_ {[LT]}, T_ {LLT} = T_ {(LT)} = 0,} qui étaient incompatibles avec les identités de quartier ou le découplage des états de norme zéro (ZNS) dans la limite de diffusion dure à discuter ci-dessous. L'importance de deux types de ZNS a été soulignée dans le calcul du champ de fond massif des symétries filandreuses. Il a été montré que dans l'approximation en champ faible (mais valable pour toutes les énergies) une transformation de symétrie inter-particules δ C ( μ ν λ ) = 1 2 ∂ ( μ ∂ ν θ λ ) 2 − 2 η ( μ ν θ λ ) 2 , δ C [ μ ν ] = 9 ∂ [ μ θ ν ] 2 {\displaystyle \delta C_{(\mu \nu \lambda)}={\frac {1}{2}}\partial _{(\ mu }\partial _{\nu }\theta _{\lambda )}^{2}-2\eta _{(\mu \nu }\theta _{\lambda )}^{2},\delta C_{ [\mu \nu ]}=9\partial _{\lbrack \mu }\theta _{\nu ]}^{2}} pour deux états de propagation C ( μ ν λ ) {\displaystyle C_{(\mu \ nu \lambda )}} et C [ μ ν ] {\displaystyle C_{[\mu \nu ]}} au niveau de la masse M 2 = 4 {\displaystyle M^{2}=4} de chaîne bosonique ouverte peut être générée par le vecteur ZNS de polarisation θ μ 2 {\displaystyle \theta _{\mu }^{2}} ré 2 {\displaystyle D_{2}} | ré 2 ⟩ = [ ( 1 2 k μ k ν θ λ 2 + 2 η μ ν θ λ 2 ) α − 1 μ α − 1 ν α − 1 λ + 9 k μ θ ν 2 α − 2 [ μ α − 1 ν ] - 6 θ μ 2 α - 3 μ ] | 0 , k ⟩ , k ⋅ θ 2 = 0. {\displaystyle |D_{2}\rangle =[({\frac {1}{2}}k_{\mu }k_{\nu }\theta _{\ lambda }^{2}+2\eta _{\mu \nu }\theta _{\lambda }^{2})\alpha _{-1}^{\mu }\alpha _{-1}^{ \nu }\alpha _{-1}^{\lambda }+9k_{\mu }\theta _{\nu }^{2}\alpha _{-2}^{[\mu }\alpha _{- 1}^{\nu ]}-6\theta _{\mu }^{2}\alpha _{-3}^{\mu }]\left\vert 0,k\right\rangle ,k\cdot \ thêta ^ {2} = 0.} Incidemment, un ensemble de ZNS discrets G J , M + {\ displaystyle G_ {J, M} ^ {+}} s'est avéré former le w ∞ {\ displaystyle w_ {\ infty}} algèbre de symétrie spatio-temporelle de la théorie des cordes du jouet 2 D {\displaystyle 2D}. Le premier ensemble de relations linéaires entre SSA dur a été obtenu pour le niveau de masse M 2 = 4 {\displaystyle M^{2}=4} de la théorie des cordes bosoniques ouvertes 26 D {\displaystyle 26D} par la méthode de découplage de ZNS . (Notez que le découplage de ZNS a également été utilisé dans le calcul théorique de groupe de SSA pour fixer la mesure dans le calcul de SSA). En résolvant les trois relations linéaires ou identités de Ward suivantes parmi les quatre SSA durs d'ordre principal T L L T 5 → 3 + T ( L T ) 3 = 0 , 10 T L L T 5 → 3 + T T T T 3 + 18 T ( L T ) 3 = 0 , T L L T 5 → 3 + T T T T 3 + 9 T [ L T ] 3 = 0 , {\displaystyle T_{LLT}^{5\rightarrow 3}+T_{(LT)}^{3}=0,10T_{LLT}^{ 5\rightarrow 3}+T_{TTT}^{3}+18T_{(LT)}^{3}=0,T_{LLT}^{5\rightarrow 3}+T_{TTT}^{3}+9T_ {[LT]}^{3}=0,} on obtient les rapports T T T T : T L L T : T ( L T ) : T [ L T ] = 8 : 1 : − 1 : − 1. {\displaystyle T_{TTT}:T_ {LLT}:T_{(LT)}:T_{[LT]}=8:1:-1:-1.} Ces ratios ont été justifiés par un ensemble d'échantillons de calcul de SSA dur. Des résultats similaires ont été obtenus pour le niveau de masse M 2 = 6 {\displaystyle M^{2}=6} . D'autre part, un calcul de remède a été effectué pour récupérer les termes manquants calculés par Gross et Manes afin d'obtenir les quatre ratios corrects ci-dessus. Les ratios calculés ci-dessus pour le niveau de masse M 2 = 4 {\displaystyle M^{2}=4} peuvent être généralisés à des niveaux de masse arbitraires M 2 = 2 ( N - 1 ) {\displaystyle M^{2}=2( N-1)} T ( N , 2 m , q ) T ( N , 0 , 0 ) = ( - 1 M ) 2 m + q ( 1 2 ) m + q ( 2 m - 1 ) ! ! . {\displaystyle {\frac {T^{(N,2m,q)}}{T^{(N,0,0)}}}=\left(-{\frac {1}{M}}\right )^{2m+q}\left({\frac {1}{2}}\right)^{m+q}(2m-1)!!.} En plus de la méthode de découplage du ZNS, un double méthode appelée méthode de contrainte de Virasoro et un calcul de point de selle corrigé (pour les amplitudes d'arbre à cordes) ont également donné les mêmes rapports ci-dessus. Il est important de noter que les relations linéaires et les rapports obtenus par le découplage de ZNS sont valables pour tous les ordres de boucle de chaîne puisque ZNS doit être découplé pour toutes les amplitudes de boucle en raison de l'unitarité de la théorie. Ce fait important n'était pas partagé par le calcul du point de selle ni par le calcul théorique de groupe de SSA. D'un autre côté, on pense qu'en gardant M {\displaystyle M} fixe comme une constante finie, on peut obtenir plus d'informations sur le comportement à haute énergie de la théorie des cordes par rapport à la corde sans tension ( α ′ → ∞ {\displaystyle \alpha ^ {\prime }\rightarrow \infty } ) approche dans laquelle tous les états de chaîne sont sans masse. Puisque les relations linéaires obtenues par le découplage de ZNS sont valides ordre par ordre et partagent les mêmes formes pour tous les ordres dans la théorie des perturbations des cordes, on s'attend à ce qu'il existe une symétrie des cordes de la théorie. En effet, deux de ces groupes de symétrie ont récemment été suggérés comme étant le groupe S L ( 5 , C ) {\displaystyle SL(5,\mathbb {C})} dans la limite de diffusion de Regge et le S L ( 4 , C ) {\displaystyle SL (4,\mathbb {C} )} groupe dans la limite de diffusion non relativiste. De plus, il a été montré que les rapports linéaires pour le niveau de masse peuvent être extraits du Regge SSA. Plus récemment, les auteurs ont construit la SSA exacte de trois tachyons et un état de chaîne arbitraire, ou la Lauricella SSA (LSSA) A s t ( r n T , r m P , r l L ) = ∏ n = 1 [ − ( n − 1 ) ! k 3 T ] r n T ⋅ ∏ m = 1 [ - ( m - 1 ) ! k 3 P ] r m P ∏ l = 1 [ - ( l - 1 ) ! k 3 L ] r l L ⋅ B ( - t 2 - 1 , - s 2 - 1 ) F ré ( K ) ( - t 2 - 1 ; R n T , R m P , R l L ; u 2 + 2 - N ; Z ~ n T , Z ~ m P , Z ~ l L ) {\displaystyle A_{st}^{(r_{n}^{T},r_{m}^{P},r_{l}^{ L})}=\prod _{n=1}\left[-(n-1)!k_{3}^{T}\right]^{r_{n}^{T}}\cdot \prod _ {m=1}\left[-(m-1)!k_{3}^{P}\right]^{r_{m}^{P}}\prod _{l=1}\left[-( l-1)!k_{3}^{L}\right]^{r_{l}^{L}}\cdot B\left(-{\frac {t}{2}}-1,-{\ frac {s}{2}}-1\right)F_{D}^{(K)}\left(-{\frac {t}{2}}-1;R_{n}^{T},R_ {m}^{P},R_{l}^{L} ;{\frac {u}{2}}+2-N ;{\tilde {Z}}_{n}^{T},{\ tilde {Z}}_{m}^{P},{\tilde {Z}}_{l}^{L}\right)} dans la théorie ouverte des cordes bosoniques 26 D {\displaystyle 26D}. De plus, ils ont découvert l'algèbre de Lie du groupe de symétrie [ E i j , E k l ] = δ j k E je l - δ l je E k j ; 1 ≤ je , j ≤ K + 3 {\displaystyle [E_{ij},E_{kl}]=\delta _{jk}E_{il}-\delta _{li}E_{kj};1\leq je ,j\leq K+3} valable pour tous les régimes cinématiques du LSSA. De plus, les rapports linéaires présentés ci-dessus pour le niveau de masse peuvent être redérivés par le LSSA dans la limite de diffusion dure.
Nanoparticules d'alliage à haute entropie/Nanoparticules d'alliage à haute entropie :
Les nanoparticules d'alliage à haute entropie (HEA-NP) sont des nanoparticules ayant cinq éléments ou plus alliés dans une structure de solution solide monophasée. Les HEA-NP possèdent une large gamme de bibliothèques de composition, une structure de mélange d'alliage distincte et un effet de taille à l'échelle nanométrique, ce qui leur confère un énorme potentiel dans les applications catalytiques, énergétiques, environnementales et biomédicales.
Alliage à haute entropie/Alliage à haute entropie :
Les alliages à haute entropie (HEA) sont des alliages qui sont formés en mélangeant des proportions égales ou relativement importantes de (généralement) cinq éléments ou plus. Avant la synthèse de ces substances, les alliages métalliques typiques comprenaient un ou deux composants principaux avec de plus petites quantités d'autres éléments. Par exemple, des éléments supplémentaires peuvent être ajoutés au fer pour améliorer ses propriétés, créant ainsi un alliage à base de fer, mais généralement dans des proportions assez faibles, telles que les proportions de carbone, de manganèse et autres dans divers aciers. Par conséquent, les alliages à haute entropie constituent une nouvelle classe de matériaux. Le terme «alliages à haute entropie» a été inventé par le scientifique taïwanais Jien-Wei Yeh parce que l'augmentation de l'entropie du mélange est considérablement plus élevée lorsqu'il y a un plus grand nombre d'éléments dans le mélange et que leurs proportions sont plus proches de l'égalité. Certains noms alternatifs, tels que les alliages multi-composants, les alliages complexes sur le plan de la composition et les alliages multi-éléments principaux sont également suggérés par d'autres chercheurs. Ces alliages font actuellement l'objet d'une attention particulière dans la science et l'ingénierie des matériaux car ils ont des propriétés potentiellement souhaitables. De plus, la recherche indique que certains HEA ont des rapports résistance/poids considérablement meilleurs, avec un degré plus élevé de résistance à la rupture, de résistance à la traction et de résistance à la corrosion et à l'oxydation que les alliages conventionnels. Bien que les HEA soient étudiées depuis les années 1980, les recherches se sont considérablement accélérées dans les années 2010.
Antichar hautement explosif / Antichar hautement explosif :
L'antichar hautement explosif (HEAT) est l'effet d'un explosif à charge creuse qui utilise l'effet Munroe pour pénétrer les blindages lourds. L'ogive fonctionne en faisant effondrer une charge explosive sur une doublure métallique à l'intérieur de l'ogive en un jet de pénétrateur formé de manière explosive (EFP) à grande vitesse; celui-ci est capable de pénétrer l'acier de blindage à une profondeur de sept fois ou plus le diamètre de la charge (diamètres de charge, CD). L'effet de jet EFP est de nature purement cinétique ; la cartouche n'a aucun effet explosif ou incendiaire sur la cible. Parce qu'elles dépendent de l'énergie cinétique du jet EFP pour leurs performances de pénétration, les ogives HEAT n'ont pas besoin d'être livrées à grande vitesse, comme le fait un obus perforant. Ainsi, ils peuvent être tirés par des armes moins puissantes qui génèrent moins de recul. La performance des armes HEAT n'a rien à voir avec les effets thermiques, HEAT étant simplement un acronyme.
Incendiaire hautement explosif/Incendiaire hautement explosif :
En temps de guerre, l'incendiaire hautement explosif (HEI) est un type de munition spécialement conçue pour transmettre de l'énergie et donc endommager sa cible de l'une ou des deux manières suivantes : via une charge explosive et/ou via son incendiaire (provoquant un incendie ) effets. Chaque tour a les deux capacités. Les munitions HEI sont fusionnées mécaniquement ou chimiquement. La capacité de perforation d'armure peut varier considérablement, permettant une fragmentation plus ciblée ou une plus grande dispersion.
Tête de squash_hautement explosive/Tête de squash hautement explosive :
Une tête de squash hautement explosive (HESH) dans la terminologie britannique, ou un plastique/plastifié hautement explosif (HEP) dans la terminologie américaine, est un type de projectile explosif avec un explosif plastique qui se conforme à la surface d'une cible avant d'exploser, ce qui améliore le transfert d'énergie explosive à la cible. Les projectiles à tête de squash sont similaires aux projectiles hautement explosifs et conviennent bien à bon nombre des mêmes cibles. Cependant, bien que les projectiles HESH ne soient pas perforants, ils peuvent vaincre des cibles blindées en provoquant des éclats, qui peuvent blesser ou tuer les occupants d'un véhicule ou faire exploser certains types de munitions.
Spectrométrie de mobilité ionique à forme d'onde asymétrique à champ élevé / Spectrométrie de mobilité ionique à forme d'onde asymétrique à champ élevé :
La spectrométrie de mobilité ionique à forme d'onde asymétrique à haut champ (FAIMS ou spectrométrie de mobilité ionique RF-DC) est une technique de spectrométrie de mobilité ionique dans laquelle les ions à pression atmosphérique sont séparés par l'application d'une forme d'onde asymétrique haute tension à radiofréquence (RF) combinée avec une forme d'onde statique (DC) appliquée entre deux électrodes. Selon le rapport de la mobilité haut champ et bas champ de l'ion, il va migrer vers l'une ou l'autre électrode. Seuls les ions à mobilité spécifique traverseront l'appareil.
Domaine haut champ/domaine haut champ :
Un domaine à champ élevé est une bande de champ élevé orthogonale aux lignes d'équi-courant, et vue dans le CdS photoconducteur et la lumière monochromatique au bord de la bande alors que la bande sombre a été découverte par Böer, en utilisant l'effet Franz – Keldysh. De tels domaines doivent apparaître chaque fois que la conductivité décroît plus fortement que linéairement. Cela peut être causé par la dépendance au champ de la densité de porteurs, comme observé dans les CdS dopés au cuivre provoqués par l'excitation Frenkel Poole des trous, provoquant une recombinaison électronique plus rapide, connue sous le nom d'extinction de champ. Ces domaines à champ élevé, maintenant appelés domaines de Böer, ou par dépendance du champ de la mobilité, provoqués par l'excitation des électrons dans des bandes de conduction plus élevées avec une mobilité plus faible comme observé dans GaAs, appelé effet Gunn. Les domaines à champ élevé peuvent être identifiés par des oscillations de champ périodiques entre des valeurs élevées (le domaine) et basses, comme le montre la figure 1. De nombreux autres cristaux présentent de tels domaines par des oscillations de courant typiques. Les domaines à champ élevé dans les CdS dopés au cuivre peuvent être facilement observés par l'effet Franz – Keldysh comme stationnaires, adjacents à la cathode ou en mouvement. Ceux-ci sont analysés comme un autre exemple ci-dessous. Théorie : les domaines stationnaires à champ élevé peuvent être analysés à partir des équations de transport et de Poisson : ré n ré X = e k T ( j e μ - n F ) {\ displaystyle {\ frac {dn} {dx}} = {\ frac {e} kT}}\left({\frac {j}{e\mu}}-nF\right)} et ré F ré X = e ϵ ϵ 0 ( n - n une ) {\displaystyle {\frac {dF}{dx} }={\frac {e}{\epsilon \epsilon _{0}}}\left(n-n_{a}\right)} La projection de toutes les courbes de solution dans un plan nF arbitraire peut être remplie avec des flèches de direction à n'importe quel point de ce plan. Deux courbes auxiliaires pour lesquelles dn/dx = 0, notées n2(F) et dF/dx = 0 notées n1(F) divisent ce plan en quatre quadrants de même type de directions. Ceci est montré sur la figure 2 (à gauche) dans une double représentation logarithmique. Toute solution d'un semi-conducteur de type n avec cathode bloquante doit commencer à la densité limite nc qui est inférieure à la densité dans la masse, et s'approche du point singulier où dn/dx = dF/dx = 0, c'est-à-dire dans la masse où n(x) et F(x) sont constants. La courbe de solution représente un contact de blocage de Schottky comme illustré sur la figure 2(B), courbe (a). Lorsque n (x) diminue à des champs plus élevés en raison de l'extinction du champ causée par l'excitation de Poole-Frenkel des trous des pièges à trous attractifs de Coulomb, cela améliore par conséquent la recombinaison électronique à travers les centres de recombinaison, et déforme ainsi la courbe n1 (x) à des champs plus élevés comme illustré à la figure 2(B). Lorsque le biais est augmenté, la courbe de courant n2(x) est décalée vers le haut et vers la droite, et lorsqu'elle croise à nouveau n1(x), elle produit un second point singulier II. Avec un biais encore accru, ce point singulier II atteint la valeur de la densité limite nc , et la courbe de la solution passe d'une solution Schottky croissante monotone à un domaine à champ élevé, courbe ( b ): qui reste constante près de la cathode, et puis change en quelques longueurs de Debye pour se rapprocher de la valeur constante dans le volume, près du point singulier I. La largeur du domaine augmente avec le biais (Fig. 3a), tandis que le courant reste constant (Fig. 3c). Le domaine est visible sous forme de partie sombre dans l'image de transmission à travers la plaquette CdS, s'étendant à partir de la cathode, comme indiqué sur la figure 3a. Le champ dans le domaine peut être obtenu à partir de la pente du domaine qui augmente avec le biais (Fig. 3b). Lorsque, avec un biais encore accru, le domaine remplit tout l'échantillon, il bascule vers un domaine à champ élevé adjacent à l'anode (Fig. 4b). Le champ à la cathode est maintenant beaucoup plus élevé que pour le domaine adjacent à la cathode (Fig. 4b et c), tandis que le courant reste essentiellement constant (Fig. 4c). Domaines à champ élevé pour déterminer la fonction de travail des contacts de blocage Étant donné que le domaine de champ élevé commence à la densité électronique donnée par la fonction de travail à la cathode et ouvre la barrière Schottky à un champ constant dans le domaine, cette fonction de travail peut être déterminé avec précision, et il peut être utilisé comme un outil pour déterminer les changements de la fonction de travail, car elle varie en fonction de paramètres externes. A titre d'exemple, on peut montrer qu'elle dépend de l'excitation optique dans un photoconducteur (voir Fig. 5). Les domaines de champ élevé comme outils de mesure de la densité électronique dans la branche inactive et de la mobilité des électrons en fonction de la température Le domaine de champ élevé est déterminé par la densité limite à la cathode et le champ dans le domaine. Une bande d'ombre devant la cathode agit comme une pseudo-cathode, car elle réduit la densité d'électrons dans l'ombre (Fig. 6). Cela peut être utilisé comme un outil expérimental pour modifier la densité limite en fonction de l'intensité lumineuse dans l'ombre. Cela permet de mesurer directement la densité électronique dans la plage de champ désactivé, en utilisant différentes densités de pseudo-électrons, provoquant un déplacement du point singulier et en mesurant le champ de domaine. La mobilité Hall des électrons peut être mesurée en plaçant la plaquette CdS dans un aimant et en appliquant une polarisation suffisante pour créer un domaine de champ élevé. Lorsque le domaine est étendu pour inclure les électrodes Hall, on peut déterminer la mobilité Hall dans le domaine. Différents champs dans le domaine de champ élevé sont obtenus en utilisant différents échantillons ou différents métaux de cathode. Domaines stationnaires pour expliquer l'amélioration de l'efficacité des cellules solaires CdTe avec une fine couche de couverture de CdS L'application d'une couche de CdS dopée au cuivre de 200 Å d'épaisseur sur un généralement une cellule solaire CdTe de 2 μm d'épaisseur, augmente considérablement la tension en circuit ouvert, de sorte qu'elle peut atteindre la limite théorique de la bande interdite de l'émetteur CdTe lorsqu'elle est extrapolée à 0 K. Cette amélioration peut s'expliquer en limitant le champ dans le côté CdS de la jonction lorsqu'il atteint la valeur critique pour qu'un domaine de champ élevé apparaisse et limite ainsi le champ de jonction maximum au champ de domaine de 50 kV/cm typique. Ce champ est en dessous d'un champ dans lequel se produit une fuite d'électrons du CdS vers le CdTe, entraînant une augmentation de la tension en circuit ouvert et donc une augmentation de l'efficacité de conversion de la cellule solaire.Déplacement des domaines à champ élevé dans le CdS dopé au cuivre avec un petite cathode circulaire Les domaines partant de la cathode, se séparent et, avec l'augmentation de la polarisation, augmentent son rayon. Lorsque l'anode est atteinte, l'anneau disparaît et un nouveau domaine se développe à partir de la cathode. Le processus s'est répété avec une période de 10 secondes (Fig. 7). Ces domaines mobiles non déformés dans les cristaux avec des électrodes fendues sont des bandes parallèles aux électrodes, et vus par le champ oscillant, lorsqu'ils sont tracés dans le diagramme ax, F, t donnent l'impression optique de bifurcation (Fig. 8). Ces domaines mobiles à champ élevé sont mesurés en p-Ge avec (a) tension locale (b) champ et (c) oscillation de densité de porteuse (Fig. 9). Des domaines à haut champ mobile non déformés et des domaines avec déformation (Chaos) sont observés dans de nombreux autres cristaux, ainsi que dans des nanocristaux ou des superlatex. Cependant, en raison de leur petite taille, ils ne peuvent être analysés que par la forme changeante des caractéristiques courant-tension. Domaines de Böer Les domaines à champ élevé ont été renommés domaines de Böer à l'occasion du 50e anniversaire de leur découverte. les contacts. Le champ à l'intérieur du domaine est constant et le courant ne se fait que par dérive. Avec un biais accru, la largeur du domaine augmente. Lorsqu'il atteint les deux électrodes, le cristal entier devient libre de charge d'espace (c'est un exemple de plus où une interaction disparaît : pour l'interaction des électrons avec les phonons, la supraconductivité résulte ; de l'interaction des photons avec les phonons, des lasers peuvent être produits). Cela donne l'opportunité de mesurer la distribution spectrale des niveaux de défauts sans interaction du champ électrique élargi entourant les défauts. Un premier exemple est illustré par le spectre d'extinction extrêmement net d'un cristal de CdS qui a été inversé pour devenir de type p avec un domaine à champ élevé (Fig. 10). Un autre avantage du domaine à champ élevé est la connexion directe de tout émetteur de type p à travers une fine couche de CdS dopée au cuivre directement vers une électrode de blocage d'électrons à travers laquelle les trous sont extraits, et la tension en circuit ouvert est augmentée pour approcher la limite théorique de la bande interdite ou de l'émetteur à 0K. Parce que dans le CdS, le courant de trou est maintenant transporté uniquement par dérive, nous pouvons enfin dessiner le modèle de bande d'une cellule solaire typique. par exemple la cellule CdS / CdTe comme indiqué sur la Fig. 11. Pour la première fois, nous pouvons remplacer l'estimation de la connexion de bande des hétéro-jonctions abruptes à partir de la différence d'affinités électroniques en la calculant à partir de la continuité du courant porteur majoritaire, avec la seule petite discontinuité laissée par la différence des masses effectives des porteurs aux différentes bandes porteuses.
Dragonnet à hautes nageoires / Dragonet à hautes nageoires :
Le dragonnet à hautes nageoires (Synchiropus rameus) est une espèce de dragonnet originaire de l'océan Pacifique au large des côtes du nord-ouest de l'Australie ainsi qu'en Nouvelle-Calédonie, où il privilégie les substrats constitués de sable ou de gravats et atteint une longueur de 15 centimètres (5,9 po ) TL.
Étage supérieur/Étage supérieur :
Le plancher surélevé décrit le revêtement de sol intérieur des véhicules de banlieue principalement utilisés dans les transports publics tels que les trains, les wagons légers sur rail et d'autres véhicules ferroviaires, ainsi que les bus et les trolleybus. La hauteur du plancher intérieur est généralement mesurée au-dessus de la surface de la rue ou au-dessus du haut du rail. Les conceptions à plancher haut résultent généralement d'exigences d'emballage : les éléments mécaniques tels que les essieux, les moteurs, les vilebrequins et/ou les transmissions, ou les espaces de rangement des bagages sont traditionnellement placés sous le plancher intérieur de ces véhicules. Le terme est utilisé en contraste avec les conceptions à plancher surbaissé, qui offrent un plancher et une hauteur d'entrée réduits au-dessus de la surface de la rue. Étant donné que les conceptions à plancher surbaissé ont généralement été développées après les véhicules à plancher élevé, l'ancienne conception à plancher élevé est parfois également connue sous le nom de conception conventionnelle ou «traditionnelle».
Programme_de_recherche_aurorale_active_haute_fréquence/Programme de recherche_aurorale_active_haute-fréquence :
Le programme de recherche aurorale active à haute fréquence (HAARP) a été lancé en tant que programme de recherche ionosphérique financé conjointement par l'US Air Force, l'US Navy, l'Université d'Alaska Fairbanks et la Defense Advanced Research Projects Agency (DARPA). Il a été conçu et construit par BAE Advanced Technologies. Son objectif initial était d'analyser l'ionosphère et d'étudier le potentiel de développement d'une technologie d'amélioration ionosphérique pour les radiocommunications et la surveillance. Depuis 2015, il est exploité par l'Université d'Alaska Fairbanks. L'instrument le plus important du HAARP est l'Ionospheric Research Instrument (IRI), un émetteur de radiofréquence haute puissance fonctionnant dans la bande haute fréquence (HF). L'IRI est utilisé pour exciter temporairement une zone limitée de l'ionosphère. D'autres instruments, tels qu'un radar VHF et UHF, un magnétomètre fluxgate, une digisonde (un dispositif de sondage ionosphérique) et un magnétomètre à induction, sont utilisés pour étudier les processus physiques qui se produisent dans la région excitée. Les travaux sur l'installation HAARP ont commencé en 1993. L'IRI de travail actuel a été achevé en 2007; son maître d'œuvre était BAE Systems Advanced Technologies. En 2008, HAARP avait engagé environ 250 millions de dollars en coûts de construction et d'exploitation financés par les impôts. En mai 2014, il a été annoncé que le programme HAARP serait définitivement arrêté plus tard dans l'année. Après des discussions entre les parties, la propriété de l'installation et de son équipement a été transférée à l'Université d'Alaska Fairbanks en août 2015. HAARP est la cible des théoriciens du complot, qui prétendent qu'il est capable de "militariser" la météo. Les commentateurs et les scientifiques disent que les partisans de cette théorie ne sont pas informés, car les affirmations faites dépassent largement les capacités de l'installation, sinon le champ d'application des sciences naturelles.
Approximation haute fréquence/approximation haute fréquence :
Une approximation à haute fréquence (ou «approximation à haute énergie») pour la diffusion ou d'autres problèmes de propagation d'ondes, en physique ou en ingénierie, est une approximation dont la précision augmente avec la taille des caractéristiques sur le diffuseur ou le milieu par rapport à la longueur d'onde des particules diffusées . La mécanique classique et l'optique géométrique sont l'approximation à haute fréquence la plus courante et la plus extrême, où les propriétés d'onde ou de champ de, respectivement, la mécanique quantique et l'électromagnétisme sont entièrement négligées. Les approximations moins extrêmes comprennent l'approximation WKB, l'optique physique, la théorie géométrique de la diffraction, la théorie uniforme de la diffraction et la théorie physique de la diffraction. Lorsqu'elles sont utilisées pour approximer la mécanique quantique, elles sont appelées approximations semi-classiques.
Radiogoniométrie haute fréquence/goniométrie haute fréquence :
La radiogoniométrie à haute fréquence, généralement connue sous son abréviation HF/DF ou surnom huff-duff, est un type de radiogoniomètre (RDF) introduit pendant la Seconde Guerre mondiale. La haute fréquence (HF) fait référence à une bande radio qui peut communiquer efficacement sur de longues distances ; par exemple, entre les sous-marins et leur quartier général terrestre. HF / DF était principalement utilisé pour capter les radios ennemies pendant qu'elles transmettaient, bien qu'il ait également été utilisé pour localiser des avions amis comme aide à la navigation. La technique de base reste utilisée à ce jour comme l'une des disciplines fondamentales du renseignement électromagnétique, bien qu'elle soit généralement intégrée à une suite plus large de systèmes radio et de radars au lieu d'être un système autonome. Dans les systèmes antérieurs, un opérateur faisait tourner mécaniquement une antenne ou un solénoïde et écoutait les pics ou les zéros dans le signal pour déterminer le relèvement de l'émetteur. Cela a pris un temps considérable, de l'ordre d'une minute ou plus. Dans les systèmes ultérieurs, un ensemble d'antennes recevait le même signal à des emplacements ou des angles légèrement différents, puis utilisait les légères différences dans le signal pour afficher le relèvement sur un écran d'oscilloscope essentiellement instantanément, lui permettant de capter des signaux fugaces, comme de l'U -flotte de bateaux. Le système a été initialement développé par Robert Watson-Watt à partir de 1926, en tant que système de localisation de la foudre. Son rôle dans le renseignement n'a été développé qu'à la fin des années 1930. Au début de la guerre, les unités HF / DF étaient très demandées et il y avait une rivalité interservices considérable dans leur distribution. Une première utilisation a été par le RAF Fighter Command dans le cadre du système Dowding de contrôle d'interception, tandis que les unités au sol étaient également largement utilisées pour collecter des informations pour l'Amirauté afin de localiser les sous-marins. Entre 1942 et 1944, des unités plus petites sont devenues largement disponibles et étaient des installations courantes sur les navires de la Royal Navy. On estime que HF/DF a contribué à 24 % de tous les sous-marins coulés pendant la guerre. Watson-Watt DF ou Adcock/Watson-Watt lorsque l'antenne est considérée.
Traitement_impact_haute-fréquence/Traitement par impact haute fréquence :
Le traitement d'impact à haute fréquence ou HiFIT - Méthode est le traitement des constructions en acier soudées à la transition de la soudure pour augmenter la résistance à la fatigue.
Mesure d'impulsion haute fréquence/Mesure d'impulsion haute fréquence :
HFIM, acronyme de mesure d'impulsion à haute fréquence, est un type de technique de mesure en acoustique, où les signaux sonores transmis par la structure sont détectés et traités en mettant l'accent sur les signaux de courte durée, car ils indiquent la formation de fissures dans un corps solide. , principalement en acier. L'idée de base est d'utiliser des méthodes mathématiques de traitement du signal telles que l'analyse de Fourier en combinaison avec un matériel informatique approprié pour permettre des mesures en temps réel des amplitudes des signaux acoustiques ainsi que leur distribution dans l'espace des fréquences. Le principal avantage de cette technique est le rapport signal/bruit amélioré lorsqu'il s'agit de la séparation de l'émission acoustique d'une certaine source et d'une autre contamination indésirable par tout type de bruit. La technique est donc principalement appliquée dans les processus de production industriels, par exemple le formage à froid ou l'usinage, où un contrôle qualité à 100 % est requis ou dans la surveillance de l'état pour, par exemple, quantifier l'usure de l'outil.
Oscillations haute fréquence/Oscillations haute fréquence :
Les oscillations à haute fréquence (HFO) sont des ondes cérébrales d'une fréquence supérieure à ~ 80 Hz, générées par la population de cellules neuronales. Des oscillations à haute fréquence peuvent être enregistrées lors d'enregistrements d'électroencéphalogramme (EEG), de potentiel de champ local (LFP) ou d'électrocorticogramme (ECoG). Ils sont présents à l'état physiologique lors de vagues et d'ondulations aiguës - des schémas oscillatoires impliqués dans les processus de consolidation de la mémoire. Les HFO sont associés à la physiopathologie du cerveau comme la crise d'épilepsie et sont souvent enregistrés au début de la crise. Il constitue un biomarqueur prometteur pour l'identification de la zone épileptogène. D'autres études soulignent le rôle du HFO dans les troubles psychiatriques et les implications possibles sur les épisodes psychotiques de la schizophrénie.
Trading haute fréquence/Trading haute fréquence :
Le trading à haute fréquence (HFT) est un type de trading financier algorithmique caractérisé par des vitesses élevées, des taux de rotation élevés et des ratios ordre/négociation élevés qui exploite des données financières à haute fréquence et des outils de trading électronique. Bien qu'il n'y ait pas de définition unique du HFT, parmi ses attributs clés figurent des algorithmes hautement sophistiqués, la colocalisation et des horizons d'investissement à très court terme. Le HFT peut être considéré comme une forme principale de trading algorithmique en finance. Plus précisément, il s'agit de l'utilisation d'outils technologiques sophistiqués et d'algorithmes informatiques pour négocier rapidement des titres. HFT utilise des stratégies de trading propriétaires exécutées par des ordinateurs pour entrer et sortir de positions en quelques secondes ou fractions de seconde. –15% de volume en devises et matières premières. En intrajournalier, cependant, la proportion de HFT peut varier de 0% à 100% du volume des transactions à court terme. Les estimations précédentes indiquant que le HFT représentait 60 à 73 % de l'ensemble du volume des transactions sur actions américaines, ce chiffre tombant à environ 50 % en 2012, étaient des suppositions spéculatives très inexactes. Les traders à haute fréquence entrent et sortent de positions à court terme à des volumes et à des vitesses élevés dans le but de capturer parfois une fraction de centime de profit sur chaque transaction. Les entreprises HFT ne consomment pas de quantités importantes de capital, n'accumulent pas de positions ou ne détiennent pas leurs portefeuilles du jour au lendemain. En conséquence, le HFT a un ratio de Sharpe potentiel (une mesure de la récompense par rapport au risque) des dizaines de fois supérieur aux stratégies traditionnelles d'achat et de conservation. Les traders à haute fréquence sont généralement en concurrence avec d'autres HFT, plutôt qu'avec des investisseurs à long terme. Les entreprises HFT constituent les faibles marges avec des volumes de transactions incroyablement élevés, se chiffrant souvent en millions. Un important corpus de recherche soutient que le HFT et le commerce électronique posent de nouveaux types de défis au système financier. Il a été constaté que les traders algorithmiques et à haute fréquence avaient tous deux contribué à la volatilité lors du Flash Crash du 6 mai 2010, lorsque les fournisseurs de liquidité à haute fréquence se sont rapidement retirés du marché. Plusieurs pays européens ont proposé de réduire ou d'interdire le HFT en raison de préoccupations concernant la volatilité.
Ventilation haute fréquence/Ventilation haute fréquence :
La ventilation à haute fréquence est un type de ventilation mécanique qui utilise une fréquence respiratoire supérieure à quatre fois la valeur normale. (>150 (Vf) respirations par minute) et de très petits volumes courants. On pense que la ventilation à haute fréquence réduit les lésions pulmonaires associées au ventilateur (VALI), en particulier dans le contexte du SDRA et des lésions pulmonaires aiguës. Ceci est communément appelé ventilation protectrice des poumons. Il existe différents types de ventilation à haute fréquence. Chaque type a ses propres avantages et inconvénients. Les types de HFV sont caractérisés par le système de délivrance et le type de phase d'expiration. La ventilation à haute fréquence peut être utilisée seule ou en combinaison avec une ventilation mécanique conventionnelle. En général, les appareils qui nécessitent une ventilation mécanique conventionnelle ne produisent pas les mêmes effets de protection pulmonaire que ceux qui peuvent fonctionner sans respiration courante. Les spécifications et les capacités varient en fonction du fabricant de l'appareil.
Cribles_vibrants haute fréquence/Cribles vibrants haute fréquence :
Les cribles vibrants à haute fréquence sont les machines de criblage les plus importantes principalement utilisées dans l'industrie du traitement des minéraux. Ils sont utilisés pour séparer les charges contenant des minerais solides et broyés jusqu'à une taille inférieure à 200 μm, et sont applicables à la fois aux charges parfaitement humidifiées et séchées. La fréquence du crible est principalement contrôlée par un vibrateur électromagnétique qui est monté au-dessus et directement connecté à la surface de criblage. Ses caractéristiques à haute fréquence le différencient d'un crible vibrant normal. Les cribles vibrants à haute fréquence fonctionnent généralement selon un angle incliné, variant traditionnellement entre 0° et 25° et pouvant aller jusqu'à un maximum de 45°. Ils doivent fonctionner avec une faible course et avoir une fréquence allant de 1500 à 9000 RPM. La fréquence dans l'écran haute fréquence peut être fixe ou variable. Le crible haute fréquence variable est plus polyvalent pour faire face à des conditions de matériaux variées telles que la distribution de la taille des particules, l'humidité et a une efficacité plus élevée en raison de l'augmentation progressive de la fréquence. La force G joue un rôle important dans la détermination de la capacité de criblage spécifique de l'écran en termes de TPH par m². La force G augmente exponentiellement avec la fréquence. Un prétraitement de l'alimentation est souvent nécessaire avant l'utilisation du crible haute fréquence, car les ouvertures du crible peuvent facilement se boucher.
Sirop de maïs à haute teneur en fructose / Sirop de maïs à haute teneur en fructose :
Le sirop de maïs à haute teneur en fructose (HFCS), également appelé glucose-fructose, isoglucose et sirop de glucose-fructose, est un édulcorant à base d'amidon de maïs. Comme dans la production de sirop de maïs conventionnel, l'amidon est décomposé en glucose par des enzymes. Pour fabriquer du HFCS, le sirop de maïs est ensuite traité par la D-xylose isomérase pour convertir une partie de son glucose en fructose. Le HFCS a été commercialisé pour la première fois au début des années 1970 par la Clinton Corn Processing Company, en collaboration avec l'Agence japonaise des sciences et technologies industrielles, où l'enzyme a été découverte en 1965. : 5 En tant qu'édulcorant, le HFCS est souvent comparé au sucre granulé, mais la fabrication Les avantages du HFCS par rapport au sucre incluent qu'il est plus facile à manipuler et moins cher. « HFCS 42 » et « HFCS 55 » font référence à des compositions de fructose en poids sec de 42 % et 55 % respectivement, le reste étant du glucose. Le HFCS 42 est principalement utilisé pour les aliments transformés et les céréales pour petit-déjeuner, tandis que le HFCS 55 est principalement utilisé pour la production de boissons gazeuses. La Food and Drug Administration des États-Unis déclare qu'elle n'a pas connaissance de preuves montrant que le HFCS est moins sûr que les édulcorants traditionnels tels que saccharose et miel. Les utilisations et les exportations de SHTF des producteurs américains ont augmenté régulièrement au début du 21e siècle.
Alcoolique de haut niveau/Alcoolique de haut niveau :
Un alcoolique de haut niveau (HFA) est une personne qui maintient des emplois et des relations tout en faisant preuve d'alcoolisme. De nombreux HFA ne sont pas considérés comme des alcooliques par la société parce qu'ils ne correspondent pas au stéréotype alcoolique courant. Contrairement à l'alcoolique stéréotypé, les HFA ont réussi ou dépassé tout au long de leur vie. Cela peut conduire au déni de l'alcoolisme par le HFA, les collègues, les membres de la famille et les amis. Les alcooliques fonctionnels représentent 19,5 % du nombre total d'alcooliques américains, 50 % étant également des fumeurs et 33 % ayant des antécédents familiaux d'alcoolisme sur plusieurs générations. Les statistiques de la Harvard School of Public Health ont indiqué que 31% des étudiants montrent des signes d'abus d'alcool et 6% sont dépendants de l'alcool. Les médecins espèrent que la nouvelle définition aidera à identifier tôt les cas graves d'alcoolisme, plutôt que lorsque le problème est complètement développé.
Autisme de haut niveau/Autisme de haut niveau :
L'autisme de haut niveau (HFA) est une classification de l'autisme dans laquelle une personne ne présente aucune déficience intellectuelle, mais peut présenter des déficits de communication, de reconnaissance et d'expression des émotions et d'interaction sociale. HFA n'est inclus ni dans le DSM-5 de l'American Psychological Association ni dans la CIM-10 de l'Organisation mondiale de la santé, qui ne subdivisent pas l'autisme en fonction des capacités intellectuelles.
Entraînement à haut g/Entraînement à haut g :
L'entraînement à haut g est effectué par des aviateurs et des astronautes qui sont soumis à des niveaux élevés d'accélération («g»). Il est conçu pour prévenir une perte de conscience induite par g (g-LOC), une situation dans laquelle l'action des forces g éloigne le sang du cerveau dans la mesure où la conscience est perdue. Des incidents de perte de conscience induite par l'accélération ont causé des accidents mortels dans des aéronefs capables de supporter des g élevés pendant des périodes considérables. La valeur de la formation a été bien établie au cours des décennies depuis les années 1970 et a fait l'objet de nombreuses recherches et publications, et la formation a contribué à étendre la tolérance g des pilotes à la fois en amplitude et en durée. La formation comprend la centrifugation, les manœuvres de contrainte anti-g (AGSM) et la physiologie de l'accélération.
Néoplasie_intraépithéliale_prostatique de haut grade/Néoplasie intraépithéliale prostatique de haut grade :
La néoplasie intraépithéliale prostatique de haut grade (HGPIN) est une anomalie des glandes prostatiques et on pense qu'elle précède le développement de l'adénocarcinome de la prostate (la forme la plus courante de cancer de la prostate). Elle peut être simplement appelée néoplasie intraépithéliale prostatique (PIN). Il est considéré comme une pré-malignité, ou carcinome in situ, des glandes prostatiques.
Carcinome_séreux de haut grade/Carcinome séreux de haut grade :
Le carcinome séreux de haut grade (HGSC) est un type de tumeur qui provient de la couche épithéliale séreuse de la cavité abdominopelvienne et se trouve principalement dans l'ovaire. Les HGSC représentent la majorité des cas de cancer de l'ovaire et ont les taux de survie les plus bas. Le HGSC est distinct du carcinome séreux de bas grade (LGSC) qui provient du tissu ovarien, est moins agressif et est présent dans le cancer de l'ovaire de stade I où les tumeurs sont localisées à l'ovaire. Bien qu'on pensait à l'origine provenir de la couche de cellules épithéliales squameuses recouvrant l'ovaire, on pense maintenant que l'HGSC provient de l'épithélium des trompes de Fallope. HGSC est beaucoup plus invasif que LGSC avec un taux de mortalité plus élevé - bien qu'il soit plus sensible à la chimiothérapie à base de platine, probablement en raison de son taux de croissance rapide. Dans de rares cas, les HGSC peuvent se développer à partir des LGSC, mais généralement les deux types surviennent indépendamment l'un de l'autre.
Chaussure à talon haut/Chaussure à talon haut :
Les chaussures à talons hauts, également appelées talons hauts, sont un type de chaussures à semelle inclinée. Le talon de ces chaussures est surélevé au-dessus de la plante du pied. Les talons hauts allongent les jambes, font paraître le porteur plus grand et accentuent le muscle du mollet. Il existe de nombreux types de talons de différentes couleurs, matériaux, styles et hauteurs. Les talons hauts ont été utilisés de diverses manières pour communiquer la nationalité, l'affiliation professionnelle, le sexe et le statut social. Les talons hauts ont été une pièce importante de la mode tout au long de l'histoire de l'Occident. Au début du XVIIe siècle en Europe, les talons hauts étaient un signe de masculinité et de statut social élevé. Il faudra attendre la fin du siècle pour que cette tendance s'étende à la mode féminine. Au 18e siècle, les chaussures à talons hauts s'étaient divisées selon les sexes. À cette époque, les talons pour hommes étaient de gros carrés attachés à des bottes d'équitation ou à de hautes bottes habillées, tandis que les talons hauts pour femmes étaient étroits et pointus et souvent attachés à des chaussures habillées en forme de pantoufles (similaires aux talons modernes). Au 20e siècle, les talons hauts au profil mince représentaient la féminité; cependant, un talon haut épais sur une botte ou un sabot était toujours acceptable pour les hommes. Jusque dans les années 1950, les talons de chaussures étaient généralement en bois, mais ces dernières années, ils ont été fabriqués dans une variété de matériaux, notamment le cuir, le daim et le plastique. Le port de talons hauts est associé à un risque accru de chutes, de douleurs musculo-squelettiques, de développement de déformations du pied et varices.
Pressure_protection_system à haute intégrité/Système de protection contre la pression à haute intégrité :
Un système de protection contre la pression à haute intégrité (HIPPS) est un type de système instrumenté de sécurité (SIS) conçu pour empêcher la surpressurisation d'une usine, telle qu'une usine chimique ou une raffinerie de pétrole. Le HIPPS fermera la source de la haute pression avant que la pression de conception du système ne soit dépassée, empêchant ainsi la perte de confinement par rupture (explosion) d'une conduite ou d'une cuve. Par conséquent, un HIPPS est considéré comme une barrière entre une section haute pression et une section basse pression d'une installation.
Lampe à décharge à haute intensité/Lampe à décharge à haute intensité :
Les lampes à décharge à haute intensité (lampes HID) sont un type de lampe à décharge électrique qui produit de la lumière au moyen d'un arc électrique entre des électrodes en tungstène logées à l'intérieur d'un tube à arc en quartz fondu translucide ou transparent ou en alumine fondue. Ce tube est rempli de gaz rare et contient souvent également des métaux ou des sels métalliques appropriés. Le gaz noble permet l'amorçage initial de l'arc. Une fois l'arc amorcé, il chauffe et évapore le mélange métallique. Sa présence dans le plasma de l'arc augmente considérablement l'intensité de la lumière visible produite par l'arc pour une puissance absorbée donnée, car les métaux présentent de nombreuses raies spectrales d'émission dans la partie visible du spectre. Les lampes à décharge à haute intensité sont un type de lampe à arc. Les toutes nouvelles lampes à décharge à haute intensité produisent plus de lumière visible par unité d'énergie électrique consommée que les lampes fluorescentes et à incandescence, car une plus grande proportion de leur rayonnement est de la lumière visible par opposition à l'infrarouge. Cependant, le rendement lumineux de l'éclairage HID peut se détériorer jusqu'à 70 % sur 10 000 heures de fonctionnement. De nombreux véhicules modernes utilisent des ampoules HID pour les principaux systèmes d'éclairage, bien que certaines applications passent désormais des ampoules HID à la technologie LED et laser.
Ultrasons focalisés de haute intensité / Ultrasons focalisés de haute intensité :
Les ultrasons focalisés de haute intensité (HIFU) sont une technique thérapeutique non invasive qui utilise des ondes ultrasonores non ionisantes pour chauffer ou enlever des tissus. Les HIFU peuvent être utilisés pour augmenter le flux sanguin ou lymphatique ou pour détruire des tissus, tels que des tumeurs, via des mécanismes thermiques et mécaniques. Compte tenu de la prévalence et du coût relativement faible des mécanismes de génération d'ultrasons, le principe de HIFU est qu'il s'attend à une thérapie non invasive et peu coûteuse qui peut au minimum surpasser les soins. La technologie est différente de celle utilisée dans l'imagerie par ultrasons, bien que des fréquences plus basses et des ondes continues plutôt que pulsées soient utilisées pour obtenir les doses thermiques nécessaires. Cependant, des ondes pulsées peuvent également être utilisées si des dommages mécaniques plutôt que thermiques sont souhaités. Les lentilles acoustiques sont souvent utilisées pour atteindre l'intensité nécessaire au niveau du tissu cible sans endommager le tissu environnant. Le diagramme de modèle idéal est la focalisation du faisceau d'une loupe de lumière solaire ; seul le point focal de la loupe a une température élevée. L'HIFU est traditionnellement associée à d'autres techniques d'imagerie telles que l'échographie médicale ou l'IRM pour permettre le guidage du traitement et le suivi.
Entraînement par intervalles à haute intensité/Entraînement par intervalles à haute intensité :
L'entraînement par intervalles à haute intensité (HIIT) est un protocole d'entraînement alternant de courtes périodes d'exercices anaérobies intenses ou explosifs avec de brèves périodes de récupération jusqu'à l'épuisement. Le HIIT implique des exercices effectués en rafales rapides répétées à un effort maximal ou presque maximal avec des périodes de repos ou de faible activité entre les épisodes. Le niveau d'intensité très élevé, la durée de l'intervalle et le nombre d'épisodes le distinguent de l'activité aérobie (cardiovasculaire), car le corps recrute de manière significative des systèmes énergétiques anaérobies (mais pas complètement à l'exclusion des voies aérobies). La méthode repose ainsi sur "le système de libération d'énergie anaérobie presque au maximum". Bien qu'il existe différentes formes d'entraînements de style HIIT qui peuvent impliquer des exercices associés à la fois à une activité cardiovasculaire et à un entraînement en résistance, les caractéristiques cruciales du HIIT d'effort maximal, de durée et de courte durée les périodes de repos (déclenchant ainsi les voies anaérobies de production d'énergie) le différencient matériellement du fait d'être considéré comme une forme d'exercice cardiovasculaire. Bien qu'il n'y ait pas de durée de session HIIT universelle, un entraînement HIIT dure généralement moins de 30 minutes au total car il utilise les systèmes d'énergie anaérobie qui sont généralement utilisés pour des rafales courtes et nettes. Les heures varient en fonction du niveau de forme physique actuel d'un participant. Le HIIT traditionnel avait initialement été conçu pour ne pas durer plus de 20 secondes avec pas plus de 10 secondes d'arrêt ; cependant, les intervalles d'effort d'exercice ont tendance à varier de 20 à 45 secondes mais pas plus de 75 secondes, moment auquel le système aérobie se déclencherait alors. Les entraînements HIIT améliorent la capacité et la condition athlétiques ainsi qu'un métabolisme du glucose amélioré. Comparé à des séances plus longues typiques d'autres régimes, le HIIT peut ne pas être aussi efficace pour traiter l'hyperlipidémie et l'obésité, ou pour améliorer la masse musculaire et osseuse. Cependant, la recherche a montré que les régimes HIIT produisaient des réductions significatives de la masse grasse de tout le corps chez les jeunes femmes. Certains chercheurs notent également que le HIIT nécessite "un niveau extrêmement élevé de motivation du sujet" et se demandent si la population générale pourrait tolérer en toute sécurité ou pratiquement la nature extrême du régime d'exercice. Un entraînement par intervalles de sprint (SIT) est un exercice conçu de manière similaire au HIIT, mais au lieu d'utiliser un effort "presque maximal" pour les périodes de haute intensité, des efforts "supramaximaux" ou "tous azimuts" sont utilisés dans des rafales plus courtes. En termes physiologiques, "presque maximal" signifie atteindre 80 à 100 % de FCmax, tandis que "supramaximal" signifie un rythme qui dépasse ce qui provoquerait le pic de VO2. Les régimes SIT incluent généralement une quantité d'exercice total inférieure à celle des régimes HIIT. Le HIIT et le SIT appartiennent tous deux à la classe plus large de l'entraînement par intervalles. La distinction entre les deux n'est pas toujours maintenue, même dans le milieu universitaire : par exemple, Tabata décrit son régime à 170 % de VO2 max comme "supermaximal", mais n'utilise pas le terme SIT.
Séparateur magnétique à haute intensité/séparateur magnétique à haute intensité :
Dans un passé récent, le problème de l'élimination des particules de fer nocives d'un flux de processus avait quelques alternatives. La séparation magnétique était généralement limitée et modérément efficace. Les séparateurs magnétiques qui utilisaient des aimants permanents ne pouvaient générer que des champs de faible intensité. Ceux-ci ont bien fonctionné pour éliminer les débris ferreux mais pas les particules paramagnétiques fines. Ainsi, des séparateurs magnétiques à haute intensité efficaces pour collecter les particules paramagnétiques ont vu le jour. Ceux-ci se concentrent sur la séparation de particules très fines qui sont paramagnétiques. Le courant passe à travers la bobine, ce qui crée un champ magnétique qui magnétise l'anneau de matrice en acier déployé. Le matériau de la matrice paramagnétique se comporte comme un aimant dans le champ magnétique et attire ainsi les fines. L'anneau est rincé lorsqu'il est dans le champ magnétique et toutes les particules non magnétiques sont entraînées avec l'eau de rinçage. Ensuite, lorsque l'anneau quitte la zone magnétique, l'anneau est rincé et un vide d'environ - 0,3 bar est appliqué pour éliminer les particules magnétiques attachées à l'anneau de matrice.
Champ rayonné à haute intensité/Champ rayonné à haute intensité :
Un champ rayonné de haute intensité (HIRF) est une énergie radiofréquence d'une force suffisante pour affecter négativement soit un organisme vivant, soit les performances d'un appareil qui y est soumis. Un four à micro-ondes est un exemple de ce principe mis en œuvre de manière contrôlée et sécurisée. L'énergie radiofréquence (RF) est un rayonnement électromagnétique non ionisant - ses effets sur les tissus se font par chauffage. Les composants électroniques sont affectés par la rectification de la RF et un déplacement correspondant des points de polarisation des composants sur le terrain. exposition autorisée au cours d'une journée de travail normale.
Entraînement à haute intensité/Entraînement à haute intensité :
L'entraînement à haute intensité (HIT) est une forme d'entraînement en force popularisée dans les années 1970 par Arthur Jones, le fondateur de Nautilus. L'entraînement se concentre sur l'exécution de répétitions de musculation de qualité jusqu'au point de défaillance musculaire momentanée. L'entraînement prend en compte le nombre de répétitions, la quantité de poids et la durée pendant laquelle le muscle est exposé à la tension afin de maximiser la quantité de recrutement des fibres musculaires.
Eclairage high-key/Eclairage high-key :
L'éclairage high-key est un style d'éclairage pour le cinéma, la télévision ou la photographie qui vise à réduire le rapport d'éclairage présent dans la scène. Cela a été fait à l'origine en partie pour des raisons technologiques, car les premiers films et télévisions ne géraient pas bien les rapports de contraste élevés, mais sont maintenant utilisés pour suggérer une humeur optimiste. Il est souvent utilisé dans les œuvres de comédie. L'éclairage high-key est généralement assez homogène et exempt d'ombres sombres. La terminologie provient de l'équilibre plus élevé du rapport entre la lumière principale et la lumière d'appoint dans une configuration d'éclairage traditionnelle à trois points. luminaires par personne (gauche, droite et central) - ce qui a entraîné un modèle d'éclairage uniforme avec très peu de modélisation. De nos jours, les multiples sources de lumière chaude sont remplacées par des lumières douces fluorescentes ou LED beaucoup plus efficaces, qui fournissent un effet similaire. L'avantage de l'éclairage high-key est qu'il ne nécessite pas de réglage pour chaque scène, ce qui permet à la production de terminer le tournage en quelques heures au lieu de plusieurs jours. Le principal inconvénient est que l'éclairage high-key n'ajoute pas de sens ou de drame en éclairant certaines parties plus en évidence que d'autres. Les spectacles avec des budgets plus importants se sont éloignés de l'éclairage high-key en utilisant des configurations d'éclairage différentes de la norme en trois points. Cela s'explique en partie par l'avènement de nouveaux luminaires plus faciles à utiliser et plus rapides à installer. Une autre raison est la sophistication croissante de l'audience des programmes télévisés et la nécessité de se différencier.
Delta jambe haute/delta jambe haute :
Le delta de jambe haute (également connu sous le nom de jambe sauvage, jambe de dard, jambe bâtarde, jambe haute, jambe orange, jambe rouge, delta de jambe de chien) est un type de connexion de service électrique pour les installations électriques triphasées. Il est utilisé lorsque l'alimentation monophasée et triphasée doit être fournie à partir d'un transformateur triphasé (ou d'une banque de transformateurs). L'alimentation triphasée est connectée dans la configuration en triangle et le point central d'une phase est mis à la terre. Cela crée à la fois une alimentation monophasée en phase divisée (L1 ou L2 au neutre sur le schéma à droite) et triphasée (L1-L2-L3 à droite). Il est appelé "jambe orange" car le fil L3 doit souvent être de couleur orange. Par convention, la branche haute est généralement placée dans la cosse centrale (phase B) du panneau concerné, quelle que soit la désignation L1-L2-L3 au niveau du transformateur.
Panel de haut niveau_sur_les_menaces,_les_défis_et_le_changement/Panel de haut niveau sur les menaces, les défis et le changement :
Le Groupe de personnalités de haut niveau des Nations Unies sur les menaces, les défis et le changement a été créé en 2003 pour analyser les menaces et les défis à la paix et à la sécurité internationales et recommander des mesures sur la base de cette analyse. Il était présidé par l'ancien Premier ministre thaïlandais, Anand Panyarachun, et ses membres comprenaient l'ancien conseiller à la sécurité nationale des États-Unis, Brent Scowcroft, ainsi que plusieurs anciens chefs de gouvernement et ministres des affaires étrangères. En décembre 2004, il a produit un rapport sur menaces à la paix et à la sécurité.
Groupe de haut niveau sur la cohérence du système des Nations Unies/Groupe de haut niveau sur la cohérence du système des Nations Unies :
Le 16 février 2006, le Secrétaire général a annoncé la formation d'un nouveau groupe de haut niveau chargé d'étudier comment le système des Nations Unies pourrait travailler de manière plus cohérente et plus efficace à travers le monde dans les domaines du développement, de l'aide humanitaire et de l'environnement. Le travail du Groupe est soutenu par un petit secrétariat basé à New York.
Forum_politique_de_haut_niveau_sur_le_développement_durable/Forum politique de haut niveau sur le développement durable :
Le Forum politique de haut niveau des Nations Unies sur le développement durable (HLPF) est un organe subsidiaire de l'Assemblée générale des Nations Unies et du Conseil économique et social des Nations Unies responsable de la politique de développement durable de l'ensemble de l'organisation. Il adopte des déclarations négociées, examine les engagements et les progrès de l'Agenda 2030 pour le développement durable (les 17 objectifs de développement durable, ODD ou objectifs mondiaux). Le Forum a remplacé la Commission du développement durable le 24 septembre 2013. Les réunions du Forum sont ouvertes à tous les États membres des Nations Unies.
Assembleur de haut niveau/Assembleur de haut niveau :
Un assembleur de haut niveau en informatique est un assembleur pour langage d'assemblage qui intègre des fonctionnalités trouvées dans un langage de programmation de haut niveau. Le premier assembleur de haut niveau était probablement ESPOL (Executive Systems Problem Oriented Language) de Burroughs vers 1960, qui fournissait une syntaxe de type ALGOL autour d'instructions machine Burroughs B5000 explicitement spécifiées. Cela a été suivi par le PL360 de Niklaus Wirth en 1968; cela reproduisait les installations de Burroughs, avec lesquelles il était familier, sur un IBM System / 360. Les assembleurs de haut niveau les plus récents sont Borland's Turbo Assembler (TASM), Netwide Assembler (NASM), Microsoft's Macro Assembler (MASM), IBM's High Level Assembler (HLASM) for z/Architecture systems, Alessandro Ghignola's Linoleum, X# used in Cosmos and Ziron Les assembleurs de haut niveau fournissent généralement des instructions qui assemblent directement un à un en code machine de bas niveau comme dans n'importe quel assembleur, ainsi que des instructions de contrôle telles que IF, WHILE, REPEAT...UNTIL et FOR, des macros et d'autres améliorations. . Cela permet l'utilisation d'abstractions d'instructions de contrôle de haut niveau partout où une vitesse maximale ou un espace minimal n'est pas essentiel ; les instructions de bas niveau qui s'assemblent directement au code machine peuvent être utilisées pour produire le code le plus rapide ou le plus court. Le résultat final est un code source assembleur qui est beaucoup plus lisible que le code assembleur standard tout en préservant l'efficacité inhérente à l'utilisation du langage assembleur. Les assembleurs de haut niveau fournissent généralement des fonctionnalités de masquage d'informations et la possibilité d'appeler des fonctions et des procédures en utilisant une syntaxe de haut niveau (c'est-à-dire que l'assembleur produit automatiquement du code pour pousser les paramètres sur la pile d'appels plutôt que le programmeur n'ait à écrire manuellement le code pour le faire). Les assembleurs de haut niveau fournissent également des abstractions de données que l'on trouve normalement dans les langages de haut niveau. Les exemples incluent : les structures de données, les unions, les classes et les ensembles. Certains assembleurs de haut niveau (par exemple, TASM et High Level Assembly (HLA)) prennent en charge la programmation orientée objet.
Conception de haut niveau/Conception de haut niveau :
La conception de haut niveau (HLD) explique l'architecture qui serait utilisée pour développer un système. Le diagramme d'architecture donne une vue d'ensemble d'un système complet, identifiant les principaux composants qui seraient développés pour le produit et leurs interfaces. Le HLD utilise des termes éventuellement non techniques à légèrement techniques qui doivent être compréhensibles pour les administrateurs du système. En revanche, la conception de bas niveau expose davantage la conception détaillée logique de chacun de ces éléments à l'usage des ingénieurs et des programmeurs. La DHN s'applique à la fois aux logiciels et au matériel, souvent le matériel est oublié dans le développement du système et seul le logiciel est discuté.
Piège d'équilibre de haut niveau/Piège d'équilibre de haut niveau :
Le piège d'équilibre de haut niveau est un concept développé par l'historien de l'environnement Mark Elvin pour expliquer pourquoi la Chine n'a jamais connu de révolution industrielle indigène malgré sa richesse, sa stabilité et son haut niveau de réalisation scientifique. Essentiellement, il affirme que l'économie préindustrielle chinoise avait atteint un point d'équilibre où l'offre et la demande étaient bien équilibrées. Les méthodes de production impériales tardives et les réseaux commerciaux étaient si efficaces et la main-d'œuvre était si bon marché que l'investissement en capital pour améliorer l'efficacité ne serait pas rentable. Dans le même temps, un changement de paradigme intellectuel du taoïsme au confucianisme au sein de l'intelligentsia a déplacé le centre d'intérêt de la recherche universitaire des sciences naturelles et des mathématiques, qui étaient conçues sous le taoïsme comme des enquêtes sur la nature mystique de l'univers, vers des études de philosophie sociale et morale sous le confucianisme. Selon Elvin, cela a produit un climat intellectuel qui n'était pas propice à l'innovation technique. En comparaison, l'économie de la Grande-Bretagne à l'époque de la révolution industrielle était beaucoup plus petite et moins efficace que l'économie impériale chinoise tardive. La main-d'œuvre était comparativement plus chère et le commerce intérieur beaucoup moins efficace qu'en Chine. Cela a produit d'importants déséquilibres dans les forces de l'offre et de la demande, entraînant des problèmes économiques qui ont fourni une forte incitation financière à la création d'avancées scientifiques et techniques conçues pour y remédier. Dans le même temps, les Lumières avaient déplacé l'orientation de la recherche universitaire vers les sciences naturelles, fournissant la base de nombreuses innovations techniques.
Architecture_langage_informatique_de_haut_niveau/Architecture informatique du langage de haut niveau :
Une architecture informatique de langage de haut niveau (HLLCA) est une architecture informatique conçue pour être ciblée par un langage de programmation de haut niveau (HLL) spécifique, plutôt que l'architecture dictée par des considérations matérielles. Il est donc également appelé conception informatique dirigée par le langage, inventée par McKeeman (1967) et principalement utilisée dans les années 1960 et 1970. Les HLLCA étaient populaires dans les années 1960 et 1970, mais ont largement disparu dans les années 1980. Cela faisait suite à l'échec dramatique de l'Intel 432 (1981) et à l'émergence de compilateurs optimisants et d'architectures d'ordinateurs à jeu d'instructions réduit (RISC) et d'architectures d'ordinateur à jeu d'instructions complexes (CISC) de type RISC, et au développement ultérieur du juste-à-temps. compilation (JIT) pour les HLL. Une étude détaillée et une critique peuvent être trouvées dans Ditzel & Patterson (1980). Les HLLCA datent presque du début des HLL, dans les grands systèmes de Burroughs (1961), qui ont été conçus pour ALGOL 60 (1960), l'un des premiers HLL. Les HLLCA les plus connues sont peut-être les machines Lisp des années 1970 et 1980, pour le langage Lisp (1959). Actuellement, les HLLCA les plus populaires sont les processeurs Java, pour le langage Java (1995), et ceux-ci connaissent un succès mitigé, étant utilisés pour certaines applications. Une architecture récente dans cette veine est l' architecture de système hétérogène (2012), dont la couche intermédiaire HSA (HSAIL) fournit la prise en charge du jeu d'instructions pour les fonctionnalités HLL telles que les exceptions et les fonctions virtuelles; cela utilise JIT pour garantir les performances.
Langage_de_programmation_de_haut_niveau/Langage de programmation de haut niveau :
En informatique, un langage de programmation de haut niveau est un langage de programmation avec une forte abstraction des détails de l'ordinateur. Contrairement aux langages de programmation de bas niveau, il peut utiliser des éléments de langage naturel, être plus facile à utiliser ou automatiser (ou même masquer entièrement) des zones importantes des systèmes informatiques (par exemple, la gestion de la mémoire), ce qui rend le processus de développement d'un programme plus simple et plus compréhensible que lors de l'utilisation d'un langage de niveau inférieur. La quantité d'abstraction fournie définit à quel point un langage de programmation est "de haut niveau". Dans les années 1960, un langage de programmation de haut niveau utilisant un compilateur était communément appelé un autocode. Des exemples d'autocodes sont COBOL et Fortran. Le premier langage de programmation de haut niveau conçu pour les ordinateurs était Plankalkül, créé par Konrad Zuse. Cependant, il n'a pas été mis en œuvre à son époque, et ses contributions originales ont été largement isolées des autres développements dus à la Seconde Guerre mondiale, mis à part l'influence du langage sur le langage "Superplan" de Heinz Rutishauser et aussi dans une certaine mesure ALGOL. Le premier langage de haut niveau largement répandu était Fortran , un développement indépendant de la machine des systèmes Autocode antérieurs d'IBM. La famille ALGOL, avec ALGOL 58 défini en 1958 et ALGOL 60 défini en 1960 par des comités d'informaticiens européens et américains, a introduit la récursivité ainsi que des fonctions imbriquées sous portée lexicale. ALGOL 60 était également le premier langage avec une distinction claire entre les paramètres de valeur et de nom et leur sémantique correspondante. ALGOL a également introduit plusieurs concepts de programmation structurés, tels que les constructions while-do et if-then-else et sa syntaxe a été la première à être décrite en notation formelle - la forme Backus – Naur (BNF). À peu près à la même période, COBOL a introduit des enregistrements (également appelés structs) et Lisp a introduit pour la première fois une abstraction lambda entièrement générale dans un langage de programmation.
Gestion_des_déchets_radioactifs_de_haute activité/Gestion des déchets radioactifs de haute activité :
La gestion des déchets hautement radioactifs concerne la manière dont les matières radioactives créées lors de la production d'énergie nucléaire et d'armes nucléaires sont traitées. Les déchets radioactifs contiennent un mélange de nucléides à vie courte et longue, ainsi que des nucléides non radioactifs. Il y aurait eu quelque 47 000 tonnes (100 millions de livres) de déchets nucléaires de haute activité stockés aux États-Unis en 2002. Les éléments transuraniens les plus gênants dans le combustible usé sont le neptunium-237 (demi-vie de deux millions d'années) et le plutonium-239 ( demi-vie 24 000 ans). Par conséquent, les déchets hautement radioactifs nécessitent un traitement et une gestion sophistiqués pour réussir à les isoler de la biosphère. Cela nécessite généralement un traitement, suivi d'une stratégie de gestion à long terme impliquant le stockage permanent, l'élimination ou la transformation des déchets sous une forme non toxique. La désintégration radioactive suit la règle de la demi-vie, ce qui signifie que le taux de désintégration est inversement proportionnel à la durée de la désintégration. En d'autres termes, le rayonnement d'un isotope à longue durée de vie comme l'iode-129 sera beaucoup moins intense que celui d'un isotope à courte durée de vie comme l'iode-131. Les gouvernements du monde entier envisagent une gamme d'options de gestion et d'élimination des déchets, impliquant généralement le placement géologique en profondeur, bien que des progrès limités aient été réalisés dans la mise en œuvre de solutions de gestion des déchets à long terme. Cela s'explique en partie par le fait que, selon des études basées sur l'effet des doses de rayonnement estimées, les délais en question dans le traitement des déchets radioactifs vont de 10 000 à des millions d'années. Ainsi, l'ingénieur et physicien Hannes Alfvén a identifié deux conditions préalables fondamentales pour une gestion efficace des déchets radioactifs. déchets radioactifs radioactifs : (1) formations géologiques stables et (2) institutions humaines stables sur des centaines de milliers d'années. Comme le suggère Alfvén, aucune civilisation humaine connue n'a jamais duré aussi longtemps, et aucune formation géologique de taille adéquate pour un dépôt permanent de déchets radioactifs n'a encore été découverte qui soit stable depuis si longtemps. Néanmoins, éviter d'affronter les risques associés à la gestion des déchets radioactifs peut créer des risques compensateurs d'une plus grande ampleur. La gestion des déchets radioactifs est un exemple d'analyse des politiques qui nécessite une attention particulière aux préoccupations éthiques, examinées à la lumière de l'incertitude et de l'avenir : prise en compte des « impacts des pratiques et des technologies sur les générations futures ». Il y a un débat sur ce qui devrait constituer une solution acceptable fondement scientifique et technique pour poursuivre les stratégies d'élimination des déchets radioactifs. Certains ont soutenu, sur la base de modèles complexes de simulation géochimique, que l'abandon du contrôle des matières radioactives au profit des processus géohydrologiques à la fermeture du dépôt est un risque acceptable. Ils soutiennent que les soi-disant «analogues naturels» inhibent le mouvement souterrain des radionucléides, rendant inutile le stockage des déchets radioactifs dans des formations géologiques stables. Cependant, les modèles existants de ces processus sont empiriquement sous-déterminés : en raison de la nature souterraine de ces processus dans les formations géologiques solides, la précision des modèles de simulation informatique n'a pas été vérifiée par l'observation empirique, certainement pas sur des périodes de temps équivalentes à la demi-vie létale. durée de vie des déchets hautement radioactifs. D'autre part, certains insistent sur la nécessité de dépôts géologiques profonds dans des formations géologiques stables. Les plans de gestion nationaux de divers pays affichent une variété d'approches pour résoudre ce débat. Les chercheurs suggèrent que les prévisions de préjudice pour la santé pendant de si longues périodes devraient être examinées de manière critique. Les études pratiques ne considèrent que jusqu'à 100 ans en ce qui concerne la planification efficace et les évaluations des coûts. Le comportement à long terme des déchets radioactifs reste un sujet de recherche en cours. Les stratégies de gestion et les plans de mise en œuvre de plusieurs gouvernements nationaux représentatifs sont décrits ci-dessous.
Inscription à :
Publier les commentaires (Atom)
John Thomson footballer""
Wikipédia : À propos/Wikipédia : À propos : Wikipédia est une encyclopédie en ligne gratuite que n'importe qui peut modifier de bon...
-
Circuit intégré 4000: Le circuit intégré 4000 fait partie de la série des circuits intégrés 4000 utilisant la technologie CMOS. Ce circu...
-
Championnat d'Afrique de basket-ball 2007: Le Championnat d'Afrique de basket-ball 2007 se déroule à Luanda, Benguela, Huambo, Lu...
-
Colibri élise: Trouve plus Colibri elvire: Le Colibri elvire (Elvira chionura) est une espèce de colibris de la sous-famille des Troc...
Aucun commentaire:
Enregistrer un commentaire