Rechercher dans ce blog

mercredi 24 août 2022

Data log


Data Governance_Act/Loi sur la gouvernance des données :
La loi sur la gouvernance des données (DGA) est une proposition législative de la Commission européenne qui vise à créer un cadre qui facilitera le partage des données. La proposition a été annoncée pour la première fois dans le cadre de la stratégie européenne pour les données 2020 et a été officiellement présentée par Margrethe Vestager le 25 novembre 2020. La DGA couvre les données des organismes publics, des entreprises privées et des citoyens. Ses principaux objectifs sont de permettre en toute sécurité le partage de données sensibles détenues par des organismes publics, de réglementer le partage de données par des acteurs privés. Le 30 novembre 2021, le Parlement et le Conseil de l'UE sont parvenus à un accord sur le libellé de la DGA. L'approbation formelle de ces organes est toujours requise, mais cela devrait être procédural. La législation proposée a été analysée par des parties indépendantes.
Garde de données/Garde de données :
Data Guard ou Data Guard peut faire référence à : Guard (sécurité de l'information) - un mécanisme de sécurité pour les ordinateurs sur des réseaux séparés Oracle Data Guard - logiciel pour répliquer les bases de données Oracle
Données Gunj_Bakhsh_Zone/Données Gunj Bakhsh Zone :
Données Gunj Buksh (Thike) Town est une ville administrative (tehsil) à Lahore, Punjab, Pakistan. Il forme l'une des 10 municipalités du district de Lahore City.
Data Infrastructure_Building_Blocks/Blocs de construction de l'infrastructure de données :
Data Infrastructure Building Blocks (DIBBs) est un programme de la National Science Foundation des États-Unis. Le 27 avril 2012, le US National Science Foundation Office of Cyberinfrastructure a annoncé une demande de propositions intitulée "Data Infrastructure Building Blocks (DIBBs)". L'appel d'offres (NSF 12-557) « incorporait certains des objectifs des anciens programmes DataNet et InterOp, mais pas tous. L'introduction dans cette sollicitation stipule : L'investissement du cadre de cyberinfrastructure pour la science et l'ingénierie du 21e siècle (CIF21) de la NSF se concentre sur les composants de cyberinfrastructure interconnectés nécessaires pour réaliser le potentiel de recherche des efforts de recherche théoriques, expérimentaux, d'observation et basés sur la simulation. La description du programme [DIBBs] décrit les objectifs du programme en tant que tels : . . . soutenir le développement ou l'expansion de nouveaux types de stockage, de préservation et d'accès aux données numériques qui : (1) permettent un engagement aux frontières de la recherche et de l'enseignement en sciences et en ingénierie ; (2) travailler en coopération et en coordination pour surmonter les obstacles conventionnels dus au type et au format des données, à la discipline ou au domaine, ainsi qu'au moment et au lieu pour faciliter le partage des données ; (3) combiner l'expertise en cyberinfrastructure; bibliothéconomie et archivistique; informatique, informatique et sciences de l'information; et diverses sciences de domaine; (4) conduire à des modèles de gouvernance à long terme pour la durabilité économique et technologique sur plusieurs décennies.
Data Integrity_Field/Champ d'intégrité des données :
Le champ d'intégrité des données (DIF) est une approche visant à protéger l'intégrité des données dans le stockage de données informatiques contre la corruption des données. Il a été proposé en 2003 par le sous-comité T10 du Comité international pour les normes des technologies de l'information. Une approche similaire pour l'intégrité des données a été ajoutée en 2016 à la spécification NVMe 1.2.1. Les protocoles de transport de stockage basés sur des paquets ont une protection CRC sur les charges utiles de commande et de données. Les bus d'interconnexion ont une protection de parité. Les systèmes de mémoire ont des schémas de détection/correction de parité. Les contrôleurs de protocole d'E/S aux limites de transport/d'interconnexion disposent d'une protection interne du chemin de données. La disponibilité des données dans les systèmes de stockage est souvent mesurée simplement en termes de fiabilité des composants matériels et des effets du matériel redondant. Mais la fiabilité du logiciel, sa capacité à détecter les erreurs et sa capacité à signaler correctement ou à appliquer des actions correctives en cas de panne ont une incidence significative sur la disponibilité globale du système de stockage. L'échange de données a généralement lieu entre le CPU hôte et le disque de stockage. Il peut y avoir un contrôleur de données de stockage entre ces deux. Le contrôleur peut être un contrôleur RAID ou de simples commutateurs de stockage. DIF comprenait l'extension du secteur du disque de ses 512 octets traditionnels à 520 octets, en ajoutant huit octets de protection supplémentaires. Ce secteur étendu est défini pour les périphériques SCSI (Small Computer System Interface), qui sont à leur tour utilisés dans de nombreuses technologies de stockage d'entreprise, telles que Fibre Channel. Oracle Corporation a inclus la prise en charge de DIF dans le noyau Linux. Une évolution de cette technologie appelée Protection Information a été introduite en 2012. Un grand fournisseur faisant la promotion de la technologie est EMC Corporation.
Data Intercept_Technology_Unit/Data Intercept Technology Unit :
Le Data Intercept Technology Unit (DITU, prononcé DEE-too) est une unité du Federal Bureau of Investigation (FBI) des États-Unis, qui est chargée d'intercepter les appels téléphoniques et les messages électroniques des terroristes et des cibles du renseignement étranger à l'intérieur du NOUS. On ne sait pas quand le DITU a été créé, mais l'unité existait déjà en 1997. Le DITU fait partie de la Division de la technologie opérationnelle (OTD) du FBI, qui est responsable de toute la collecte de renseignements techniques et est située à Marine Corps Base Quantico en Virginie, qui abrite également l'académie de formation du FBI. OTD avait organisé ses activités en sept régions.
Data Interchange_Format/Format d'échange de données :
Le format d'échange de données (.dif) est un format de fichier texte utilisé pour importer/exporter des feuilles de calcul individuelles entre des tableurs. Les applications qui prennent toujours en charge le format DIF sont Collabora Online, *Excel, Gnumeric et LibreOffice Calc. Les applications historiques qui le prenaient en charge jusqu'à leur fin de vie ou ne reconnaissaient plus la prise en charge du format sont dBase, FileMaker, Framework, Lotus 1-2-3, Multiplan, OpenOffice.org Calc et StarCalc. * L'implémentation de Microsoft Excel a provoqué l'interopérabilité problèmes, voir § Discordances dans les implémentations. Une limitation du format DIF est qu'il ne peut pas gérer plusieurs feuilles de calcul dans un seul classeur. En raison de la similitude d'abréviation et d'âge (les deux datent du début des années 1980), le format de feuille de calcul DIF est souvent confondu avec Navy DIF ; Navy DIF, cependant, est un "format d'échange de documents" sans rapport avec les traitements de texte.
Data Interchange_Standards_Association/Data Interchange Standards Association :
La Data Interchange Standards Association (DISA) était l'organisation qui soutenait diverses autres organisations, pour la plupart responsables de l'élaboration de normes d'échange d'affaires électroniques intersectorielles. DISA a servi de secrétariat pour ASC X12 et leur processus de développement de normes X12 EDI et XML. Depuis janvier 2016, DISA n'existe plus. L'Accredited Standards Committee (ASC) X12 développe et maintient les normes EDI les plus largement mises en œuvre. Ces normes s'interfacent avec une multitude de technologies de commerce électronique et constituent le premier outil d'intégration des applications de commerce électronique. Grâce aux normes du comité X12 et à sa participation active aux initiatives techniques émergentes et pertinentes (XML, ebXML), ils favorisent le consensus intersectoriel et établissent la norme pour un échange de données plus efficace.
Données Kakus/Données Kakus :
Data Kakus (alias Apau Data) est un village éloigné de Kenyah Badeng dans l'intérieur vallonné de la division Ulu Kakus Tatau de Sarawak, en Malaisie, qui s'élève à 650 mètres, non loin des districts de Tubau et Belaga. Pour être exact, Data Kakus est situé en amont de Sungai Burok et Sungai Nyabet. Le plus haut sommet d'Ulu Kakus s'appelle Gunung Lumut, à environ 828 m, situé au sommet de la chaîne de Lumut, non loin de Sungai Bekuyat et Sungai Kakus. Se rendre à Data Kakus implique cinq heures de route en 4x4 depuis Bintulu ou Belaga. Pour se rendre à Data Kakus, il faut emprunter la route Bintulu-Bakun et rechercher la jonction avec le camp KTS du camp KTS à Simpang Jonat. Il faut environ 60 km en utilisant le chemin forestier et depuis simpang Jonat, il faut encore 18 km pour atteindre Data Kakus. Il est également possible de parcourir Data Kakus depuis Belaga et il faut cinq à sept heures de trekking depuis Long Sungai Pelaran (Sg. Sanan baan Kenyah), Sungai Ngajah depuis la rivière Rajang, puis conquérir Gunung Ngajah à environ 444 m. La rivière Kakus ou Batang Tatau commence comme un ruisseau près de Data Kakus appelé Alo Nyabet ou e-iut Nyabet ou Sungai Burok, et il traverse Data Kakus, le point final où les petits bateaux tels que « moto setinding » peuvent naviguer. Il est également possible de voyager en aval de Data Kakus en chaloupe jusqu'à la ville de Tatau, il faut presque une journée pour se rendre à la ville de Tatau en bateau car la rivière est trop peu profonde, sinueuse et petite. Les colonies voisines comprennent: Rumah Ado 16,6 kilomètres (10,3 mi) au nord-ouest Sungai Tinggili 15,6 kilomètres (9,7 mi) au nord-ouest Long Beyak 8,6 kilomètres (5,3 mi) au sud-ouest Sungai Kalavang 8,6 kilomètres (5,3 mi) au sud-ouest Long Basurou 4,3 kilomètres (2,7 mi) au nord-ouest Sungai Kakus 6,3 kilomètres (3,9 mi) au nord-ouest Nyulau 5,6 kilomètres (3,5 mi) au nord Kampung Kenyah Badeng Senep 50,2 kilomètres (31,2 mi) au nord
Langage de données_Interface/Interface de langage de données :
Data Language Interface (Data Language/I, DL/I, Data Language/Interface, Data Language/One) est le système de langage utilisé pour accéder aux bases de données IMS d'IBM et à son système de communication de données. Il est implémenté à partir de n'importe quel langage en faisant des appels à un stub logiciel, DFSLI000. Ce stub a des points d'entrée pour gérer une variété de langages de programmation, par exemple l'appel de CBLTDLI à partir d'un programme COBOL. Ce talon est lié au programme appelant, transmet la demande au système IMS et renvoie les résultats et un code d'état. Dans toute base de données IMS complète, le plus petit élément pouvant être récupéré est un segment. Chaque segment est composé de champs, dont l'un, généralement, sera un champ clé. Les segments sont disposés hiérarchiquement dans la base de données, le type de segment de niveau le plus élevé étant un segment racine. 255 types de segments différents, sur un maximum de 15 niveaux, sont autorisés dans n'importe quelle base de données. Un enregistrement de base de données se compose d'un segment racine spécifique et de tous ses segments enfants dépendants - il n'y a pas de limite au nombre de segments dans un enregistrement ou au nombre d'enregistrements dans une base de données (en dehors des limitations physiques de l'espace de stockage). La structure de toute base de données est présentée au programme d'application sous la forme d'un PCB (Program Communication Block), et celui-ci est utilisé comme l'un des paramètres transmis au stub. D'autres types de PCB sont utilisés pour envoyer et recevoir des messages de traitement de transaction, accéder et écrire sur l'écran VDU de l'utilisateur, imprimer des rapports, etc. Lors de l'accès à un segment de base de données, le programme d'application utilise également un SSA (Segment Search Argument) comme paramètre, pour spécifier le ou les segments dont il a besoin. Celui-ci contient généralement le type de segment requis et le contenu de tous les champs clés. Pour tous les langages sauf PL/I, le premier paramètre d'un appel est le code de fonction - un champ à quatre caractères, par exemple : « GU » (Get Unique), « GN » (Get Next), « REPL » (Replace), et "ISRT" (Insérer). Avec PL/I, du fait que ce langage ne marque pas le dernier paramètre avec un '1' dans le bit 0, le premier paramètre doit à la place être un mot complet (Fixed Bin(31)) contenant le nombre de paramètres suivants. Un appel typique d'un programme COBOL peut être CALL "CBLTDLI" USING GU, Stores-Database-PCB, Stores-Segment-Area, Stores-Root-SSA. Le programme attendrait alors automatiquement que les données demandées soient récupérées et placées dans la zone de segment. Le code d'état contenu dans le PCB serait mis à jour avec des blancs (si tout s'est bien passé) ou un code d'information ou d'erreur. Un appel typique d'un programme PL/I peut être CALL PLITDLI(FOUR, GU, Stores-Database-PCB, Stores-Segment-Area, Stores-Root-SSA);.
Data Link_Control/Contrôle de liaison de données :
Dans le modèle de réseau OSI, Data Link Control (DLC) est le service fourni par la couche liaison de données. Les cartes d'interface réseau ont une adresse DLC qui identifie chaque carte ; par exemple, Ethernet et d'autres types de cartes ont une adresse MAC 48 bits intégrée dans le micrologiciel des cartes lors de leur fabrication. Il existe également un protocole réseau nommé Data Link Control. Il est comparable à des protocoles plus connus tels que TCP/IP ou AppleTalk. DLC est un protocole de transport utilisé par les ordinateurs centraux IBM SNA, les périphériques et les équipements compatibles. Dans les réseaux informatiques, il est généralement utilisé pour les communications entre les imprimantes, les ordinateurs et les serveurs connectés au réseau, par exemple par HP dans leurs serveurs d'impression JetDirect. Bien qu'il ait été largement utilisé jusqu'à l'époque de Windows 2000, les versions à partir de Windows XP n'incluent pas la prise en charge du DLC.
Solutions de liaison de données/Solutions de liaison de données :
Data Link Solutions (DLS) est une coentreprise qui a été créée en 1996 entre GEC-Marconi Hazeltine (maintenant connu sous le nom de BAE Systems) et Rockwell Collins dans le but de développer, fabriquer et soutenir le Joint Tactical Information Distribution System (JTIDS). DLS a son siège social à Cedar Rapids, Iowa, et possède également des installations à Wayne, New Jersey.
Système_de_chargement_et_d'analyse_des_données/Système de chargement et d'analyse des données :
Le système de chargement et d'analyse des données (DaLAS) est une base de données électronique utilisée par le Federal Bureau of Investigation et la communauté du renseignement des États-Unis pour les enquêtes de contre-espionnage et de contre-terrorisme. Il est utilisé pour stocker des copies de supports numériques saisis, y compris des images de disque de CD-ROM, de DVD, de disques durs, de téléphones portables et de flux réseau bruts, ainsi que des numérisations de documents physiques. DaLAS prend en charge le téléchargement, le traitement et la classification des médias et fournit un référentiel de données central, accessible à distance et consultable. Les détails complets de DaLAS, y compris le nombre de fichiers et la quantité totale de données stockées, sont classés. Au cours d'une enquête de 2011 à la suite de la fusillade de Fort Hood en 2009, une requête du compte de messagerie personnel de Nidal Malik Hasan a renvoyé un résultat sur un disque dur. image de disque stockée sur DaLAS. Le lecteur avait été saisi en 2007 dans une affaire fiscale sans rapport avec le New Jersey. Le match était un message posté sur un forum Web par Hasan le 10 février 2005, demandant si les médecins devaient prescrire des médicaments intoxicants en vertu de la charia.
Seigneurs de données/Seigneurs de données :
Data Lords est un album du Maria Schneider Orchestra sorti en 2020.
Association de gestion des données/Association de gestion des données :
La Data Management Association (DAMA), anciennement connue sous le nom de Data Administration Management Association, est une organisation mondiale à but non lucratif qui vise à faire progresser les concepts et les pratiques en matière de gestion de l'information et de gestion des données. Il se décrit comme une organisation entièrement bénévole, indépendante des fournisseurs, et compte parmi ses membres des professionnels techniques et commerciaux. Sa branche internationale s'appelle DAMA International (ou DAMA-I), et DAMA possède également diverses branches continentales et nationales à travers le monde. Ses origines remontent à 1980 à Los Angeles.
Data Management_Inc./Data Management Inc. :
TimeClock Plus LLC. (TCP), anciennement Data Management Inc. (DMI), est une société américaine basée à San Angelo, au Texas. Elle a été fondée par Jorge Ellis en 1988 et se spécialise dans le développement de logiciels d'entreprise, en particulier pour la gestion du temps et du travail. Son produit phare est TimeClock Plus, un système informatisé de temps et de présence. La société a initialement développé le logiciel "One Number Delivery System" pour les services de livraison de nourriture. Grâce à son activité avec les détaillants, Ellis a découvert un besoin croissant de suivi du temps et des présences : " "Personne ne pouvait me dire à tout moment quels étaient les coûts [de main-d'œuvre]. J'ai décidé de développer un progiciel qui donnerait un suivi de 24 heures. image. "" Le système développé par DMI, appelé TimeClock Plus, a été écrit pour les entreprises aussi petites que cinq employés ou aussi grandes que 750 et plus. En avril 2011, le San Angelo Standard Times a rapporté qu'environ 50 000 entreprises utilisaient le système, y compris Boeing, Harley Davidson, Ford Motor Company, Dial et Sara Lee.
Masque de données/Masque de données :
Masque de données ou similaire peut signifier : en informatique, "masque de données" est un autre nom pour masque (informatique), un modèle de bits utilisé pour extraire des informations d'un autre modèle de bits. Le masque de date est un masque de plongée avec un affichage LED intégré. par Oceanic (fabricants de matériel de plongée)
Matrice de données/Matrice de données :
Une matrice de données est un code bidimensionnel composé de "cellules" ou de points noirs et blancs disposés selon un motif carré ou rectangulaire, également appelé matrice. Les informations à encoder peuvent être du texte ou des données numériques. La taille habituelle des données va de quelques octets à 1 556 octets. La longueur des données codées dépend du nombre de cellules dans la matrice. Les codes de correction d'erreur sont souvent utilisés pour augmenter la fiabilité : même si une ou plusieurs cellules sont endommagées et donc illisibles, le message peut toujours être lu. Un symbole Data Matrix peut stocker jusqu'à 2 335 caractères alphanumériques. Les symboles Data Matrix sont rectangulaires, généralement de forme carrée et composés de "cellules" carrées qui représentent des bits. Selon le codage utilisé, une cellule "claire" représente un 0 et une cellule "foncée" est un 1, ou vice versa. Chaque matrice de données est composée de deux bordures solides adjacentes en forme de "L" (appelées le "motif de recherche") et de deux autres bordures constituées de "cellules" ou de modules alternés sombres et clairs (appelés le "motif de synchronisation"). À l'intérieur de ces bordures se trouvent des rangées et des colonnes de cellules codant des informations. Le modèle de recherche est utilisé pour localiser et orienter le symbole tandis que le modèle de synchronisation fournit un décompte du nombre de lignes et de colonnes dans le symbole. À mesure que davantage de données sont encodées dans le symbole, le nombre de cellules (lignes et colonnes) augmente. Chaque code est unique. La taille des symboles varie de 10×10 à 144×144 dans la nouvelle version ECC 200, et de 9×9 à 49×49 dans l'ancienne version ECC 000 – 140.
Data Mining_Extensions/Extensions de Data Mining :
Data Mining Extensions (DMX) est un langage de requête pour les modèles d'exploration de données pris en charge par le produit SQL Server Analysis Services de Microsoft. Comme SQL, il prend en charge un langage de définition de données, un langage de manipulation de données et un langage de requête de données, tous trois avec une syntaxe de type SQL. Alors que les instructions SQL fonctionnent sur des tables relationnelles, les instructions DMX fonctionnent sur des modèles d'exploration de données. De même, SQL Server prend en charge le langage MDX pour les bases de données OLAP. DMX est utilisé pour créer et former des modèles d'exploration de données, et pour les parcourir, les gérer et les prédire. DMX est composé d'instructions en langage de définition de données (DDL), d'instructions en langage de manipulation de données (DML), ainsi que de fonctions et d'opérateurs.
Data Mining_and_Knowledge_Discovery/Exploration de données et découverte de connaissances :
Data Mining and Knowledge Discovery est une revue scientifique bimestrielle à comité de lecture axée sur l'exploration de données publiée par Springer Science+Business Media. Il a été lancé en 1996 et lancé en 1997 par Usama Fayyad en tant que rédacteur en chef fondateur de Kluwer Academic Publishers (devenu plus tard Springer). Le premier éditorial fournit un résumé des raisons pour lesquelles il a été lancé.
Données Nagar/Données Nagar :
Data Nagar ( ourdou : داتا نگر ) est un quartier résidentiel de la municipalité d' Orangi à Karachi , au Pakistan. Il est administré dans le cadre du district de Karachi West , mais faisait partie de l' arrondissement d' Orangi Town jusqu'à sa dissolution en 2011. d'après un célèbre soufi, Hazrat Bābā Farīduddīn Mas'ūd Data Ganjshakar. Il existe plusieurs groupes ethniques dans la ville d'Orangi, notamment les Muhajirs, les Sindhis, les Cachemiris, les Seraikis, les Pakhtuns, les Balochis, les Memons, les Bohras et les Ismailis.
Panique de données/Panique de données :
Data Panik était un groupe de rock écossais - Steven Clark (Sci-fi Steven), John Clark (John Disco), Amanda MacKinnon (Manda Rin) (tous anciennement de bis à l'époque), Stuart Memo (de Multiplies) et Graham Christie ( ancien batteur de la tournée de Kenickie). Leur premier single, "Cubis (I Love You)" accompagné de "Sense Not Sense" est sorti en édition limitée 7 pouces et téléchargé en juin 2005. En octobre 2005, data Panik est devenu le premier groupe au Royaume-Uni à avoir un album dédié site Web i-mode mobile. Avril 2006 a vu la sortie d'un single de 7 pouces sur Must Destroy Records avec d'autres Écossais :( (prononcé côlon crochet ouvert). Le morceau de données Panik "Control The Radical" est présenté. Le groupe a enregistré trois chansons pour XFM Scotland (" Minimum Wage", "Retail of the Details" et "Do The Static") qui ont été diffusés à l'antenne le soir du mercredi 7 juin 2006. Il a été annoncé le 16 août 2006 que Data Panik avait décidé de se séparer en partant du principe que les gens ne les accepterait pas comme un groupe post bis crédible. Tous les membres ont l'intention de se concentrer sur des projets solo avec John et Steven poursuivant leur projet Dirty Hospital. Certaines chansons du groupe ont ensuite été publiées sur l'album Data Panik Etcetera de bis en 2014.
Data Panik_Etcetera/Data Panik Etcetera :
Data Panik Etcetera (stylisé comme data Panik etcetera) est le quatrième album studio du groupe pop écossais Bis, sorti en 2014. L'album était le premier du groupe depuis la séparation du groupe en 2003.
Data Path_Acceleration_Architecture/Architecture d'accélération du chemin de données :
Le QorIQ DPAA est une architecture complète qui intègre tous les aspects du traitement des paquets dans le SoC, répondant aux problèmes et aux exigences résultant de la nature multicœur des SoC QorIQ. Le DPAA comprend les cœurs, les E/S réseau et de paquets, les accélérateurs de déchargement matériel. L'infrastructure nécessaire pour faciliter le flux de paquets entre les éléments ci-dessus. Le DPAA répond également à diverses exigences liées aux performances, en particulier celles créées par les E/S réseau à haut débit trouvées sur les SoC multicœurs tels que le P4080.
Plan de données_Development_Kit/Kit de développement de plan de données :
Le Data Plane Development Kit (DPDK) est un projet de logiciel open source géré par la Linux Foundation. Il fournit un ensemble de bibliothèques de plans de données et de pilotes en mode d'interrogation du contrôleur d'interface réseau pour décharger le traitement des paquets TCP du noyau du système d'exploitation vers les processus s'exécutant dans l'espace utilisateur. Ce déchargement permet d'obtenir une efficacité de calcul et un débit de paquets plus élevés que ce qui est possible en utilisant le traitement piloté par les interruptions fourni dans le noyau. DPDK fournit un cadre de programmation pour les processeurs x86, ARM et PowerPC et permet un développement plus rapide d'applications de mise en réseau de paquets de données à haut débit. Il évolue des processeurs mobiles, tels que Intel Atom, aux processeurs de niveau serveur, tels que Intel Xeon. Il prend en charge les architectures de jeux d'instructions telles qu'Intel, IBM POWER8, EZchip et ARM. Il est fourni et pris en charge sous la licence open-source BSD. DPDK a été créé par l'ingénieur Intel Venky Venkatesan, affectueusement surnommé "le père de DPDK". Il est décédé en 2018 après une longue bataille contre le cancer.
Data Privacy_Day/Journée de la confidentialité des données :
La Journée de la protection des données (connue en Europe sous le nom de Journée de la protection des données) est un événement international qui a lieu chaque année le 28 janvier. L'objectif de la Journée de la protection des données est de sensibiliser et de promouvoir les meilleures pratiques en matière de confidentialité et de protection des données. Elle est actuellement observée aux États-Unis, au Canada, au Nigéria, en Israël et dans 47 pays européens. L'initiative éducative de la Journée de la confidentialité des données visait à l'origine à sensibiliser les entreprises ainsi que les utilisateurs à l'importance de protéger la confidentialité de leurs informations personnelles en ligne, en particulier dans le contexte des réseaux sociaux. L'orientation éducative s'est élargie au fil des ans pour inclure les familles, les consommateurs et les entreprises. En plus de son initiative éducative, la Journée de la confidentialité des données promeut des événements et des activités qui stimulent le développement d'outils technologiques qui favorisent le contrôle individuel sur les informations personnellement identifiables ; encourager le respect des lois et réglementations en matière de confidentialité ; et créer des dialogues entre les parties prenantes intéressées à faire progresser la protection des données et la confidentialité. La célébration internationale offre de nombreuses opportunités de collaboration entre les gouvernements, l'industrie, les universités, les organisations à but non lucratif, les professionnels de la protection de la vie privée et les éducateurs. La Convention pour la protection des personnes à l'égard du traitement automatisé des données à caractère personnel a été ouverte à la signature par le Conseil de l'Europe le 28 janvier 1981. Cette convention est actuellement en cours de mise à jour afin de refléter les nouveaux défis juridiques posés par le développement technologique. . La Convention sur la cybercriminalité protège également l'intégrité des systèmes de données et donc de la vie privée dans le cyberespace. La vie privée, y compris la protection des données, est également protégée par l'article 8 de la Convention européenne des droits de l'homme. La journée a été initiée par le Conseil de l'Europe et a eu lieu pour la première fois en 2007 en tant que Journée européenne de la protection des données. Deux ans plus tard, le 26 janvier 2009, la Chambre des représentants des États-Unis a adopté la résolution HR 31 de la Chambre par un vote de 402 voix contre 0, déclarant le 28 janvier Journée nationale de la confidentialité des données. Le 28 janvier 2009, le Sénat a adopté la résolution 25 du Sénat reconnaissant également le 28 janvier 2009 comme Journée nationale de la protection des données. Le Sénat des États-Unis a également reconnu la Journée de la confidentialité des données en 2010 et 2011. En 2022, The Rise of Privacy Tech (TROPT) a étendu les célébrations de la Journée de la confidentialité des données à la Semaine de la confidentialité des données, en lançant la semaine avec la Semaine de la confidentialité des données TROPT 2022, suivie d'un live TROPT Webcast Data Privacy Day diffusé et un réseau social TROPT Innovators.
Data Privacy_Lab/Laboratoire de confidentialité des données :
Data Privacy Lab est un programme dédié à l'enseignement et à la recherche dans les domaines liés à la technologie de la confidentialité. Le Data Privacy Lab de l'Université de Harvard opère au sein de l'Institute for Quantitative Social Science (IQSS). Latanya Sweeney a fondé le laboratoire et continue d'en être la directrice. Le programme a été lancé pour la première fois en 2001 à l'Université Carnegie Mellon au Heinz College et en 2002, il a été transféré à la School of Computer Science, où il a fonctionné jusqu'en 2011 avant de déménager à Harvard. L'Université de Caroline du Nord à Charlotte gère également un programme Data Privacy Lab et il fonctionne au sein du College of Computing and Informatics.Certains des projets actuellement en cours dans le Data Privacy Lab de la Harvard School sont liés à la réidentification, à la discrimination dans publicités en ligne, liaisons renforcées par la confidentialité, capture d'empreintes digitales, confidentialité génomique et patients nécessitant des soins complexes. Le Data Privacy Lab de l'Université de Caroline du Nord à Charlotte mène des recherches dans divers domaines tels que l'exploration de données préservant la confidentialité, les problèmes de confidentialité dans les réseaux sociaux, la génération de bases de données sensibles à la confidentialité pour les tests de logiciels et la confidentialité et l'anonymat dans l'intégration et la diffusion des données.
Data Processing_Iran_Co./Data Processing Iran Co. :
Data Processing Iran Company (DPI) ( persan : داده‌پردازی ایران , Dadheperdazi-ye Iran ) est une société de conseil en informatique, technologie et informatique dont le siège est à Téhéran , en Iran . DPI est actuellement le plus grand fournisseur de technologie en IranDPI fabrique et vend du matériel informatique et des logiciels (en mettant l'accent sur ces derniers) et propose des services d'infrastructure, des services d'hébergement et des services de conseil dans des domaines allant des ordinateurs centraux à la nanotechnologie. La société propose également un série de services liés à Internet, nommément serveurs dédiés; services de colocation; Services d'hébergement Web, tels que l'hébergement partagé, le courrier partagé, l'enregistrement DNS et les services d'enregistrement de domaine ; et les services gérés, y compris les services réseau, les services de sécurité, les services d'application gérés, les services de stockage et de sauvegarde, la surveillance et la création de rapports, et les services professionnels.
Consortium_de_traitement_et_d'analyse_des_données/Consortium de traitement et d'analyse des données :
Le Gaia Data Processing and Analysis Consortium (DPAC) est un groupe de plus de 400 scientifiques et ingénieurs en logiciel européens formé dans le but de concevoir, développer et exécuter le système de traitement des données pour l'ambitieuse mission d'astrométrie spatiale Gaia de l'ESA. Il a été formellement formé en juin 2006 par des scientifiques européens, avec l'objectif initial de répondre à une annonce d'opportunité devant être publiée par l'ESA avant la fin de cette année. Lors d'une réunion à Paris les 24 et 25 mai 2007, le comité du programme scientifique (SPC) de l'ESA a approuvé la proposition DPAC soumise en réponse à l'annonce d'opportunité pour le traitement des données Gaia. La proposition décrit un système de traitement de données complet capable de gérer toute la taille et la complexité des données Gaia dans le cadre du calendrier de la mission. Suite à l'approbation du SPC, la DPAC est officiellement responsable de toutes les activités de traitement des données de Gaia. Au 1er janvier 2010, la DPAC compte 430 membres issus de 24 pays européens, les plus importantes contributions venant de France, d'Italie, du Royaume-Uni, d'Allemagne, de Belgique, d'Espagne et de Suisse. Le consortium est organisé autour d'un ensemble de neuf Unités de Coordination (UC), huit étant chacune en charge d'un aspect particulier du traitement, et la dernière étant en charge de la publication du Catalogue.
Propriété des données/propriété des données :
Data Propria est une société créée en 2018. Elle est dirigée par l'ancien chef de produit de Cambridge Analytica, Matt Oczkowski, et emploie au moins trois autres anciens membres du personnel de Cambridge Analytica, dont l'ancien scientifique en chef des données de Cambridge Analytica, David Wilkinson. Il aurait travaillé sur la campagne présidentielle de 2020 de Donald Trump. [We're] faire le travail du président pour 2020. Oczkowski reconnaît qu'il y aura beaucoup de "chevauchement" avec Cambridge Analytica. Comme cette société, Data Propria se concentrera sur la science des données comportementales, qui consiste essentiellement à utiliser des données pour cibler les personnes avec des publicités et un marketing basé sur, comme le dit Oczkowski, les «déclencheurs comportementaux motivationnels» des gens.
Loi sur la protection des données_(Jersey)_/Loi sur la protection des données (Jersey) :
La loi de 2018 sur la protection des données (Jersey) est une loi sur la confidentialité des informations dans la dépendance de la Couronne du bailliage de Jersey, l'une des îles anglo-normandes. La dernière version est 2018, mettant à jour la loi précédente de 2005 pour refléter le règlement général sur la protection des données (RGPD). Il a été adopté le 25 mai 2018.
Data Protection_API/API de protection des données :
DPAPI (Data Protection Application Programming Interface) est une interface de programmation d'application cryptographique simple disponible en tant que composant intégré dans Windows 2000 et les versions ultérieures des systèmes d'exploitation Microsoft Windows. En théorie, l'API de protection des données peut activer le chiffrement symétrique de tout type de données ; en pratique, son utilisation principale dans le système d'exploitation Windows est d'effectuer un chiffrement symétrique de clés privées asymétriques, en utilisant un utilisateur ou un secret système comme contribution significative d'entropie. Une analyse détaillée du fonctionnement interne de DPAPI a été publiée en 2011 par Bursztein et al. Si la clé est stockée en texte brut, tout utilisateur pouvant accéder à la clé peut accéder aux données chiffrées. Si la clé doit être chiffrée, une autre clé est nécessaire, et ainsi de suite. DPAPI permet aux développeurs de chiffrer des clés à l'aide d'une clé symétrique dérivée des secrets de connexion de l'utilisateur ou, dans le cas du chiffrement du système, à l'aide des secrets d'authentification de domaine du système. Les clés DPAPI utilisées pour chiffrer les clés RSA de l'utilisateur sont stockées dans le répertoire %APPDATA%\Microsoft\Protect\{SID}, où {SID} est l'identificateur de sécurité de cet utilisateur. La clé DPAPI est stockée dans le même fichier que la clé principale qui protège les clés privées des utilisateurs. Il s'agit généralement de 64 octets de données aléatoires.
Data Protection_Act/Loi sur la protection des données :
La loi sur la protection des données peut faire référence à : la loi sur la protection des données, 2012 (Ghana) la loi sur la protection des données 2018 (Royaume-Uni) la loi sur la protection des données de 1998 et la loi sur la protection des données de 1984 (Royaume-Uni) désormais remplacées
Data Protection_Act,_2012/Data Protection Act, 2012 :
La loi de 2012 sur la protection des données (la loi) est une loi promulguée par le Parlement de la République du Ghana pour protéger la vie privée et les données personnelles des individus. Il réglemente le processus d'acquisition, de conservation, d'utilisation ou de divulgation des informations personnelles par les responsables du traitement et les sous-traitants en exigeant le respect de certains principes de protection des données. Le non-respect des dispositions de la Loi peut entraîner soit la responsabilité civile, soit des sanctions pénales, soit les deux, selon la nature de l'infraction. La loi institue également une commission de protection des données, qui est chargée de veiller au respect de ses dispositions, ainsi que de tenir le registre de protection des données.
Data Protection_Act_1998/Data Protection Act 1998 :
La loi de 1998 sur la protection des données (DPA, c. 29) était une loi du Parlement du Royaume-Uni conçue pour protéger les données personnelles stockées sur des ordinateurs ou dans un système de classement papier organisé. Il a promulgué les dispositions de la directive de 1995 sur la protection des données de l'Union européenne (UE) concernant la protection, le traitement et la circulation des données. En vertu de la DPA de 1998, les individus avaient le droit légal de contrôler les informations les concernant. La majeure partie de la loi ne s'appliquait pas à l'usage domestique, comme la tenue d'un carnet d'adresses personnel. Toute personne détenant des données personnelles à d'autres fins était légalement tenue de se conformer à cette loi, sous réserve de certaines exceptions. La loi définit huit principes de protection des données pour garantir que les informations sont traitées licitement. Il a été remplacé par le Data Protection Act 2018 (DPA 2018) le 23 mai 2018. Le DPA 2018 complète le Règlement général sur la protection des données (RGPD) de l'UE, qui est entré en vigueur le 25 mai 2018. Le RGPD réglemente la collecte, le stockage et l'utilisation des données personnelles beaucoup plus strictement.
Data Protection_Act_2018/Loi sur la protection des données 2018 :
Le Data Protection Act 2018 (c. 12) est une loi du Parlement du Royaume-Uni qui met à jour les lois sur la protection des données au Royaume-Uni. Il s'agit d'une loi nationale qui complète le règlement général sur la protection des données (RGPD) de l'Union européenne et remplace la loi sur la protection des données de 1998.
Commissaire_à la protection des données/Commissaire à la protection des données :
Le Bureau du Commissaire à la protection des données (en irlandais : An Coimisinéir Cosanta Sonraí) (DPC), également connu sous le nom de Commission de protection des données, est l'autorité nationale indépendante chargée de faire respecter le droit fondamental des individus à la confidentialité des données de l'UE par l'application et le contrôle de la conformité. avec la législation sur la protection des données en Irlande. Il a été créé en 1989.
Directive_Protection des données/Directive sur la protection des données :
La directive sur la protection des données, officiellement la directive 95/46/CE, promulguée en octobre 1995, est une directive de l'Union européenne qui réglemente le traitement des données personnelles au sein de l'Union européenne (UE) et la libre circulation de ces données. La directive sur la protection des données est un élément important de la législation européenne sur la vie privée et les droits de l'homme. Les principes énoncés dans la directive sur la protection des données visent à protéger les libertés et droits fondamentaux dans le traitement des données à caractère personnel. Le règlement général sur la protection des données, adopté en avril 2016, a remplacé la directive sur la protection des données et est entré en vigueur le 25 mai 2018.
Data Quality_Act/Data Quality Act :
La loi sur la qualité de l'information (IQA) ou la loi sur la qualité des données (DQA), adoptée par le Congrès des États-Unis dans l'article 515 de la loi sur les crédits consolidés, 2001 (Pub.L. 106–554 (texte) (PDF)). Étant donné que la loi était un avenant de deux phrases dans un projet de loi de dépenses, elle n'avait pas de nom dans la législation actuelle. Le Government Accountability Office utilise le nom "Information Quality Act". L'IQA ordonne au Bureau de la gestion et du budget (OMB) de publier des directives à l'échelle du gouvernement qui "fournissent des orientations politiques et procédurales aux agences fédérales pour assurer et maximiser la qualité, l'objectivité, l'utilité , et l'intégrité des informations (y compris les informations statistiques) diffusées par les agences fédérales". D'autres agences fédérales sont également tenues de publier leurs propres lignes directrices sur la qualité de l'information et les programmes d'examen par les pairs.
Qualité des données_Campagne/Campagne de qualité des données :
La Data Quality Campaign (DQC) est une organisation de plaidoyer non partisane à but non lucratif lancée aux États-Unis en 2005 pour améliorer la qualité, l'accessibilité et l'utilisation des données dans l'éducation.
Données Radio_Channel/Canal Radio de Données :
Data Radio Channel (DARC) est une norme à haut débit (16 kbit/s) pour le codage des données dans une sous-porteuse sur les émissions de radio FM. Il utilise une fréquence de 76 kHz, la quatrième harmonique de la tonalité pilote de la radio FM. DARC a été approuvé en tant que norme paneuropéenne ETS 300 751 en 1997.
Rappel de données_Diamant/Diamant de rappel de données :
Le Data Recall Diamond One était une machine à écrire de traitement de texte, conçue et construite par Data Recall Ltd à Dorking, Surrey, Angleterre à la fin des années 1970 et au début des années 1980. La machine pilotait une imprimante à roue en guirlande diablo 1355 via une interface parallèle à 35–55 caractères par seconde et utilisait un lecteur de disquette de 8 pouces capable de contenir 250 000 caractères. C'était programmable par l'utilisateur. Les modèles ultérieurs comprenaient le Diamond III, le Diamond Five (alias Diamond V) et le Diamond 7. L'un des noms suggérés pour l'Amstrad PCW était le Zircon, au motif que le zircon était "un substitut du diamant". Ce nom a été rejeté.
Modèle de référence de données/Modèle de référence de données :
Le modèle de référence de données (DRM) est l'un des cinq modèles de référence de l'architecture d'entreprise fédérale.
Data Resources_Inc./Data Resources Inc. :
Data Resources Inc ou DRI a été co-fondée en 1969 par Donald Marron et Otto Eckstein. Marron est surtout connu comme l'ancien PDG de PaineWebber et fondateur de Lightyear Capital. Eckstein était professeur d'économie à l'Université de Harvard, consultant économique de Lyndon Baines Johnson et membre du Council of Economic Advisors ; il est surtout connu pour le développement de la théorie de l'inflation sous-jacente. DRI est devenu le plus grand distributeur non gouvernemental de données économiques au monde. L'entreprise a également construit le plus grand modèle macroéconométrique de son époque. Allen Sinai était un architecte de premier plan. Richard Hokenson a effectué une grande partie des travaux d'entretien. DRI était un client majeur de Burroughs Computer. Au cours de l'ère d'expansion rapide des années 1970, DRI a utilisé les mainframes Burroughs 6700 et 7700. DRI a également développé des logiciels innovants, notamment les langages de base de données PRIMA et AID ; Langage de programmation économétrique EPL ; MODSIM pour la résolution de modèles ; et MODEL pour la résolution de modèles économétriques notamment. Plus tard, la fonctionnalité de tous ces programmes a été fusionnée dans le système de programmation économétrique EPS par l'architecte en chef de tous ces logiciels, Robert P. Lacey. D'autres programmeurs dans cet effort comprenaient John Ahlstrom, Greg George et Joe Polak. La revue DRI était publiée mensuellement et résumait ce que les modèles disaient pour les perspectives économiques. Ces informations ont été présentées lors de conférences prospectives. DRI a également organisé des séminaires éducatifs.
Réponses aux données/Réponses aux données :
Data Respons ASA est une société qui développe des systèmes embarqués dans les domaines du transport et de l'automobile, des télécommunications et des médias, de l'automatisation de l'industrie, de l'énergie et de la marine, des technologies médicales, de l'espace, de la défense et de la sécurité, et de la finance et du public. La société a été acquise par le français Akka Technologies en 2020. La société possède des bureaux en Norvège, en Suède, au Danemark, en Allemagne et à Taïwan.
Directive sur la conservation des données/Directive sur la conservation des données :
La directive sur la conservation des données (directive 2006/24/CE), une directive déclarée invalide par la suite par la Cour de justice européenne, a d'abord été adoptée le 15 mars 2006 et réglementait la conservation des données, lorsque des données ont été générées ou traitées en relation avec le fourniture de services de communications électroniques accessibles au public ou de réseaux de communications publics. Elle a modifié la directive sur la vie privée et les communications électroniques. Selon la directive sur la conservation des données, les États membres de l'UE devaient stocker des informations sur toutes les données de télécommunication des citoyens (connexions téléphoniques et Internet) pendant au moins six mois et au plus vingt-quatre mois, à fournir sur demande aux autorités policières. En vertu de la directive, la police et les agences de sécurité auraient pu demander l'accès à des détails tels que les adresses IP et l'heure d'utilisation de chaque e-mail, appel téléphonique et SMS envoyé ou reçu. Il n'y avait aucune disposition dans la directive selon laquelle l'autorisation d'accéder aux données devait être confirmée par un tribunal. Le 8 avril 2014, la Cour de justice de l'Union européenne a déclaré la directive invalide en réponse à une action intentée par Digital Rights Ireland contre les autorités irlandaises et d'autres parce que la collecte générale de données violait la charte des droits fondamentaux de l'UE, en particulier le droit de vie privée consacrée à l'article 8, paragraphe 1.
Data Retention_and_Investigatory_Powers_Act_2014/Data Retention and Investigatory Powers Act 2014 :
La loi de 2014 sur la conservation des données et les pouvoirs d'enquête (également connue sous le nom de DRIP ou DRIPA) était une loi du Parlement du Royaume-Uni, abrogée en 2016. Elle a reçu la sanction royale le 17 juillet 2014, après avoir été introduite le 14 juillet 2014. de la législation était de permettre aux services de sécurité de continuer à avoir accès aux enregistrements téléphoniques et Internet des individus après une précédente abrogation de ces droits par la Cour de justice de l'Union européenne. La loi a été critiquée par certains députés pour la rapidité avec laquelle la loi a été adoptée par le Parlement, par certains groupes (tels que l'Open Rights Group et Liberty) comme étant une atteinte à la vie privée. Suite à une action en justice, en juillet 2015, le La Haute Cour de justice a rendu une ordonnance selon laquelle les articles 1 et 2 de la loi étaient illégaux et devaient être annulés, suspendus jusqu'au 31 mars 2016, donnant ainsi au gouvernement un délai pour proposer une législation alternative qui serait compatible avec le droit de l'UE. du 4 novembre 2015, un projet de loi parlementaire sur les pouvoirs d'enquête était en cours d'élaboration, prévoyant de nouveaux pouvoirs de surveillance, exigeant que des enregistrements soient conservés par les fournisseurs de services Internet pour suivre l'utilisation d'Internet depuis le Royaume-Uni, accessibles par la police et les services de sécurité sans contrôle judiciaire. La loi de 2014 sur les pouvoirs d'enquête a été abrogée le 31 décembre 2016 et remplacée par la loi de 2016 sur les pouvoirs d'enquête.
Roman de données/Roman de données :
Data Romance est un duo électro-indie basé à Vancouver fondé par Ajay Bhattacharyya, instrumentiste-producteur, et Amy Kirkpatrick, chanteuse/parolière. Présentant la direction moderne de la musique électronique, le duo a signé avec Street Quality Entertainment, le label canadien, et a sorti un EP éponyme de quatre chansons en juin 2011. Après avoir tourné avec le IDentity Festival, Data Romance a sorti un single intitulé "The Deep", qui a été présenté dans les magazines NME et Filter ainsi que dans le programme BBC Radio 1. Le duo a été comparé à The xx, Bat for Lashes, Lykke Li et Florence and the Machine. La paire est actuellement en pause indéfinie.
Data Science_Institut/Institut de science des données :
Le Data Science Institute est un institut de recherche de l'Imperial College de Londres fondé en mai 2014. L'institut est l'un des cinq instituts mondiaux de l'Imperial College de Londres, aux côtés de l'Institute of Global Health Innovation, Energy Futures Lab, Institute for Security Science and Technology, et l'Institut Grantham - Changement climatique et environnement. recherche multidisciplinaire en science des données dans l'ensemble de l'Imperial College en coordonnant et en promouvant les activités de recherche et d'éducation axées sur les données. Ces activités couvrent tous les domaines du Collège, y compris l'ingénierie, la médecine, les sciences naturelles et les affaires. L'institut abrite une installation de visualisation de données immersives à grande échelle construite sur mesure appelée KPMG Data Observatory, qui a une résolution de 132 mégapixels qui est considérée comme le plus grand système de ce type en Europe.
Data Science_and_Predictive_Analytics/Data Science et analyse prédictive :
Le manuel Data Science and Predictive Analytics: Biomedical and Health Applications using R, rédigé par Ivo D. Dinov, a été publié en août 2018 par Springer. Ce manuel couvre certains des fondements mathématiques, des techniques de calcul et des approches d'intelligence artificielle utilisées en science des données. recherche et applications. À l'aide de la plate-forme de calcul statistique R et d'un large éventail d'études de cas biomédicaux, les 23 chapitres du livre fournissent des exemples explicites d'importation, d'exportation, de traitement, de modélisation, de visualisation et d'interprétation de grandes, multivariées, incomplètes, hétérogènes, ensembles de données longitudinaux et incomplets (big data).
Data Securities_International/Data Securities International :
Data Securities International, DSI était une société d'administration d'entiercement technologique basée à San Francisco, en Californie. Fondée en 1982, la société séquestre le code source et d'autres matériels de maintenance pour les titulaires de licence et les parties prenantes. La société a été acquise par Iron Mountain Incorporated en 1997. En 2021, Iron Mountain a vendu DSI (maintenant IPM au sein d'IRM) pour 220 millions (voir NASDAQ). Dwight C. Olson était le fondateur de Data Securities International.
Data Security_Council_of_India/Conseil indien de sécurité des données :
Data Security Council of India (DSCI) est un organisme industriel de premier plan sur la protection des données en Inde, créé par NASSCOM®, engagé à rendre le cyberespace sûr, sécurisé et fiable en établissant les meilleures pratiques, normes et initiatives en matière de cybersécurité et de confidentialité. DSCI rassemble les gouvernements nationaux, leurs agences, les secteurs industriels, y compris l'IT-BPM, la BFSI, les télécommunications, les associations industrielles, les autorités de protection des données et les groupes de réflexion pour des initiatives de plaidoyer public, de leadership éclairé, de renforcement des capacités et de sensibilisation. DSCI s'engage auprès des gouvernements, des régulateurs, de l'industrie associations et groupes de réflexion sur les questions politiques. Pour renforcer le leadership éclairé en matière de cybersécurité et de confidentialité, DSCI développe des meilleures pratiques et des cadres, publie des études, des enquêtes et des articles. Il renforce les capacités en matière de sécurité, de confidentialité et de cybercriminalité grâce à un programme de formation et de certification pour les professionnels et les forces de l'ordre et engage les parties prenantes par le biais de diverses initiatives de sensibilisation, notamment des événements, des récompenses, des chapitres, des consultations et des programmes d'adhésion. DSCI s'efforce également d'accroître la part de l'Inde sur le marché mondial des produits et services de sécurité par le biais d'initiatives de développement du commerce mondial. Celles-ci visent à renforcer la culture de la sécurité et de la confidentialité en Inde.
Data Security_Law_of_the_People%27s_Republic_of_China/Loi sur la sécurité des données de la République populaire de Chine :
La loi sur la sécurité des données de la République populaire de Chine (chinois : 中华人民共和国数据安全法 ; pinyin : Zhōnghuá rénmín gònghéguó shùjù ānquán fǎ ; appelée loi sur la sécurité des données ou DSL) régit la création, l'utilisation, le stockage, le transfert et l'exploitation des données en Chine. La loi est considérée comme visant principalement les entreprises technologiques qui sont devenues de plus en plus puissantes en Chine au fil des ans. La loi fait partie d'une série de lois interdépendantes mais connexes sur la sécurité nationale, notamment la loi sur la sécurité nationale de la République populaire de Chine, la loi sur la cybersécurité et la loi sur le renseignement national, adoptées sous l'administration de Xi Jinping dans le cadre des efforts visant à renforcer la sécurité nationale.
Data Security_Threats_Database/Data Security Threats Database :
La base de données sur les menaces à la sécurité des données (russe : Банк данных угроз безопасности информации, BDU) est la base de données nationale des vulnérabilités de la Fédération de Russie. Il est géré par le Service fédéral russe de contrôle technique et d'exportation. En 2018, la BDU ne contenait qu'environ un dixième du nombre d'entrées de la base de données nationale américaine sur les vulnérabilités correspondante.
Data Sharing_for_Demographic_Research/Data Sharing for Demographic Research :
Le partage de données pour la recherche démographique (DSDR) fait progresser la recherche sur la santé maternelle et infantile et le parcours de vie en rendant les données détectables et accessibles pour une analyse secondaire. DSDR est un référentiel de données et d'informations de recherche qui adhère aux principes FAIR (Findable, Accessible, Interoperable, Reusable). DSDR se concentre sur des données à validité externe qui peuvent être généralisées à des populations. La Direction de la dynamique des populations (PDB) de l'Institut national Eunice Kennedy Shriver de la santé infantile et du développement humain (NICHD) finance le DSDR. Le DSDR est situé au sein de l'ICPSR, la plus grande archive de données en sciences sociales au monde, et fait partie de l'Institut de recherche sociale de l'Université du Michigan. DSDR fournit une plate-forme à travers laquelle les chercheurs peuvent découvrir, accéder, analyser et conserver des données pour des études de population.
Données Sitchinava/Données Sitchinava :
Data Sitchinava ( géorgien : დათა სიჭინავა ; né le 21 mars 1989) est un footballeur professionnel géorgien . Il a été l'un des meilleurs buteurs de Sioni Bolnisi en 2021 avec 20 buts, contribuant largement à la promotion de l'équipe dans l'élite. De plus, cette saison, il a été nommé meilleur joueur du dernier quart-temps (ronde 28-36). Sitchinava fait partie de l'équipe de Kolkheti-1913 depuis février 2022.
Smog de données/Smog de données :
Data Smog est un livre de 1997 du journaliste David Shenk et publié par Harper Collins. Il aborde les idées de l'auteur sur la manière dont la révolution des technologies de l'information façonnerait le monde et sur la manière dont la grande quantité de données disponibles sur Internet rendrait plus difficile le tri et la séparation des faits de la fiction.
Institut de stockage de données/Institut de stockage de données :
Le Data Storage Institute (DSI) (1997-2018) était une organisation nationale de recherche et développement située à Singapour, qui étudiait les technologies de stockage de données.
Data Storage_Technology/Technologie de stockage de données :
La technologie de stockage de données ( DST ) est un format de stockage de données sur bande magnétique de 19 mm (0,75 po) de large créé par Ampex en 1992. Le format DST a également été créé par Ampex en tant que format de bande vidéo numérique , DCT , utilisant le même design de cassette. DST est une capacité et une vitesse relativement élevées, en particulier par rapport aux autres technologies de bande disponibles dans les années 1990. Il existe 3 tailles de cartouches de bande standard compatibles avec chaque génération, "Small", "Medium" et "Large".
Data Stream_Interface/Interface de flux de données :
L'interface de flux de données (DSI) est une couche de session utilisée pour transporter le trafic Apple Filing Protocol via le protocole de contrôle de transmission.
Technologies_et_applications_des_données/Technologies et applications des données :
Data Technologies and Applications (DTA) est une revue universitaire interdisciplinaire à comité de lecture traitant de tout sujet lié à la science du Web, à l'analyse de données et à la gestion de l'information numérique. Il est publié trimestriellement par Emerald Group Publishing Limited. La revue s'appelait auparavant Program: Electronic Library and Information Systems, mais en 2018, le nom a changé pour Data Technologies and Applications. Selon les Journal Citation Reports, la revue a un facteur d'impact de 0,556 en 2016.
Terminal de données_Prêt/Terminal de données prêt :
Data Terminal Ready (DTR) est un signal de commande dans les communications série RS-232, transmis depuis un équipement terminal de données (DTE), tel qu'un ordinateur, vers un équipement de communication de données (DCE), par exemple un modem, pour indiquer que le terminal est prêt pour les communications et le modem peut initier un canal de communication. Le signal DTR est présent sur la broche 20 de l'interface RS-232 à 22 fils à l'aide d'un connecteur DB-25, et sur la broche 4 d'un port série DE-9 plus récent. Le signal est affirmé (logique "1") en augmentant la tension de la broche du négatif au positif. Le fait de ramener le signal à son état négatif indique au modem que la session de communication doit être terminée.
Barre d'outils de données/Barre d'outils de données :
La barre d'outils de données est un logiciel complémentaire de grattage Web pour les navigateurs Web Internet Explorer, Mozilla Firefox et Google Chrome qui collecte et convertit les données structurées des pages Web dans un format tabulaire pouvant être chargé dans un tableur ou un programme de gestion de base de données.
Projet de transfert de données/Projet de transfert de données :
Le projet de transfert de données (DTP) est une initiative open source qui propose la portabilité des données entre plusieurs plates-formes en ligne. Le projet a été lancé et présenté par Google le 20 juillet 2018 et est actuellement en partenariat avec Facebook, Microsoft, Twitter et Apple.
Services de transformation de données/Services de transformation de données :
Data Transformation Services, ou DTS, est un ensemble d'objets et d'utilitaires permettant l'automatisation des opérations d'extraction, de transformation et de chargement vers ou depuis une base de données. Les objets sont des packages DTS et leurs composants, et les utilitaires sont appelés outils DTS. DTS était inclus dans les versions antérieures de Microsoft SQL Server et était presque toujours utilisé avec les bases de données SQL Server, bien qu'il puisse être utilisé indépendamment avec d'autres bases de données. DTS permet de transformer et de charger des données à partir de sources hétérogènes à l'aide d'OLE DB, ODBC ou de fichiers texte uniquement, dans n'importe quelle base de données prise en charge. DTS peut également permettre l'automatisation de l'importation ou de la transformation des données sur une base planifiée et peut exécuter des fonctions supplémentaires telles que le transfert de fichiers par FTP et l'exécution de programmes externes. En outre, DTS fournit une autre méthode de contrôle de version et de sauvegarde des packages lorsqu'il est utilisé conjointement avec un système de contrôle de version, tel que Microsoft Visual SourceSafe. DTS a été remplacé par SQL Server Integration Services dans les versions ultérieures de Microsoft SQL Server, bien qu'il y ait eu une certaine rétrocompatibilité et la possibilité d'exécuter des packages DTS dans le nouveau SSIS pendant un certain temps.
Data Toutachkhia/Data Toutachkhia :
Data Tutashkhia ( géorgien : დათა თუთაშხია ) est un roman écrit par Chabua Amirejibi en 1975. Il a été traduit en anglais par Antonina W. Bouis en 1985. C'est l'un des romans lisibles les plus populaires en Géorgie et dans les anciens pays soviétiques. Le personnage est souvent comparé au héros du folklore anglais Robin Hood.
Schéma_URI de données/Schéma URI de données :
Le schéma d'URI de données est un schéma d'URI (Uniform Resource Identifier) ​​qui permet d'inclure des données en ligne dans des pages Web comme s'il s'agissait de ressources externes. C'est une forme de fichier littéral ou ici document. Cette technique permet normalement de récupérer des éléments séparés tels que des images et des feuilles de style dans une seule requête HTTP (Hypertext Transfer Protocol), qui peut être plus efficace que plusieurs requêtes HTTP, et utilisée par plusieurs extensions de navigateur pour regrouper des images ainsi que d'autres contenus multimédias. contenu dans un seul fichier HTML pour la sauvegarde de la page. À partir de 2022, les URI de données sont entièrement pris en charge par la plupart des principaux navigateurs et partiellement pris en charge dans Internet Explorer.
Données États-Unis/Données États-Unis :
Data USA est une plate-forme gratuite qui permet aux utilisateurs de collecter, d'analyser et de visualiser les données partagées du gouvernement américain. Lancée le 4 avril 2016, Data USA est le produit d'un partenariat continu entre Deloitte, le groupe d'apprentissage collectif du Massachusetts Institute of Technology (MIT) et Datawheel. La plateforme a remporté un prix Webby 2017 pour l'innovation gouvernementale et civile, ainsi qu'un Kantar Information is Beautiful Award.Le 1er mai 2019, la version 3.0 de la plateforme a été publiée, qui comprenait un nouvel outil "Viz Builder", qui permet aux utilisateurs de créer des visualisations de données personnalisées à l'aide de données provenant de toutes les sources de données incluses sur le site. . Cela permet des requêtes interdimensionnelles des données, qui n'étaient auparavant pas disponibles compte tenu de la nature verticale des pages de profil. Data USA appartient à une famille plus large de plateformes de visualisation et de distribution de données, créées sous la vision de César Hidalgo, qui prennent des sources de données ouvertes traditionnellement cloisonnées et les rassemblent dans un portail de données unique avec des profils narratifs et des outils d'exploration de données. Ces sites incluent : L'Observatoire de la complexité économique (OEC), DataChile, Data Africa et Data KOREA
Data Universal_Numbering_System/Data Universal Numbering System :
Le Data Universal Numbering System, abrégé DUNS ou DUNS, est un système propriétaire développé et géré par Dun & Bradstreet (D&B) qui attribue un identifiant numérique unique, appelé « numéro DUNS », à une seule entité commerciale. Il a été introduit en 1963 pour soutenir la pratique d'évaluation du crédit de D&B. C'est la norme dans le monde entier. Les utilisateurs de DUNS incluent la Commission européenne, les Nations Unies, le gouvernement des États-Unis et Apple. Plus de 50 associations industrielles et commerciales mondiales reconnaissent, recommandent ou exigent DUNS. La base de données DUNS contient plus de 300 millions d'entrées pour les entreprises du monde entier.
Data Warehouse_System_Electronic_Surveillance_Data_Management_System/Data Warehouse System Système de gestion des données de surveillance électronique :
Le Data Warehouse System — Electronic Surveillance Data Management System (DWS-EDMS) est une base de données électronique créée par la Special Technologies and Applications Section (STAS) du Federal Bureau of Investigation. Divulguées dans un examen fortement expurgé du rôle du FBI dans la prévention de la fusillade de Fort Hood en 2009, toutes ses capacités sont classifiées mais fournissent au minimum une archive consultable des communications électroniques interceptées, y compris les e-mails envoyés sur Internet. Un autre rapport suggère que les transcriptions de chat en ligne, les pièces jointes aux e-mails et les fichiers audio d'origine non spécifiée sont stockés. Au troisième trimestre de 2006, il était impliqué dans 130 enquêtes réussies et 370 cas actifs. En juin 2007, un total de 70 millions d'interceptions provenant de 16 500 comptes en ligne étaient présentes sur le système et devraient passer à 350 millions d'interceptions provenant de plus de 50 000 comptes d'ici juin 2009.
Accès aux données/Accès aux données :
L'accès aux données est un terme générique faisant référence à un processus qui a à la fois une signification spécifique à l'informatique et d'autres connotations impliquant des droits d'accès dans un sens juridique et/ou politique plus large. Dans le premier cas, il fait généralement référence aux logiciels et aux activités liées au stockage, à la récupération ou à l'utilisation de données hébergées dans une base de données ou un autre référentiel.
Disposition_d'accès aux données/Disposition d'accès aux données :
Le terme arrangement d'accès aux données (DAA) a les significations suivantes : Dans les réseaux téléphoniques publics commutés, un seul élément ou groupe d'éléments côté client du dispositif d'interface réseau à des fins de transmission de données, y compris tout équipement susceptible d'affecter les caractéristiques du interface. Un équipement de terminaison de circuit de données (DCE) fourni ou approuvé par un opérateur public qui permet à un DCE ou à un équipement terminal de données (DTE) d'être connecté au réseau de l'opérateur public. Les dispositions d'accès aux données font partie intégrante de tous les modems construits pour le public réseau téléphonique. Compte tenu de l'accès mixte voix et données, les DAA sont plus généralement appelés accords d'accès direct.
Couche d'accès aux données/Couche d'accès aux données :
Une couche d'accès aux données ( DAL ) dans un logiciel informatique est une couche d'un programme informatique qui fournit un accès simplifié aux données stockées dans un stockage persistant quelconque, comme une base de données relationnelle d'entité . Cet acronyme est couramment utilisé dans les environnements Microsoft. Par exemple, le DAL peut renvoyer une référence à un objet (en termes de programmation orientée objet) complet avec ses attributs au lieu d'une ligne de champs d'une table de base de données. Cela permet de créer les modules client (ou utilisateur) avec un niveau d'abstraction plus élevé. Ce type de modèle pourrait être implémenté en créant une classe de méthodes d'accès aux données qui font directement référence à un ensemble correspondant de procédures stockées de base de données. Une autre implémentation pourrait potentiellement récupérer ou écrire des enregistrements vers ou depuis un système de fichiers. Le DAL cache cette complexité du magasin de données sous-jacent au monde extérieur. Par exemple, au lieu d'utiliser des commandes telles que insert, delete et update pour accéder à une table spécifique dans une base de données, une classe et quelques procédures stockées pourraient être créées dans la base de données. Les procédures seraient appelées à partir d'une méthode à l'intérieur de la classe, qui renverrait un objet contenant les valeurs demandées. Ou bien, les commandes d'insertion, de suppression et de mise à jour peuvent être exécutées dans des fonctions simples telles que registeruser ou loginuser stockées dans la couche d'accès aux données. En outre, les méthodes de logique métier d'une application peuvent être mappées à la couche d'accès aux données. Ainsi, par exemple, au lieu de faire une requête dans une base de données pour récupérer tous les utilisateurs de plusieurs tables, l'application peut appeler une seule méthode à partir d'un DAL qui résume ces appels de base de données. Les applications utilisant une couche d'accès aux données peuvent être dépendantes ou indépendantes du serveur de base de données. Si la couche d'accès aux données prend en charge plusieurs types de bases de données, l'application devient capable d'utiliser toutes les bases de données avec lesquelles la DAL peut communiquer. Dans les deux cas, le fait d'avoir une couche d'accès aux données fournit un emplacement centralisé pour tous les appels dans la base de données, et facilite ainsi le portage de l'application vers d'autres systèmes de base de données (en supposant que 100 % de l'interaction de la base de données se fait dans le DAL pour un application). Les outils de mappage objet-relationnel fournissent des couches de données de cette manière, en suivant les modèles Active Record ou Data Mapper. Le modèle ORM/enregistrement actif est populaire auprès des frameworks Web.
Objet_accès_données/Objet d'accès aux données :
Dans les logiciels, un objet d'accès aux données (DAO) est un modèle qui fournit une interface abstraite à un certain type de base de données ou à un autre mécanisme de persistance. En mappant les appels d'application à la couche de persistance, le DAO fournit certaines opérations de données spécifiques sans exposer les détails de la base de données. Cet isolement soutient le principe de responsabilité unique. Il sépare les données dont l'accès à l'application a besoin, en termes d'objets et de types de données spécifiques au domaine (l'interface publique du DAO), de la manière dont ces besoins peuvent être satisfaits avec un SGBD spécifique, un schéma de base de données, etc. (l'implémentation du DAO). Bien que ce modèle de conception soit également applicable à la plupart des langages de programmation, à la plupart des types de logiciels ayant des besoins de persistance et à la plupart des types de bases de données, il est traditionnellement associé aux applications Java EE et aux bases de données relationnelles (accessibles via l'API JDBC en raison de son origine dans Sun Guide des meilleures pratiques de Microsystems "Core J2EE Patterns" pour cette plate-forme).
Acquisition de données/Acquisition de données :
L'acquisition de données est le processus d'échantillonnage de signaux qui mesurent des conditions physiques réelles et de conversion des échantillons résultants en valeurs numériques numériques pouvant être manipulées par un ordinateur. Les systèmes d'acquisition de données, abrégés par les acronymes DAS, DAQ ou DAU, convertissent généralement les formes d'onde analogiques en valeurs numériques pour le traitement. Les composants des systèmes d'acquisition de données comprennent : Des capteurs, pour convertir les paramètres physiques en signaux électriques. Circuit de conditionnement des signaux, pour convertir les signaux des capteurs sous une forme pouvant être convertie en valeurs numériques. Convertisseurs analogique-numérique, pour convertir les signaux de capteur conditionnés en valeurs numériques. Les applications d'acquisition de données sont généralement contrôlées par des programmes logiciels développés à l'aide de divers langages de programmation à usage général tels que Assembly, BASIC, C, C++, C#, Fortran, Java, LabVIEW, Lisp, Pascal, etc. Les systèmes d'acquisition de données autonomes sont souvent appelés données bûcherons. Il existe également des progiciels open source fournissant tous les outils nécessaires pour acquérir des données à partir d'équipements matériels différents, généralement spécifiques. Ces outils proviennent de la communauté scientifique où les expériences complexes nécessitent des logiciels rapides, flexibles et adaptables. Ces packages sont généralement personnalisés, mais des packages DAQ plus généraux tels que le système d'acquisition de données intégré maximal peuvent être facilement adaptés et sont utilisés dans plusieurs expériences de physique.
Data activisme/Data activisme :
L'activisme des données est une pratique sociale qui utilise la technologie et les données. Il a émergé des sous-cultures d'activisme existantes telles que les hackers et les mouvements open source. L'activisme des données est un type spécifique d'activisme qui est activé et limité par l'infrastructure des données. Il peut utiliser la production et la collecte de données numériques, volontaires et ouvertes pour remettre en question les relations de pouvoir existantes. C'est une forme d'activisme médiatique ; cependant, cela ne doit pas être confondu avec le slacktivisme. Il utilise la technologie numérique et les données de manière politique et proactive pour favoriser le changement social. Les formes d'activisme des données peuvent inclure l'humanitarisme numérique et la participation à des hackathons. L'activisme des données est une pratique sociale qui devient de plus en plus connue avec l'expansion de la technologie, des logiciels open source et la capacité de communiquer au-delà de la communauté immédiate d'un individu. La culture de l'activisme des données a émergé des formes précédentes d'activisme médiatique, telles que les mouvements de hackers. Une caractéristique déterminante de l'activisme des données est que les citoyens ordinaires peuvent participer, par rapport aux formes précédentes d'activisme médiatique où des compétences d'élite étaient nécessaires pour participer. En impliquant de plus en plus les utilisateurs moyens, ils sont le signal d'un changement de perspective et d'attitude envers la collecte massive de données émergeant dans le domaine de la société civile. ceux au pouvoir. Par exemple, le premier déploiement de la plateforme Ushahidi en 2008 au Kenya a visualisé la violence post-électorale qui avait été réduite au silence par le gouvernement et les nouveaux médias. La pratique sociale de l'activisme des données tourne autour de l'idée que les données sont de nature politique. L'activisme des données permet aux individus de quantifier un problème spécifique. En collectant des données dans un but particulier, cela permet aux activistes des données de quantifier et d'exposer des problèmes spécifiques. À mesure que les infrastructures de données et l'analyse des données se développent, les militants des données peuvent utiliser des preuves issues de la science axée sur les données pour étayer les affirmations sur les problèmes sociaux.
Gestion des données/Gestion des données :
L'administration des données ou la gestion des ressources de données est une fonction organisationnelle travaillant dans les domaines des systèmes d'information et de l'informatique qui planifie, organise, décrit et contrôle les ressources de données. Les ressources de données sont généralement stockées dans des bases de données sous un système de gestion de base de données ou d'autres logiciels tels que des tableurs électroniques. Dans de nombreuses petites organisations, l'administration des données est effectuée occasionnellement ou constitue une petite partie du travail de l'administrateur de la base de données. Dans le cadre du développement des systèmes d'information, l'administration des données commence idéalement dès la conception du système, en s'assurant qu'il existe un dictionnaire de données pour aider à maintenir la cohérence, éviter les redondances et modéliser la base de données afin de la rendre logique et utilisable, au moyen de la modélisation des données, y compris techniques de normalisation de base de données.
Agrégation de données/Agrégation de données :
L'agrégation de données est la compilation d'informations à partir de bases de données dans le but de préparer des ensembles de données combinés pour le traitement des données.
Analyse des données/Analyse des données :
L'analyse des données est un processus d'inspection, de nettoyage, de transformation et de modélisation des données dans le but de découvrir des informations utiles, d'éclairer les conclusions et de soutenir la prise de décision. L'analyse des données a de multiples facettes et approches, englobant diverses techniques sous une variété de noms, et est utilisée dans différents domaines des affaires, des sciences et des sciences sociales. Dans le monde des affaires d'aujourd'hui, l'analyse des données joue un rôle dans la prise de décisions plus scientifiques et aide les entreprises à fonctionner plus efficacement. L'exploration de données est une technique d'analyse de données particulière qui se concentre sur la modélisation statistique et la découverte de connaissances à des fins prédictives plutôt que purement descriptives, tandis que l'intelligence d'affaires couvre analyse de données qui repose fortement sur l'agrégation, se concentrant principalement sur les informations commerciales. Dans les applications statistiques, l'analyse des données peut être divisée en statistiques descriptives, analyse exploratoire des données (EDA) et analyse confirmatoire des données (CDA). EDA se concentre sur la découverte de nouvelles fonctionnalités dans les données tandis que CDA se concentre sur la confirmation ou la falsification des hypothèses existantes. L'analyse prédictive se concentre sur l'application de modèles statistiques pour la prévision ou la classification prédictive, tandis que l'analyse de texte applique des techniques statistiques, linguistiques et structurelles pour extraire et classer des informations à partir de sources textuelles, une espèce de données non structurées. Tous les éléments ci-dessus sont des variétés d'analyse de données. L'intégration de données est un précurseur de l'analyse de données, et l'analyse de données est étroitement liée à la visualisation et à la diffusion de données.
Visualisation_des_données_et_des_informations/Visualisation des données et des informations :
La visualisation de données et d'informations (data viz ou info viz) est un domaine interdisciplinaire qui traite de la représentation graphique de données et d'informations. C'est un moyen de communication particulièrement efficace lorsque les données ou informations sont nombreuses comme par exemple une série temporelle. C'est aussi l'étude de représentations visuelles de données abstraites pour renforcer la cognition humaine. Les données abstraites comprennent à la fois des données numériques et non numériques, telles que du texte et des informations géographiques. Il est lié à l'infographie et à la visualisation scientifique. Une distinction est qu'il s'agit de visualisation d'informations lorsque la représentation spatiale (par exemple, la mise en page d'un design graphique) est choisie, alors qu'il s'agit de visualisation scientifique lorsque la représentation spatiale est donnée. D'un point de vue académique, cette représentation peut être considérée comme un mappage entre les données d'origine (généralement numériques) et les éléments graphiques (par exemple, des lignes ou des points dans un graphique). Le mappage détermine comment les attributs de ces éléments varient en fonction des données. Dans cette optique, un graphique à barres est un mappage de la longueur d'une barre à la magnitude d'une variable. Étant donné que la conception graphique de la cartographie peut nuire à la lisibilité d'un graphique, la cartographie est une compétence essentielle de la visualisation des données. La visualisation des données et des informations trouve ses racines dans le domaine des statistiques et est donc généralement considérée comme une branche des statistiques descriptives. Cependant, comme des compétences en conception et des compétences statistiques et informatiques sont nécessaires pour visualiser efficacement, des auteurs tels que Gershon et Page soutiennent qu'il s'agit à la fois d'un art et d'une science. La recherche sur la façon dont les gens lisent et interprètent mal divers types de visualisations aide pour déterminer quels types et caractéristiques de visualisations sont les plus compréhensibles et les plus efficaces pour transmettre des informations.
Data and_object_carousel/Carrousel de données et d'objets :
Dans la diffusion vidéo numérique (DVB), un carrousel de données et d'objets est utilisé pour fournir à plusieurs reprises des données dans un cycle continu. Les carrousels permettent aux données d'être transmises d'un diffuseur à plusieurs récepteurs en transmettant un ensemble de données à plusieurs reprises dans un format standard. Un récepteur de boîtier décodeur peut se syntoniser sur le flux de données à tout moment et est capable de reconstituer les données dans un système de fichiers virtuel. Le carrousel peut donc être considéré comme un système de transport de fichiers ou un système de diffusion de fichiers qui permet de transmettre des fichiers de données du diffuseur à plusieurs récepteurs ou clients simultanément. Dans un environnement de diffusion unidirectionnelle, le récepteur n'est pas en mesure de demander la retransmission de toute donnée manquée ou mal reçue. La retransmission répétée des données permet au récepteur de faire face à un réglage aléatoire sur un canal à un moment imprévisible, par exemple lorsque l'utilisateur change de canal. La période de cycle du carrousel détermine généralement le temps maximum nécessaire à un récepteur pour acquérir une application ou une donnée spécifique. Il est possible de réduire le temps d'accès aux fichiers couramment utilisés en diffusant certaines données plus souvent que d'autres. Un carrousel d'objets individuels est également appelé domaine de service dans certains documents. Pour être précis, un domaine de service est un groupe d'objets DSM-CC associés. Dans les systèmes de diffusion, il n'y a pas de différence entre un carrousel d'objets et un domaine de service, à l'exception de la terminologie : un carrousel d'objets est un domaine de service, et vice versa.
Anonymisation des données/Anonymisation des données :
L'anonymisation des données est un type de nettoyage des informations dont l'intention est la protection de la vie privée. Il s'agit du processus de suppression des informations personnellement identifiables des ensembles de données, afin que les personnes décrites par les données restent anonymes.
Archéologie des données/Archéologie des données :
L'archéologie des données fait référence à l'art et à la science de récupérer des données informatiques encodées et/ou cryptées dans des supports ou des formats désormais obsolètes. L'archéologie des données peut également faire référence à la récupération d'informations à partir de formats électroniques endommagés après des catastrophes naturelles ou une erreur humaine. Le terme est apparu à l'origine en 1993 dans le cadre du projet mondial d'archéologie et de sauvetage des données océanographiques (GODAR). L'élan initial pour l'archéologie des données est venu de la nécessité de récupérer des enregistrements informatisés des conditions climatiques stockés sur de vieilles bandes informatiques, qui peuvent fournir des preuves précieuses pour tester les théories du changement climatique. Ces approches ont permis la reconstruction d'une image de l'Arctique qui avait été capturée par le satellite Nimbus 2 le 23 septembre 1966, avec une résolution plus élevée que jamais à partir de ce type de données. La NASA utilise également les services d'archéologues de données pour récupérer des informations. stocké sur une bande informatique vintage des années 1960, comme en témoigne le Lunar Orbiter Image Recovery Project (LOIRP).
Architecte de données/Architecte de données :
Un architecte de données est un praticien de l'architecture de données, une discipline de gestion de données concernée par la conception, la création, le déploiement et la gestion de l'architecture de données d'une organisation. Les architectes de données définissent la manière dont les données seront stockées, consommées, intégrées et gérées par différentes entités de données et systèmes informatiques, ainsi que toutes les applications utilisant ou traitant ces données d'une manière ou d'une autre. Elle est étroitement liée à l'architecture d'entreprise et est considérée comme l'un des quatre domaines de l'architecture d'entreprise.
Architecture des données/Architecture des données :
L'architecture des données est constituée des modèles, des politiques, des règles et des normes qui régissent les données collectées et la manière dont elles sont stockées, organisées, intégrées et utilisées dans les systèmes de données et dans les organisations. Les données sont généralement l'un des nombreux domaines d'architecture qui forment les piliers d'une architecture d'entreprise ou d'une architecture de solution.
Données en tant que_service/Données en tant que service :
En informatique, les données en tant que service, ou DaaS, sont un terme utilisé pour décrire les outils logiciels basés sur le cloud utilisés pour travailler avec des données, comme la gestion des données dans un entrepôt de données ou l'analyse des données avec l'informatique décisionnelle. Il est activé par un logiciel en tant que service (SaaS). Comme toutes les technologies "en tant que service" (aaS), DaaS s'appuie sur le concept selon lequel son produit de données peut être fourni à l'utilisateur à la demande, quelle que soit la séparation géographique ou organisationnelle entre le fournisseur et le consommateur. L'architecture orientée services (SOA) et l'utilisation généralisée des API ont rendu la plate-forme sur laquelle les données résident comme non pertinente. Les données en tant que service en tant que modèle commercial sont un concept lorsque deux organisations ou plus achètent, vendent ou échangent des données lisibles par machine. données en échange de quelque chose de valeur.
Assimilation de données/Assimilation de données :
L'assimilation de données est une discipline mathématique qui cherche à combiner de manière optimale la théorie (généralement sous la forme d'un modèle numérique) avec les observations. Il peut y avoir un certain nombre d'objectifs différents recherchés - par exemple, pour déterminer l'estimation de l'état optimal d'un système, pour déterminer les conditions initiales d'un modèle de prévision numérique, pour interpoler des données d'observation éparses en utilisant la connaissance (par exemple physique) du système observé, pour définir des paramètres numériques basés sur la formation d'un modèle à partir de données observées. Selon l'objectif, différentes méthodes de résolution peuvent être utilisées. L'assimilation de données se distingue des autres formes d'apprentissage automatique, d'analyse d'images et de méthodes statistiques en ce qu'elle utilise un modèle dynamique du système analysé. Assimilation de données initialement développée dans le domaine de la prévision numérique du temps. Les modèles numériques de prévision météorologique sont des équations décrivant le comportement dynamique de l'atmosphère, généralement codées dans un programme informatique. Afin d'utiliser ces modèles pour faire des prévisions, des conditions initiales sont nécessaires pour le modèle qui ressemblent étroitement à l'état actuel de l'atmosphère. La simple insertion de mesures ponctuelles dans les modèles numériques n'apportait pas de solution satisfaisante. Les mesures du monde réel contiennent des erreurs dues à la fois à la qualité de l'instrument et à la précision avec laquelle la position de la mesure est connue. Ces erreurs peuvent provoquer des instabilités dans les modèles qui éliminent tout niveau de compétence dans une prévision. Ainsi, des méthodes plus sophistiquées étaient nécessaires afin d'initialiser un modèle en utilisant toutes les données disponibles tout en veillant à maintenir la stabilité du modèle numérique. Ces données comprennent généralement les mesures ainsi qu'une prévision précédente valide au moment même où les mesures sont effectuées. S'il est appliqué de manière itérative, ce processus commence à accumuler des informations provenant d'observations passées dans toutes les prévisions ultérieures. Parce que l'assimilation de données s'est développée en dehors du domaine de la prévision numérique du temps, elle a d'abord gagné en popularité parmi les géosciences. En fait, l'une des publications les plus citées dans toutes les géosciences est une application de l'assimilation de données pour reconstruire l'histoire observée de l'atmosphère.
Données au repos/Données au repos :
Les données au repos dans les technologies de l'information désignent les données hébergées physiquement sur le stockage de données informatiques sous toute forme numérique (par exemple, stockage en nuage, services d'hébergement de fichiers, bases de données, entrepôts de données, feuilles de calcul, archives, bandes, sauvegardes hors site ou en nuage, appareils mobiles, etc. .). Les données au repos comprennent à la fois les données structurées et non structurées. Ce type de données est soumis à des menaces de pirates informatiques et à d'autres menaces malveillantes pour accéder aux données numériquement ou au vol physique des supports de stockage de données. Pour empêcher l'accès, la modification ou le vol de ces données, les organisations utilisent souvent des mesures de protection de sécurité telles que la protection par mot de passe, le cryptage des données ou une combinaison des deux. Les options de sécurité utilisées pour ce type de données sont généralement appelées protection des données au repos (DARP). Les données au repos sont utilisées en complément des termes données utilisées et données en transit qui définissent ensemble les trois états des données numériques (voir Figure 1).
Audit des données/Audit des données :
L'audit des données est le processus consistant à effectuer un audit des données pour évaluer dans quelle mesure les données de l'entreprise sont adaptées à un objectif donné. Cela implique de profiler les données et d'évaluer l'impact de données de mauvaise qualité sur les performances et les bénéfices de l'organisation. Il peut inclure la détermination de la clarté des sources de données et peut être appliqué dans la manière dont les banques et les agences de notation exercent une diligence raisonnable à l'égard du traitement des données brutes fournies par les entreprises, en particulier l'identification des données erronées. L'audit des données peut également se référer à l'audit d'un système pour déterminer son efficacité dans l'exécution de sa fonction. Par exemple, il peut s'agir d'évaluer les systèmes d'information des services informatiques pour déterminer s'ils sont efficaces pour protéger l'intégrité des données critiques. En tant qu'outil d'audit, il peut détecter les fraudes, les intrusions et d'autres problèmes de sécurité.
Augmentation de données/Augmentation de données :
L'augmentation des données dans l'analyse des données sont des techniques utilisées pour augmenter la quantité de données en ajoutant des copies légèrement modifiées de données déjà existantes ou de données synthétiques nouvellement créées à partir de données existantes. Il agit comme un régularisateur et aide à réduire le surajustement lors de la formation d'un modèle d'apprentissage automatique. Il est étroitement lié au suréchantillonnage dans l'analyse des données.
Banque de données/Banque de données :
Dans la gestion de bases de données et l'architecture de l'information, une banque de données ou une banque de données est un référentiel d'informations sur un ou plusieurs sujets - une base de données - qui est organisé de manière à faciliter la recherche d'informations locales ou distantes et est capable de traiter de nombreuses requêtes continues sur une longue période. période de temps. Une banque de données peut également faire référence à une organisation principalement concernée par la construction et la maintenance d'une telle base de données. Une banque de données peut être centralisée ou décentralisée, bien que la plupart des utilisations de ce terme se réfèrent au stockage centralisé et à la récupération d'informations, par analogie avec une banque monétaire. Les données d'une banque de données peuvent être n'importe quoi, des informations scientifiques telles que les relevés de température mondiale et des informations gouvernementales telles que les statistiques de recensement, aux enregistrements du système financier tels que les transactions par carte de crédit ou l'inventaire disponible auprès de divers fournisseurs. En informatique, le terme banque de données est également un jargon informatique obsolète (des années 1960 aux années 1970) pour la base de données elle-même, et est fréquemment utilisé dans ce sens dans les documents écrits à cette époque.
Prise de décision_basée sur les données/Prise de décision basée sur les données :
La prise de décision basée sur les données ou la prise de décision basée sur les données fait référence au processus continu de l'éducateur consistant à collecter et à analyser différents types de données, y compris les données démographiques, les tests de réussite des élèves, la satisfaction, les données de processus pour guider les décisions vers l'amélioration du processus éducatif. Le DDDM devient plus important dans l'éducation depuis les politiques de responsabilité fédérales et étatiques basées sur des tests. La loi No Child Left Behind ouvre des opportunités et des incitations plus larges à l'utilisation des données par les organisations éducatives en obligeant les écoles et les districts à analyser des composants supplémentaires des données, ainsi qu'en les pressant d'augmenter les résultats des tests des élèves. L'information rend les écoles responsables de l'amélioration d'année en année de divers groupes d'élèves. DDDM aide à reconnaître le problème et qui est affecté par le problème ; par conséquent, DDDM peut trouver une solution au problème

Aucun commentaire:

Enregistrer un commentaire

Elena Bryukhovets

Trilogie des éléments/Trilogie des éléments : La trilogie Elements est une trilogie de films de la cinéaste indo-canadienne Deepa Mehta...