Rechercher dans ce blog

mercredi 24 août 2022

Datakortet


Diagramme de flux de données/Diagramme de flux de données :
Un diagramme de flux de données est un moyen de représenter un flux de données à travers un processus ou un système (généralement un système d'information). Le DFD fournit également des informations sur les sorties et les entrées de chaque entité et le processus lui-même. Un diagramme de flux de données n'a pas de flux de contrôle - il n'y a pas de règles de décision ni de boucles. Des opérations spécifiques basées sur les données peuvent être représentées par un organigramme. Il existe plusieurs notations pour afficher les diagrammes de flux de données. La notation présentée ci-dessus a été décrite en 1979 par Tom DeMarco dans le cadre de l'analyse structurée. Pour chaque flux de données, au moins un des points de terminaison (source et/ou destination) doit exister dans un processus. La représentation raffinée d'un processus peut se faire dans un autre diagramme de flux de données, qui subdivise ce processus en sous-processus. Le diagramme de flux de données est un outil qui fait partie de l'analyse structurée et de la modélisation des données. Lors de l'utilisation d'UML, le diagramme d'activité prend généralement le rôle du diagramme de flux de données. Une forme spéciale de plan de flux de données est un plan de flux de données orienté site. Les diagrammes de flux de données peuvent être considérés comme des réseaux de Petri inversés, car les places dans de tels réseaux correspondent à la sémantique des mémoires de données. De même, la sémantique des transitions des réseaux de Petri et des flux de données et des fonctions des diagrammes de flux de données doit être considérée comme équivalente.
Acquisition indépendante des données/Acquisition indépendante des données :
En spectrométrie de masse, l'acquisition indépendante des données (DIA) est une méthode de détermination de la structure moléculaire dans laquelle tous les ions dans une plage m/z sélectionnée sont fragmentés et analysés dans une deuxième étape de spectrométrie de masse en tandem. Les spectres de masse en tandem sont acquis soit en fragmentant tous les ions qui pénètrent dans le spectromètre de masse à un moment donné (appelé DIA à large bande), soit en isolant et en fragmentant séquentiellement des plages de m/z. DIA est une alternative à l'acquisition dépendante des données (DDA) où un nombre fixe d'ions précurseurs sont sélectionnés et analysés par spectrométrie de masse en tandem.
Prise de décision fondée sur les données/Prise de décision fondée sur les données :
La prise de décision éclairée par les données (DIDM) fait référence à la collecte et à l'analyse de données pour guider les décisions qui améliorent le succès. Une autre forme de ce processus est appelée prise de décision basée sur les données (DDDM), qui est définie de la même manière comme la prise de décisions basées sur des données concrètes par opposition à l'intuition, l'observation ou la conjecture. Le DIDM est utilisé dans les communautés éducatives (où les données sont utilisées dans le but d'aider les étudiants et d'améliorer les programmes), mais il est également applicable (et donc également utilisé dans) d'autres domaines dans lesquels les données sont utilisées pour éclairer les décisions. Bien que la prise de décision basée sur les données soit un terme plus courant, la prise de décision éclairée par les données est un terme préférable car les décisions ne doivent pas être basées uniquement sur des données quantitatives. La prise de décision basée sur les données est le plus souvent observée dans les contextes de croissance des entreprises et d'entrepreneuriat. La plupart des éducateurs ont accès à un système de données dans le but d'analyser les données des élèves. Ces systèmes de données présentent les données aux éducateurs dans un format de données en vente libre (intégrant des étiquettes, une documentation supplémentaire et un système d'aide, prenant des décisions clés sur l'emballage/l'affichage et le contenu) pour améliorer le succès de la prise de décision éclairée par les données des éducateurs. . En entreprise, favoriser et soutenir activement le DIDM dans leur entreprise et auprès de leurs collègues pourrait être le rôle principal des CIO (Chief Information Officers) ou CDO (Chief Data Officers). L'évaluation dans l'enseignement supérieur est une forme de DIDM visant à utiliser des preuves de ce que les élèves apprennent à améliorer le programme d'études, l'apprentissage des élèves et l'enseignement. Les tests normalisés, les notes et les travaux des élèves notés par des rubriques sont des formes d'évaluation des résultats d'apprentissage des élèves. Les évaluations formatives, en particulier, permettent aux éducateurs d'utiliser plus immédiatement les données des performances des élèves pour modifier les stratégies d'enseignement et d'apprentissage. Il existe de nombreuses organisations visant à promouvoir l'évaluation de l'apprentissage des étudiants par le biais du DIDM, notamment le National Institute for Learning Outcomes Assessment, l'Association for the Assessment of Student Learning in Higher Education et, dans une certaine mesure, l'Association of American Colleges and Universities.
Informatique intensive en données/informatique intensive en données :
L'informatique intensive en données est une classe d'applications informatiques parallèles qui utilisent une approche parallèle de données pour traiter de gros volumes de données, généralement de taille téraoctets ou pétaoctets et généralement appelées mégadonnées. Les applications informatiques qui consacrent la majeure partie de leur temps d'exécution aux exigences de calcul sont réputées gourmandes en calcul, tandis que les applications informatiques qui nécessitent de gros volumes de données et consacrent la majeure partie de leur temps de traitement aux E / S et à la manipulation des données sont réputées gourmandes en données.
Conception orientée données/Conception orientée données :
En informatique, la conception orientée données est une approche d'optimisation de programme motivée par une utilisation efficace du cache CPU, utilisé dans le développement de jeux vidéo. L'approche consiste à se concentrer sur la mise en page des données, en séparant et en triant les champs en fonction du moment où ils sont nécessaires, et à réfléchir aux transformations des données. Les partisans incluent Mike Acton, Scott Meyers et Jonathan Blow. Le tableau parallèle (ou structure de tableaux) est le principal exemple de conception orientée données. Cela contraste avec l'éventail de structures typiques des conceptions orientées objet.
Analyse orientée données/Analyse orientée données :
L'analyse orientée données (DOP, également traitement orienté données) est un modèle probabiliste en linguistique computationnelle. DOP a été conçu par Remko Scha en 1990 dans le but de développer un cadre de grammaire orienté vers la performance. Contrairement à d'autres modèles probabilistes, DOP prend en compte tous les sous-arbres contenus dans une arborescence plutôt que d'être limité, par exemple, à des sous-arbres à 2 niveaux (comme les PCFG), permettant ainsi des informations plus contextuelles. Plusieurs variantes de DOP ont été développées. La version initiale développée par Rens Bod en 1992 était basée sur la grammaire de substitution arborescente, tandis que plus récemment, la DOP a été combinée avec la grammaire lexicale-fonctionnelle (LFG). Le DOP-LFG qui en résulte trouve une application dans la traduction automatique. D'autres travaux sur l'apprentissage et l'estimation des paramètres pour DOP ont également trouvé leur place dans la traduction automatique.
Unités de débit de données/Unités de débit de données :
Dans les télécommunications, le taux de transfert de données est le nombre moyen de bits (débit binaire), de caractères ou de symboles (débit en bauds) ou de blocs de données par unité de temps passant par une liaison de communication dans un système de transmission de données. Les unités de débit de données courantes sont des multiples de bits par seconde (bit/s) et d'octets par seconde (B/s). Par exemple, les débits de données des connexions Internet haut débit résidentielles modernes sont généralement exprimés en mégabits par seconde (Mbit/s).
Data.europa.eu/Data.europa.eu :
Le 16 novembre 2015, la version bêta du portail européen de données a été lancée. Le portail européen de données est une initiative de la Commission européenne et fait partie du marché unique numérique.
Data.gov/Data.gov :
Data.gov est un site Web du gouvernement américain lancé fin mai 2009 par le directeur fédéral de l'information (CIO) des États-Unis, Vivek Kundra. Data.gov vise à améliorer l'accès du public à des ensembles de données de grande valeur lisibles par machine générés par le pouvoir exécutif du gouvernement fédéral. Le site est un référentiel d'informations gouvernementales fédérales, étatiques, locales et tribales mises à la disposition du public.
Data.gov.in/Data.gov.in :
Open Government Data (OGD) Platform India ou data.gov.in est une plate-forme de soutien à l'initiative Open Data du gouvernement indien. Ce portail est un point d'accès unique aux ensembles de données, documents, services, outils et applications publiés par les ministères, départements et organisations du gouvernement indien. Il combine et étend les meilleures fonctionnalités du projet India.gov.in du gouvernement indien et du projet data.gov du gouvernement américain.
Data.gov.uk/Data.gov.uk :
data.gov.uk est un projet du gouvernement britannique visant à mettre à disposition des données non personnelles du gouvernement britannique en tant que données ouvertes. Il a été lancé en version bêta fermée en septembre 2009 et lancé publiquement en janvier 2010. En février 2015, il contenait plus de 19 343 ensembles de données, passant à plus de 40 000 en 2017. data.gov.uk est répertorié dans le registre des référentiels de données de recherche re3data.org .
Data2map/Data2map :
data2map est un fournisseur de services de cartographie de présentation basé à Saalfelden am Steinernen Meer, Salzbourg, Autriche.
Données3/Données3 :
Data#3 Limited (DTL) est une société de technologies de l'information et des communications (TIC) cotée en bourse. Le siège social de Data#3 est situé à Brisbane, mais l'entreprise exerce ses activités dans toute l'Australie. La date d'inscription officielle de Data#3 à la Bourse australienne (ASX) était le 23 décembre 1997. Les trois secteurs d'activité de la société comprennent les logiciels, l'infrastructure et les services.Données #3's a été fondée en 1977 et établie par Powell, Clark and Associates (PCA).
Données8/Données8 :
Le format de sauvegarde 8 mm est un format de stockage de données sur bande magnétique utilisé dans les systèmes informatiques, lancé par Exabyte Corporation. Il est également connu sous le nom de Data8, souvent abrégé en D8 et est écrit en tant que D-Eight sur certains supports de marque Sony. Ces systèmes peuvent sauvegarder jusqu'à 60 Go de données selon la configuration. Les bandes utilisées sont mécaniquement les mêmes que les bandes utilisées dans les enregistreurs et caméscopes au format vidéo 8 mm. Jusqu'à l'avènement de l'AIT, Exabyte était le seul fournisseur de lecteurs de bande au format 8 mm. La société a été créée dans le but de prendre le format vidéo 8 mm et de le rendre adapté au stockage de données. Ils l'ont fait en créant un mécanisme et un format de données fiables qui utilisaient la technologie courante de bande vidéo à balayage hélicoïdal de 8 mm qui était alors disponible. Le premier lecteur de bande 8 mm d'Exabyte a été mis à disposition en 1987. Cela a été suivi par leur lecteur de bande Mammoth en 1996 et le Mammoth-2 (M2) en 1999. Les mécanismes de lecteur d'Exabyte ont été fréquemment renommés et intégrés dans les systèmes UNIX.
Adaptateur de données/Adaptateur de données :
Dans ADO.NET, un DataAdapter fonctionne comme un pont entre une source de données et une classe de données déconnectée, telle qu'un DataSet. Au niveau le plus simple, il spécifiera les commandes SQL qui fournissent les fonctionnalités CRUD élémentaires. À un niveau plus avancé, il offre toutes les fonctions requises pour créer des ensembles de données fortement typés, y compris des DataRelations. Les adaptateurs de données font partie intégrante des fournisseurs managés ADO.NET, qui sont l'ensemble d'objets utilisés pour communiquer entre une source de données et un ensemble de données. (En plus des adaptateurs, les fournisseurs gérés incluent des objets de connexion, des objets de lecteur de données et des objets de commande.) Les adaptateurs sont utilisés pour échanger des données entre une source de données et un ensemble de données. Dans de nombreuses applications, cela signifie lire les données d'une base de données dans un jeu de données, puis réécrire les données modifiées du jeu de données dans la base de données. Cependant, un adaptateur de données peut déplacer des données entre n'importe quelle source et un jeu de données. Par exemple, il peut y avoir un adaptateur qui déplace les données entre un serveur Microsoft Exchange et un jeu de données. Parfois, les données avec lesquelles vous travaillez sont principalement en lecture seule et vous avez rarement besoin d'apporter des modifications à la source de données sous-jacente. Certaines situations nécessitent également la mise en cache des données en mémoire afin de minimiser le nombre d'appels à la base de données pour les données qui ne changent pas. L'adaptateur de données vous permet d'accomplir facilement ces tâches en vous aidant à gérer les données en mode déconnecté. L'adaptateur de données remplit un objet DataSet lors de la lecture des données et écrit en un seul lot lors de la persistance des modifications dans la base de données. Un adaptateur de données contient une référence à l'objet de connexion et ouvre et ferme automatiquement la connexion lors de la lecture ou de l'écriture dans la base de données. De plus, l'adaptateur de données contient des références d'objet de commande pour les opérations SELECT, INSERT, UPDATE et DELETE sur les données. Vous aurez un adaptateur de données défini pour chaque table dans un DataSet et il s'occupera de toutes les communications avec la base de données pour vous. Tout ce que vous avez à faire est d'indiquer à l'adaptateur de données quand charger ou écrire dans la base de données.
DataArt/DataArt :
Pour le Data Art en tant que forme d'art émergente, voir Information artDataArt est une société de conseil en informatique. L'entreprise conçoit, développe et supporte des solutions logicielles. DataArt opère à partir de plus de 20 sites aux États-Unis, en Europe (Arménie, Bulgarie, Allemagne, Géorgie, Kazakhstan, Pologne, Suisse, Ukraine et Royaume-Uni), en Argentine et aux Émirats arabes unis.
DataBlade/DataBlade :
Un DataBlade est un module pour le serveur de base de données IBM Informix. Sorti en 1996, il permet de créer des types de données complexes et personnalisés tout en offrant le même niveau d'intégration que les types de données intégrés.
DataCAD/DataCAD :
DataCAD est un logiciel de conception et de dessin assisté par ordinateur (CAO) pour la conception et le dessin d'architecture 2D et 3D, développé et vendu par DATACAD LLC.
DataCite/DataCite :
DataCite est une organisation internationale à but non lucratif qui vise à améliorer la citation des données afin de : établir un accès plus facile aux données de recherche sur Internet ; à vérifier et à réutiliser pour une étude future.
DataCore/DataCore :
DataCore, également connu sous le nom de DataCore Software, est un développeur de stockage défini par logiciel basé à Fort Lauderdale, en Floride, aux États-Unis. La société est pionnière dans le développement de la technologie de virtualisation SAN et propose des solutions de stockage définies par logiciel pour le stockage de blocs, de fichiers et d'objets dans des environnements bare metal, virtuels, de conteneurs, cloud et hybrides.
Réseaux DataDirect/Réseaux DataDirect :
DataDirect Networks (DDN) est une société privée de stockage de données dont le siège social est situé à Chatsworth, en Californie, aux États-Unis.
DataEase/DataEase :
DataEase est un système de gestion de base de données relationnelle (RDBMS) et est considéré comme un outil de développement rapide d'applications pour le développement d'applications logicielles à forte intensité de données et organisées de manière relationnelle pour les ordinateurs personnels. DataEase a été créé au début des années 1980 par les développeurs de logiciels Arun Gupta et Joseph Busch. La première version du logiciel a été publiée en 1981 par Software Solutions Inc. Les dirigeants ont vendu la société à Sapphire International Corporation du Royaume-Uni en 1991. Sapphire continue de développer et de commercialiser le produit. Il existe deux arcs de produits distincts dans l'histoire de DataEase : DataEase pour DOS et DataEase pour Windows.
DataFlash/DataFlash :
DataFlash est une interface série à faible nombre de broches pour la mémoire flash. Il a été développé comme une interface propriétaire Atmel, compatible avec la norme SPI. En octobre 2012, les gammes de produits DataFlash de la série AT45, la propriété intellectuelle associée et les équipes d'employés de soutien ont été achetées par Adesto Technologies. Les informations sont écrites et lues à partir d'un appareil DataFlash utilisant n'importe quel microcontrôleur, tel que l'Atmel AVR, le Microchip PIC ou l'ARM. . La ROM de démarrage de nombreux microcontrôleurs Atmel ARM prend en charge le téléchargement de code à partir de puces DataFlash après la réinitialisation.
DataFlex/DataFlex :
DataFlex est un langage de programmation de haut niveau orienté objet et un outil visuel de quatrième génération 4GL pour le développement d'applications logicielles Windows, Web et mobiles sur une plate-forme basée sur un framework. Il a été introduit et développé par Data Access Corporation à partir de 1982.
DataGraph/DataGraph :
DataGraph est une application logicielle de création de graphiques et d'analyse de données pour le système d'exploitation macOS, développée par Visual Data Tools à Chapel Hill, Caroline du Nord. DataGraph est utilisé pour créer des graphiques de qualité publication, en particulier pour la recherche et la science.Visual Data Tools a été fondée en 2002. En 2005, Visual Data Tools a reçu un prix Apple Design pour la meilleure solution de calcul scientifique Mac OS X pour DataTank. En 2006, Visual Data Tools a publié DataGraph, initialement appelé DataPlot. En 2011, DataGraph a été parmi les premières applications disponibles sur le Mac App Store. DataTank et DataGraph ont été créés par David Adalsteinsson, professeur de mathématiques à l'Université de Caroline du Nord à Chapel Hill.
DataGravity/DataGravity :
DataGravity Inc. était une société de gestion de données de l'industrie, qui produisait des logiciels de sécurité. La société a été fondée en avril 2012 par Paula Long et John Joseph. DataGravity a annoncé ses premiers produits à VMworld en 2014. Elle a remporté les prix Best of Show et New Technology pour l'événement. Elle a commencé à expédier ses premiers produits en octobre 2014. La société s'est concentrée sur la protection et la sécurité des données stockées sur la baie et a nommé ce nouveau type de stockage le stockage sensible aux données. Il a publiquement changé sa stratégie produit en février 2016, passant d'appliances de stockage de données à une solution logicielle axée sur la sécurité comportementale des données. Ce changement de stratégie de produit a entraîné plusieurs séries de licenciements.
DataGueule/DataGueule :
DataGueule (ou #Datagueule) est une émission TV et une websérie à publication variable (un ou deux épisodes par mois) diffusée depuis juin 2014 sur France 4 ainsi que sur YouTube, Dailymotion et PeerTube. Le programme propose des vidéos animées concernant l'actualité de manière ludique, et condensées dans un but didactique. Chaque épisode tente de révéler et de comprendre les mécanismes de la société et leurs aspects méconnus. L'équipe de DataGueule est composée d'Henri Poulain (créateur et producteur), Julien Goetz (co-auteur et co-créateur) et de Sylvain Lapoix (investigateur et co-auteur).
DataHand/DataHand :
Le DataHand est un clavier d'ordinateur non conventionnel introduit en 1990 par DataHand Systems, Inc, conçu pour être utilisé sans aucun mouvement du poignet ni extension des doigts.
DataLink University_College/DataLink University College :
DataLink Institute est un établissement d'enseignement supérieur à but non lucratif fondé en 1993 par Ernest Ansah en tant qu'institut d'enseignement caritatif. Il a été entièrement transformé en un collège universitaire de premier plan qui offre des programmes menant à des diplômes, des programmes d'accès à l'université et des certificats dans d'autres disciplines. L'institut compte cinq campus: campus principal, Tema, sur la 5e avenue, communauté Ten, Accra, Ho, collège préuniversitaire. Takoradi, Kpando.?? Datalink Institute est affilié à l'Université des sciences et technologies Kwame Nkrumah au Ghana, l'Université de Northampton (Royaume-Uni). Il compte actuellement des écoles d'informatique, d'administration des affaires et d'études supérieures.
DataLounge/DataLounge :
DataLounge (également appelé Datalounge et The Data Lounge) est un forum Internet. Sa communauté principale d'affiches principalement anonymes partage des nouvelles, des opinions, des potins, des histoires personnelles et des opinions politiques d'un point de vue gay. Alors que les directives du forum exigent nominalement que les affiches soient respectueuses des autres, une grande partie de l'attrait du site tourne autour de son appréciation de l'esprit, de la satire et de la "garce inutile", ainsi que d'une histoire partagée de plus de 25 ans et des blagues qui en résultent. DataLounge compte environ 6,5 millions de pages vues chaque mois, selon son webmaster (en juin 2006). Mediapolis, une société de médias interactifs de New York, a créé le site en mai 1995.
DataMapper/DataMapper :
DataMapper est une bibliothèque de mappeurs relationnels objet écrite en Ruby qui suit le modèle d'enregistrement actif même si le nom implique qu'il suit le modèle de mappeur de données. Bien que DataMapper 1 n'ait peut-être pas atteint le découplage total entre l'objet et la base de données suggéré par le modèle de mappage de données, il semble que DataMapper 2 ait l'intention de changer cela (à la Virtus, une bibliothèque adaptée de DataMapper). Le projet DataMapper 2 a été renommé avant son lancement et a été publié sous le nom de Ruby Object Mapper (ROM) en août 2013. Chaînage des requêtes et ne pas évaluer la requête jusqu'à ce que cela soit absolument nécessaire (en utilisant une implémentation de tableau paresseux) Une API pas trop fortement orientée vers les bases de données SQLDataMapper a été conçue pour être un ORM plus abstrait, pas strictement SQL, basé sur le modèle d'entreprise de Martin Fowler. Par conséquent, des adaptateurs DataMapper ont été créés pour d'autres bases de données non SQL, telles que CouchDB, Apache Solr et des services Web tels que Salesforce.com.
Marché des données/Marché des données :
DataMarket était une société islandaise privée spécialisée dans la fourniture d'accès et l'affichage visuel de données provenant d'institutions et d'entreprises publiques et, dans une moindre mesure, privées. DataMarket a été créé à Reykjavík, la capitale de l'Islande en 2008. Le blog Guardian Technology a qualifié DataMarket d'"impressionnant et intéressant". L'un des contrats de DataMarkets consistait à visualiser graphiquement le budget 2011 de la municipalité de Reykjavík. DataMarket a obtenu une large couverture médiatique en Islande. Initialement, DataMarket s'est concentré sur le marché islandais en incorporant des données de diverses institutions publiques telles que Statistics Iceland, la Banque centrale d'Islande, la Direction islandaise du travail, l'Institut islandais de recherche marine, l'Autorité nationale de l'énergie de Iceland, Registers Iceland, le rapport de la Commission d'enquête spéciale de l'Althing et le cabinet de conseil privé islandais Capacent, pour n'en citer que quelques-uns. Peu de temps après, il s'est diversifié et DataMarket fournit désormais un accès aux données internationales d'Eurostat, de la Division des statistiques des Nations Unies, de la Banque mondiale et de la Fondation Gapminder. association, une pour le web le plus intéressant et une pour le meilleur web de service et d'information. En 2014, DataMarket a été racheté par Qlik. En 2020, DataMarket a été retiré par Qlik.
DataMeet/DataMeet :
DataMeet est une communauté générée par les utilisateurs qui se concentre principalement sur les données ouvertes et la science des données en Inde. DataMeet a été enregistré en tant que fiducie en février 2014. Les discussions typiques portent sur la collecte, l'organisation et l'utilisation de données ouvertes. Les événements DataMeet ont lieu à Ahmedabad, Bangalore, Delhi, Mumbai et Pune.
DataMirror/DataMirror :
DataMirror Corporation, fondée en 1993, est une société de logiciels informatiques basée à Markham, Ontario, Canada avec des bureaux dans plusieurs pays. La société fournit des produits d'intégration, de protection et de base de données Java en temps réel. En 2006, elle affirmait avoir plus de 2 100 clients professionnels dans des secteurs tels que la santé, la vente au détail, les télécommunications et les services financiers. Depuis 2007, la société est une filiale en propriété exclusive d'IBM Corporation.
DataMotion/DataMotion :
DataMotion, Inc. est une société privée basée à Florham Park, NJ. La société a été fondée en 1999 par Mahesh Muchhala et Bob Janáček en tant que spin-off de SafetyNet. Initialement appelée CertifiedMail.com et basée à Springfield, NJ, la société a changé son nom pour DataMotion en octobre 2008. Les bureaux de l'entreprise ont été transférés à Morristown en 2004. La société possède également un bureau à Portland, Oregon. DataMotion fournit des services et des produits de transport d'informations sécurisés aux entreprises, notamment le cryptage des e-mails, le transfert sécurisé de fichiers et la livraison sécurisée de formulaires électroniques. La société vend ses services et produits principalement à des entités de 100 employés ou plus, dans des secteurs tels que la santé, les services financiers et le gouvernement.
Neutralité des données/Neutralité des données :
DataNeutrality.org est une organisation à but non lucratif basée à New York qui se consacre à la création de protocoles de collecte de données socialement responsables pour Internet. L'organisation à but non lucratif a un conseil d'administration composé de représentants d'opérateurs de sites Web et d'applications mobiles, de défenseurs des droits des consommateurs et de collecteurs de données. DataNeutrality travaille de concert avec une autre organisation basée à New York, la start-up à but lucratif Mezzobit, pour définir des règles de données, assurer la conformité pour Mezzobit et envoyer des bulletins aux clients Mezzobit. L'un des principaux objectifs des organisations est de régir le fonctionnement des balises de collecte de données tierces, également appelées balises Web, et le suivi des visiteurs du site Web. L'intention est de créer un cadre d'autorégulation pour les données Internet afin d'augmenter les efforts de normalisation et de réglementation de l'industrie. Le jumelage de ces deux organisations est un exemple du paradigme de la réglementation 2.0 qui encourage la transparence et la responsabilité des entreprises afin de promouvoir des résultats sociétaux durables et positifs.
DataNucleus/DataNucleus :
DataNucleus (anciennement connu sous le nom de Java Persistent Objects JPOX) est un projet open source (sous la licence Apache 2) qui fournit des produits logiciels autour de la gestion des données en Java. Le projet DataNucleus a démarré en 2008 (le projet JPOX a débuté en 2003 et a été relancé sous le nom de DataNucleus en 2008 avec une portée plus large). DataNucleus Access Platform est une implémentation entièrement conforme des spécifications Java Data Objects (JDO) 1.0, 2.0, 2.1, 2.2, 3.0, 3.1, 3.2 (JSR 0012, JSR 0243) et de l'API Java Persistence (JPA) 1.0, 2.0, 2.1 , 2.2 (JSR 0220, JSR 0317, JSR 0338), fournissant une persistance transparente des objets Java. Il prend en charge la persistance dans la plus large gamme de magasins de données de tous les logiciels de persistance Java, prend en charge tous les principaux modèles de mappage objet-relationnel (ORM), permet d'interroger à l'aide de JDOQL, JPQL ou SQL, et est livré avec son propre amplificateur de byte-code. Il permet la persistance des magasins de données relationnels (RDBMS), des magasins de données basés sur des objets (db4o, NeoDatis ODB), du stockage basé sur des documents (XML, Excel, feuilles de calcul OpenDocument), du stockage basé sur le Web (JSON, Google Storage, Amazon Simple Storage Service), magasins de données basés sur des cartes (HBase, Bigtable de Google, Apache Cassandra), magasins de données basés sur des graphes (Neo4j), magasins de documents (MongoDB) ainsi que d'autres types de magasins de données (par exemple LDAP). Ses plug-ins sont conformes à OSGi et peuvent donc être utilisés de la même manière dans un environnement OSGi. La plate-forme d'accès DataNucleus est également utilisée par la couche de persistance derrière Google App Engine pour Java et VMForce (offre cloud de Salesforce.com et VMWare).
DataONE/DataONE :
DataONE est un réseau de référentiels de données interopérables facilitant le partage de données, la découverte de données et la science ouverte. Soutenu à l'origine par un financement de 21,2 millions de dollars de la US National Science Foundation en tant que l'un des premiers programmes DataNet en 2009, le financement a été renouvelé de 2014 à 2020 avec 15 millions de dollars supplémentaires. DataONE aide à préserver, accéder, utiliser et réutiliser des données scientifiques multidisciplinaires grâce à la construction d'une cyberinfrastructure primaire et à un programme d'éducation et de sensibilisation. DataONE assure l'archivage des données scientifiques pour les données écologiques et environnementales produites par les scientifiques. L'objectif de DataONE est de préserver et de fournir un accès à des données multi-échelles, multidisciplinaires et multinationales. Les utilisateurs comprennent des scientifiques, des gestionnaires d'écosystèmes, des décideurs, des étudiants, des éducateurs, des bibliothécaires et le public. DataONE relie la cyberinfrastructure existante pour fournir un cadre, une gestion et des technologies distribués qui permettent la préservation à long terme de données d'observation multi-échelles, multidisciplinaires et multinationales. Le cadre distribué est composé de nœuds de coordination situés sur le campus d'Oak Ridge au Tennessee, à l'Université de Californie à Santa Barbara et à l'Université du Nouveau-Mexique, et de nœuds membres. DataONE fournit également des ressources, y compris des outils pour y accéder et l'utiliser.
DataOps/DataOps :
DataOps est un ensemble de pratiques, processus et technologies qui combinent une perspective intégrée et orientée processus sur les données avec l'automatisation et les méthodes de l'ingénierie logicielle agile pour améliorer la qualité, la rapidité et la collaboration et promouvoir une culture d'amélioration continue dans le domaine de l'analyse des données. . Alors que DataOps a commencé comme un ensemble de meilleures pratiques, il a maintenant mûri pour devenir une approche nouvelle et indépendante de l'analyse des données. DataOps s'applique à l'ensemble du cycle de vie des données, de la préparation des données au reporting, et reconnaît la nature interconnectée de l'équipe d'analyse de données et des opérations de technologie de l'information. DevOps se concentre sur la livraison continue en tirant parti des ressources informatiques à la demande et en automatisant les tests et le déploiement de logiciels. Cette fusion du développement de logiciels et des opérations informatiques a amélioré la rapidité, la qualité, la prévisibilité et l'échelle de l'ingénierie et du déploiement des logiciels. Empruntant des méthodes à DevOps, DataOps cherche à apporter ces mêmes améliorations à l'analyse de données. DataOps utilise le contrôle statistique des processus (SPC) pour surveiller et contrôler le pipeline d'analyse de données. Avec SPC en place, les données circulant dans un système opérationnel sont constamment surveillées et vérifiées pour fonctionner. Si une anomalie se produit, l'équipe d'analyse de données peut être avertie par une alerte automatisée. DataOps n'est pas lié à une technologie, une architecture, un outil, un langage ou un cadre particulier. Les outils qui prennent en charge DataOps favorisent la collaboration, l'orchestration, la qualité, la sécurité, l'accès et la facilité d'utilisation.
DataPlay/DataPlay :
DataPlay est un système de disque optique développé par DataPlay Inc. et lancé sur le marché grand public en 2002. Utilisant de très petits disques (32 mm de diamètre) enfermés dans une cartouche de protection stockant 250 Mo par côté, DataPlay était principalement destiné à la lecture de musique portable, bien qu'il puisse stocker également d'autres types de données, en utilisant à la fois des disques préenregistrés et des disques enregistrés par l'utilisateur (et des disques qui combinent des informations préenregistrées avec une zone inscriptible). Cela permettrait également l'enregistrement multisession. Il a remporté le prix CES Best of Show en 2001. DataPlay comprenait également un système élaboré de gestion des droits numériques conçu pour permettre aux consommateurs de "déverrouiller" du contenu préenregistré supplémentaire sur le disque à tout moment, via Internet, après l'achat initial. Il était basé sur le système DRM de la Secure Digital Music Initiative. Le système DRM de Dataplay était l'une des raisons de son attrait pour l'industrie musicale. Il comprenait également un système de fichiers propriétaire, Dataplay File System (DFS) qui supportait nativement les DRM. Par défaut, il autoriserait jusqu'à 3 copies sur d'autres disques Dataplay, sans autoriser aucune copie sur CD. L'industrie de la musique enregistrée était initialement généralement favorable à DataPlay et un petit nombre de disques DataPlay préenregistrés ont été publiés, y compris l'album de Britney Spears. Britney. Les graphiques sur les communiqués de presse montrent que Sting et Garth Brooks devaient également avoir des versions DataPlay. En 2021, le premier album DIY DataPlay est sorti par le producteur rave expérimental Backmasker. Cependant, en tant que format préenregistré, DataPlay a été un échec. L'entreprise a fermé faute de financement. En 2003, une société appelée DPHI a acheté la propriété intellectuelle de Dataplay et l'a réintroduite au CES 2004. La société a remplacé le système de fichiers DFS de Dataplay par le système de fichiers FAT. Encore une fois, ils ont été commercialisés comme une alternative moins chère aux cartes mémoire, avec un appareil conçu qui permettrait aux utilisateurs de transférer des données d'une carte SD vers un disque Dataplay moins cher et de plus grande capacité. Chaque disque contiendrait 500 mégaoctets de données et serait vendu à seulement 4,50 $ US. DPHI a également prototypé des disques Dataplay de 750 mégaoctets et annoncé des plans pour des disques de 2 et 7 gigaoctets, ces derniers utilisant un laser à semi-conducteur bleu-violet, tout comme le Blu-ray. Il y avait très peu de produits sur le marché capables d'écrire des données sur ces disques. Le plus remarquable était le Topy Mini Writer, qui se vendait 130 $ (USD) et abritait une unité de lecture optique (image n ° 4) avec une carte d'interface USB, permettant l'utilisation de disques DataPlay comme d'autres supports optiques inscriptibles par l'utilisateur final (par exemple , CD-R). Les autres produits étaient l'iriver IDP-100 et le MTV Video Device "MTV FLIP", qui abritaient tous deux le modèle basé sur le prototype (image n ° 2). Les disques Dataplay ont d'abord été proposés comme une alternative peu coûteuse aux cartes mémoire, qui coûte 3 USD par mégaoctet. Les disques Dataplay vierges, en comparaison, contiendraient 500 mégaoctets de données à 10 USD par disque. Ils devraient également avoir une durée de vie de 100 ans. Les disques seraient en polycarbonate, tout comme les CD, mais n'auraient qu'une épaisseur de 0,6 mm, comme la moitié d'un DVD. (Les DVD sont constitués de deux moitiés qui sont collées à l'aide de colle ; généralement un seul (côté) contient des données) Les disques Dataplay réinscriptibles seraient similaires aux CD, utilisant un alliage à changement de phase protégé par une couche d'oxyde de silicium. Les disques Dataplay maîtrisés (répliqués) combineraient à la fois des fosses et des terres pour stocker des données maîtrisées, et des rainures contenant une fréquence d'oscillation pour stocker des données réinscriptibles. Tout comme sur les CD, la fréquence d'oscillation stockerait les données temporelles, pour positionner précisément le laser sur le disque. Il comporte deux zones réinscriptibles : une pour les données utilisateur et l'autre pour les données cryptées, cette dernière contenant les clés de décryptage nécessaires pour déverrouiller le contenu supplémentaire. Ils ont également une zone de coupe en rafale pour identifier de manière unique chaque disque. Les jeux de données peuvent transférer des données à 1 mégaoctet par seconde. Autres noms de marque : DaTARIUS DPHI Dataplay
DataPlow SAN_File_System/Système de fichiers DataPlow SAN :
Le système de fichiers SAN (SFS) est un système de fichiers en cluster hautes performances créé par la société DataPlow. SFS permet un accès rapide aux fichiers partagés situés sur des périphériques de stockage partagés connectés au réseau de stockage (SAN). SFS utilise les transferts de données à grande vitesse et évolutifs inhérents aux réseaux de stockage et est un système de fichiers à usage général pour une grande variété d'environnements, y compris l'informatique scientifique, la finance, la santé, le divertissement, la défense, la diffusion et l'aérospatiale.
DataPoint, Inc/DataPoint, Inc :
DataPoint, Inc est un centre de données américain (colocation) et un fournisseur de services de réseau de données gérés, situé à Baltimore, Maryland, États-Unis. C'est l'une des plus grandes sociétés de cloud computing, de gestion de réseau et d'infrastructure en tant que service (IaaS) du Maryland.
DataRails/DataRails :
Datarails est une société multinationale de développement de logiciels basée à New York. Il propose des plateformes de planification et d'analyse financières (FP&A) pour les utilisateurs de Microsoft Excel.
DataRank/DataRank :
DataRank était une société américaine basée à Fayetteville, Arkansas, spécialisée dans la fourniture aux entreprises d'outils d'analyse des conversations sur leurs marques et leurs concurrents. DataRank a été fondée en 2011 et est diplômée de l'accélérateur de semences Y Combinator en 2013.
Lecteur de données/Lecteur de données :
Dans ADO.NET, un DataReader est une large catégorie d'objets utilisés pour lire séquentiellement des données à partir d'une source de données. Les DataReaders fournissent un moyen très efficace d'accéder aux données et peuvent être considérés comme un curseur Firehose d'ASP Classic, sauf qu'aucun curseur côté serveur n'est utilisé. Un DataReader analyse un flux de données tabulaires à partir de Microsoft SQL Server et d'autres méthodes de récupération de données à partir d'autres sources. Un DataReader est généralement accompagné d'un objet Command qui contient la requête, éventuellement des paramètres, et l'objet de connexion sur lequel exécuter la requête.
DataSage/DataSage :
DataSage, Inc. était une société basée à Reading, dans le Massachusetts, qui proposait une suite de logiciels d'exploration de données, de personnalisation, de parcours de navigation et de prévision. Fondée en 1997, DataSage a été rachetée par Vignette Corporation en 2000.
DataScene/DataScene :
DataScene est un progiciel scientifique de création de graphiques, d'animation, d'analyse de données et de surveillance des données en temps réel. Il a été développé avec la technologie Common Language Infrastructure et la bibliothèque graphique GDI+. Avec les deux moteurs Common Language Runtime - les frameworks .Net et Mono - DataScene fonctionne sur tous les principaux systèmes d'exploitation. Avec DataScene, l'utilisateur peut tracer 39 types de graphiques 2D et 3D (par exemple, graphique en aires, graphique à barres, graphique en boîte à moustaches, graphique à secteurs, graphique linéaire, graphique d'histogramme, graphique de surface, graphique polaire, graphique de chute d'eau, etc.), manipuler, imprimer et exporter des graphiques dans différents formats (par exemple, Bitmap, WMF/EMF, JPEG, PNG, GIF, TIFF, PostScript et PDF), analyser des données avec différentes méthodes mathématiques (ajustement de courbes, calcul de statique, FFT, etc.), créer des animations graphiques pour les présentations (par exemple avec PowerPoint), les cours et les pages Web, et surveiller et représenter graphiquement les données en temps réel.
DataSpii/DataSpii :
DataSpii (prononcé data-spy) est une fuite qui a directement compromis les données privées de pas moins de 4 millions d'utilisateurs de Chrome et Firefox via au moins huit extensions de navigateur. Les huit extensions de navigateur comprenaient Hover Zoom, SpeakIt!, SuperZoom, SaveFrom.net Helper, FairShare Unlock, PanelMeasurement, Branded Surveys et Panel Community Surveys. Les données privées comprenaient des informations personnellement identifiables (PII), des informations sur l'entreprise (CI) et des informations gouvernementales (GI). DataSpii a eu un impact sur les réseaux Pentagone, Zoom, Bank of America, Sony, Kaiser Permanente, Apple, Facebook, Microsoft, Amazon, Symantec, FireEye, Trend Micro, Boeing, SpaceX et Palo Alto. Des informations hautement sensibles (par exemple, la topologie du réseau privé) associées à ces sociétés et agences ont été interceptées et envoyées à des entités étrangères. pour Internet." Les membres payants et gratuits de NA ont eu accès aux données divulguées. Lors de leur inscription à l'adhésion à NA, les membres ont ensuite eu accès aux données via un compte Google Analytics. DataSpii a divulgué des informations non expurgées liées aux dossiers médicaux, aux déclarations de revenus, à la localisation GPS, à l'itinéraire de voyage, à la généalogie, aux noms d'utilisateur, aux mots de passe, aux cartes de crédit, aux profils génétiques, aux mémos d'entreprise, aux tâches des employés, aux clés API, au code source propriétaire, à l'environnement LAN, à l'accès au pare-feu codes, secrets propriétaires, matériaux opérationnels et vulnérabilités de type « zero-day ». DataSpii a été découvert et élucidé par le chercheur en cybersécurité Sam Jadali. En demandant des données pour un seul domaine via le service NA, Jadali a pu observer sur quoi travaillaient les membres du personnel de milliers d'entreprises en temps quasi réel. Le site Web de NA a déclaré avoir collecté des données auprès de millions d'utilisateurs opt-in. Jadali, ainsi que des journalistes d'Ars Technica et du Washington Post, ont interviewé des utilisateurs concernés, y compris des particuliers et de grandes entreprises. Selon les entretiens, les utilisateurs impactés n'ont pas consenti à une telle collecte.
DataSplice/DataSplice :
DataSplice, LLC est une société de logiciels mobiles basée à Fort Collins, dans le Colorado, qui propose des applications mobiles qui étendent les systèmes d'entreprise, notamment des progiciels pour la gestion des actifs d'entreprise (EAM) et des systèmes informatisés de gestion de la maintenance (GMAO). Le logiciel fournit une interface entre ces systèmes et les ordinateurs de poche, les smartphones, les tablettes et les ordinateurs portables. Il peut également être utilisé sur un système de bureau en tant qu'interface unifiée/simplifiée pour plusieurs systèmes. Le logiciel proposé est un middleware mobile, mettant l'accent sur le système Maximo EAM d'IBM. Sa principale clientèle se concentre sur les services publics, le gaz/pétrole, la défense, l'aérospatiale et d'autres marchés qui utilisent des systèmes de gestion des services sur le terrain qui nécessitent un suivi, une gestion des actifs et une responsabilité réglementaire. DataSplice n'utilise pas de plate-forme logicielle propriétaire, mais utilise plutôt l'infrastructure de langage commun (CLI) du framework Microsoft.NET ADO.NET, qui permet la connectivité à différents systèmes de base de données tels que MySQL et Oracle. Le système extensible se compose de trois composants, dont un client distant (pour une utilisation portable et/ou de bureau), un serveur qui communique avec l'EAM principal et un client d'administration pour configurer le système.
DataStax/DataStax :
DataStax, Inc. est une société de données en temps réel basée à Santa Clara, en Californie. Son produit Astra DB est une base de données cloud en tant que service basée sur Apache Cassandra. DataStax propose également DataStax Enterprise (DSE), une base de données sur site basée sur Apache Cassandra, et Astra Streaming, un service cloud de messagerie et de streaming d'événements basé sur Apache Pulsar. En juin 2022, la société comptait environ 800 clients répartis dans plus de 50 pays.
DataTAC/DataTAC :
DataTAC est une technologie de réseau de données sans fil développée à l'origine par Mobile Data International, qui a ensuite été acquise par Motorola et déployée aux États-Unis sous le nom de réseau ARDIS. DataTAC a également été commercialisé au milieu des années 1990 sous le nom de MobileData par Telecom Australia et est toujours utilisé par Bell Mobilité comme réseau de radiomessagerie au Canada. Le premier réseau public de données ouvert et mobile utilisant MDI DataTAC a été trouvé à Hong Kong sous le nom de Hutchison Mobile Data Limited (une filiale de Hutchison Telecom), où des services de données publics de bout en bout sont fournis aux entreprises, à FedEx et aux services d'informations mobiles grand public. ont également été proposés appelés MobileQuotes avec des informations financières, des actualités, des paris télévisés et des données boursières. DataTAC est une norme ouverte pour les communications de données sans fil point à point, similaire à Mobitex. Comme Mobitex, il est principalement utilisé dans les applications du marché vertical. L'un des premiers appareils DataTAC était la Newton Messaging Card, un téléavertisseur bidirectionnel connecté à une carte PC utilisant le réseau DataTAC. Les appareils BlackBerry d'origine, les RIM 850 et 857, utilisaient également le réseau DataTAC. En Amérique du Nord, DataTAC est généralement déployé dans la bande 800 MHz. DataTAC a également été déployé dans la même bande par Telecom Australia (maintenant Telstra). Le réseau DataTAC fonctionne à des vitesses allant jusqu'à 19,2 kbit/s, ce qui n'est pas suffisant pour gérer la plupart des applications de données sans fil disponibles aujourd'hui. Le réseau exploite des canaux de 25 kHz dans les bandes de fréquences de 800 MHz. En raison des bandes de fréquences inférieures utilisées par DataTAC, la couverture à l'intérieur des bâtiments est généralement meilleure qu'avec les réseaux plus récents à fréquences plus élevées. Dans les années 1990, un groupe d'opérateurs de réseau DataTAC a été constitué par Motorola appelé Worldwide Wireless Data Networks Operators Group (WWDNOG) présidé par Shahram Mehraban, chef de produit du système DataTAC de Motorola.
DataTreasury/DonnéesTrésor :
DataTreasury, située à Plano, Texas, États-Unis, développe, acquiert et octroie des licences pour la capture et le stockage sécurisés d'images de chèques. En 2010, la société comptait 2 employés, environ 1 000 actionnaires et avait généré plus de 350 millions de dollars de revenus de licences au cours des quatre années précédentes. La société possède un portefeuille de brevets liés à ces technologies qu'elle applique. Plusieurs banques se sont installées et, en 2010, US Bank, Viewpointe (une société créée par certaines grandes banques et IBM pour stocker et récupérer des images numériques de chèques pour les grandes banques) Clearing House Payments Company et sa filiale, SVPCo, ont été reconnues coupables d'avoir enfreint Les brevets de DataTreasury. Il y a eu une controverse concernant la société. En 2004, le New York Times a qualifié DataTreasury de "société dont la seule activité, autre qu'un client, semble poursuivre d'autres sociétés". Le secteur bancaire a accusé les avocats de DataTreasury de pêche à la traîne des brevets et DataTreasury lui-même d'abuser du système des brevets en achetant les brevets qu'ils appliquent. La version du Sénat américain de la loi de 2007 sur la réforme des brevets (qui n'a jamais été promulguée) contenait un amendement, sollicité par les banques, conçu pour protéger les banques contre les litiges en contrefaçon de DataTreasury. D'autre part, en 2010, juste après que DataTreasury ait remporté son premier procès, Claudio Ballard, qui a fondé la société, a été nommé inventeur de l'année.
DataVault/DataVault :
Le DataVault était le système de stockage de masse de Thinking Machines, stockant cinq gigaoctets de données, extensible à dix gigaoctets avec des taux de transfert de 40 mégaoctets par seconde. Huit DataVaults pouvaient fonctionner en parallèle pour un taux de transfert de données combiné de 320 mégaoctets par seconde pour un maximum de 80 gigaoctets de données. Chaque unité DataVault stockait ses données dans une matrice de 39 disques durs individuels avec des données réparties sur les disques. Chaque bloc de données de 64 bits reçu du bus d'E/S était divisé en deux mots de 32 bits. Après avoir vérifié la parité, le contrôleur DataVault a ajouté 7 bits de code de correction d'erreur (ECC) et stocké les 39 bits résultants sur 39 disques individuels. Une panne ultérieure de l'un des 39 disques n'altérerait pas la lecture des données, car le code ECC permet de détecter et de corriger toute erreur sur un seul bit. Bien que le fonctionnement soit possible avec un seul disque défectueux, trois disques de rechange étaient disponibles pour remplacer unités jusqu'à ce qu'elles soient réparées. Les codes ECC permettent une récupération à 100 % des données sur n'importe quel disque défaillant, ce qui permet de reconstruire et d'écrire une nouvelle copie de ces données sur le disque de remplacement. Une fois cette récupération terminée, la base de données est considérée comme réparée. Dans la terminologie actuelle, cela serait étiqueté un sous-système RAID-2. Cependant, ces unités ont été expédiées avant la formation de l'étiquette RAID. Le DataVault était un exemple de conception industrielle inhabituelle. Au lieu de la boîte rectiligne habituelle, l'armoire avait une courbe douce qui la faisait ressembler à un bureau d'information ou à un poste de barman.
DataViva/DataViva :
DataViva est un moteur de visualisation d'informations créé par le Bureau des priorités stratégiques du gouvernement de Minas Gerais. DataViva met à disposition des données officielles sur les exportations, les industries, les lieux et les professions pour l'ensemble du Brésil via huit applications et plus de 100 millions de visualisations possibles. Le premier ensemble de données - également disponible sur ALICEWEB - est fourni par le MDIC (Ministère du développement, de l'industrie et du commerce extérieur) / SECEX (Secrétariat du commerce extérieur), une institution officielle du gouvernement du Brésil et montre les statistiques du commerce extérieur pour tous les exportateurs. communes du pays. L'autre base de données, fournie par le Ministério do Trabalho e Emprego (MTE - Ministère du travail et de l'emploi), contient des informations sur toutes les industries et professions au Brésil (RAIS - Rapport annuel d'informations sociales). La plate-forme se compose de huit applications principales, chacune permettant différentes manières de visualiser les données disponibles. Certaines applications sont descriptives, c'est-à-dire qu'elles présentent des données agrégées à différents niveaux de manière simple et comparative, comme le Treemapping. D'autres sont prescriptifs, utilisant des calculs qui permettent une visualisation analytique des données, basés sur des théories telles que l'Espace Produit. Toutes les applications sont générées à l'aide de D3plus, une bibliothèque JavaScript open source construite sur D3.js par Alexander Simoes et Dave Landry. Inspiré de l'Observatoire de la complexité économique, DataViva est un outil de données ouvertes, open-source et gratuit. Il a été développé en partenariat avec Datawheel, cofondé par le professeur César Hidalgo du MIT Media Lab, et est maintenu par le gouvernement du Minas Gerais.
DataViz/DataViz :
DataViz, Inc. est une société de logiciels située à Westport, Connecticut. Ils vendent actuellement Docs To Go, Passwords Plus et ont récemment publié DailyBalance. La société est en activité depuis 1984 et vendait auparavant des applications telles que MacLinkPlus, RoadSync et Conversions Plus. Le 8 septembre 2010, elle a vendu sa suite bureautique Documents To Go et d'autres actifs à Research In Motion pour 50 millions de dollars.
DataWorks Plus/DataWorks Plus :
DataWorks Plus LLC est un intégrateur de systèmes biométriques privé basé à Greenville, en Caroline du Sud. La société a démarré en 2000 et se concentrait à l'origine sur la gestion des mugshots, ajoutant la reconnaissance faciale à partir de 2005. Brad Bylenga est le PDG et Todd Pastorini est le vice-président exécutif et directeur général.
Données %26_Analysis_Center_for_Software/Centre de données et d'analyse pour les logiciels :
Le Data & Analysis Center for Software (DACS) était l'un des nombreux centres d'analyse de l'information (IAC) parrainés par le Département de la défense des États-Unis (DoD), administré par le Centre d'information technique de la défense (DTIC). Il était géré par l'US Air Force Research Laboratory (AFRL) et exploité par Quanterion Solutions Inc. dans le cadre d'un contrat à long terme avec le DoD. Le site Web n'est plus disponible et a été remplacé par https://www.csiac.org/. DACS est agréé pour collecter, analyser et diffuser des informations relatives au domaine logiciel à la communauté DoD Software Engineering, qui comprend également des sous-traitants de la Défense et la communauté universitaire. DACS sert de courtier en informations, identifiant les ressources qui existent au sein de la communauté mondiale et mettant ces ressources à la disposition de la communauté par le biais de lieux de diffusion tels qu'un site Web riche en informations, des rapports techniques, des revues techniques et une variété de services offerts gratuitement. De plus, le DACS, comme tous les IAC gérés par le DTIC, est un véhicule contractuel qui sert le DoD en accélérant le processus permettant aux composants du DoD d'acquérir les services de fournisseurs commerciaux et universitaires pour accomplir des tâches de domaine technique.
Données %26_Knowledge_Engineering/Ingénierie des données et des connaissances :
Data & Knowledge Engineering est une revue académique mensuelle à comité de lecture dans le domaine des systèmes de bases de données et des systèmes de base de connaissances. Il est publié par Elsevier et a été créé en 1985. Le rédacteur en chef est PP Chen (Louisiana State University).
Données %26_Marketing_Association/Association des données et du marketing :
La Data & Marketing Association (anciennement Direct Marketing Association), également connue sous le nom de DMA, est une organisation commerciale pour les spécialistes du marketing. En 2017, leur site Web a déclaré "Oui, il y a 100 ans, nous étions la Direct Mail Marketing Association, puis la Direct Marketing Association. la moitié des entreprises du Fortune 100, ainsi que de nombreuses organisations à but non lucratif. Le DMA cherche à faire progresser toutes les formes de marketing direct. Une annonce conjointe à la mi-2018 avec l'Association of National Advertisers, déclarée comme "à terminer à compter du 1er juillet 2018" et ayant pour objectif "la plus grande association commerciale aux États-Unis consacrée à servir tous les aspects du marketing" n'avait pas matérialisé à la date prévue. Depuis le 1er juillet 2019, DMA est devenue la branche Data, Marketing & Analytics de l'ANA.
Données (Euclide)/Données (Euclide) :
Data (grec : Δεδομένα, Dedomena) est une œuvre d'Euclide. Il traite de la nature et des implications des informations "données" dans les problèmes géométriques. Le sujet est étroitement lié aux quatre premiers livres des Éléments d'Euclide.
Données (Star_Trek)/Données (Star Trek) :
Data est un personnage fictif de la franchise Star Trek. Il apparaît dans les séries télévisées Star Trek : The Next Generation (TNG) et Star Trek : Picard ; et les longs métrages Star Trek Generations (1994), Star Trek: First Contact (1996), Star Trek: Insurrection (1998) et Star Trek: Nemesis (2002). Les données sont représentées par l'acteur Brent Spiner. Les données ont été trouvées par Starfleet en 2338. Il était le seul survivant sur Omicron Theta dans les décombres d'une colonie laissée après une attaque de l'Entité Cristalline. Il est une forme de vie synthétique dotée d'une intelligence artificielle, conçue et construite par le docteur Noonien Soong à son image (également représentée par Spiner). Data est un androïde mâle conscient de lui-même, conscient, sensible et anatomiquement entièrement fonctionnel qui sert de deuxième officier et de chef des opérations à bord du vaisseau spatial de la Fédération USS Enterprise-D et plus tard de l'USS Enterprise-E. Son cerveau positronique lui permet des capacités de calcul impressionnantes. Il a connu des difficultés continues au cours des premières années de sa vie pour comprendre divers aspects du comportement humain et était incapable de ressentir des émotions ou de comprendre certaines particularités humaines, l'inspirant à lutter pour sa propre humanité. Cet objectif a finalement conduit à l'ajout d'une "puce émotionnelle", créée par Soong, au réseau positronique de Data. Bien que les efforts de Data pour accroître son humanité et son désir d'expérience émotionnelle humaine soient un élément important de l'intrigue (et une source d'humour) tout au long de la série, il fait constamment preuve d'un sens nuancé de la sagesse, de la sensibilité et de la curiosité, suscitant le respect de ses pairs et collègues. Les données sont à bien des égards un successeur du Spock original de Star Trek (Leonard Nimoy), en ce sens que le personnage a des capacités mentales supérieures et offre une perspective « extérieure » sur l'humanité.
Données (informatiques)/Données (informatiques) :
En informatique, les données (traitées au singulier, au pluriel ou comme un nom de masse) sont toute séquence d'un ou plusieurs symboles ; datum est un symbole unique de données. Les données nécessitent une interprétation pour devenir des informations. Les données numériques sont des données qui sont représentées à l'aide du système de nombre binaire de uns (1) et de zéros (0), au lieu d'une représentation analogique. Dans les systèmes informatiques modernes (après 1960), toutes les données sont numériques. Les données existent dans trois états : données au repos, données en transit et données en cours d'utilisation. Les données dans un ordinateur, dans la plupart des cas, se déplacent en tant que données parallèles. Les données se déplaçant vers ou depuis un ordinateur, dans la plupart des cas, se déplacent sous forme de données en série. Les données provenant d'un dispositif analogique, tel qu'un capteur de température, peuvent être converties en numérique à l'aide d'un convertisseur analogique-numérique. Les données représentant des quantités, des caractères ou des symboles sur lesquels des opérations sont effectuées par un ordinateur sont stockées et enregistrées sur des supports d'enregistrement magnétiques, optiques, électroniques ou mécaniques, et transmises sous forme de signaux électriques ou optiques numériques. Les données entrent et sortent des ordinateurs via des périphériques. Les éléments de mémoire physique de l'ordinateur consistent en une adresse et un octet/mot de stockage de données. Les données numériques sont souvent stockées dans des bases de données relationnelles, telles que des tables ou des bases de données SQL, et peuvent généralement être représentées sous forme de paires clé/valeur abstraites. Les données peuvent être organisées dans de nombreux types de structures de données, notamment des tableaux, des graphiques et des objets. Les structures de données peuvent stocker des données de nombreux types différents, y compris des nombres, des chaînes et même d'autres structures de données.
Données (homonymie)/Données (homonymie) :
Les données sont des informations non interprétées. Données ou DONNÉES peuvent également faire référence à :
Données (papillon)/Données (papillon) :
Data est un genre de papillons de nuit de la famille des Noctuidae.
Données (mot)/Données (mot) :
Le mot données est le plus souvent utilisé comme nom de masse singulier dans l'usage quotidien éduqué. Cependant, en raison de l'histoire du mot, une controverse considérable a existé sur la question de savoir s'il doit être considéré comme un nom indénombrable utilisé avec des verbes conjugués au singulier, ou doit être traité comme le pluriel de la donnée désormais rarement utilisée.
Accès aux données_Langue/Langue d'accès aux données :
Le langage d'accès aux données pour Macintosh, ou simplement DAL, était un langage de type SQL et une interface de programmation d'applications lancés par Apple Computer en 1990 pour fournir un accès client/serveur unifié aux systèmes de gestion de bases de données. Il était connu pour ses performances médiocres et ses coûts élevés, ce qu'Apple n'a pas fait pour remédier au cours de sa courte durée de vie, avant d'être vendu en 1994. DAL est utilisé comme dialecte SQL natif du serveur SQL PrimeBase, ainsi que le défunt Maître d'hôtel SQL.
Gestionnaire_d'accès aux données/Gestionnaire d'accès aux données :
Le gestionnaire d'accès aux données (DAM) était une API d'accès à la base de données pour le Mac OS classique, introduit en 1991 en tant qu'extension du système 7. De conception similaire à ODBC, le DAM a été peu utilisé et a finalement été abandonné à la fin des années 1990. Seule une poignée de produits l'ont jamais utilisé, bien qu'il ait été utilisé pour des logiciels de démonstration extrêmement impressionnants au début des années 1990. Les versions plus modernes de Mac OS classique et de macOS utilisent plutôt ODBC pour ce rôle.
Loi sur les données/Loi sur les données :
Data Act peut faire référence à : Data Act (Union européenne), 2021 Data Act (Suède), 1973 Digital Accountability and Transparency Act of 2014, États-Unis
Loi sur les données_(Union_européenne)/Loi sur les données (Union européenne) :
La loi sur les données est une proposition législative de l'Union européenne qui vise à créer un cadre qui encouragera le partage de données. La Commission européenne devait présenter officiellement la loi au cours du quatrième trimestre 2021. Néanmoins, la proposition a été officiellement publiée le 23 février 2022. Des normes européennes (harmonisées) peuvent être rédigées par les organisations européennes de normalisation (ESO) à la suite de demandes de normalisation de la Commission européenne afin de soutenir l'application de l'exigence selon laquelle «les produits doivent être conçus et fabriqués, et les services connexes doivent être fournis, de telle manière que les données générées par leur utilisation soient, par défaut, facilement, en toute sécurité et, le cas échéant et approprié, directement accessible à l'utilisateur ». En outre, les normes européennes et les spécifications techniques au sens de l'article II du règlement (UE) 1025/2012 sur la normalisation européenne peuvent également soutenir la délivrance de contrats "types" ou la transparence sur la manière dont les données seront utilisées. Un projet d'acte proposé avait déjà fait l'objet d'une fuite le 2 février 2022 et avait été rapidement contestée par l'industrie. la protection juridique des bases de données (la directive sur les bases de données). : Chapitre X La loi européenne sur les données ne s'appliquera pas au secteur financier en Suisse.
Loi sur les données_(Suède)/Loi sur les données (Suède) :
La loi sur les données ( suédoise : Datalagen ) est la première loi nationale sur la protection des données au monde et a été promulguée en Suède le 11 mai 1973. Elle est entrée en vigueur le 1er juillet 1974 et exigeait des licences de l' Autorité suédoise de protection des données pour les systèmes d'information traitant des données personnelles.
Âge des données/Âge des données :
Data Age était une société de jeux vidéo basée en Californie qui a développé et publié des titres pour la plate-forme Atari 2600 au milieu des années 1980. Parmi leurs titres les plus connus figuraient Journey Escape (un lien avec le groupe Journey) et Frankenstein's Monster, tous deux publiés en 1982. La société a été fondée par Martin Meeker et quatre autres designers. L'entreprise employait 35 personnes en décembre 1982.
Analyse de données_Expressions/Expressions d'analyse de données :
Data Analysis Expressions (DAX) est le langage de formule et de requête natif pour les modèles tabulaires Microsoft PowerPivot, Power BI Desktop et SQL Server Analysis Services (SSAS). DAX inclut certaines des fonctions utilisées dans les formules Excel avec des fonctions supplémentaires conçues pour fonctionner avec des données relationnelles et effectuer une agrégation dynamique. Il s'agit en partie d'une évolution du langage d'expression multidimensionnelle (MDX) développé par Microsoft pour les modèles multidimensionnels Analysis Services (souvent appelés cubes) combinés à des fonctions de formule Excel. Il est conçu pour être simple et facile à apprendre, tout en exposant la puissance et la flexibilité des modèles tabulaires PowerPivot et SSAS.
Data Analytics_Library/Bibliothèque d'analyse de données :
oneAPI Data Analytics Library (oneDAL ; anciennement Intel Data Analytics Acceleration Library ou Intel DAAL), est une bibliothèque de blocs de construction algorithmiques optimisés pour les étapes d'analyse de données les plus couramment associées à la résolution de problèmes de Big Data. La bibliothèque prend en charge les processeurs Intel et est disponible pour Windows, Systèmes d'exploitation Linux et macOS. La bibliothèque est conçue pour utiliser des plates-formes de données populaires telles que Hadoop, Spark, R et Matlab.
Données appliquées/Données appliquées :
Data Applied est un fournisseur de logiciels dont le siège est à Washington. Fondée par un groupe d'anciens employés de Microsoft, la société est spécialisée dans l'exploration de données, la visualisation de données et les environnements de veille économique.
Authentification des données_Algorithme/Algorithme d'authentification des données :
L'algorithme d'authentification de données (DAA) est une ancienne norme du gouvernement américain pour la production de codes d'authentification de messages cryptographiques. DAA est défini dans FIPS PUB 113, qui a été retiré le 1er septembre 2008. L'algorithme n'est pas considéré comme sûr selon les normes actuelles. Selon la norme, un code produit par le DAA est appelé un code d'authentification de données (DAC). La chaîne d'algorithmes crypte les données, le dernier bloc de chiffrement étant tronqué et utilisé comme DAC. Le DAA est équivalent à l'algorithme ISO/IEC 9797-1 MAC 1, ou CBC-MAC, avec DES comme chiffrement sous-jacent, tronqué entre 24 et 56 bits (inclus).
Axe de données/Essieu de données :
Data Axle, anciennement Infogroup, est un fournisseur de services de données, de technologie et de marketing pour les vendeurs, les spécialistes du marketing et les professionnels.
Data Base_Task_Group/Groupe de tâches de la base de données :
Le Data Base Task Group (DBTG) était un groupe de travail fondé en 1965 (initialement appelé List Processing Task Force puis renommé DBTG en 1967) par le Cobol Committee, anciennement Programming Language Committee, de la Conference of Data Systems Language (CODASYL ). Le DBTG était présidé par William Olle de RCA. En avril 1971, le DBTG a publié un rapport contenant les spécifications d'un langage de manipulation de données (DML) et d'un langage de définition de données (DDL) pour la normalisation du modèle de base de données réseau. Les premières propositions DBTG avaient déjà été publiées en 1969. La spécification a ensuite été modifiée et développée dans divers comités et publiée par d'autres rapports en 1973 et 1978. La spécification est souvent appelée modèle de base de données DBTG ou modèle de base de données CODASYL. Outre le modèle de données, de nombreux concepts de base de la terminologie des bases de données ont été introduits par ce groupe, notamment les concepts de schéma et de sous-schéma.
Données Becker/Données Becker :
Data Becker GmbH & Co. KG était un éditeur allemand de livres informatiques et une société de logiciels et d'accessoires informatiques basée à Düsseldorf. La société a cessé ses activités en mars 2014.
Data Cap_Integrity_Act/Data Cap Integrity Act :
Le Data Cap Integrity Act, également appelé Data Measurement Integrity Act, est un projet de loi présenté au Sénat des États-Unis par le sénateur Ron Wyden. Le projet de loi exigerait que les fournisseurs de services Internet qui ont des plafonds de bande passante n'appliquent des plafonds au service que pour réduire la congestion du réseau plutôt que de décourager l'utilisation d'Internet, comptabilisent également toutes les utilisations de données dans les plafonds, quelle que soit leur source ou leur contenu, et utilisent une méthode standard de mesure des données. utilisation, qui doit être définie par la Federal Communications Commission (FCC). La FCC serait également tenue de fournir un logiciel permettant aux utilisateurs de surveiller leur utilisation de la bande passante.
Carte de données/Carte de données :
Data Carddass (デ ー タ カ ー ド ダ ス, Dēta Kādodasu ) est une série de machines de jeux d'arcade japonaises créées par Bandai , qui se concentrent largement sur l'utilisation numérique des cartes à collectionner. Il s'agit d'une extension de la série de cartes à collectionner Carddass de Bandai, qui permet aux joueurs d'utiliser des cartes spéciales pour interagir avec les jeux vidéo d'arcade. Beaucoup de ces machines tournent autour de diverses franchises d'anime et de tokusatsu appartenant à Bandai. Les machines ont commencé à sortir dans les arcades japonaises à partir de mars 2005. Bandai avait vendu 100 000 machines d'arcade Data Carddass en mars 2012. Pour une utilisation avec les machines, plus de 2,4 milliards de cartes Data Cardass avaient été vendues en 2017, passant à 2,749 milliards de cartes Data Carddass vendues. à partir de mars 2021.
Détection de porteuse de données/Détection de porteuse de données :
Data Carrier Detect, abrégé en DCD, ou alternativement Carrier Detect abrégé en CD, est un signal de contrôle présent à l'intérieur d'un câble de communication série RS-232 qui va entre un ordinateur et un autre appareil, tel qu'un modem. Ce signal est un simple bit d'état "haut/bas" qui est envoyé "de DCE à DTE", ou dans un scénario typique, du périphérique à l'ordinateur. Il est présent sur pratiquement tous les ports série de PC - broche 1 d'un port série à neuf broches (DE9) ou broche 8 sur un port à 25 broches (DB25). Son objectif varie en fonction de l'appareil connecté, mais la signification la plus typique est d'indiquer quand un modem est connecté à un autre modem distant via des lignes téléphoniques. Le mot "porteuse" fait référence au signal de porteuse analogique généré par un modem, qui est modulé pour transporter les données. Sur un modem de données, la perte de la porteuse équivaut à la fin de la connexion. Tout comme le signal Ring Indicator, sur le port série d'un PC, les modifications de l'état du signal DCD peuvent générer une interruption matérielle qui peut être capturée par le processeur à chaque fois que le signal DCD change d'état, empêchant le PC d'avoir à interroger constamment la broche.
Catalogue de données_Vocabulaire/Vocabulaire du catalogue de données :
Data Catalog Vocabulary (DCAT) est un vocabulaire RDF conçu pour faciliter l'interopérabilité entre les catalogues de données publiés sur le Web. En utilisant DCAT pour décrire les ensembles de données dans les catalogues, les éditeurs augmentent la possibilité de découverte et permettent aux applications de consommer les métadonnées de plusieurs catalogues. Il permet la publication décentralisée de catalogues et facilite la recherche fédérée d'ensembles de données dans les catalogues. Les métadonnées DCAT agrégées peuvent servir de fichier manifeste pour faciliter la préservation numérique. Le vocabulaire DCAT original a été développé au DERI, sur une idée de Vassilios Peristeras et de son étudiant en master Fadi Maali, ainsi que de Richard Cyganiak. Le vocabulaire a été développé par le groupe d'intérêt eGov du W3C, puis introduit sur la piste de recommandation par le groupe de travail "Government Linked Data" du W3C. DCAT est la base des descriptions d'ensembles de données ouvertes dans le secteur public de l'Union européenne et a été adapté par le programme ISA de la Commission européenne. DCAT v2 a été publié en tant que recommandation W3C 2020-02-04. La version 2 ajoute la prise en charge du catalogage des services de données ou des API, et offre une meilleure prise en charge de l'expression des relations entre les ensembles de données. Un alignement sur Schema.org est inclus. DCAT étant extensible, des extensions plus spécifiques ont été créées dans les domaines statistiques et géodonnées. Programme de modèles de données.
Data Center_Manageability_Interface/Interface de gestion du centre de données :
L'interface de gestion du centre de données (DCMI) est une norme de gestion du système de centre de données basée sur l'interface de gestion de la plate-forme intelligente (IPMI) mais conçue pour être plus adaptée à la gestion du centre de données : elle utilise les interfaces définies dans IPMI, mais minimise le nombre d'interfaces optionnelles. et inclut le contrôle du plafonnement de la puissance, entre autres différences. La spécification DCMI a été développée par Intel et publiée pour la première fois en 2008.
Data Center_Specialist_Group/Groupe de spécialistes du centre de données :
Le groupe de spécialistes des centres de données (en abrégé DCSG) est un groupe de spécialistes (SG) de la British Computer Society (BCS). Il a été fondé par Zahl Limbuwala, (également PDG de Romonet) et a tenu sa première réunion en 2007. Le Data Center SG a l'intention de sensibiliser et de faire connaître les problèmes, les opportunités et les meilleures pratiques dans le domaine des centres de données, renforçant ainsi la crédibilité. en tant qu'organisme d'expertise pouvant servir de source d'informations faisant autorité. Il vise à fournir une voie pour l'évaluation et la diffusion non commerciales des nouvelles technologies et pratiques et à permettre l'amélioration de la communication des exigences et des capacités entre les professionnels des centres de données et leurs utilisateurs. Le groupe organise chaque année un certain nombre d'événements et de réunions réguliers et ponctuels pour couvrir des sujets pertinents et permettre des discussions et des débats sur des sujets liés aux centres de données pour ses membres, en travaillant également avec d'autres groupes et branches de spécialistes BCS pour fertiliser les connaissances et l'expérience. . Elle a publié plusieurs Livres Blancs qui sont mis à disposition sur le site Internet du Groupe.
Schéma de codage des données/Schéma de codage des données :
Le schéma de codage des données est un champ d'un octet dans les messages courts (SM) et les messages de diffusion cellulaire (CB) qui contient des informations de base sur la manière dont le combiné destinataire doit traiter le message reçu. Les informations comprennent : le jeu de caractères ou le codage du message, qui détermine le codage du message les données de l'utilisateur la classe du message, qui détermine à quel composant de la station mobile (MS) ou de l'équipement utilisateur (UE) le message doit être transmis la demande à supprimer automatiquement le message après lecture l'état des indicateurs indiquant la présence de messages vocaux, fax, e-mail ou autres non lus l'indication que le contenu du message est compressé la langue du message de diffusion cellulaire Le champ est décrit dans 3GPP 23.040 et 3GPP 23.038 sous le nom TP-DCS.
Contrôle des données_%26_Systèmes/Contrôle des données et systèmes :
Data Control & Systems était une société créée par Rob Nursten au Zimbabwe en 1994 et est devenue commercialement opérationnelle en 1995. La société était à l'origine une filiale d'UUNet Internet Africa qu'il a créée en Afrique du Sud avec la demande de services Internet.
Data Control_Block/Bloc de contrôle des données :
Dans les systèmes d'exploitation mainframe IBM, tels que OS/360, MVS, z/OS, un bloc de contrôle de données (DCB) est une description d'un ensemble de données dans un programme. Un DCB est codé dans les programmes Assembleur à l'aide de l'instruction macro DCB (qui se développe en un grand nombre d'instructions "définir une constante"). Les programmeurs de langage de haut niveau utilisent des routines de bibliothèque contenant des DCB. Un DCB est l'un des nombreux blocs de contrôle utilisés dans ces systèmes d'exploitation. Un bloc de contrôle est une zone de données avec une structure prédéfinie, très similaire à une structure C, mais généralement uniquement liée aux fonctions du système. Un DCB peut être comparé à une structure FILE en C, mais il est beaucoup plus complexe, offrant beaucoup plus d'options pour diverses méthodes d'accès. Le bloc de contrôle agissait comme l'interface de programmation d'application entre Logical IOCS et le programme d'application et était généralement défini dans (et résidait dans) le programme d'application lui-même. Les adresses des sous-routines d'E/S seraient résolues lors d'une phase de linkedit après compilation ou bien insérées dynamiquement au moment de l'OPEN. Le bloc de contrôle équivalent pour les systèmes d'exploitation IBM DOS/360, DOS/VSE et z/VSE est un "DTF" (Définir le fichier)[1]
Barre de données/Barre de données :
Data Darbar (également orthographié Data Durbar ; ourdou : داتا دربار), situé dans la ville de Lahore (Punjab, Pakistan), est le plus grand sanctuaire soufi d'Asie du Sud. Il a été construit pour abriter les restes d'Ali Hujwiri, communément appelé Data Ganj Baksh, un saint soufi de Ghazni dans l'actuel Afghanistan, qui aurait vécu sur le site au 11ème siècle de notre ère. Le site est considéré comme le lieu le plus sacré de Lahore et attire jusqu'à un million de visiteurs à son festival annuel de l'urs.
Système de conception de données/Système de conception de données :
Data Design System AS (DDS) fournit à l'industrie de la construction des outils logiciels pour la modélisation des informations du bâtiment (BIM). La société a été fondée en 1984 à Stavanger, en Norvège. En 2021, la société a fusionné avec Graphisoft. dans le groupe Nemetschek. DDS est un membre actif de buildingSMART. DDS a son siège social à Stavanger, en Norvège. D'autres emplacements incluent Oslo et Bergen (tous deux en Norvège). DDS possède plusieurs filiales, parmi lesquelles DDS Building Innovation AS et Data Design System GmbH. La principale gamme de produits est constituée d'outils pour les ingénieurs des services du bâtiment/MEP (mécanique, électricité, plomberie). La société distribue DDScad MEP, principalement en Europe continentale depuis son bureau d'Ascheberg, en Allemagne. La société développe également des outils logiciels pour la conception et la réalisation de bâtiments à ossature bois, DDScad Architect & Construction, depuis son bureau de Stavanger.
Bureau de données/Bureau de données :
Data Desk est un logiciel d'analyse de données visuelles, d'exploration de données visuelles et de statistiques. Il effectue une analyse exploratoire des données (EDA) et des analyses statistiques standard au moyen d'affichages de données graphiques liés dynamiquement qui mettent à jour tout changement simultanément.
Data Discman/Data Discman :
Le Data Discman est un lecteur de livres électroniques introduit sur le marché occidental à la fin de 1991 ou au début de 1992 par Sony Corporation. Il a été commercialisé aux États-Unis auprès des étudiants et des voyageurs internationaux, mais a eu peu de succès en dehors du Japon. Le nom de produit Discman avait été initialement appliqué à la gamme de lecteurs de CD portables de Sony tels que le Sony Discman D-50, sorti pour la première fois en 1984. Le Data Discman a été conçu pour permettre un accès rapide aux informations de référence électroniques sur un disque préenregistré. Les termes de recherche ont été saisis à l'aide d'un clavier de style QWERTY et ont utilisé les touches "Oui" et "Non". Un modèle typique de Data Discman a un petit écran LCD à niveaux de gris basse résolution (256x200 au début, les modèles ultérieurs auraient jusqu'à 320x240 et en couleur) , un lecteur de CD (Mini CD ou pleine taille) et un ordinateur à faible consommation. Les premières versions de l'appareil étaient incapables de lire des CD audio. Les logiciels étaient préenregistrés et comportaient généralement des encyclopédies, des dictionnaires de langues étrangères et des romans. Il a généralement été créé à l'aide du Sony Electronic Book Authoring System (SEBAS). Un Data Discman DD-1EX se trouve dans la collection permanente du Victoria and Albert Museum et est actuellement exposé dans la 20th Century Gallery du V&A. Ce premier modèle n'incluait pas la possibilité de jouer du son. Un modèle mis à jour, le DD-10EX, est sorti en 1992 ou 1993. Le manuel d'accompagnement donne une date de copyright de 1992. Contrairement au DD-1EX, le DD-10EX avait également la possibilité de lire des fichiers audio. La version britannique était accompagnée d'un disque contenant le Thomson Electronic Directory d'avril 1992, ainsi qu'un autre contenant le livre de conversation Pocket Interpreter en 5 langues pour les voyageurs. Un DD-10EX a été inclus dans une exposition intitulée The Book and Beyond: Electronic Publishing and the Art of the Book, tenue au Victoria and Albert Museum, Londres, d'avril à octobre 1995. L'exposition comprenait également un CD-ROM conçu pour être joué sur le Data Discman, intitulé The Library of the Future et publié en 1993. lecteurs de livres électroniques ultérieurs tels que le Kindle d'Amazon.
Data Discovery_and_Query_Builder/Data Discovery et Query Builder :
Data Discovery and Query Builder (DDQB) est une technologie d'abstraction de données, développée par IBM, qui permet aux utilisateurs de récupérer des informations à partir d'un entrepôt de données, en termes de domaine d'expertise spécifique de l'utilisateur au lieu de SQL. DDQB sert l'utilisateur via une interface utilisateur graphique basée sur le Web et un modèle d'abstraction de données configurable (DAM), qui contient à la fois une compréhension du domaine de connaissances de l'utilisateur et de la base de données en dessous. DDQB utilise un ensemble d'outils de personnalisation basés sur Eclipse et peut être déployé en tant qu'ensemble de services Web.
Data Display_Debugger/Débogueur d'affichage des données :
Le débogueur d'affichage de données (GNU DDD) est une interface utilisateur graphique (utilisant la boîte à outils Motif) pour les débogueurs en ligne de commande tels que GDB, DBX, JDB, HP Wildebeest Debugger, XDB, le débogueur Perl, le débogueur Bash, le débogueur Python et le débogueur GNU Make. DDD fait partie du projet GNU et est distribué en tant que logiciel libre sous la licence publique générale GNU.
Service de distribution de données/Service de distribution de données :
Le service de distribution de données (DDS) pour les systèmes en temps réel est une norme de machine à machine (parfois appelée middleware ou infrastructure de connectivité) de l'OMG (Object Management Group) qui vise à permettre des systèmes fiables, performants, interopérables, en temps réel, échanges de données évolutifs utilisant un modèle de publication-abonnement. DDS répond aux besoins d'applications telles que l'aérospatiale et la défense, le contrôle du trafic aérien, les véhicules autonomes, les dispositifs médicaux, la robotique, la production d'énergie, la simulation et les tests, la gestion des réseaux intelligents, les systèmes de transport et d'autres applications nécessitant un échange de données en temps réel.
Documentation des données_Initiative/Initiative de documentation des données :
La Data Documentation Initiative (également connue sous le nom de DDI) est une norme internationale pour la description des enquêtes, des questionnaires, des fichiers de données statistiques et des informations au niveau des études en sciences sociales. Ces informations sont décrites comme des métadonnées par la norme. Lancé en 1995, l'effort rassemble des professionnels des données du monde entier pour développer la norme. La spécification DDI, le plus souvent exprimée en XML, fournit un format pour le contenu, l'échange et la préservation des informations des questionnaires et des fichiers de données. DDI prend en charge la description, le stockage et la distribution des données de sciences sociales, créant une spécification internationale exploitable par la machine et conviviale pour le Web. La version 2 (également appelée "Codebook") de la norme DDI a été implémentée dans le référentiel de données Dataverse et les archives de données du Consortium interuniversitaire de recherche politique et sociale. La dernière version 3.3 (également appelée "Lifecycle") de la norme DDI est sortie en 2020.
Domaine de données_(société)/Domaine de données (société) :
Data Domain Corporation était une société de technologie de l'information de 2001 à 2009 spécialisée dans les produits de déduplication de données ciblées pour la sauvegarde sur disque. Elle a été acquise en 2009 par EMC Corporation, et la gamme de produits Dell EMC Data Domain est depuis lors la plate-forme phare de Dell EMC pour la sauvegarde, l'archivage et la reprise après sinistre.
Données Est/Données Est :
Data East Corporation (デ ー タ イ ー ス ト 株 式 会 社, Dēta Īsuto kabushiki gaisha ) , également abrégé en DECO , était une société japonaise de jeux vidéo, de flippers et d'ingénierie électronique. La société a fonctionné de 1976 à 2003 et a publié 150 titres de jeux vidéo. Son siège principal était situé à Suginami, Tokyo. La filiale américaine, Data East USA, avait son siège social à San Jose, en Californie.
Data East_Arcade_Classics/Classiques Data East Arcade :
Data East Arcade Classics est une compilation de jeux vidéo créée par la société japonaise de jeux vidéo Data East. Le disque de collection est développé par le studio américain G1M2 et publié et publié par Majesco Entertainment pour la Wii le 19 février 2010.
Data East_USA,_Inc._v._Epyx,_Inc./Data East USA, Inc. contre Epyx, Inc. :
Data East USA, Inc. v. Epyx, Inc. 862 F.2d 204, 9 USPQ2d (BNA) 1322 (9th Cir. 1988) était une affaire judiciaire entre deux fabricants de jeux vidéo, où Data East a affirmé que leurs droits d'auteur sur Karate Champ a été enfreint par World Karate Championship, un jeu créé par Epyx. Data East a sorti Karate Champ dans les salles d'arcade en 1984, et le jeu est devenu un best-seller et a été le pionnier du genre des jeux de combat. L'année suivante, Epyx a publié le Championnat du monde de karaté pour les ordinateurs personnels, qui s'est vendu à 1,5 million d'exemplaires. Data East a poursuivi Epyx, alléguant que le jeu enfreignait ses droits d'auteur et sa marque. Le tribunal de district a conclu qu'Epyx avait enfreint les droits d'auteur de Data East, mais pas leur marque, et a ordonné une injonction contre la distribution du championnat du monde de karaté. Cependant, la Cour d'appel des États-Unis pour le tribunal du neuvième circuit a annulé la décision en appel, estimant que le tribunal inférieur avait commis une erreur en concluant que les travaux étaient substantiellement similaires. En principe, il n'y a pas de similitude substantielle entre l'expression de deux œuvres si l'expression est inséparable de l'idée. Le tribunal a également appliqué la doctrine des scènes à faire selon laquelle personne ne peut posséder une scène générique et la doctrine de la fusion selon laquelle personne ne peut posséder l'expression d'une idée s'il n'y a qu'une seule façon de l'exprimer. Bien que les jeux partagent quinze similitudes, le tribunal a déterminé que celles-ci étaient inhérentes à la création d'un jeu vidéo sur le karaté et a levé l'injonction contre Epyx. Dans l'affaire Capcom USA Inc. contre Data East Corp. en 1994, Data East a utilisé le même principe pour défendre son jeu Fighter's History contre les accusations de Capcom selon lesquelles ils auraient enfreint Street Fighter II. Cela a conduit la plupart des poursuites concernant des clones présumés de jeux vidéo à être réglées entre le milieu des années 1990 et le milieu des années 2000. Cette approche a commencé à changer en 2012 avec Tetris Holding, LLC contre Xio Interactive, Inc. et Spry Fox, LLC contre Lolapps, Inc., car les améliorations graphiques ont rendu plus difficile le rejet des similitudes comme une coïncidence de limitation technologique.
Économie de données/Économie de données :
Data Economy est un site Web international d'actualités et d'opinions sur les affaires technologiques, un magazine et un diffuseur fondé en 2016. Le média a son siège à Londres, au Royaume-Uni, et se concentre sur la stratégie commerciale, la finance et l'investissement dans l'espace de l'infrastructure informatique, principalement les centres de données. Broadmedia Communications, exerçant sous le nom de BroadGroup et créée en 2002, et une société membre de la société FTSE 250 Euromoney Institutional Investor PLC (LSE : ERM), est enregistrée en tant qu'éditeur de Data Economy. Le titre est également membre de la Professional Publishers Association (PPA).
Data Encryption_Standard/Norme de chiffrement des données :
Le Data Encryption Standard (DES) est un algorithme à clé symétrique pour le chiffrement des données numériques. Bien que sa courte longueur de clé de 56 bits la rende trop peu sûre pour les applications modernes, elle a eu une grande influence sur l'avancement de la cryptographie. Développé au début des années 1970 chez IBM et basé sur une conception antérieure de Horst Feistel, l'algorithme a été soumis au National Bureau of Standards (NBS) suite à l'invitation de l'agence à proposer un candidat pour la protection des données électroniques gouvernementales sensibles et non classifiées. En 1976, après consultation avec la National Security Agency (NSA), le NBS a sélectionné une version légèrement modifiée (renforcée contre la cryptanalyse différentielle, mais affaiblie contre les attaques par force brute), qui a été publiée en tant que norme officielle de traitement de l'information fédérale (FIPS) pour aux États-Unis en 1977. La publication d'une norme de cryptage approuvée par la NSA a conduit à son adoption internationale rapide et à un examen académique généralisé. Des controverses sont nées d'éléments de conception classifiés, d'une longueur de clé relativement courte de la conception de chiffrement par bloc à clé symétrique et de l'implication de la NSA, ce qui a suscité des soupçons concernant une porte dérobée. Les boîtes S qui avaient suscité ces soupçons avaient été conçues par la NSA pour supprimer une porte dérobée qu'elle connaissait secrètement (cryptanalyse différentielle). Cependant, la NSA a également veillé à ce que la taille de la clé soit considérablement réduite afin de pouvoir casser le chiffrement par une attaque par force brute. L'examen académique intense que l'algorithme a reçu au fil du temps a conduit à la compréhension moderne des chiffrements par blocs et de leur cryptanalyse. DES n'est pas sécurisé en raison de la taille relativement courte de la clé de 56 bits. En janvier 1999, distributed.net et l'Electronic Frontier Foundation ont collaboré pour casser publiquement une clé DES en 22 heures et 15 minutes (voir chronologie). Il existe également des résultats analytiques qui démontrent des faiblesses théoriques du chiffrement, bien qu'elles soient irréalisables en pratique. L'algorithme est considéré comme pratiquement sécurisé sous la forme de Triple DES, bien qu'il existe des attaques théoriques. Ce chiffrement a été remplacé par l'Advanced Encryption Standard (AES). DES a été retiré en tant que norme par l'Institut national des normes et de la technologie. Certains documents font la distinction entre la norme DES et son algorithme, se référant à l'algorithme sous le nom de DEA (Data Encryption Algorithm).
Explorateur de données/Explorateur de données :
Plusieurs produits et services logiciels sont appelés Data Explorer : Azure Data Explorer Exoplanet Data Explorer Google Public Data Explorer Human Olfactory Data Explorer IBM OpenDX UNEP Environmental Data ExplorerAutres usages : Data Explorers, une entreprise
Explorateurs de données/Explorateurs de données :
Data Explorers est une société privée de données et de logiciels financiers basée à Londres, au Royaume-Uni, avec des bureaux à New York, aux États-Unis, à Édimbourg et à Hong Kong. La société fournit des informations d'analyse comparative financière à l'industrie du prêt de titres et des informations à court terme à la communauté de la gestion des investissements. La société dispose d'un ensemble de données mondial couvrant 12 000 milliards de dollars de titres dans les programmes de prêt de plus de 20 000 fonds institutionnels. Data Explorers offre un accès à des mesures quantitatives du prêt de titres, de la performance et du risque. La société fournit des analyses et des données compilées à partir des données commerciales et d'inventaire fournies par les acteurs du marché, notamment les prêteurs, les bénéficiaires effectifs, les banques dépositaires, les prêteurs d'agence, les emprunteurs, les fonds spéculatifs et les courtiers.
Data Facility_Storage_Management_Subsystem_(MVS)/Sous-système de gestion du stockage de l'installation de données (MVS) :
Le sous-système de gestion du stockage des installations de données (DFSMS) est un composant central du système d'exploitation phare d'IBM, z/OS. Il comprend des méthodes d'accès, des utilitaires et des fonctions de gestion de programme. Le sous-système de gestion du stockage des installations de données est également un nom collectif pour une collection de plusieurs produits, dont tous sauf deux sont inclus dans le produit DFSMS/MVS.
Favela de données/Favela de données :
Data Favela est un institut de recherche fondé en novembre 2013 à Rio de Janeiro, au Brésil, par Celso Athayde, fondateur de Central Única das Favelas (Cufa), et Renato Meirelles, président de Data Popular. Data Favela est le premier institut de recherche axé sur la l'activité économique des favelas brésiliennes, en étudiant le comportement et la consommation de ses habitants, et en identifiant les opportunités d'affaires pour les acteurs externes et internes souhaitant se développer sur ces territoires. Forte de son expertise et de sa connaissance des favelas brésiliennes et de leurs marchés, Data Favela forme les habitants eux-mêmes à la mise en œuvre de ses recherches.
Féminisme des données/Féminisme des données :
Le féminisme des données est une approche visant à déplacer les débats sur les données et la société vers les questions de pouvoir structurel, d'oppression et d'inégalité. Le terme vient du titre d'un livre écrit par Catherine D'Ignazio et Lauren F. Klein publié en mars 2020 par MIT Press. Le féminisme des données en tant qu'approche offre une façon de «penser à la science des données et à l'éthique des données qui s'inspire des idées du féminisme intersectionnel» dans laquelle comprendre comment les aspects des identités sociales et politiques d'une personne se combinent pour créer différents modes de discrimination et de privilège. Conformément aux principes de l'approche, D'Ignazio et Klein ont publié en libre accès et ont utilisé l'examen communautaire lors de l'écriture du livre comme principe fondamental, déclarant que "toute connaissance est incomplète, et que la meilleure connaissance est acquise par rassemblant de multiples perspectives partielles ». Le Data Feminism fonctionne à la fois théoriquement et méthodologiquement. Il propose aux chercheurs des stratégies pour intégrer des concepts implicites dans le discours féministe, tels que travailler pour la justice sociale, lorsqu'ils travaillent avec des mégadonnées. Le féminisme des données ne se limite pas à l'intersection de la science des données et du féminisme, il s'agit d'un moyen de découvrir et de comprendre comment le pouvoir façonne et encadre les discours sur les mégadonnées : qui en a et qui n'en a pas. Il propose également des stratégies pour reconnaître comment les différentiels de pouvoir peuvent être remis en question et donc modifiés.
Data Format_Description_Language/Langage de description du format de données :
Le langage de description de format de données (DFDL, souvent prononcé daff-o-dil), publié en tant que recommandation proposée par l'Open Grid Forum en janvier 2011, est un langage de modélisation permettant de décrire de manière standard du texte général et des données binaires. Un modèle ou schéma DFDL permet à tout texte ou donnée binaire d'être lu (ou « analysé ») à partir de son format natif et d'être présenté comme une instance d'un ensemble d'informations. (Un ensemble d'informations est une représentation logique du contenu des données, indépendamment du format physique. Par exemple, deux enregistrements peuvent être dans des formats différents, car l'un a des champs de longueur fixe et l'autre utilise des délimiteurs, mais ils peuvent contenir exactement le même données, et seraient tous deux représentés par le même ensemble d'informations). Le même schéma DFDL permet également aux données d'être extraites d'une instance d'un ensemble d'informations et écrites (ou "sérialisées") dans leur format natif. DFDL est descriptif et non prescriptif. DFDL n'est pas un format de données et n'impose pas non plus l'utilisation d'un format de données particulier. Au lieu de cela, il fournit une manière standard de décrire de nombreux types de formats de données différents. Cette approche a de nombreux avantages. Il permet à un auteur d'application de concevoir une représentation de données appropriée en fonction de ses besoins tout en la décrivant d'une manière standard qui peut être partagée, permettant à plusieurs programmes d'échanger directement les données. DFDL y parvient en s'appuyant sur les fonctionnalités du W3C XML Schema 1.0. Un sous-ensemble de schéma XML est utilisé, suffisant pour permettre la modélisation de données non XML. Les motivations de cette approche sont d'éviter d'inventer un langage de schéma complètement nouveau et de faciliter la conversion de texte général et de données binaires, via un ensemble d'informations DFDL, en un document XML correspondant. Le matériel pédagogique est disponible sous la forme de didacticiels DFDL, de vidéos et de plusieurs laboratoires pratiques DFDL.
Jardin de données/Jardin de données :
Data Garden est une organisation artistique et un label indépendant formé par Joe Patitucci et Alex Tyson en 2011.
Données générales/Données générales :
Data General a été l'une des premières entreprises de mini-ordinateurs de la fin des années 1960. Trois des quatre fondateurs étaient d'anciens employés de Digital Equipment Corporation (DEC). Leur premier produit, Data General Nova de 1969, était un mini-ordinateur 16 bits destiné à la fois à surpasser et à coûter moins cher que l'équivalent de DEC, le PDP-8 12 bits. Un système Nova de base coûte 2⁄3 ou moins qu'un PDP-8 similaire tout en fonctionnant plus rapidement, offrant une évolutivité facile, étant nettement plus petit et se révélant plus fiable sur le terrain. Combiné avec Data General RDOS (DG/RDOS) et des langages de programmation comme Data General Business Basic, Novas a fourni une plate-forme multi-utilisateurs bien en avance sur de nombreux systèmes contemporains. Une série de machines Nova mises à jour ont été lancées au début des années 1970, ce qui a maintenu la ligne Nova à l'avant du mini-monde 16 bits. Le Nova a été suivi par la série Eclipse qui offrait une capacité de mémoire beaucoup plus grande tout en étant capable d'exécuter du code Nova sans modification. Le lancement d'Eclipse a été entaché de problèmes de production et il a fallu un certain temps avant qu'il ne soit un remplacement fiable pour les dizaines de milliers de Novas sur le marché. Alors que le mini monde passait de 16 bits à 32 bits, DG a présenté le Data General Eclipse MV/8000, dont le développement a été largement documenté dans le livre populaire, The Soul of a New Machine. Bien que les ordinateurs de DG aient réussi, l'introduction de l'IBM PC en 1981 a marqué le début de la fin des mini-ordinateurs et, à la fin de la décennie, l'ensemble du marché avait largement disparu. L'introduction de la Data General/One en 1984 n'a rien fait pour arrêter l'érosion. Dans un pivot commercial majeur, en 1989, DG a lancé la série AViiON de systèmes Unix évolutifs qui s'étendaient des postes de travail de bureau aux serveurs départementaux. Cette évolutivité a été gérée grâce à l'utilisation de NUMA, permettant à un certain nombre de transformateurs de produits de base de travailler ensemble dans un seul système. Après AViiON, la série CLARiiON de systèmes de stockage en réseau est devenue une gamme de produits majeure à la fin des années 1990. Cela a conduit à un achat par EMC, le principal fournisseur d'espace de stockage à l'époque. EMC a fermé toutes les lignes de DG à l'exception de CLARiiON, qui a poursuivi ses ventes jusqu'en 2012.
Données générales_AOS/données générales AOS :
Data General AOS (une abréviation pour Advanced Operating System) était le nom d'une famille de systèmes d'exploitation pour les mini-ordinateurs Data General 16 bits Eclipse C, M et S, suivis par AOS/VS et AOS/RT32 (1980) et plus tard AOS /VS II (1988) pour la ligne Eclipse MV 32 bits.
Données General_Business_Basic/Données générales Business Basic :
Data General Business Basic était un interpréteur BASIC (basé sur une version de MAI Basic Four) commercialisé par Data General pour leur mini-ordinateur Nova dans les années 1970, puis porté sur les ordinateurs Data General Eclipse MV et AViiON. La plupart des applications métiers du Nova ont été développées en Business Basic. Business Basic était un langage d'entiers uniquement inspiré de COBOL et contenait de puissantes fonctions de gestion de chaînes et la possibilité de manipuler très rapidement des fichiers indexés. Il a également fourni un contrôle total sur l'écran d'affichage, avec le positionnement du curseur, le réglage des attributs et les commandes de suppression de région. Business Basic pourrait s'interfacer avec la base de données INFOS II de Data General et effectuer des appels directement vers le système d'exploitation. Un serveur de verrouillage a donné à plusieurs utilisateurs simultanés un accès efficace aux enregistrements de la base de données. Les programmes pour petites entreprises pouvaient être développés et débogués rapidement avec Business Basic en raison de la nature interactive de l'interpréteur, mais le langage ne fournissait pas de nombreuses fonctionnalités de programmation structurées et, à mesure que les programmes grandissaient, la maintenance devenait un problème. L'espace mémoire était limité pour les programmes Business Basic sur le Nova, et les programmeurs avaient souvent recours à des astuces telles que des programmes auto-modifiables, faciles à programmer en Business Basic, mais compliqués à déboguer. La version originale du langage était "double précision", c'est-à-dire 32 bits (et donc chaque entier utilisait deux mots Nova de 16 bits). Lorsque Data General a porté le langage sur la ligne MV, ils ont inclus deux copies du langage, une "double précision" et une "triple précision". Malheureusement, les deux étaient incompatibles l'un avec l'autre de manière subtile. Bien que Data General ait amélioré le langage à certains égards, comme l'ajout d'instructions IF THEN ELSE END IF sur plusieurs lignes, ils n'ont pas réussi à lever de nombreuses contraintes du langage sur les machines MV, telles qu'un maximum de 9 999 lignes, une limite de 384 variables, et un maximum de 16 fichiers ouverts.

Aucun commentaire:

Enregistrer un commentaire

Edward Rutter

Edward Rich,_8e_comte_de_Warwick/Edward Rich, 8e comte de Warwick : Edward Henry Rich, 10e baron Rich, 8e comte de Warwick et 5e comte ...