Rechercher dans ce blog

mercredi 24 août 2022

Date City


Validation des données/Validation des données :
En informatique, la validation des données est le processus consistant à s'assurer que les données ont subi un nettoyage des données pour s'assurer qu'elles ont la qualité des données, c'est-à-dire qu'elles sont à la fois correctes et utiles. Il utilise des routines, souvent appelées «règles de validation», «contraintes de validation» ou «routines de vérification», qui vérifient l'exactitude, la pertinence et la sécurité des données entrées dans le système. Les règles peuvent être mises en œuvre par les installations automatisées d'un dictionnaire de données, ou par l'inclusion d'une logique de validation de programme d'application explicite de l'ordinateur et de son application. Ceci est distinct de la vérification formelle, qui tente de prouver ou de réfuter l'exactitude des algorithmes pour implémenter une spécification ou une propriété.
Validation_et_réconciliation des données/Validation et réconciliation des données :
La validation et la réconciliation des données de processus industriels, ou plus brièvement, la réconciliation des données de processus (PDR), est une technologie qui utilise des informations de processus et des méthodes mathématiques afin d'assurer automatiquement la validation et la réconciliation des données en corrigeant les mesures dans les processus industriels. L'utilisation de PDR permet d'extraire des informations précises et fiables sur l'état des processus industriels à partir de données de mesure brutes et produit un ensemble unique et cohérent de données représentant l'opération de processus la plus probable.
Valorisation des données/Valorisation des données :
La valorisation des données est une discipline dans les domaines de la comptabilité et de l'économie de l'information. Il s'intéresse aux méthodes de calcul de la valeur des données collectées, stockées, analysées et échangées par les organisations. Cette valorisation dépend du type, de la fiabilité et du champ des données.
Voûte de données/Voûte de données :
Le coffre-fort de données ou le coffre-fort de données peut faire référence à : la modélisation du coffre-fort de données, une méthode de modélisation de base de données. Le coffre-fort de données ou la protection des données hors site. de Callpod
Modélisation du coffre-fort de données/Modélisation du coffre-fort de données :
La modélisation du coffre-fort de données est une méthode de modélisation de base de données conçue pour fournir un stockage historique à long terme des données provenant de plusieurs systèmes opérationnels. Il s'agit également d'une méthode d'examen des données historiques qui traite de problèmes tels que l'audit, le traçage des données, la vitesse de chargement et la résilience au changement, ainsi que l'accent mis sur la nécessité de retracer l'origine de toutes les données de la base de données. Cela signifie que chaque ligne d'un coffre-fort de données doit être accompagnée d'attributs de source d'enregistrement et de date de chargement, permettant à un auditeur de retracer les valeurs jusqu'à la source. Il a été développé par Daniel (Dan) Linstedt en 2000. La modélisation du coffre-fort de données ne fait aucune distinction entre les bonnes et les mauvaises données ("mauvaises" signifiant non conformes aux règles métier). Ceci est résumé dans la déclaration selon laquelle un coffre-fort de données stocke "une seule version des faits" (également exprimé par Dan Linstedt comme "toutes les données, tout le temps") par opposition à la pratique dans d'autres méthodes d'entrepôt de données de stockage " une version unique de la vérité » où les données non conformes aux définitions sont supprimées ou « nettoyées ». La méthode de modélisation est conçue pour résister aux changements dans l'environnement commercial d'où proviennent les données stockées, en séparant explicitement les informations structurelles des attributs descriptifs. Le coffre-fort de données est conçu pour permettre le chargement parallèle autant que possible, de sorte que de très grandes implémentations puissent évoluer sans avoir besoin d'une refonte majeure.
Vérification des données/Vérification des données :
La vérification des données est un processus dans lequel différents types de données sont vérifiés pour l'exactitude et les incohérences après la migration des données. Dans certains domaines, il est fait référence à la vérification des données sources (SDV), comme dans les essais cliniques. . Pendant la vérification, il peut être nécessaire d'effectuer une exécution parallèle des deux systèmes pour identifier les zones de disparité et prévenir la perte de données erronées. Les méthodes de vérification des données comprennent la double saisie des données et la relecture des données. La relecture des données implique que quelqu'un vérifie les données saisies par rapport au document original. Cela prend également du temps et coûte cher.
Virtualisation des données/Virtualisation des données :
La virtualisation des données est une approche de la gestion des données qui permet à une application de récupérer et de manipuler des données sans nécessiter de détails techniques sur les données, comme la façon dont elles sont formatées à la source ou leur emplacement physique, et peut fournir une vue client unique (ou vue unique de toute autre entité) de l'ensemble des données. Contrairement au processus traditionnel d'extraction, de transformation et de chargement ("ETL"), les données restent en place et un accès en temps réel est accordé au système source des données. Cela réduit le risque d'erreurs de données, la charge de travail déplaçant des données qui ne seront peut-être jamais utilisées, et cela ne tente pas d'imposer un modèle de données unique aux données (un exemple de données hétérogènes est un système de base de données fédérée). La technologie prend également en charge l'écriture des mises à jour des données de transaction dans les systèmes sources. Pour résoudre les différences dans les formats et sémantiques source et consommateur, diverses techniques d'abstraction et de transformation sont utilisées. Ce concept et ce logiciel constituent un sous-ensemble de l'intégration de données et sont couramment utilisés dans l'informatique décisionnelle, les services de données d'architecture orientés services, le cloud computing, la recherche d'entreprise et la gestion des données de référence.
Entrepôt de données/Entrepôt de données :
En informatique, un entrepôt de données (DW ou DWH), également connu sous le nom d'entrepôt de données d'entreprise (EDW), est un système utilisé pour le reporting et l'analyse de données et est considéré comme un élément central de l'informatique décisionnelle. Les DW sont des référentiels centraux de données intégrées provenant d'une ou plusieurs sources disparates. Ils stockent les données actuelles et historiques en un seul endroit qui sont utilisées pour créer des rapports analytiques pour les travailleurs de toute l'entreprise. Les données stockées dans l'entrepôt sont téléchargées à partir des systèmes opérationnels (tels que le marketing ou les ventes). Les données peuvent passer par un magasin de données opérationnel et peuvent nécessiter un nettoyage des données pour des opérations supplémentaires afin de garantir la qualité des données avant qu'elles ne soient utilisées dans le DW pour les rapports. Extraire, transformer, charger (ETL) et extraire, charger, transformer (ELT) sont les deux principales approches utilisées pour construire un système d'entrepôt de données.
Data warehouse_appliance/Appliance d'entrepôt de données :
En informatique, le terme d'appliance d'entrepôt de données (DWA) a été inventé par Foster Hinshaw pour désigner une architecture informatique pour les entrepôts de données (DW) spécifiquement commercialisée pour l'analyse et la découverte de données volumineuses, simple à utiliser (pas une préconfiguration) et hautes performances pour la charge de travail. Un DWA comprend un ensemble intégré de serveurs, de stockage, de systèmes d'exploitation et de bases de données. En marketing, le terme a évolué pour inclure le matériel et les logiciels préinstallés et pré-optimisés ainsi que des systèmes similaires uniquement logiciels promus comme faciles à installer sur des configurations matérielles recommandées spécifiques ou préconfigurés en tant que système complet. Ce sont des utilisations marketing du terme et ne reflètent pas la définition technique. Un DWA est conçu spécifiquement pour l'analyse de données volumineuses hautes performances et est fourni sous la forme d'un système packagé facile à utiliser. Les appliances DW sont commercialisées pour des volumes de données de l'ordre du téraoctet au pétaoctet.
Automatisation de l'entrepôt de données/Automatisation de l'entrepôt de données :
L'automatisation de l'entrepôt de données (DWA) fait référence au processus d'accélération et d'automatisation des cycles de développement de l'entrepôt de données, tout en garantissant la qualité et la cohérence. DWA est censé fournir une automatisation de l'ensemble du cycle de vie d'un entrepôt de données, de l'analyse du système source aux tests en passant par la documentation. Il permet d'améliorer la productivité, de réduire les coûts et d'améliorer la qualité globale.
Gestion des données/Conversion des données :
Le data wrangling, parfois appelé data munging, est le processus de transformation et de mappage des données d'un formulaire de données "brutes" dans un autre format dans le but de le rendre plus approprié et plus précieux pour une variété d'objectifs en aval tels que l'analyse. L'objectif du data wrangling est d'assurer la qualité et l'utilité des données. Les analystes de données passent généralement la majorité de leur temps dans le processus de traitement des données par rapport à l'analyse réelle des données. Le processus de traitement des données peut inclure un munging supplémentaire, la visualisation des données, l'agrégation des données, la formation d'un modèle statistique, ainsi que de nombreuses autres utilisations potentielles. Le traitement des données suit généralement un ensemble d'étapes générales qui commencent par l'extraction des données sous une forme brute à partir de la source de données, le "munging" des données brutes (par exemple, le tri) ou l'analyse des données dans des structures de données prédéfinies, et enfin le dépôt du contenu résultant dans un puits de données pour le stockage et l'utilisation future.
Databank Systems_Limited/Databank Systems Limited :
Databank Systems Limited était le nom d'une société à but non lucratif "hors bilan" créée par un consortium de banques concurrentes en Nouvelle-Zélande, pour fonctionner sur ce que l'on appelle aujourd'hui une "agence de services partagés", pour fournir des ressources informatiques (développement et opérationnel) pour les membres du consortium. La société a été créée en 1967 et, en 12 ans, est devenue la plus grande organisation non gouvernementale de traitement de données de l'hémisphère sud, desservant plus de 1 200 bureaux bancaires.
Format de la banque de données/Format de la banque de données :
Un format de fichier est une procédure permettant de coder des informations en vue de leur stockage dans un fichier informatique. Le format de la banque de données est un format de fichier ASCII pour l'analyse économétrique des séries chronologiques. Le format a été popularisé par MicroTSP. Le format banque de données est utilisé pour les données à fréquence d'échantillonnage annuelle fixe (annuelle, trimestrielle, mensuelle) et pour les données non datées. Il est pris en charge par TSP, EViews et de nombreuses autres applications économétriques. Traditionnellement, le nom du fichier se termine par l'extension .db. A l'inspection, le fichier de la banque de données apparaît comme un fichier texte ASCII contenant une seule série de données. Un fichier de banque de données est formaté dans une structure linéaire. Les premières lignes de commentaires commencent par une citation. Pour les séries datées, les trois lignes suivantes précisent la fréquence, la date de début et la date de fin. (Pour les séries non datées, les deux lignes suivantes spécifient l'index de début et l'index de fin.) Les lignes restantes sont des données : une observation par ligne, ou NA si manquant. Le format de banque de données ouvert est étroitement lié : une extension modeste et une spécification plus détaillée du format de banque de données traditionnel. Un lecteur et un écrivain conformes sont fournis par EconPy.
Base de données/Base de données :
En informatique, une base de données est une collection organisée de données stockées et accessibles électroniquement. Les petites bases de données peuvent être stockées sur un système de fichiers, tandis que les grandes bases de données sont hébergées sur des grappes d'ordinateurs ou un stockage en nuage. La conception des bases de données couvre les techniques formelles et les considérations pratiques, y compris la modélisation des données, la représentation et le stockage efficaces des données, les langages de requête, la sécurité et la confidentialité des données sensibles et les problèmes d'informatique distribuée, y compris la prise en charge de l'accès simultané et de la tolérance aux pannes. Un système de gestion de base de données (SGBD) est le logiciel qui interagit avec les utilisateurs finaux, les applications et la base de données elle-même pour capturer et analyser les données. Le logiciel SGBD comprend en outre les installations de base fournies pour administrer la base de données. La somme totale de la base de données, du SGBD et des applications associées peut être qualifiée de système de base de données. Souvent, le terme "base de données" est également utilisé de manière vague pour désigner l'un des SGBD, le système de base de données ou une application associée à la base de données. Les informaticiens peuvent classer les systèmes de gestion de bases de données selon les modèles de base de données qu'ils prennent en charge. Les bases de données relationnelles sont devenues dominantes dans les années 1980. Ces données de modèle sous forme de lignes et de colonnes dans une série de tables, et la grande majorité utilise SQL pour écrire et interroger les données. Dans les années 2000, les bases de données non relationnelles sont devenues populaires, collectivement appelées NoSQL, car elles utilisent différents langages de requête.
Base de données en tant qu'IPC/Base de données en tant qu'IPC :
En programmation informatique, Database-as-IPC peut être considéré comme un anti-modèle dans lequel une table persistante sur disque dans une base de données est utilisée comme magasin de file d'attente de messages pour la communication interprocessus de routine ou le traitement des données souscrites. Si les performances de la base de données sont préoccupantes, les alternatives incluent les sockets, Network Socket ou Message Queue. L'informaticien britannique Junade Ali a défini l'anti-modèle Database-as-IPC comme utilisant une base de données pour "planifier des travaux ou mettre en file d'attente des tâches à accomplir", notant que cet anti-modèle se concentre sur l'utilisation d'une base de données pour les messages temporaires au lieu de données persistantes.
Architecture centrée sur la base de données/Architecture centrée sur la base de données :
L'architecture centrée sur la base de données ou l'architecture centrée sur les données a plusieurs significations distinctes, généralement liées aux architectures logicielles dans lesquelles les bases de données jouent un rôle crucial. Souvent, cette description est destinée à opposer la conception à une approche alternative. Par exemple, la caractérisation d'une architecture comme "centrée sur la base de données" peut signifier n'importe quelle combinaison des éléments suivants : utiliser un système de gestion de base de données relationnelle standard à usage général, par opposition à des structures de données et des méthodes d'accès personnalisées en mémoire ou basées sur des fichiers . Avec l'évolution des logiciels de SGBD sophistiqués, dont la plupart sont gratuits ou inclus avec le système d'exploitation, les développeurs d'applications sont devenus de plus en plus dépendants des outils de base de données standard, en particulier pour le développement rapide d'applications. en utilisant une logique dynamique basée sur des tables, par opposition à la logique incorporée dans les programmes précédemment compilés. L'utilisation de la logique basée sur les tables, c'est-à-dire un comportement fortement dicté par le contenu d'une base de données, permet aux programmes d'être plus simples et plus flexibles. Cette capacité est une caractéristique centrale des langages de programmation dynamiques. Voir aussi les tables de contrôle pour les tables qui sont normalement codées et intégrées dans des programmes en tant que structures de données (c'est-à-dire pas d'instructions compilées) mais qui peuvent également être lues à partir d'un fichier plat, d'une base de données ou même récupérées à partir d'une feuille de calcul. en utilisant des procédures stockées qui s'exécutent sur des serveurs de base de données, par opposition à une plus grande dépendance à la logique s'exécutant sur des serveurs d'applications de niveau intermédiaire dans une architecture à plusieurs niveaux. La mesure dans laquelle la logique métier doit être placée en arrière-plan par rapport à un autre niveau fait l'objet d'un débat en cours. Par exemple, Toon Koppelaars présente une analyse détaillée d'architectures alternatives basées sur Oracle qui varient dans le placement de la logique métier, concluant qu'une approche centrée sur la base de données présente des avantages pratiques du point de vue de la facilité de développement et de la maintenabilité. utiliser une base de données partagée comme base pour communiquer entre des processus parallèles dans des applications informatiques distribuées, par opposition à une communication inter-processus directe via des fonctions de transmission de messages et un middleware orienté message. Un avantage potentiel de l'architecture centrée sur la base de données dans les applications distribuées est qu'elle simplifie la conception en utilisant le traitement et l'indexation des transactions fournis par le SGBD pour atteindre un degré élevé de fiabilité, de performances et de capacité. Par exemple, Base One décrit une architecture informatique distribuée centrée sur la base de données pour l'informatique en grille et en cluster, et explique comment cette conception offre une sécurité, une tolérance aux pannes et une évolutivité améliorées. une architecture d'entreprise globale qui favorise les modèles de données partagés plutôt que de permettre à chaque application d'avoir son propre modèle de données idiosyncrasique. Même une architecture centrée sur la base de données extrême appelée architecture RDBMS uniquement a été proposée, dans laquelle les trois couches classiques d'une application sont conservées le SGBDR. Cette architecture utilise fortement le DBPL (Database Programming Language) du SGBDR. Un exemple de logiciel avec cette architecture est Oracle Application Express (APEX).
DatabaseSpy/DatabaseSpy :
DatabaseSpy est un outil de requête, de conception et de comparaison de bases de données multi-bases de données d'Altova, le créateur de XMLSpy. DatabaseSpy se connecte à de nombreuses bases de données relationnelles majeures, facilitant les requêtes SQL, la conception de la structure de la base de données, l'édition du contenu de la base de données et la comparaison et la conversion de la base de données. DatabaseSpy est une application client de base de données pour Windows 7, 8 et 10, Windows XP et Windows Server 2003 et 2008 qui permet aux administrateurs de bases de données, aux développeurs de bases de données et à d'autres professionnels de l'informatique orientés bases de données d'interagir avec plusieurs bases de données relationnelles qui peuvent avoir été créées. par différents développeurs. Les fonctionnalités de DatabaseSpy incluent un assistant de connexion rapide pour plusieurs bases de données relationnelles, un éditeur SQL avec auto-complétion, un outil de conception de base de données graphique, une comparaison de contenu et de schéma de base de données, ainsi que l'importation et l'exportation de données dans plusieurs formats. DatabaseSpy inclut également un support spécial pour XML dans les bases de données et est disponible en versions 32 bits et 64 bits.
Base de données (journal)/Base de données (journal) :
Base de données : The Journal of Biological Databases and Curation est une revue scientifique en ligne à accès ouvert et évaluée par des pairs qui couvre la recherche sur les bases de données et la bioconservation. La revue a été créée en 2009 avec David Landsman comme rédacteur en chef. DATABASE est le journal officiel de la Société internationale de biocuration. La revue publie les actes des International Biocuration Conferences depuis 2009.
Centre de base de données_for_Life_Science/Centre de base de données pour les sciences de la vie :
Database Center for Life Science (ラ イ フ サ イ エ ン ス 統 合 デ ー タ ベ ー ス セ ン タ ー) ou DBCLS, est un institut de recherche japonais faisant partie de l'Organisation de recherche sur l'information et les systèmes. Elle a été fondée en 2007.
Database Center_for_North_Korean_Human_Rights/Database Center for North Korean Human Rights :
Le Centre de base de données pour les droits de l'homme nord-coréens (communément appelé NKDB) est une organisation non gouvernementale à but non lucratif, dont le siège est à Séoul, en Corée du Sud, qui effectue la collecte de données, l'analyse et le suivi des violations des droits de l'homme subies en République populaire démocratique. de Corée (RPDC ou Corée du Nord). Le NKDB offre non seulement un soutien à la réinstallation, des conseils psychologiques et des opportunités éducatives, mais plaide également pour la promotion des droits humains et la justice transitionnelle pour les violations passées des droits humains en RPDC. La base de données unifiée des droits de l'homme du NKDB contient plus de 82 000 cas d'infractions aux droits de l'homme et des détails sur plus de 52 000 personnes impliquées. En plus de publier régulièrement des livres et des rapports, l'organisation organise et participe à des séminaires qui analysent et contextualisent ces incidents de violation des droits de l'homme.
Directive de base de données/Directive de base de données :
La directive 96/9/CE du Parlement européen et du Conseil du 11 mars 1996 relative à la protection juridique des bases de données est une directive de l'Union européenne dans le domaine du droit d'auteur, prise en vertu des dispositions relatives au marché intérieur du traité de Rome . Elle harmonise le traitement des bases de données dans le cadre du droit d'auteur et du droit sui generis pour les créateurs de bases de données non éligibles au droit d'auteur. À partir de 2022, la directive est en cours de révision dans le cadre d'une proposition de loi sur les données. Les soumissions publiques ont été clôturées le 25 juin 2021 et une proposition de nouvelles règles harmonisées sur les données a été publiée le 23 février 2022.
Gestion de la base de données_Bibliothèque/Bibliothèque de gestion de la base de données :
La bibliothèque de gestion de base de données (DBL) est un système de gestion de base de données relationnelle (RDBMS) contenu dans une bibliothèque de programmation C++. Le code source DBL est disponible selon les termes de la licence publique générale GNU. DBL a été entièrement développé en deux semaines, en tant que projet de programmation de vacances. Il vise à être facile et simple à utiliser pour la programmation C++.
Nation de la base de données/Nation de la base de données :
Database Nation est un livre de non-fiction écrit par Simson Garfinkel. Publié en janvier 2000, Database Nation offre au lecteur une compréhension claire de ce qu'est la vie privée aujourd'hui. Partant d'une définition large de la vie privée, il approfondit diverses nouvelles technologies et pratiques qui ont remodelé nos vies, au détriment de la vie privée. Garfinkel entre dans les moindres détails pour décrire chaque type d'intrusion dans la vie privée. Le système actuel empêche l'individu de résister ; l'individu ne peut pas faire grand-chose pour préserver sa vie privée. Son point le plus important est que le droit à la vie privée est un droit protégé par la Constitution et qu'il ne doit pas être échangé contre notre mode de vie. Il appelle le gouvernement à prendre position pour la protection de la vie privée en créant une agence qui appliquera les lois sur la protection de la vie privée et agira en tant que représentant de la vie privée des individus. Dans l'ensemble, il espère sensibiliser le public à la question de la vie privée et élever la norme en matière de vie privée.
Logiciel de base de données/Logiciel de base de données :
Le logiciel de base de données peut faire référence à : un logiciel de base de données, une capitalisation alternative utilisée pour désigner un logiciel utilisé pour gérer une base de données Europress, une société qui opérait auparavant sous le nom de logiciel de base de données
Atelier de base de données/Atelier de base de données :
Database Workbench est une application logicielle pour le développement et l'administration de plusieurs bases de données relationnelles utilisant SQL, avec une interopérabilité entre différents systèmes de bases de données, développée par Upscene Productions. Étant donné que Databases Workbench prend en charge plusieurs systèmes de bases de données, il peut fournir aux développeurs de logiciels la même interface et le même environnement de développement pour ces systèmes de bases de données autrement différents et inclut également des outils de bases de données croisées.
Couche_d'abstraction de la base de données/Couche d'abstraction de la base de données :
Une couche d'abstraction de base de données (DBAL ou DAL) est une interface de programmation d'application qui unifie la communication entre une application informatique et des bases de données telles que SQL Server, IBM Db2, MySQL, PostgreSQL, Oracle ou SQLite. Traditionnellement, tous les fournisseurs de bases de données fournissent leur propre interface adaptée à leurs produits. Il appartient au programmeur de l'application d'implémenter le code pour les interfaces de base de données qui seront prises en charge par l'application. Les couches d'abstraction de base de données réduisent la quantité de travail en fournissant une API cohérente au développeur et masquent autant que possible les spécificités de la base de données derrière cette interface. Il existe de nombreuses couches d'abstraction avec différentes interfaces dans de nombreux langages de programmation. Si une application a une telle couche intégrée, elle est dite indépendante de la base de données.
Surveillance de l'activité de la base de données/Surveillance de l'activité de la base de données :
La surveillance de l'activité de la base de données (DAM, ou audit de base de données d'entreprise et protection en temps réel) est une technologie de sécurité de la base de données permettant de surveiller et d'analyser l'activité de la base de données. Le DAM peut combiner les données de la surveillance basée sur le réseau et les informations d'audit natives pour fournir une image complète de l'activité de la base de données. Les données recueillies par DAM sont utilisées pour analyser et rendre compte de l'activité de la base de données, soutenir les enquêtes sur les violations et alerter sur les anomalies. Le DAM est généralement exécuté en continu et en temps réel. La surveillance et la prévention de l'activité de la base de données (DAMP) est une extension du DAM qui va au-delà de la surveillance et de l'alerte pour bloquer également les activités non autorisées. DAM aide les entreprises à répondre aux mandats de conformité réglementaire tels que la norme de sécurité des données de l'industrie des cartes de paiement (PCI DSS), la loi HIPAA (Health Insurance Portability and Accountability Act), la loi Sarbanes-Oxley (SOX), les réglementations gouvernementales américaines telles que NIST 800-53, et la réglementation de l'UE. Le DAM est également une technologie importante pour protéger les bases de données sensibles contre les attaques externes des cybercriminels. Selon le rapport d'enquête sur les violations de données 2009 de Verizon Business, basé sur des données analysées à partir de 90 cas confirmés de Verizon Business impliquant 285 millions d'enregistrements compromis en 2008, 75 % de tous les enregistrements compromis provenaient de serveurs de base de données compromis. Selon Gartner, « DAM fournit une surveillance de l'accès des utilisateurs privilégiés et des applications qui est indépendante des fonctions natives de journalisation et d'audit de la base de données. Il peut fonctionner comme un contrôle compensatoire pour les problèmes de séparation des tâches des utilisateurs privilégiés en surveillant l'activité de l'administrateur. La technologie améliore également la sécurité de la base de données en détectant les activités inhabituelles de lecture et de mise à jour de la base de données à partir de la couche application. L'agrégation, la corrélation et la création de rapports d'événements de base de données offrent une capacité d'audit de base de données sans qu'il soit nécessaire d'activer les fonctions d'audit de base de données natives (qui deviennent gourmandes en ressources à mesure que le niveau d'audit augmente). "Selon une enquête menée par l'Independent Oracle User Group (IOUG) , « La plupart des organisations ne disposent pas de mécanismes pour empêcher les administrateurs de base de données et les autres utilisateurs privilégiés de la base de données de lire ou de falsifier des informations sensibles dans les applications financières, RH ou autres applications commerciales. La plupart sont encore incapables de détecter de tels manquements ou incidents. » Forrester fait référence à cette catégorie comme « audit de base de données et protection en temps réel ».
Administration de la base de données/Administration de la base de données :
L'administration de bases de données est la fonction de gestion et de maintenance des logiciels de systèmes de gestion de bases de données (SGBD). Les logiciels SGBD traditionnels tels qu'Oracle, IBM Db2 et Microsoft SQL Server nécessitent une gestion continue. Ainsi, les entreprises qui utilisent des logiciels de SGBD embauchent souvent du personnel spécialisé dans les technologies de l'information, appelé administrateurs de base de données ou DBA.
Administrateur de base de données/Administrateur de base de données :
Les administrateurs de bases de données (DBA) utilisent des logiciels spécialisés pour stocker et organiser les données. Le rôle peut inclure la planification de la capacité, l'installation, la configuration, la conception de la base de données, la migration, la surveillance des performances, la sécurité, le dépannage, ainsi que la sauvegarde et la récupération des données.
Database and_Collections_of_Information_Misappropriation_Act/Database and Collections of Information Misappropriation Act :
Le Database and Collections of Information Misappropriation Act, HR 3261, était un projet de loi proposé à la Chambre des représentants des États-Unis lors du 108e Congrès des États-Unis. Cela aurait modifié la loi sur le droit d'auteur pour permettre l'affirmation de la propriété du droit d'auteur sur des données factuelles. Les partisans ont fait valoir que le projet de loi était basé sur la directive européenne sur les bases de données de 1996 et était conçu pour encourager les créateurs de bases de données en garantissant leur avantage en termes de revenus. Les opposants, dont Google et Verizon, ont fait valoir que cela restreindrait l'accès et l'utilisation des faits. En mars 2004, le House Energy and Commerce Committee a rendu un rapport défavorable sur HR 3261. Le comité a approuvé un projet de loi concurrent moins complet, la Consumer Access to Information Act HR 3872, qui ne traitait que des informations « sensibles au facteur temps », et aurait chargé le gouvernement fédéral Commission du commerce pour prendre des mesures contre les pratiques commerciales déloyales.
Application de base de données/Application de base de données :
Une application de base de données est un programme informatique dont le but principal est de récupérer des informations à partir d'une base de données informatisée. De là, des informations peuvent être insérées, modifiées ou supprimées qui sont ensuite renvoyées dans la base de données. Les premiers exemples d'applications de base de données étaient les systèmes de comptabilité et les systèmes de réservation de compagnies aériennes, tels que SABRE, développés à partir de 1957. Une caractéristique des applications de base de données modernes est qu'elles facilitent les mises à jour et les requêtes simultanées de plusieurs utilisateurs. Les systèmes des années 1970 auraient pu accomplir cela en plaçant chaque utilisateur devant un terminal 3270 sur un ordinateur central. Au milieu des années 1980, il devenait de plus en plus courant de donner à chaque utilisateur un ordinateur personnel et d'avoir un programme fonctionnant sur ce PC qui est connecté à un serveur de base de données. Les informations seraient extraites de la base de données, transmises sur un réseau, puis organisées, représentées graphiquement ou autrement formatées par le programme exécuté sur le PC. À partir du milieu des années 1990, il est devenu plus courant de créer des applications de base de données avec une interface Web. Plutôt que de développer un logiciel personnalisé à exécuter sur le PC d'un utilisateur, l'utilisateur utiliserait le même programme de navigateur Web pour chaque application.) Une application de base de données avec une interface Web avait l'avantage de pouvoir être utilisée sur des appareils de différentes tailles, avec différents matériels. , et avec différents systèmes d'exploitation. Parmi les premières applications de base de données avec des interfaces Web, citons amazon.com, qui utilisait le système de gestion de base de données relationnelle Oracle, la communauté en ligne photo.net, dont la mise en œuvre sur Oracle a été décrite dans le livre Database-Backed Web Sites (Ziff-Davis Press ; mai 1997), et eBay, exécutant également Oracle. Les dossiers médicaux électroniques sont désignés sur emrexperts.com, en décembre 2010, comme "une application de base de données logicielle". Un livre O'Reilly de 2005 utilise le terme dans son titre : Database Applications and the Web. Certaines des applications de base de données les plus complexes restent les systèmes comptables, tels que SAP, qui peuvent contenir des milliers de tables dans un seul module. Bon nombre des systèmes informatiques les plus utilisés aujourd'hui sont des applications de base de données, par exemple Facebook, qui a été construit sur MySQL. L'étymologie de l'expression « application de base de données » vient de la pratique consistant à diviser les logiciels informatiques en programmes système, tels que système, des compilateurs, le système de fichiers et des outils tels que le système de gestion de base de données et des programmes d'application, tels qu'un processeur de chèques de paie. Sur un PC standard exécutant Microsoft Windows, par exemple, le système d'exploitation Windows contient tous les programmes système, tandis que les jeux, les traitements de texte, les tableurs, les programmes de retouche photo, etc. seraient des programmes d'application. Comme "application" est l'abréviation de "programme d'application", "application de base de données" est l'abréviation de "programme d'application de base de données". Tous les programmes qui utilisent une base de données ne sont généralement pas considérés comme une "application de base de données". Par exemple, de nombreuses expériences de physique, par exemple le Large Hadron Collider, génèrent des ensembles de données massifs que des programmes analysent ensuite. Les ensembles de données constituent une "base de données", bien qu'ils ne soient généralement pas gérés avec un système de gestion de base de données relationnelle standard. Les programmes informatiques qui analysent les données sont principalement développés pour répondre à des hypothèses, pas pour remettre des informations dans la base de données et donc le programme global ne serait pas appelé une "application de base de données".
Audit de base de données/Audit de base de données :
L'audit de base de données consiste à observer une base de données afin d'être au courant des actions des utilisateurs de la base de données. Les administrateurs de bases de données et les consultants mettent souvent en place des audits à des fins de sécurité, par exemple, pour s'assurer que ceux qui n'ont pas l'autorisation d'accéder aux informations n'y accèdent pas.
Mise en cache de la base de données/Cache de la base de données :
La mise en cache de base de données est un processus inclus dans la conception d'applications informatiques qui génèrent des pages Web à la demande (dynamiquement) en accédant à des bases de données principales. Lorsque ces applications sont déployées sur des environnements à plusieurs niveaux qui impliquent des clients basés sur un navigateur, des serveurs d'applications Web et des bases de données principales, la mise en cache de la base de données de niveau intermédiaire est utilisée pour obtenir une évolutivité et des performances élevées. Dans une architecture à trois niveaux, le niveau du logiciel d'application et les données le niveau de stockage peut se trouver dans différents hôtes. Le débit d'une application peut être limité par la vitesse du réseau. Cette limitation peut être minimisée en plaçant la base de données au niveau de l'application. Étant donné que les logiciels de base de données commerciaux utilisent largement les ressources système, il n'est pas toujours pratique d'avoir l'application et la base de données sur le même hôte. Dans ce cas, une application de base de données plus légère peut être utilisée pour mettre en cache les données du système de gestion de base de données commercial.
Catalogue de bases de données/Catalogue de bases de données :
Un catalogue de base de données d'une instance de base de données se compose de métadonnées dans lesquelles les définitions d'objets de base de données tels que les tables de base, les vues (tables virtuelles), les synonymes, les plages de valeurs, les index, les utilisateurs et les groupes d'utilisateurs sont stockées. La norme SQL spécifie un moyen uniforme de accéder au catalogue, appelé INFORMATION_SCHEMA, mais toutes les bases de données ne le suivent pas, même si elles implémentent d'autres aspects du standard SQL. Pour un exemple de méthodes d'accès aux métadonnées spécifiques à la base de données, consultez Métadonnées Oracle.
Base de données cinéma/Base de données cinéma :
L'une des principales caractéristiques du cinéma traditionnel est une structure narrative fixe et linéaire. Dans Database Cinema cependant, l'histoire se développe en sélectionnant des scènes d'une collection donnée comme un jeu informatique dans lequel un joueur exécute certains actes et sélectionne ainsi des scènes et crée un récit.
Connexion à la base de données/Connexion à la base de données :
Une connexion à une base de données est une installation en informatique qui permet à un logiciel client de communiquer avec un logiciel serveur de base de données, que ce soit sur la même machine ou non. Une connexion est nécessaire pour envoyer des commandes et recevoir des réponses, généralement sous la forme d'un ensemble de résultats. Les connexions sont un concept clé dans la programmation centrée sur les données. Étant donné que certains moteurs de SGBD nécessitent un temps considérable pour se connecter, la mise en commun des connexions a été inventée pour améliorer les performances. Aucune commande ne peut être exécutée sur une base de données sans une connexion "ouverte et disponible" à celle-ci. Les connexions sont établies en fournissant un pilote ou un fournisseur sous-jacent avec une chaîne de connexion, qui est un moyen d'adresser une base de données ou un serveur et une instance spécifiques ainsi que les informations d'authentification de l'utilisateur (par exemple, Server=sql_box;Database=Common;User ID=uid ;Pwd=mot de passe;). Une fois qu'une connexion a été établie, elle peut être ouverte et fermée à volonté, et des propriétés (telles que la durée d'expiration de la commande ou la transaction, le cas échéant) peuvent être définies. La chaîne de connexion est composée d'un ensemble de paires clé/valeur tel que dicté par l'interface d'accès aux données et le fournisseur de données utilisé. De nombreuses bases de données (telles que PostgreSQL) n'autorisent qu'une seule opération à la fois sur chaque connexion. Si une demande de données (une instruction SQL Select) est envoyée à la base de données et qu'un jeu de résultats est renvoyé, la connexion est ouverte mais pas disponible pour d'autres opérations tant que le client n'a pas fini de consommer le jeu de résultats. D'autres bases de données, telles que SQL Server 2005 (et versions ultérieures), n'imposent pas cette limitation. Cependant, les bases de données qui fournissent plusieurs opérations par connexion entraînent généralement beaucoup plus de surcharge que celles qui n'autorisent qu'une seule tâche d'opération à la fois.
Conception de base de données/Conception de base de données :
La conception de base de données est l'organisation des données selon un modèle de base de données. Le concepteur détermine quelles données doivent être stockées et comment les éléments de données sont interdépendants. Avec ces informations, ils peuvent commencer à adapter les données au modèle de base de données. Le système de gestion de base de données gère les données en conséquence. La conception d'une base de données implique la classification des données et l'identification des interrelations. Cette représentation théorique des données s'appelle une ontologie. L'ontologie est la théorie derrière la conception de la base de données.
Vidage de la base de données/vidage de la base de données :
Un vidage de base de données contient un enregistrement de la structure de la table et/ou des données d'une base de données et se présente généralement sous la forme d'une liste d'instructions SQL ("vidage SQL"). Un vidage de base de données est le plus souvent utilisé pour sauvegarder une base de données afin que son contenu puisse être restauré en cas de perte de données. Les bases de données corrompues peuvent souvent être récupérées par l'analyse du vidage. Les vidages de base de données sont souvent publiés par des projets de contenu gratuits, pour faciliter la réutilisation, le forking, l'utilisation hors ligne et la conservation numérique à long terme. Les vidages peuvent être transportés dans des environnements avec des pannes d'Internet ou un accès Internet autrement restreint, ainsi que faciliter la recherche locale de la base de données à l'aide d'outils sophistiqués tels que grep.
Cryptage de la base de données/Cryptage de la base de données :
Le chiffrement de base de données peut généralement être défini comme un processus qui utilise un algorithme pour transformer les données stockées dans une base de données en "texte chiffré" incompréhensible sans d'abord être déchiffré. On peut donc dire que le but du cryptage de base de données est de protéger les données stockées dans une base de données contre l'accès par des individus ayant des intentions potentiellement "malveillantes". Le fait de crypter une base de données réduit également l'incitation des individus à pirater la base de données susmentionnée, car les données cryptées "sans signification" sont peu ou pas utiles aux pirates. Il existe plusieurs techniques et technologies disponibles pour le chiffrement des bases de données, dont les plus importantes seront détaillées dans cet article.
Moteur de base de données/Moteur de base de données :
Un moteur de base de données (ou moteur de stockage) est le composant logiciel sous-jacent qu'un système de gestion de base de données (SGBD) utilise pour créer, lire, mettre à jour et supprimer (CRUD) des données d'une base de données. La plupart des systèmes de gestion de base de données incluent leur propre interface de programmation d'application (API) qui permet à l'utilisateur d'interagir avec leur moteur sous-jacent sans passer par l'interface utilisateur du SGBD. Le terme « moteur de base de données » est fréquemment utilisé de manière interchangeable avec « serveur de base de données » ou « système de gestion de base de données ». Une "instance de base de données" fait référence aux processus et aux structures de mémoire du moteur de base de données en cours d'exécution.
Database engine_tuning_advisor/Conseiller de réglage du moteur de base de données :
Le conseiller de réglage du moteur de base de données (DETA) est un outil logiciel pour Microsoft SQL Server qui permet le réglage de la base de données. Il peut améliorer les performances des requêtes en ajustant les index, en créant, modifiant et supprimant des partitions et/ou des index. Il peut être configuré pour activer le réglage en ligne ou hors ligne.
Database for_bacterial_group_II_introns/Base de données pour les introns bactériens du groupe II :
La base de données pour les introns bactériens du groupe II est un référentiel d'introns du groupe II complets et non redondants présents dans la séquence d'ADN bactérienne. La base de données est établie pour la première fois en 2002 avec environ 40 introns. En moins de 10 ans, la base de données s'est élargie à 400 introns. La base de données actuelle comprend une mine d'informations sur les propriétés, les structures et la classification de l'intron du groupe II. En outre, il contient une liste de sites d'insertion d'intron, de séquences d'ADN, de séquences codant pour des protéines, ainsi que de structures secondaires d'ARN.
Forensics de bases de données/Forensics de bases de données :
La criminalistique des bases de données est une branche de la criminalistique numérique relative à l'étude médico-légale des bases de données et de leurs métadonnées associées. La discipline est similaire à la criminalistique informatique, suivant le processus médico-légal normal et appliquant des techniques d'enquête au contenu et aux métadonnées des bases de données. Des informations mises en cache peuvent également exister dans la RAM d'un serveur nécessitant des techniques d'analyse en direct. Un examen médico-légal d'une base de données peut concerner les horodatages qui s'appliquent à l'heure de mise à jour d'une ligne dans une table relationnelle en cours d'inspection et de test de validité afin de vérifier les actions d'un utilisateur de base de données. Alternativement, un examen médico-légal peut se concentrer sur l'identification des transactions au sein d'un système de base de données ou d'une application qui indiquent des preuves d'actes répréhensibles, tels que la fraude. Des outils logiciels peuvent être utilisés pour manipuler et analyser les données. Ces outils fournissent également des fonctionnalités de journalisation d'audit qui fournissent une preuve documentée des tâches ou analyses qu'un examinateur judiciaire a effectuées sur la base de données. Actuellement, de nombreux outils logiciels de base de données ne sont généralement pas suffisamment fiables et précis pour être utilisés pour des travaux médico-légaux, comme le démontre le premier article publié sur la criminalistique des bases de données. Il n'y a actuellement qu'un seul livre publié dans ce domaine, bien que d'autres soient destinés. De plus, Kevvie Fowler a publié un livre sur la criminalistique SQL Server intitulé SQL Server Forensics, qui est également bien considéré. L'étude médico-légale des bases de données relationnelles nécessite une connaissance de la norme utilisée pour coder les données sur le disque de l'ordinateur. Une documentation des normes utilisées pour coder les informations dans des marques bien connues de bases de données telles que SQL Server et Oracle a été ajoutée au domaine public. D'autres incluent Apex Analytix.Parce que l'analyse médico-légale d'une base de données n'est pas exécutée de manière isolée, le cadre technologique dans lequel une base de données de sujets existe est crucial pour comprendre et résoudre les questions d'authenticité et d'intégrité des données, en particulier en ce qui concerne les utilisateurs de la base de données.
Index de la base de données/Index de la base de données :
Un index de base de données est une structure de données qui améliore la vitesse des opérations de récupération de données sur une table de base de données au prix d'écritures supplémentaires et d'espace de stockage pour maintenir la structure de données d'index. Les index sont utilisés pour localiser rapidement les données sans avoir à rechercher chaque ligne dans une table de base de données à chaque accès à une table de base de données. Les index peuvent être créés à l'aide d'une ou plusieurs colonnes d'une table de base de données, fournissant la base à la fois pour des recherches aléatoires rapides et un accès efficace aux enregistrements ordonnés. Un index est une copie de colonnes de données sélectionnées, à partir d'une table, qui est conçue pour permettre une recherche très efficace. Un index comprend normalement une "clé" ou un lien direct vers la ligne de données d'origine à partir de laquelle il a été copié, pour permettre de récupérer efficacement la ligne complète. Certaines bases de données étendent la puissance de l'indexation en permettant aux développeurs de créer des index sur des valeurs de colonne qui ont été transformées par des fonctions ou des expressions. Par exemple, un index pourrait être créé sur upper(last_name), qui ne stockerait que les versions en majuscules du champ last_name dans l'index. Une autre option parfois prise en charge est l'utilisation d'index partiels, où les entrées d'index sont créées uniquement pour les enregistrements qui satisfont à une expression conditionnelle. Un autre aspect de la flexibilité consiste à permettre l'indexation sur des fonctions définies par l'utilisateur, ainsi que sur des expressions formées à partir d'un assortiment de fonctions intégrées.
Journalisme de base de données/Journalisme de base de données :
Le journalisme de base de données ou journalisme structuré est un principe de gestion de l'information selon lequel le contenu de l'actualité est organisé autour d'éléments de données structurés, par opposition aux reportages. Voir aussi Journalisme de données Le chercheur en communication Wiebke Loosen définit le journalisme de base de données comme "fournir aux bases de données des matières premières - articles, photos et autres contenus - en utilisant des systèmes de publication indépendants du support, puis en les rendant disponibles pour différents appareils".
Machine de base de données/Machine de base de données :
Une machine de base de données ou un processeur principal est un ordinateur ou un matériel spécial qui stocke et récupère les données d'une base de données. Il est spécialement conçu pour l'accès aux bases de données et est couplé au(x) ordinateur(s) principal(aux) (frontal) par un canal à haut débit. La machine de base de données est étroitement couplée au processeur principal, tandis que le serveur de base de données est faiblement couplé via le réseau. Les machines de base de données peuvent transférer de gros paquets de données vers l'ordinateur central en utilisant des centaines, voire des milliers de microprocesseurs avec un logiciel de base de données. Le processeur frontal reçoit les données et les affiche. Le processeur principal, quant à lui, analyse et stocke les données du processeur frontal. Les processeurs dorsaux se traduisent par des performances plus élevées, une augmentation de la mémoire principale de l'hôte, une augmentation de la récupération et de la sécurité de la base de données et une diminution des coûts de fabrication. La machine de base de données contraste avec un serveur de base de données, qui est un ordinateur dans un réseau local qui contient une base de données. Selon Julie McCann, "Actuellement, un SGBD contrôle l'organisation, le stockage et la récupération des données tout en régulant la sécurité et l'intégrité de la base de données, il accepte les demandes de données des programmes d'application et ordonne au système d'exploitation (OS) de transférer les données appropriées. . "Un exemple est l'IBM System/38.
Marketing de base de données/Marketing de base de données :
Le marketing de base de données est une forme de marketing direct utilisant des bases de données de clients ou de clients potentiels pour générer des communications personnalisées afin de promouvoir un produit ou un service à des fins de marketing. La méthode de communication peut être n'importe quel support adressable, comme dans le marketing direct. La distinction entre marketing direct et marketing par base de données découle principalement de l'attention portée à l'analyse des données. Le marketing de base de données met l'accent sur l'utilisation de techniques statistiques pour développer des modèles de comportement des clients, qui sont ensuite utilisés pour sélectionner les clients pour les communications. Par conséquent, les spécialistes du marketing des bases de données ont également tendance à être de gros utilisateurs d'entrepôts de données, car le fait d'avoir une plus grande quantité de données sur les clients augmente la probabilité qu'un modèle plus précis puisse être construit. Il existe deux principaux types de bases de données marketing, 1) les bases de données consommateurs et 2) les bases de données commerciales. Les bases de données consommateurs sont principalement destinées aux entreprises qui vendent aux consommateurs, souvent abrégées en [business-to-consumer] (B2C) ou BtoC. Les bases de données de marketing d'entreprise sont souvent beaucoup plus avancées dans les informations qu'elles peuvent fournir. Cela est principalement dû au fait que les bases de données professionnelles ne sont pas limitées par les mêmes lois sur la confidentialité que les bases de données grand public. La "base de données" est généralement constituée de noms, d'adresses et de détails sur l'historique des transactions provenant de systèmes de vente ou de livraison internes, ou d'une "liste" compilée achetée par une autre organisation, qui a capturé ces informations auprès de ses clients. Les sources typiques de listes compilées sont les formulaires de dons caritatifs, les formulaires de demande pour tout produit ou concours gratuit, les cartes de garantie de produit, les formulaires d'abonnement et les formulaires de demande de crédit.
Modèle de base de données/Modèle de base de données :
Un modèle de base de données est un type de modèle de données qui détermine la structure logique d'une base de données. Il détermine fondamentalement de quelle manière les données peuvent être stockées, organisées et manipulées. L'exemple le plus populaire d'un modèle de base de données est le modèle relationnel, qui utilise un format basé sur des tables.
Normalisation de la base de données/Normalisation de la base de données :
La normalisation de base de données est le processus de structuration d'une base de données relationnelle selon une série de formes dites normales afin de réduire la redondance des données et d'améliorer l'intégrité des données. Il a été proposé pour la première fois par Edgar F. Codd dans le cadre de son modèle relationnel. La normalisation implique l'organisation des colonnes (attributs) et des tables (relations) d'une base de données pour s'assurer que leurs dépendances sont correctement appliquées par les contraintes d'intégrité de la base de données. Il est accompli en appliquant certaines règles formelles soit par un processus de synthèse (création d'une nouvelle conception de base de données) ou de décomposition (amélioration d'une conception de base de données existante).
Base de données_des_protéines_interagissantes/Base de données des protéines interagissantes :
La Database of Interacting Proteins (DIP) est une base de données biologiques qui répertorie les interactions déterminées expérimentalement entre protéines. Il combine des informations provenant de diverses sources pour créer un ensemble unique et cohérent d'interactions protéine-protéine. Les données stockées dans DIP ont été organisées, à la fois manuellement, par des conservateurs experts, et automatiquement, à l'aide d'approches informatiques qui utilisent les connaissances sur les réseaux d'interaction protéine-protéine extraites du sous-ensemble de base le plus fiable des données DIP. La base de données a été initialement publiée en 2002. Depuis 2014, DIP est organisé par le groupe de recherche de David Eisenberg à UCLA. DIP peut être recherché via son interface Web ; les recherches peuvent être basées sur les interactions décrites dans un article de revue sélectionné, ou sur des interactions étayées par des preuves expérimentales, entre autres. DIP est membre de l'International Molecular Exchange Consortium (IMEx), un groupe des principaux fournisseurs publics de données d'interaction. Les autres bases de données participantes incluent la base de données du réseau d'interaction biomoléculaire (BIND), IntAct, la base de données d'interaction moléculaire (MINT), MIPS, MPact et BioGRID. Les bases de données d'IMEx fonctionnent ensemble pour éviter les duplications d'efforts, en collectant des données à partir de sources qui ne se chevauchent pas et en partageant les données d'interaction organisées. Le consortium IMEx a également travaillé au développement du format XML HUPO-PSI-MI, qui est maintenant largement mis en œuvre. Toutes les informations contenues dans DIP sont disponibles gratuitement sous une licence Creative Commons BY-ND 3.0.
Database of_Molecular_Motions/Database of Molecular Motions :
La base de données des mouvements macromoléculaires est une base de données bioinformatique et un outil logiciel en tant que service qui tente de catégoriser les mouvements macromoléculaires, parfois également appelés changement conformationnel. Il a été développé à l'origine par Mark B. Gerstein, Werner Krebs et Nat Echols du département de biophysique moléculaire et de biochimie de l'Université de Yale.
Base de données de_musique_américaine_enregistrée/Base de données de musique américaine enregistrée :
La base de données de musique américaine enregistrée (DRAM) est une ressource en ligne en croissance constante offrant un accès multimédia en continu de haute qualité à la demande à près de 9 000 œuvres musicales essentielles de 15 maisons de disques, ainsi que leurs notes de pochette, pochettes d'album et autres. matériaux. Conçus principalement pour être utilisés dans un environnement universitaire, tous les documents sont interrogeables par mot-clé à l'aide d'un certain nombre de critères, notamment le compositeur, l'interprète, la date de publication, la classification de la Bibliothèque du Congrès et l'étiquette d'origine. DRAM facilite actuellement l'utilisation de la musique dans la recherche pour les étudiants et les professeurs sur 90 campus et donne la priorité philosophique à la bourse dans son approche du développement des collections et de la propriété intellectuelle. La base de données a commencé comme un projet de New World Records, Inc., un label d'enregistrement à but non lucratif qui a maintenu avec succès une mission très précise et distinctive pendant plus de trente ans : documenter et diffuser activement le travail de compositeurs américains, sélectionnés uniquement fondée sur la valeur artistique. Négligées par l'industrie du disque commercial, dont la principale motivation est de minimiser les risques pour la marge bénéficiaire, ce sont des compositions importantes qui seraient autrement rarement entendues et étroitement accessibles à l'écoute ou à l'étude. Cependant, grâce à la DRAM, les étudiants, les professeurs et les universitaires affiliés aux universités abonnées peuvent accéder à la base de données depuis leur bibliothèque, leur domicile ou tout autre endroit, et peuvent utiliser le système aussi souvent qu'ils le souhaitent sans frais pour l'individu. En 2006, la société mère de DRAM et New World Records a modifié son nom de Recorded Anthology of American Music, Inc. (RAAM) à Anthology of Recorded Music, Inc. (ARM) et sa charte afin d'autoriser les œuvres de compositeurs non américains. à inclure dans la DRAM. Bien que New World Records reste exclusivement dédié au compositeur américain, la mission de DRAM a été élargie pour inclure du contenu provenant de sources et de compositeurs étrangers, tant qu'il satisfait aux exigences de conservation de la collection.
Base de données des_artistes_du_salon/Base de données des artistes du salon :
La base de données des artistes du Salon est une ressource répertoriant toutes les soumissions au Salon de Paris entre 1827 et 1850, en utilisant des informations dérivées des registres originaux du Salon maintenant conservés aux Archives des Musées Nationaux, qui font partie du Service des Bibliothèques, des Archives et de la Documentation. Générale des Musées de France. Lancé en mars 2014, il répertorie plus de 80 000 entrées de tous types (peinture, sculpture, gravure, lithographie, etc.) tout en enregistrant le dossier d'exposition de chaque artiste soumettant une œuvre au Salon. Elle comprend également des informations biographiques pour la majorité de ces artistes, telles que le lieu de naissance, la date de naissance et la formation artistique. L'État français, les artistes et l'Académie, 1830-1852' à l'Université d'Exeter. La Base de données est également accessible via le site Internet des Archives des Musées Nationaux (AMN), basées au Palais du Louvre.
Database of_protein_conformational_diversity/Base de données de la diversité conformationnelle des protéines :
La base de données sur la diversité conformationnelle des protéines (PCDB) est une base de données sur la diversité des structures tertiaires des protéines dans les domaines protéiques, déterminée par cristallographie aux rayons X. Les protéines sont intrinsèquement flexibles et cette base de données recueille des informations sur ce sujet pour une utilisation dans la recherche moléculaire. Il utilise la base de données CATH comme source de structures pour chaque protéine et signale la plage de différences dans les structures en fonction de leur superposition et signale une RMSD maximale. L'interface de la base de données permet aux chercheurs de trouver des protéines avec une gamme de flexibilité conformationnelle leur permettant de trouver des protéines très flexibles par exemple. La base de données est gérée et maintenue par un groupe de chercheurs basés à l'Universidad Nacional de Quilmes en Argentine.
Base de données sur les attentats-suicides/Base de données sur les attentats-suicide :
La base de données sur les attaques suicides (DSAT ou CPOST-DSAT) est une base de données gérée par le Chicago Project on Security and Threats (CPOST) de l'Université de Chicago. La base de données est accessible au public et comprend tous les attentats suicides connus de 1974 à 2019.
Préservation de la base de données/préservation de la base de données :
La préservation des bases de données consiste généralement à convertir les informations stockées dans une base de données sous une forme susceptible d'être accessible à long terme au fur et à mesure de l'évolution de la technologie, sans perdre les caractéristiques initiales (contexte, contenu, structure, apparence et comportement) des données. bases de données, différentes méthodes ont été développées pour aider à la préservation des bases de données et de leur contenu. Ces méthodes varient en fonction des caractéristiques de la base de données et des besoins de préservation. Il existe trois méthodes de base de préservation de la base de données : la migration, XML et l'émulation. Il existe également certains outils, logiciels et projets qui ont été créés pour aider à la préservation des bases de données, notamment SIARD, la boîte à outils de préservation numérique, CHRONOS et RODA.
Publication de base de données/Publication de base de données :
La publication de bases de données est un domaine de la production de médias automatisés dans lequel des techniques spécialisées sont utilisées pour générer des documents paginés à partir de données sources résidant dans des bases de données traditionnelles. Des exemples courants sont les catalogues de vente par correspondance, le marketing direct, la génération de rapports, les listes de prix et les annuaires téléphoniques. Le contenu de la base de données peut être sous forme de texte et d'images, mais peut également contenir des métadonnées liées au formatage et des règles spéciales qui peuvent s'appliquer au processus de génération de documents. La publication de base de données peut être intégrée à des flux de travail plus importants en tant que composant, où les documents sont créés, approuvés, révisés et publiés. L'idée de base consiste à utiliser le contenu de la base de données, comme les informations sur les articles et les prix, pour remplir des modèles de documents préformatés. Les modèles sont généralement créés dans une application de mise en page de bureau normale où certaines zones ou certains textes sont désignés comme espaces réservés. Ces espaces réservés sont ensuite ciblés avec un nouveau contenu provenant de la base de données. Cela permet de générer rapidement la sortie finale et, en cas de modification de la base de données, d'effectuer rapidement des mises à jour, avec une intervention manuelle limitée ou nulle. Un autre modèle de publication de base de données se trouve dans de nombreux sites d'impression Web où les utilisateurs parcourent les modèles d'un catalogue en ligne (tels que des cartes de visite ou des brochures), personnalisent le modèle sélectionné en remplissant un formulaire, puis visualisent le résultat rendu. Dans ce cas, la source initiale de données provient de l'entrée de l'utilisateur, mais elle est capturée dans une base de données afin que si le même utilisateur revisite le site plus tard, il puisse reprendre l'édition là où il s'était arrêté. Le formulaire est ensuite pré-rempli à partir des variables stockées dans la base de données que l'utilisateur a saisies auparavant. Les principales applications de mise en page pour ce workflow sont : Datalogics Pager, Adobe FrameMaker / InDesign, QuarkXPress, Xyvision, Arbortext Advanced Print Publisher (anciennement 3B2) et priint:suite. Généralement, ces applications de mise en page ont une version de serveur correspondante, qui reçoit des commandes via des interfaces Web plutôt qu'une interaction de bureau. QuarkXPress Server et Adobe InDesign Server tirent pleinement parti des fonctionnalités de conception disponibles dans leurs versions de bureau respectives. Ces applications rendent leur large éventail de fonctionnalités disponibles pour l'extension et l'intégration avec des produits verticaux, qui peuvent être développés soit en interne, via une forme de script (par exemple, JavaScript ou AppleScript pour InDesign), soit en externe, via certaines API et les kits de développement correspondants. D'autres variantes de la publication de base de données sont le rendu du contenu pour une sortie PDF directe. Cette approche empêche l'intervention manuelle sur la sortie finale, car le PDF n'est pas (confortablement) modifiable. Cela peut ne pas être perçu comme une limitation dans des situations telles que la génération de rapports où la possibilité de modification manuelle n'est pas nécessaire ou n'est pas souhaitée.
Refactoring de la base de données/Refactoring de la base de données :
Une refactorisation de base de données est une simple modification d'un schéma de base de données qui améliore sa conception tout en conservant à la fois sa sémantique comportementale et informationnelle. La refactorisation de la base de données ne change pas la façon dont les données sont interprétées ou utilisées et ne corrige pas les bogues ou n'ajoute pas de nouvelles fonctionnalités. Chaque refactorisation d'une base de données laisse le système dans un état de fonctionnement, n'entraînant ainsi pas de retards de maintenance, à condition que les données significatives existent dans l'environnement de production. Une refactorisation de base de données est conceptuellement plus difficile qu'une refactorisation de code ; les refactorisations de code doivent uniquement conserver la sémantique comportementale, tandis que les refactorisations de base de données doivent également conserver la sémantique informationnelle. Un schéma de base de données est généralement refactorisé pour l'une des raisons suivantes : Pour développer le schéma de manière évolutive parallèlement à la conception évolutive du reste du système. Pour résoudre les problèmes de conception avec un schéma de base de données hérité existant. Les refactorisations de base de données sont souvent motivées par le désir de normaliser la base de données d'une base de données de production existante, généralement pour "nettoyer" la conception de la base de données. Mettre en œuvre ce qui serait un changement important (et potentiellement risqué) sous la forme d'une série de petits changements à faible risque.
Réparation de base de données/Réparation de base de données :
Le problème de la réparation des bases de données est une question sur les bases de données relationnelles qui a été étudiée dans la théorie des bases de données, et qui est un type particulier de nettoyage des données. Le problème demande comment nous pouvons "réparer" une base de données relationnelle d'entrée afin de lui faire satisfaire des contraintes d'intégrité. Le but du problème est de pouvoir travailler avec des données "sales", c'est-à-dire ne satisfaisant pas les bonnes contraintes d'intégrité, en raisonnant sur toutes les réparations possibles des données, c'est-à-dire toutes les manières possibles de changer les données pour faire il satisfait les contraintes d'intégrité, sans engager de choix particulier. Plusieurs variantes du problème existent, selon : ce que nous avons l'intention de comprendre à propos des données modifiées : déterminer si un tuple de base de données est certain (c'est-à-dire, se trouve dans chaque base de données réparée), déterminer si une réponse à une requête est certaine (c'est-à-dire, la réponse est renvoyée lors de l'évaluation de la requête sur chaque base de données réparée) quels types de moyens sont autorisés pour réparer la base de données : pouvons-nous insérer de nouveaux faits, supprimer des faits (appelées réparations de sous-ensembles), et ainsi de suite quelles bases de données réparées étudions-nous : ceux où nous ne modifions qu'un sous-ensemble minimal des tuples de la base de données (par exemple, des réparations minimales de sous-ensembles), ceux où nous ne modifions qu'un nombre minimal de tuples de la base de données (par exemple, des réparations de cardinalité minimales) Le problème de la réparation de la base de données a été étudié pour comprendre ce qui est la complexité de ces différentes variantes du problème, c'est-à-dire peut-on déterminer efficacement des informations sur l'état des réparations, sans matérialiser explicitement l'ensemble de ces réparations.
Droit base de données/Droit base de données :
Un droit de base de données est un droit de propriété sui generis, comparable mais distinct du droit d'auteur, qui existe pour reconnaître l'investissement réalisé dans la constitution d'une base de données, même lorsque cela n'implique pas l'aspect "créatif" reflété par le droit d'auteur. Ces droits sont souvent désignés au pluriel : droits de base de données. L'Accord sur les ADPIC exige que la protection du droit d'auteur s'étende aux bases de données et autres compilations si elles constituent une création intellectuelle en raison de la sélection ou de l'arrangement de leur contenu, même si tout ou partie du contenu ne constitue pas lui-même des éléments protégés par le droit d'auteur. De nombreux pays agissent conformément à cette exigence, car les bases de données sont protégées par le droit d'auteur si cette condition est remplie, et il n'existe pas de droit de propriété intellectuelle distinct protégeant les bases de données (ou tout aspect de celles-ci) qui ne remplissent pas la condition de protection du droit d'auteur. Le droit de base de données étend la protection sur les bases de données qui ne dépend pas de la condition requise pour la protection du droit d'auteur, et n'est reconnu que dans un petit nombre de juridictions, notamment l'Union européenne.
Évolutivité de la base de données/Évolutivité de la base de données :
L'évolutivité de la base de données est la capacité d'une base de données à gérer l'évolution des demandes en ajoutant/supprimant des ressources. Les bases de données utilisent une foule de techniques pour y faire face.
Horaire de la base de données/Horaire de la base de données :
Horaire de la base de données
Schéma de la base de données/Schéma de la base :
Le schéma de base de données est la structure d'une base de données décrite dans un langage formel pris en charge par le système de gestion de base de données (SGBD). Le terme « schéma » fait référence à l'organisation des données en tant que modèle de la façon dont la base de données est construite (divisée en tables de base de données dans le cas des bases de données relationnelles). La définition formelle d'un schéma de base de données est un ensemble de formules (phrases) appelées contraintes d'intégrité imposées à une base de données. Ces contraintes d'intégrité assurent la compatibilité entre les parties du schéma. Toutes les contraintes sont exprimables dans le même langage. Une base de données peut être considérée comme une structure dans la réalisation du langage de base de données. Les états d'un schéma conceptuel créé sont transformés en un mappage explicite, le schéma de la base de données. Cela décrit comment les entités du monde réel sont modélisées dans la base de données. "Un schéma de base de données spécifie, sur la base des connaissances de l'administrateur de la base de données sur les applications possibles, les faits qui peuvent entrer dans la base de données ou ceux qui intéressent les éventuels utilisateurs finaux." La notion de schéma de base de données joue le même rôle que la notion de théorie dans le calcul des prédicats. Un modèle de cette "théorie" correspond étroitement à une base de données, qui peut être vue à tout instant comme un objet mathématique. Ainsi, un schéma peut contenir des formules représentant des contraintes d'intégrité spécifiques à une application et des contraintes spécifiques à un type de base de données, toutes exprimées dans le même langage de base de données. Dans une base de données relationnelle, le schéma définit les tables, les champs, les relations, les vues, les index, les packages, les procédures, les fonctions, les files d'attente, les déclencheurs, les types, les séquences, les vues matérialisées, les synonymes, les liens de base de données, les répertoires, les schémas XML et d'autres éléments. Une base de données stocke généralement son schéma dans un dictionnaire de données. Bien qu'un schéma soit défini dans un langage de base de données texte, le terme est souvent utilisé pour désigner une représentation graphique de la structure de la base de données. En d'autres termes, le schéma est la structure de la base de données qui définit les objets de la base de données. Dans un système Oracle Database, le terme "schéma" a une connotation légèrement différente.
Moteur de recherche_base de données/Moteur de recherche de base de données :
Un moteur de recherche de base de données est un moteur de recherche qui fonctionne sur du matériel stocké dans une base de données numérique.
Sécurité de la base de données/Sécurité de la base de données :
La sécurité des bases de données concerne l'utilisation d'un large éventail de contrôles de sécurité de l'information pour protéger les bases de données (y compris potentiellement les données, les applications de base de données ou les fonctions stockées, les systèmes de base de données, les serveurs de base de données et les liens réseau associés) contre les compromissions de leur confidentialité, intégrité et disponibilité. Il implique différents types ou catégories de contrôles, tels que techniques, procéduraux/administratifs et physiques. Les risques de sécurité pour les systèmes de base de données comprennent, par exemple : une activité non autorisée ou involontaire ou une mauvaise utilisation par des utilisateurs de base de données autorisés, des administrateurs de base de données ou des gestionnaires de réseau/systèmes, ou par des utilisateurs non autorisés ou des pirates (par exemple, un accès inapproprié à des données sensibles, des métadonnées ou des fonctions au sein des bases de données, ou des modifications inappropriées des programmes, des structures ou des configurations de sécurité de la base de données ); Les infections de logiciels malveillants provoquant des incidents tels que l'accès non autorisé, la fuite ou la divulgation de données personnelles ou exclusives, la suppression ou l'endommagement des données ou des programmes, l'interruption ou le refus de l'accès autorisé à la base de données, les attaques sur d'autres systèmes et la défaillance imprévue des services de base de données ; Surcharges, contraintes de performance et problèmes de capacité entraînant l'incapacité des utilisateurs autorisés à utiliser les bases de données comme prévu ; Dommages physiques aux serveurs de bases de données causés par des incendies ou des inondations dans la salle informatique, une surchauffe, la foudre, des déversements accidentels de liquide, une décharge statique, des pannes électroniques/pannes d'équipement et l'obsolescence ; Défauts de conception et bogues de programmation dans les bases de données et les programmes et systèmes associés, créant diverses vulnérabilités de sécurité (par exemple, escalade de privilèges non autorisée), perte/corruption de données, dégradation des performances, etc. ; Corruption et/ou perte de données causées par la saisie de données ou de commandes invalides, erreurs dans les processus d'administration de la base de données ou du système, sabotage/dommages criminels, etc. atteintes à la sécurité; si un grand système est conçu pour faciliter l'accès, il devient peu sûr ; s'il est rendu étanche, il devient impossible à utiliser. Ceci est parfois connu sous le nom de règle d'Anderson. De nombreuses couches et types de contrôle de la sécurité des informations sont appropriés pour les bases de données, notamment : Contrôle d'accès Audit Authentification Cryptage Contrôles d'intégrité Sauvegardes Sécurité des applications Sécurité des bases de données en appliquant la méthode statistique pare-feu et systèmes de détection d'intrusion basés sur le réseau. Bien que les contrôles de sécurité du réseau restent utiles à cet égard, la sécurisation des systèmes de base de données eux-mêmes, ainsi que des programmes/fonctions et données qu'ils contiennent, est sans doute devenue plus critique à mesure que les réseaux sont de plus en plus ouverts à un accès plus large, en particulier à partir d'Internet. De plus, les contrôles d'accès au système, aux programmes, aux fonctions et aux données, ainsi que les fonctions associées d'identification, d'authentification et de gestion des droits des utilisateurs, ont toujours été importants pour limiter et, dans certains cas, enregistrer les activités des utilisateurs autorisés et des administrateurs. En d'autres termes, ce sont des approches complémentaires de la sécurité des bases de données, fonctionnant à la fois de l'extérieur vers l'intérieur et de l'intérieur vers l'extérieur pour ainsi dire. De nombreuses organisations développent leurs propres normes et conceptions de sécurité « de base » détaillant les mesures de contrôle de sécurité de base pour leurs systèmes de base de données. Celles-ci peuvent refléter les exigences générales en matière de sécurité des informations ou les obligations imposées par les politiques de sécurité des informations de l'entreprise et les lois et réglementations applicables (par exemple, concernant la confidentialité, la gestion financière et les systèmes de reporting), ainsi que les bonnes pratiques de sécurité des bases de données généralement acceptées (telles que le renforcement approprié des systèmes sous-jacents) et peut-être des recommandations de sécurité du système de base de données et des fournisseurs de logiciels concernés. Les conceptions de sécurité pour des systèmes de base de données spécifiques spécifient généralement d'autres fonctions d'administration et de gestion de la sécurité (telles que l'administration et la création de rapports sur les droits d'accès des utilisateurs, la gestion et l'analyse des journaux, la réplication/synchronisation et les sauvegardes de la base de données) ainsi que divers contrôles de sécurité des informations axés sur l'entreprise au sein de la base de données. programmes et fonctions (par exemple, validation de la saisie des données et pistes d'audit). En outre, diverses activités liées à la sécurité (contrôles manuels) sont normalement intégrées dans les procédures, directives, etc. relatives à la conception, au développement, à la configuration, à l'utilisation, à la gestion et à la maintenance des bases de données.
Amorçage de la base de données/Amorçage de la base de données :
L'ensemencement de la base de données consiste à remplir une base de données avec un ensemble initial de données. Il est courant de charger des données de départ telles que des comptes d'utilisateurs initiaux ou des données factices lors de la configuration initiale d'une application.
Serveur de base de données/Serveur de base de données :
Un serveur de base de données est un serveur qui utilise une application de base de données qui fournit des services de base de données à d'autres programmes informatiques ou à des ordinateurs, tels que définis par le modèle client-serveur. Les systèmes de gestion de base de données (SGBD) fournissent fréquemment des fonctionnalités de serveur de base de données, et certains systèmes de gestion de base de données (tels que MySQL) reposent exclusivement sur le modèle client-serveur pour l'accès à la base de données (tandis que d'autres, comme SQLite, sont destinés à être utilisés comme une base de données intégrée) . Les utilisateurs accèdent à un serveur de base de données soit via un "front end" exécuté sur l'ordinateur de l'utilisateur - qui affiche les données demandées - soit via le "back end", qui s'exécute sur le serveur et gère des tâches telles que l'analyse et le stockage des données. Dans un modèle maître-esclave, les serveurs maîtres de base de données sont des emplacements centraux et primaires de données, tandis que les serveurs esclaves de base de données sont des sauvegardes synchronisées du maître agissant en tant que proxys. La plupart des applications de base de données répondent à un langage de requête. Chaque base de données comprend son langage de requête et convertit chaque requête soumise sous une forme lisible par le serveur et l'exécute pour récupérer les résultats. Oracle, IBM Db2, Informix et Microsoft SQL Server sont des exemples d'applications de base de données propriétaires. Des exemples d'applications de bases de données logicielles gratuites incluent PostgreSQL ; et sous la licence publique générale GNU incluent Ingres et MySQL. Chaque serveur utilise sa propre logique et structure de requête. Le langage de requête SQL (Structured Query Language) est plus ou moins le même sur toutes les applications de bases de données relationnelles. Pour plus de clarté, un serveur de base de données est simplement un serveur qui maintient des services liés aux clients via des applications de base de données. DB-Engines répertorie plus de 300 SGBD dans son classement.
État de la base de données/État de la base de données :
L'état de la base de données peut faire référence à : l'état de la base de données, dans la technologie des bases de données, l'ensemble des données stockées. La saisie, la modification ou la suppression d'informations change l'état de la base de données. * Données réelles stockées à un moment donné dans le temps. Voir aussi Système de transition d'état et Modèles de machines à états finis. Un État qui pratique la surveillance de masse.
Structures de stockage de la base de données/Structures de stockage de la base de données :
Les tables et les index de base de données peuvent être stockés sur disque sous l'une des nombreuses formes, y compris les fichiers plats ordonnés/non ordonnés, ISAM, les fichiers de tas, les compartiments de hachage ou les arbres B+. Chaque forme a ses propres avantages et inconvénients. Les formes les plus couramment utilisées sont les arbres B et ISAM. De telles formes ou structures sont un aspect du schéma global utilisé par un moteur de base de données pour stocker des informations.
Test de base de données/Test de base de données :
Le test de base de données consiste généralement en un processus en couches, comprenant la couche d'interface utilisateur (UI), la couche métier, la couche d'accès aux données et la base de données elle-même. La couche UI traite de la conception de l'interface de la base de données, tandis que la couche métier comprend des bases de données prenant en charge les stratégies commerciales.
Théorie des bases de données/Théorie des bases de données :
La théorie des bases de données englobe un large éventail de sujets liés à l'étude et à la recherche du domaine théorique des bases de données et des systèmes de gestion de bases de données. Les aspects théoriques de la gestion des données comprennent, entre autres, les fondements des langages de requête, la complexité de calcul et la puissance expressive des requêtes, la théorie des modèles finis, la théorie de la conception des bases de données, la théorie des dépendances, les fondements du contrôle de la concurrence et de la récupération des bases de données, les bases de données déductives, les données temporelles et spatiales. bases de données, bases de données temps réel, gestion de données incertaines et bases de données probabilistes, et données Web. La plupart des travaux de recherche ont traditionnellement été basés sur le modèle relationnel, puisque ce modèle est généralement considéré comme le modèle d'intérêt le plus simple et le plus fondamental. Les résultats correspondants pour d'autres modèles de données, tels que les modèles orientés objet ou semi-structurés, ou, plus récemment, les modèles de données graphiques et XML, peuvent souvent être dérivés de ceux du modèle relationnel. Un objectif central de la théorie des bases de données est de comprendre la complexité et la puissance des langages de requête et leur connexion à la logique. En partant de l'algèbre relationnelle et de la logique du premier ordre (qui sont équivalentes par le théorème de Codd) et de l'idée que des requêtes importantes telles que l'accessibilité des graphes ne sont pas exprimables dans ce langage, un langage plus puissant basé sur la programmation logique et la logique des points fixes tels que le datalog a été étudié. Un autre accent a été mis sur les fondements de l'optimisation des requêtes et de l'intégration des données. Ici, la plupart des travaux ont étudié les requêtes conjonctives, qui admettent l'optimisation des requêtes même sous des contraintes utilisant l'algorithme de chasse. Les principales conférences de recherche dans le domaine sont le Symposium ACM sur les principes des systèmes de bases de données (PODS) et la Conférence internationale sur la théorie des bases de données (ICDT).
Transaction de base de données/Transaction de base de données :
Une transaction de base de données symbolise une unité de travail, effectuée au sein d'un système de gestion de base de données (ou système similaire) par rapport à une base de données, qui est traitée de manière cohérente et fiable indépendamment des autres transactions. Une transaction représente généralement tout changement dans une base de données. Les transactions dans un environnement de base de données ont deux objectifs principaux : fournir des unités de travail fiables qui permettent une récupération correcte après des pannes et maintiennent la cohérence d'une base de données même en cas de panne du système. Par exemple : lorsque l'exécution s'arrête prématurément et de manière inattendue (complètement ou partiellement), auquel cas de nombreuses opérations sur une base de données restent inachevées, avec un statut incertain. Pour fournir une isolation entre les programmes accédant simultanément à une base de données. Si cet isolement n'est pas fourni, les résultats des programmes sont peut-être erronés. Dans un système de gestion de base de données, une transaction est une seule unité de logique ou de travail, parfois composée de plusieurs opérations. Tout calcul logique effectué en mode cohérent dans une base de données est appelé transaction. Un exemple est un transfert d'un compte bancaire à un autre : la transaction complète nécessite de soustraire le montant à transférer d'un compte et d'ajouter ce même montant à l'autre. Une transaction de base de données, par définition, doit être atomique (elle doit être complète dans son intégralité ou n'avoir aucun effet), cohérente (elle doit se conformer aux contraintes existantes dans la base de données), isolée (elle ne doit pas affecter les autres transactions) et durable (il doit être écrit dans un stockage persistant). Les spécialistes des bases de données font souvent référence à ces propriétés des transactions de base de données en utilisant l'acronyme ACID.
Déclencheur de base de données/Déclencheur de base de données :
Un déclencheur de base de données est un code procédural qui est automatiquement exécuté en réponse à certains événements sur une table ou une vue particulière dans une base de données. Le déclencheur est principalement utilisé pour maintenir l'intégrité des informations sur la base de données. Par exemple, lorsqu'un nouvel enregistrement (représentant un nouveau travailleur) est ajouté à la table des employés, de nouveaux enregistrements doivent également être créés dans les tables des impôts, des vacances et des salaires. Les déclencheurs peuvent également être utilisés pour enregistrer des données historiques, par exemple pour suivre les salaires précédents des employés.
Optimisation de la base de données/Optimisation de la base de données :
Le réglage de la base de données décrit un groupe d'activités utilisées pour optimiser et homogénéiser les performances d'une base de données. Il chevauche généralement le réglage des requêtes, mais fait référence à la conception des fichiers de base de données, à la sélection de l'application du système de gestion de base de données (SGBD) et à la configuration de l'environnement de la base de données (système d'exploitation, CPU, etc.). Le réglage de la base de données vise à maximiser l'utilisation des ressources système pour effectuer le travail aussi efficacement et rapidement que possible. La plupart des systèmes sont conçus pour gérer leur utilisation des ressources système, mais il reste encore beaucoup à faire pour améliorer leur efficacité en personnalisant leurs paramètres et leur configuration pour la base de données et le SGBD.
Virtualisation de base de données/Virtualisation de base de données :
La virtualisation de base de données est le découplage de la couche de base de données, qui se situe entre les couches de stockage et d'application au sein de la pile d'applications. La virtualisation de la couche base de données permet de passer du physique au logique ou au virtuel. La virtualisation permet de regrouper et d'allouer les ressources de calcul et de stockage à la demande. Cela permet à la fois le partage de ressources de serveur unique pour la multilocation, ainsi que la mise en commun des ressources de serveur dans une seule base de données logique ou un cluster. Dans les deux cas, la virtualisation des bases de données offre une flexibilité accrue, une allocation plus granulaire et efficace des ressources mises en commun et une informatique plus évolutive.
Databending/Databending :
Le databending (ou pliage de données) est le processus de manipulation d'un fichier multimédia d'un certain format, à l'aide d'un logiciel conçu pour éditer des fichiers d'un autre format. Des distorsions dans le support se produisent généralement en conséquence, et le processus tombe dans une catégorie plus large de, ou est fréquemment utilisé dans l'art glitch.
Datablitz/Datablitz :
DataBlitz est un système de gestion de base de données de mémoire principale à usage général, développé par Lucent Bell Labs Research de 1993 à 1995. Il a remplacé divers produits de base de données locaux utilisés dans Lucent à partir de 1997. Il s'appelait à l'origine "Dali" et assurait la récupération et la simultanéité. fonctions de contrôle. Plus tard, Dali a été renommé "DataBlitz". DataBlitz fournit une plate-forme pour créer des applications de mémoire partagée hautes performances qui peuvent survivre aux pannes ou organiser de grandes quantités de données avec des fonctionnalités adaptées à de nombreuses applications. Les applications pour DataBlitz incluent : Commutation et routage des appels dans les télécommunications Facturation en temps réel Serveurs Web hautes performances Applications de trading financier Mise en cache des données
Databricks/Databricks :
Databricks est une société américaine de logiciels d'entreprise fondée par les créateurs d'Apache Spark. Databricks développe une plate-forme Web pour travailler avec Spark, qui fournit une gestion automatisée des clusters et des blocs-notes de style IPython.
Bus de données/Bus de données :
Le bus de données peut faire référence à : Bus (informatique), un système de communication qui transfère des données entre différents composants d'un ordinateur ou entre différents ordinateurs. Bus mémoire, un bus entre l'ordinateur et la mémoire. Bus PCI, un bus entre la carte mère et les périphériques qui utilise le périphérique. Component Interconnect standard USB (Universal Serial Bus), un protocole de communication standard utilisé par de nombreux appareils portables, périphériques informatiques et supports de stockage Programming Language for Business, un langage de programmation orienté métier initialement appelé DATABUS le projet Databus de DBpedia
Datacap/Datacap :
Datacap (une société IBM), une société privée, fabrique et vend des logiciels et des services informatiques. Le premier produit de Datacap, Paper Keyboard, était un produit de "traitement de formulaires" et expédié en 1989. En août 2010, IBM a annoncé qu'elle avait acquis Datacap pour un montant non divulgué. Datacap vend des produits via un réseau de distribution à valeur ajoutée dans le monde entier. Le logiciel est classé comme "logiciel d'entreprise", ce qui signifie qu'il nécessite des professionnels formés pour l'installer et le configurer. Bien que la société se soit concentrée sur la fourniture de solutions de numérisation de documents papier, les documents de la société ont récemment mis l'accent sur les exigences des clients en matière de traitement des documents électroniques ("eDocs"), les documents reçus dans une organisation par voie électronique (généralement par courrier électronique). Datacap affirme que son logiciel est unique en raison du moteur de règles (« Rulerunner ») utilisé pour le traitement des documents entrants, y compris l'exécution du traitement d'image (redressement, suppression du bruit, etc.), la reconnaissance optique de caractères (OCR), la reconnaissance intelligente de caractères (ICR), les validations et l'exportation- publier le formatage des données extraites pour cibler l'ERP et l'application métier.
Diffusion de données/Diffusion de données :
Le datacasting (diffusion de données) est la diffusion de données sur une vaste zone via des ondes radio. Il fait le plus souvent référence aux informations supplémentaires envoyées par les stations de télévision avec la télévision numérique terrestre, mais peut également être appliqué aux signaux numériques de la télévision ou de la radio analogique. Elle ne s'applique généralement pas aux données inhérentes au support, telles que les données PSIP qui définissent des canaux virtuels pour la TNT ou les systèmes satellitaires de diffusion directe ; ou à des choses comme le modem câble ou le modem satellite, qui utilisent un canal complètement séparé pour les données.
Datacert/Datacert :
Wolters Kluwer ELM Solutions est une société de logiciels informatiques qui fournit des logiciels de gestion juridique d'entreprise et des services conçus pour les services juridiques. ELM Solutions est une composante de Wolters Kluwer, une société mondiale de services d'information. Selon une enquête ILTA de 2008 auprès de 460 professionnels de la facturation juridique, 27,96 % des personnes interrogées ont déclaré utiliser un programme Wolters Kluwer ELM Solutions (AIMS ou ShareDocs) pour la facturation électronique. Les offres ELM Solutions sont intégrées à la suite de gestion juridique Passport, proposée sous la marque ELM Solutions.
Datach/Datach :
Le Datach ( japonais :デ ー タ ッ ク, Hepburn : Dētakku ) ou Datach Joint ROM System , est un accessoire d'amélioration du marché secondaire de Bandai pour l' ordinateur familial , permettant au système de jouer à certains jeux compatibles. Sorti le 29 décembre 1992, il est fourni avec un jeu, Dragon Ball Z : Gekitō Tenkaichi Budokai. Six autres jeux sont sortis pour lui, dont l'un des derniers jeux pour le système Famicom en 1994. Il s'agit de l'un des deux mini systèmes compatibles avec la NES ou la Famicom, l'autre étant l'Aladdin Deck Enhancer. Le Datach se compose d'une connexion de cartouche en bas, d'une chambre de cartouche centrale à l'arrière, avec deux broches à ressort de chaque côté, qui sont poussées vers le haut lorsque l'unité est insérée dans la Famicom, permettant au jeu d'être retiré uniquement lorsque le Datach a été supprimé de la Famicom. Sa principale caractéristique est la fente de lecture de carte à l'avant. Les cartouches ressemblent à des cartouches Famicom demi-taille. Un côté de la cartouche est plat avec un autocollant de titre, tandis que l'autre côté est incliné vers l'intérieur avec des encoches à gauche et à droite, qui correspondent aux goupilles à ressort de l'unité Datach principale. Les cartes fournies avec les jeux sont glissées de gauche à droite le long de la fente pour carte ; ils sont brillants sur le devant avec une image du personnage et les dos sont lisses avec généralement le titre du jeu et le code-barres. Toutes les cartouches, boîtes et instructions portent l'insigne standard FF (Famicom Family), indiquant qu'elles sont sous licence officielle de Nintendo.
Dataclysme/Dataclysme :
Dataclysm est un livre du fondateur d'OkCupid, Christian Rudder, qui explique comment la vaste mine de données en ligne agrégées sur les individus aide à tout expliquer, des croyances politiques aux modèles de discours. Une grande partie du livre détaille ses découvertes après avoir extrait son propre ensemble de données dans OkCupid.
Datacom (homonymie)/Datacom (homonymie) :
Datacom peut faire référence à : Communication de données DATACOM/DB, une base de données relationnelle pour les mainframes IBM Datacom Group, une société informatique basée en Nouvelle-Zélande Next Generation Data Communications (DataComm), une initiative de l'aviation visant à remplacer certaines communications vocales entre les pilotes et le contrôle du trafic aérien par messages textuels
Groupe Datacom/Groupe Datacom :
Datacom Group Limited est une société de services de technologie de l'information, offrant des services de gestion et de conseil, des services cloud, ITO, des services de centre de données, le développement de logiciels personnalisés et des services de paie. La société a été créée en Nouvelle-Zélande en 1965, mais s'est étendue pour opérer en Australie, en Malaisie, aux Philippines, aux États-Unis et au Royaume-Uni, employant 6 500 personnes dans 23 bureaux dans le monde. Datacom est la plus grande entreprise technologique de Nouvelle-Zélande. Les deux principaux actionnaires de la société sont Evander Management Ltd (la société familiale de John Holdsworth) avec 51 % et le New Zealand Superannuation Fund avec 35 %. Le New Zealand Superannuation Fund a dépensé 142 millions de dollars en 2012 pour racheter la participation de 35% de New Zealand Post. John Holdsworth a démissionné de son poste de président du conseil d'administration en 2012 et a été remplacé par l'homme d'affaires néo-zélandais Craig Boyce. avant d'ouvrir des bureaux en Australie en 1992 et en Asie en 1994. Greg Davidson est PDG du groupe.
Datacommons.org/Datacommons.org :
Datacommons.org est un référentiel de connaissances ouvert hébergé par Google qui fournit une vue unifiée sur plusieurs ensembles de données publics, combinant des ensembles de données économiques, scientifiques et autres dans un graphique de données intégré. Le site Datacommons.org a été lancé en mai 2018 avec un ensemble de données initial composé de données de vérification des faits publiées au format Schema.org "ClaimReview" par plusieurs vérificateurs de faits du réseau international de vérification des faits. Google a travaillé avec des partenaires tels que le recensement des États-Unis, la Banque mondiale et le Bureau américain des statistiques du travail pour alimenter le référentiel, qui héberge également des données de Wikipédia, de la National Oceanic and Atmospheric Administration et du Federal Bureau of Investigation. Le service s'est étendu en 2019 pour inclure un graphique de connaissances de style RDF alimenté à partir d'un certain nombre d'ensembles de données ouvertes largement statistiques. Le service a été annoncé à un public plus large en 2019. En 2020, le service a amélioré sa couverture des ensembles de données non américains, tout en augmentant également sa couverture de la bioinformatique et des coronavirus.
Ordinateur de données/Ordinateur de données :
Le Datacomputer était un système de base de données connecté à ARPANET pris en charge par la Computer Corporation of America à Cambridge, Massachusetts. Il a été conçu comme un utilitaire informatique partageant des ressources entre plusieurs projets ARPA, en particulier en sismologie et climatologie. Il a fonctionné d'août 1973 à 1980. Il était hébergé sur un DEC PDP-10 exécutant le système d'exploitation TENEX (hôte ARPANET CCA-TENEX, adresse 31) et a été conçu pour prendre en charge 3 000 milliards de bits de stockage (375 Go). Outre le stockage, le Datacomputer proposait également des utilitaires de conversion de données prenant en charge les multiples formats de données utilisés à l'époque. données manipulées à l'aide d'un langage de données personnalisé. Un exemple de demande de récupération : le matériel Datacomputer avait un stockage à trois niveaux : cœur principal, disque dur secondaire et stockage de masse tertiaire. À l'époque, le disque coûtait environ 20 $/mégabit, tandis que les magasins de masse, généralement des systèmes de bande magnétique robotisés, coûtaient environ 1 $/mégabit. Le service a démarré en 1973 avec un stockage sur disque uniquement ; le stockage tertiaire utilisant le matériel Terabit Memory System (TMS) d'Ampex, basé sur la technologie de la bande vidéo, devait entrer en ligne en 1975. En 1979, la capacité de TMS était de 175 milliards de bits (22 Go), et le total des données stockées était de plus de 500 milliards de bits ( 62 Go)
Datacopia/Datacopia :
Datacopia est un outil freemium qui génère automatiquement des graphiques et des infographies à partir de données structurées et non structurées.
Datacoup/Datacoup :
Datacoup était une start-up basée à New York qui fournit un marché permettant aux particuliers de vendre un flux de leurs données personnelles, telles que l'activité sur les réseaux sociaux et les transactions par carte de crédit, à des courtiers en informations moyennant des frais mensuels. En novembre 2019, Datacoup a envoyé un e-mail aux utilisateurs indiquant qu'il arrêtait ses opérations et mettrait hors service tous ses serveurs.
Datacube Inc./Datacube Inc. :
Datacube Inc. (1978–2005) était une société de traitement d'images qui développait des produits matériels et logiciels en temps réel pour les marchés industriels, médicaux, militaires et scientifiques.
Datadog/Datadog :
Datadog est un service d'observabilité pour les applications à l'échelle du cloud, fournissant une surveillance des serveurs, des bases de données, des outils et des services, via une plateforme d'analyse de données basée sur SaaS.
Datafication/Datafication :
La datafication est une tendance technologique transformant de nombreux aspects de notre vie en données qui sont ensuite transférées en informations réalisées comme une nouvelle forme de valeur. Kenneth Cukier et Viktor Mayer-Schönberger ont introduit le terme datafication dans le lexique plus large en 2013. Jusqu'à cette époque, la datafication était associée à l'analyse des représentations de nos vies capturées à travers les données, mais pas à l'échelle actuelle. Ce changement était principalement dû à l'impact des mégadonnées et aux possibilités de calcul offertes par l'analyse prédictive. La datafication n'est pas la même chose que la numérisation, qui prend un contenu analogique - livres, films, photographies - et le convertit en informations numériques, une séquence de uns et de zéros que les ordinateurs peuvent lire. La datafication est une activité beaucoup plus large : prendre tous les aspects de la vie et les transformer en données [...] Une fois que nous datafions les choses, nous pouvons transformer leur objectif et transformer l'information en nouvelles formes de valeur Il y a un aspect idéologique de la datafication, appelé le dataisme : "la tendance à la datafication est ancrée dans une croyance en la capacité des données à représenter la vie sociale, parfois mieux ou plus objectivement que les interprétations pré-numériques (humaines)".
Flux de données/flux de données :
En informatique, le flux de données est un concept large, qui a différentes significations selon l'application et le contexte. Dans le cadre de l'architecture logicielle, le flux de données concerne le traitement de flux ou la programmation réactive.
Architecture de flux de données/architecture de flux de données :
L'architecture de flux de données est une architecture informatique qui contraste directement avec l'architecture traditionnelle de von Neumann ou l'architecture de flux de contrôle. Les architectures de flux de données n'ont pas de compteur de programme, dans le concept : l'exécutable et l'exécution des instructions sont uniquement déterminées en fonction de la disponibilité des arguments d'entrée des instructions, de sorte que l'ordre d'exécution des instructions est imprévisible, c'est-à-dire que le comportement est non déterministe. Bien qu'aucun matériel informatique à usage général commercialement réussi n'ait utilisé une architecture de flux de données, elle a été implémentée avec succès dans du matériel spécialisé tel que le traitement du signal numérique, le routage réseau, le traitement graphique, la télémétrie et, plus récemment, l'entreposage de données et l'intelligence artificielle. Il est également très pertinent dans de nombreuses architectures logicielles aujourd'hui, y compris les conceptions de moteurs de base de données et les cadres informatiques parallèles. Les architectures de flux de données synchrones s'adaptent à la charge de travail présentée par les applications de chemin de données en temps réel telles que le transfert de paquets à vitesse filaire. Les architectures de flux de données qui sont de nature déterministe permettent aux programmeurs de gérer des tâches complexes telles que l'équilibrage de la charge du processeur, la synchronisation et les accès aux ressources communes. En attendant, il y a un conflit de terminologie, puisque le terme de flux de données est utilisé pour un sous-domaine de la programmation parallèle : pour le flux de données. programmation.
Programmation Dataflow/Programmation Dataflow :
En programmation informatique , la programmation par flux de données est un paradigme de programmation qui modélise un programme comme un graphe orienté des données circulant entre les opérations, mettant ainsi en œuvre les principes et l'architecture du flux de données. Les langages de programmation de flux de données partagent certaines caractéristiques des langages fonctionnels et ont généralement été développés dans le but d'apporter certains concepts fonctionnels à un langage plus adapté au traitement numérique. Certains auteurs utilisent le terme flux de données au lieu de flux de données pour éviter toute confusion avec l'informatique de flux de données ou l'architecture de flux de données, basée sur un paradigme de machine indéterministe. La programmation Dataflow a été lancée par Jack Dennis et ses étudiants diplômés du MIT dans les années 1960.
Algorithme Datafly/Algorithme Datafly :
L'algorithme Datafly est un algorithme permettant d'assurer l'anonymat des données médicales. L'algorithme a été développé par Latanya Arvette Sweeney en 1997−98. L'anonymisation est obtenue en généralisant, remplaçant, insérant et supprimant automatiquement des informations, le cas échéant, sans perdre de nombreux détails trouvés dans les données. La méthode peut être utilisée à la volée dans la sécurité basée sur les rôles au sein d'une institution et en mode batch pour exporter des données depuis une institution. Les organisations publient et reçoivent des données médicales sans tous les identifiants explicites, tels que le nom, dans la croyance erronée que la confidentialité des patients est maintenue parce que les données résultantes semblent anonymes. Cependant, les données restantes peuvent être utilisées pour ré-identifier les individus en reliant ou en faisant correspondre les données à d'autres bases de données ou en examinant les caractéristiques uniques trouvées dans les champs et les enregistrements de la base de données elle-même. L'algorithme Datafly a été critiqué pour avoir tenté de parvenir à l'anonymisation par surgénéralisation. L'algorithme sélectionne l'attribut avec le plus grand nombre de valeurs distinctes comme celui à généraliser en premier.
Datafolha/Datafolha :
Datafolha est l'institut de sondage de Grupo Folha, fondé en 1983 en tant que département de recherche d'Empresa Folha da Manhã SA, et est devenu plus tard une société distincte capable de servir des clients externes, à partir de 1990. En 1995, il est devenu une unité commerciale distincte au sein de Grupo Folha, un groupe d'entreprises auquel appartient le journal Folha de S.Paulo. Datafolha réalise des enquêtes statistiques, des sondages électoraux, des enquêtes d'opinion et de marché, à la fois pour le compte d'autres unités du Grupo Folha et pour le marché dans son ensemble. La société ne propose pas de services de sondages ou d'évaluations gouvernementales pour les administrations publiques, les partis politiques, les candidats ou les personnalités politiques.
Datafork TrueType/Datafork TrueType :
Datafork TrueType est un wrapper de polices utilisé sur les ordinateurs Apple Macintosh exécutant Mac OS X. Il s'agit d'une valise TrueType avec la carte des ressources dans la fourchette de données, plutôt que la fourchette de ressources comme c'était le cas dans Mac OS 9. Il utilise l'extension de fichier .dfont.
Dataframe/Dataframe :
Dataframe peut faire référence à : Une structure de données tabulaire commune à de nombreuses bibliothèques de traitement de données : pandas (logiciel) § Dataframes L'API Dataframe dans Apache Spark Data frames dans le langage de programmation R Frame (réseau)
Dataganj/Dataganj :
Dataganj est une ville et un nagar palika du district de Badaun dans l'État de l'Uttar Pradesh, en Inde. (26 km) et Bela Dandi (7 km).
Dataganj Assembly_constituency/Dataganj Assembly circonscription :
La circonscription de l'Assemblée de Dataganj est l'une des 403 circonscriptions de l'Assemblée législative de l'Uttar Pradesh, en Inde. C'est une partie du district de Badaun et l'une des cinq circonscriptions d'assemblée de la circonscription d'Aonla Lok Sabha. La première élection dans cette circonscription de l'assemblée a eu lieu en 1957 après l'adoption du "DPACO (1956)" (ordonnance de délimitation) en 1956. Après l'adoption de la "Délimitation des circonscriptions parlementaires et de l'assemblée" en 2008, la circonscription a reçu le numéro d'identification 117 .
Datagen/Datagen :
Datagen est une société multinationale de logiciels fondée en 2018 par Ofir Chakon et Gil Elbaz. La société fournit une plate-forme pour générer des données synthétiques pour la réalité virtuelle (VR), la réalité augmentée (AR), la vision par ordinateur (CV) et l'intelligence artificielle (IA), à savoir les voitures autonomes, la robotique et la sécurité IoT.
Datagramme/Datagramme :
Un datagramme est une unité de transfert de base associée à un réseau à commutation de paquets. Les datagrammes sont généralement structurés en sections d'en-tête et de charge utile. Les datagrammes fournissent un service de communication sans connexion sur un réseau à commutation de paquets. La livraison, l'heure d'arrivée et l'ordre d'arrivée des datagrammes n'ont pas besoin d'être garantis par le réseau.
Datagram Congestion_Control_Protocol/Datagram Congestion Control Protocol :
Dans les réseaux informatiques, le Datagram Congestion Control Protocol (DCCP) est un protocole de couche de transport orienté message. DCCP implémente une configuration de connexion fiable, un démontage, une notification explicite de congestion (ECN), un contrôle de congestion et une négociation de fonctionnalités. L'IETF a publié DCCP en tant que RFC 4340, une norme proposée, en mars 2006. La RFC 4336 fournit une introduction.
Datagramme Delivery_Protocol/Protocole de livraison de datagramme :
Datagram Delivery Protocol (DDP) fait partie de la suite de protocoles réseau AppleTalk. Sa principale responsabilité est la livraison de socket à socket de datagrammes sur un réseau AppleTalk. Remarque : Tous les protocoles au niveau de l'application, y compris les protocoles d'infrastructure NBP, RTMP et ZIP, ont été créés au-dessus de DDP.
Datagramme Transport_Layer_Security/Sécurité de la couche de transport du datagramme :
Datagram Transport Layer Security (DTLS) est un protocole de communication assurant la sécurité des applications basées sur des datagrammes en leur permettant de communiquer d'une manière conçue pour empêcher l'écoute clandestine, la falsification ou la falsification de messages. Le protocole DTLS est basé sur le protocole TLS (Transport Layer Security) orienté flux et est destiné à fournir des garanties de sécurité similaires. Le datagramme du protocole DTLS préserve la sémantique du transport sous-jacent - l'application ne souffre pas des retards associés aux protocoles de flux, mais parce qu'elle utilise UDP ou SCTP, l'application doit faire face à la réorganisation des paquets, à la perte de datagramme et aux données plus grandes que le taille d'un paquet réseau de datagrammes. Étant donné que DTLS utilise UDP ou SCTP plutôt que TCP, il évite le "problème de fusion TCP" lorsqu'il est utilisé pour créer un tunnel VPN.
Datah Dawai_Airport/Aéroport de Datah Dawai :
L'aéroport de Datah Dawai ou l'aéroport de Datah Dawai (code AITA : DTD code OACI : WALJ) est un aéroport de Long Lunuk, Long Pahangai, Mahakam Ulu Regency, East Kalimantan, Indonésie. C'est le seul aéroport de Mahakam Ulu, offrant le seul service aérien de la région. Susi Air propose un vol quotidien de Datah Dawai à Samarinda, pour un total de 12 sièges par jour. L'aéroport était situé près de la rivière Kapuas, la plus longue rivière de Bornéo et la plus longue rivière d'Indonésie. Il était entouré de grands arbres et d'une forêt verdoyante.
Datah Dian,_Kapuas_Hulu/Datah Dian, Kapuas Hulu :
Datah Dian est un village du district de North Putussibau, dans la régence de Kapuas Hulu, dans la province de Kalimantan occidental, en Indonésie. Sa population est de 856.: 1531
Datai Langkawi/Datai Langkawi :
Le Datai Langkawi est situé sur la pointe nord-ouest de l'île de Langkawi au large des côtes de la Malaisie. Le complexe surplombe la baie de Datai d'un côté et une forêt tropicale de l'autre.

Aucun commentaire:

Enregistrer un commentaire

E. Wayne Abercrombie

ER_Bills/ER Factures : ER Bills (né en 1967) est un auteur et journaliste américain. ER_Braithwaite/ER Braithwaite : Eustace Edward Ri...